La Cour suprême américaine va devoir statuer sur 2 cas concernant la Section 230, Gonzalez v. Google, les proches d’une victime des attentats de Paris de 2015 contre YouTube (Google), et Twitter v. Taamneh, les proches d’une victime d’une attaque de terroriste dans une discothèque à Istanbul en 2017.

Les plaignants accusent les réseaux sociaux d’avoir fermé les yeux sur les agissements en ligne des groupes terroristes et d’avoir été complices des actes de terrorisme. Leurs algorithmes auraient accentué les messages extrémistes et permis les attaques terroristes. Une plainte favorisée par la loi fédérale Anti-Terrorism Act. Les plaignants ont été déboutés par les tribunaux des États.

En plus des plaintes Gonzalez v. Google et Twitter v. Taamneh, la Cour suprême va étudier 2 autres plaintes, NetChoice v. Paxton et Moody v. NetChoice, concernant la politique de modération des Big Tech qui privilégieraient l’idéologie de la Silicon Valley plutôt que les idées conservatrices, voire complotistes, des Républicains. Elle va également étudier le cas Henderson v. The Source for Public Data, des plaignants poursuivant un groupe des sociétés qui collecte des informations publiques sur les individus, comme le casier judiciaire, le permis de conduire ou le registre des votes, et les vendre à des tierces parties, en violation du Fair Credit Reporting Act, des informations personnelles qui pourraient être données à des futurs employeurs.

La Section 230 est intégrée dans une loi de 1996, la Communication Decency Act qui fixe le cadre légal de la modération des réseaux sociaux aux États-Unis. La Section 230 confère une immunité judiciaire relative aux entreprises numériques pour les contenus mis en ligne par les internautes sur leurs plates-formes. Elles sont considérées comme des hébergeurs et non comme des éditeurs. Elles ne sont pas responsables des contenus mis sur leurs plateformes si elles constatent des messages, vidéos non appropriés et les enlèvent rapidement. Les juges de la Cour suprême ont exprimé mardi dernier leurs doutes sur la pertinence de la section 230 aujourd’hui, mais aussi leur réticence à influencer le sort d’une loi devenue fondamentale pour l’économie numérique. La Section 230 est la clé de voûte d’une grande partie de l’Internet libre.

Les pratiques de modération de certaines grandes plateformes font l’objet de vives critiques ces derniers mois. En particulier Twitter et les autres grandes entreprises du numérique, ont largement licencié dans les équipes chargées de la sécurité, de la modération et de la lutte contre les contenus dangereux. La principale critique de la Section 230 est l’autonomie des plateformes de décider ce qui est acceptable et non-acceptable et qui décide donc de la modération. Donald Trump a été banni de Twitter à cause de ses théories complotistes, mais il l’a été en violation avec le droit constitutionnel de la liberté de parole. Les plateformes profitent donc d’un bouclier judiciaire sur les contenus (ils ne sont pas responsables), mais aussi d’utiliser l’épée de la modération à leur guise. Le législateur aimerait reprendre la main sur cette situation qui lui échappe.

En Europe, un vif débat a aussi eu lieu sur l’équivalent de la Section 230, la directive européenne sur le commerce électronique de 2000. Celle-ci a été révisée mi-2022 avec le Digital Services Act (DSA). En matière de modération, ce règlement ne fixe pas pour les plates-formes d’obligation de résultat (en France, la loi Avia de juin 2020, qui imposait un retrait des contenus signalés en vingt-quatre heures, a été jugée inconstitutionnelle). Mais il impose des obligations de moyens et de transparence sur les retraits de contenus (motifs, délais, etc.) et sur les algorithmes.

Joe Biden souhaite une loi bipartisane pour réformer la Section 230 et faire assumer aux plates-formes la responsabilité du contenu qu’elles diffusent et des algorithmes qu’elles utilisent. Le Congrès veut une protection accrue sur les données privées, augmenter la compétition et protéger les enfants.

Les plateformes se défendent en disant qu’une nouvelle interprétation de la Section 230 augmenterait les risques juridiques associés au classement, au tri et à la conservation du contenu en ligne, une caractéristique de base de l’Internet moderne libre. Google a affirmé que dans un tel scénario, les sites Web chercheraient à jouer la sécurité en supprimant beaucoup plus de contenu que nécessaire, ou en renonçant complètement à la modération du contenu, ce qui augmenterait les contenus nuisibles sur leurs plateformes.

Le développement récent de l’Intelligence artificielle, comme ChatGPT, ajoute une nouvelle dimension à la nécessité de revisiter la Section 230, car les chatbots (agent conversationnel) qui se sont jusqu’à présent avérés peu fiables pour fournir des informations précises et obtenir les faits exacts pourraient bientôt être protégés par la loi. Certains experts affirment qu’une décision de la Cour suprême sur ces affaires pourrait représenter une occasion unique de redéfinir les règles de la Section 230, mais d’autres avertissent également qu’aller trop loin pourrait complètement vider la Section 230 de son sens et rendre notre relation avec Internet à peine reconnaissable. Les futures poursuites judiciaires viseraient surtout les algorithmes des plateformes et moins les contenus et pourraient entraîner une disparition de la modération et la hausse de l’autocensure, se traduisant par une réduction drastique du contenu. La vie des grandes entreprises sera plus difficile et l’existence des petites plateformes en ligne sera menacée; on risque alors d’aller dans le sens inverse de la volonté du Congrès avec une diminution de la concurrence.

L’éventail des possibilités de changement de la Section 230 entre la Cour suprême et le Congrès est vaste, passant du statuquo à une réglementation massive des plateformes technologiques. On aura probablement quelque chose entre les deux. Le Congrès pourrait combler certains vides, car la Cour suprême n’est pas un organe législatif ni un organe administratif. Mais il semble qu’on arrive à un moment décisif en termes de réglementation d’internet, dont les effets positifs et négatifs sont encore imprévisibles, sur les Big Tech en particulier.

Du côté du Département de la Justice, les investigations anti-trust sur Apple et Google s’accélèrent. Les sociétés favoriseraient leurs propres produits sur leur système d’exploitation mobile vis-à-vis des applications de tiers. L’Europe a promulgué une nouvelle loi, le Digital Markets Act (DMA), qui entrera en vigueur en 2024 qui imposera des obligations et des interdictions; cette loi sera contraignante et touchera l’écosystème des applications, le commerce en ligne et la publicité en ligne. Par exemple, les développeurs pourront avoir leurs nouvelles applications sur un iPhone sans passer par App Store, et Alphabet et Amazon seront limités dans leur possibilité de mettre en avant leurs propres produits et services vis-à-vis des petits concurrents. La défense des Big Tech repose essentiellement sur une loi discriminatoire, car elle ne touche que les Big Tech, sur une innovation en diminution, un choix moins grand pour le consommateur, une moins bonne protection pour le consommateur.

En conclusion, la Section 230 est une nécessité, mais elle doit évoluer. La Cour suprême américaine devrait se prononcer sur la Section 230 en juin 2023. Une évolution de la Section 230 est prévisible avec une immunité moins large pour les plateformes, qui viendra du Congrès. La protection des enfants sera une priorité. 2023 s’annonce décisive sur l’évolution de l’internet libre dont on n’arrive pas encore à mesurer son impact, positif et négatif. Les pressions anti-trust sur les Big Tech devraient se traduire par un monde digital plus compétitif, mais il est trop tôt pour tirer des conclusions certaines. La Big Tech la plus défensive et la mieux positionnée est sans aucun doute Microsoft.

 

Heravest SA est une boutique indépendante dans le conseil en investissement, du top-down au bottom-up, et un fournisseur de solutions d’investissement.

Rue du Cendrier 12-14
CH-1201 Genève
T +41 22 715 24 40