Des gens passent devant un panneau publicitaire pour YouTube le 27 septembre 2019 à Berlin, en Allemagne.
Sean Gallup | Getty Images
Le ministère de la Justice a mis en garde la Cour suprême contre une interprétation trop large d’une loi protégeant les entreprises de médias sociaux de toute responsabilité pour ce que les utilisateurs publient sur leurs plateformes, une position qui sape Google Défense dans une affaire qui pourrait remodeler le rôle de la modération de contenu sur les plateformes numériques.
Dans un bref déposée mercredi sous la direction du solliciteur général par intérim du ministère de la Justice, Brian Fletcher, l’agence a déclaré que la Cour suprême devrait annuler une décision de la cour d’appel qui a conclu que l’article 230 de la loi Communications Decency Act était protégé. Google (en anglais) d’être responsable en vertu de la loi antiterroriste américaine.
L’article 230 permet aux plateformes en ligne de se livrer à la modération de contenu de bonne foi tout en les protégeant d’être tenues responsables des publications de leurs utilisateurs. Les plates-formes technologiques affirment qu’il s’agit d’une protection essentielle, en particulier pour les petites plates-formes qui pourraient autrement faire face à des batailles juridiques coûteuses, car la nature des plates-formes de médias sociaux rend difficile la détection rapide de chaque message préjudiciable.
Mais la loi a été une question brûlante au Congrès, les législateurs des deux côtés de l’allée affirmant que le bouclier de responsabilité devrait être considérablement limité. Mais alors que de nombreux républicains estiment que les autorisations de modération de contenu de la loi devraient être réduites pour réduire ce qu’ils prétendent être la censure des voix conservatrices, de nombreux démocrates contestent plutôt la façon dont la loi peut protéger les plateformes qui hébergent de la désinformation et des discours de haine.
Les plaignants dans l’affaire de la Cour suprême connue sous le nom de Gonzalez c. Google, qui sont les membres de la famille de la citoyenne américaine Nohemi Gonzalez qui a été tuée dans l’attaque terroriste de 2015 revendiquée par l’Etat islamique, allègue que YouTube de Google n’a pas empêché de manière adéquate l’Etat islamique de distribuer du contenu sur le site de partage de vidéos pour aider ses efforts de propagande et de recrutement.
Les plaignants ont poursuivi Google en vertu de la loi antiterroriste de 1990, qui permet aux ressortissants américains lésés par le terrorisme de demander des dommages et intérêts et a été mise à jour en 2016 pour ajouter la responsabilité civile secondaire à « toute personne qui aide et encourage, en fournissant sciemment une assistance substantielle » à « un acte de terrorisme international ».
La famille de Gonzalez affirme que YouTube n’a pas fait assez pour empêcher l’Etat islamique d’utiliser sa plate-forme pour diffuser son message. Ils allèguent que même si YouTube a des politiques contre le contenu terroriste, il n’a pas surveillé correctement la plate-forme ou empêché l’EI de l’utiliser.
Les cours de district et d’appel ont convenu que l’article 230 protégeait Google de toute responsabilité pour l’hébergement du contenu.
Bien qu’il n’ait pas pris position sur la question de savoir si Google devrait finalement être tenu responsable, le ministère a recommandé que la décision de la cour d’appel soit annulée et renvoyée devant le tribunal inférieur pour un examen plus approfondi. L’agence a fait valoir que si l’article 230 interdirait les réclamations des plaignants fondées sur la loi antiterroriste basée sur l’échec présumé de YouTube à bloquer les vidéos de l’Etat islamique sur son site, « la loi n’interdit pas les réclamations basées sur les recommandations ciblées présumées de YouTube sur le contenu de l’Etat islamique ».
Le ministère de la Justice a fait valoir que la cour d’appel avait eu raison de conclure que l’article 230 protégeait YouTube de toute responsabilité pour avoir permis aux utilisateurs affiliés à l’Etat islamique de publier des vidéos puisqu’il n’agissait pas en tant qu’éditeur en éditant ou en créant les vidéos. Mais, a-t-il ajouté, les affirmations sur « l’utilisation par YouTube d’algorithmes et de fonctionnalités connexes pour recommander le contenu de l’EI nécessitent une analyse différente ». Le ministère de la Justice a déclaré que la cour d’appel n’avait pas examiné de manière adéquate si les réclamations des plaignants pouvaient justifier une responsabilité en vertu de cette théorie et que, par conséquent, la Cour suprême devrait renvoyer l’affaire à la cour d’appel afin qu’elle puisse le faire.
« Au fil des ans, YouTube a investi dans la technologie, les équipes et les politiques pour identifier et supprimer le contenu extrémiste », a déclaré un porte-parole de Google dans un communiqué. « Nous travaillons régulièrement avec les forces de l’ordre, d’autres plateformes et la société civile pour partager des renseignements et des pratiques exemplaires. Réduire l’article 230 rendrait plus difficile, et non plus facile, la lutte contre le contenu préjudiciable – rendant Internet moins sûr et moins utile pour nous tous.
Chamber of Progress, un groupe industriel qui compte Google parmi ses partenaires corporatifs, a averti que le mémoire du DOJ créait un dangereux précédent.
« La position du solliciteur général entraverait la capacité des plateformes à recommander des faits plutôt que des mensonges, à aider plutôt qu’à nuire et à faire preuve d’empathie plutôt que de haine », a déclaré Adam Kovacevich, PDG de la Chambre du progrès, dans un communiqué. « Si la Cour suprême se prononce en faveur de Gonzalez, les plateformes ne seraient pas en mesure de recommander de l’aide à ceux qui envisagent de s’auto-financer.les préjudices, l’information sur la santé reproductive pour les femmes qui envisagent d’avorter, et des informations électorales précises pour les personnes qui veulent voter. Cela déclencherait un flot de poursuites judiciaires de la part de trolls et de haineux mécontents des efforts des plateformes pour créer des communautés en ligne sûres et saines.
REGARDER: L’affaire compliquée de la modération de contenu sur Facebook, Twitter, YouTube