Snl Image

La Cour suprême des États-Unis a accepté d’entendre une affaire centrée sur l’article 230, un bouclier juridique qui protège les plateformes Internet de toute responsabilité civile et pénale pour le contenu des utilisateurs. Source : Cour suprême des États-Unis

La Cour suprême des États-Unis se prépare à se saisir d’une affaire ayant des implications importantes sur le fonctionnement d’Internet.

Dans Gonzalez c. Google SARL, le tribunal déterminera si : Google SARLEst YouTube SARL est responsable du contenu que la plateforme recommande algorithmiquement aux utilisateurs. C’est vrai la première fois que la Haute Cour des États-Unis a accepté d’entendre une contestation de l’article 230 du Communications Decency Act, une loi historique qui protège les plateformes Internet de la responsabilité civile et pénale du contenu créé par les utilisateurs.

Dans l’affaire, la famille Gonzalez soutient que Google devrait être responsable de la promotion d’une vidéo de recrutement de l’État islamique par ses algorithmes. La vidéo serait liée à un attentat terroriste de 2015 à Paris qui a tué 130 personnes, dont Nohemi Gonzalez, 23 ans.

Publicité
Snl Image

Les algorithmes de recommandation génèrent une variété de trafic sur les plateformes Internet d’aujourd’hui, par exemple en suggérant des articles à acheter sur les plateformes de commerce électronique, des vidéos à regarder sur des plateformes de streaming ou des sites à visiter dans les résultats des moteurs de recherche. Dans le cas de Google, un algorithme de recommandation pilote la fonctionnalité d’une recherche Google ou YouTube en trouvant une URL ou une vidéo optimale pour les utilisateurs en fonction de ce qui est tapé dans la barre de recherche.

Si les algorithmes de recommandation sont jugés non protégés en vertu de l’article 230, cela obligera les plateformes à repenser la façon dont le contenu est transmis aux consommateurs, ont déclaré des experts en politiques.

« Ce sont des questions vraiment complexes, et elles vont nécessiter une réglementation complexe et des interactions réfléchies de la part du gouvernement », a déclaré Patrick Hall, scientifique principal du cabinet d’avocats bnh.ai et professeur d’éthique des données à l’Université George Washington.

Considérations relatives à la portée

Il y a deux ans, le juge conservateur Clarence Thomas a déclaré que le tribunal devrait examiner si le texte de l’article 230 « s’aligne sur l’état actuel de l’immunité dont jouissent les plateformes Internet » après que le tribunal a rejeté une affaire distincte concernant l’autorité de l’article 230.

Lors du premier examen Gonzalez c. Google (en anglais), la Cour d’appel des États-Unis pour le 9e circuit a statué que l’article 230 protège les moteurs de recommandation. Cependant, la majorité a déclaré que l’article 230 « abrite plus d’activité » que le Congrès n’aurait pu l’envisager auparavant, et ils ont encouragé les législateurs fédéraux à clarifier la portée de la loi.

Hall a comparé la propagation de contenu préjudiciable sur les plateformes sociales à un présentateur de nouvelles parlant aux enfants à l’antenne des idées suicidaires. « La FCC serait partout là-dessus », a déclaré Hall. « Quelle est la portée des nouvelles par rapport à certains de ces recommandateurs de médias sociaux? Dans certains cas, je parie que les médias sociaux atteignent plus de gens. »

La transparence des plates-formes est devenue un sujet de discussion sur la politique technologique alors que les législateurs débattent d’une législation qui obligerait les entreprises à révéler le comportement de leurs algorithmes aux chercheurs et autres. Les algorithmes de recommandation ont fait l’objet d’un nouvel examen au cours de la dernière année à la suite de rapports sur Instagram LLC, TikTok Inc. et d’autres plateformes recommandant du contenu qui nuisait à la santé mentale de certains utilisateurs, répandait de la désinformation ou érodait la démocratie.

Mais ouvrir un algorithme au public ou aux chercheurs est une arme à double tranchant, a déclaré Michael Schrage, chercheur au Massachusetts Institute of Technology et auteur du livre. Moteurs de recommandation.

Les algorithmes de recommandation sont mieux compris lorsqu’ils sont transparents, interprétables et explicables, et que ce niveau de transparence a des implications commerciales et concurrentielles, Schragedit.

« Google a été secret sur ses algorithmes parce qu’il y a une incitation à jouer avec l’algorithme. Si je comprends l’algorithme de Google, je peux obtenir mon contenu plus haut dans la recommandation », a déclaré le chercheur.

Préoccupations techniques

Les algorithmes sont conçus principalement pour optimiser l’engagement. Par exemple, un moteur de recommandation pourrait être dirigé pour maximiser les revenus publicitaires sur certains contenus ou minimiser les « j’aime » et les « partages » avec un contenu de mauvaise qualité. Si l’engagement avec un contenu spécifique est jugé précieux pour une plate-forme, son algorithme calcule la probabilité qu’un utilisateur l’aime, le commente ou le partage. Si cette valeur calculée atteint un certain seuil, elle s’affichera sur le flux d’un utilisateur.

Dans le cas de Google, le seul moyen de savoir si YouTube a délibérément optimisé pour la recommandation de contenu terroriste serait que le géant de la technologie ouvre ses plates-formes pour éclairer la décision du tribunal, a déclaré Schrage. Cela nécessiterait probablement une action législative ou juridique pour forcer la coopération de Google. Une option serait que la Cour suprême nomme un maître spécial pour examiner la façon dont Google a étiqueté les métadonnées de la vidéo en question.

Ari Cohn, conseiller en liberté d’expression chez TechFreedom, considère la recommandation du contenu de l’EI comme une erreur probable de la part de Google. La façon dont le tribunal y répond pourrait avoir des implications importantes, a noté Cohn.

« Alorsmetimes [platforms] vont échouer, mais imposer une responsabilité parce que parfois ils n’ont pas réussi n’a pas de sens si vous voulez vraiment qu’Internet soit plus sûr », Cohn a déclaré dans une interview.

Les efforts législatifs fédéraux visant à exiger une plus grande transparence de la plate-forme ont stagné ces derniers mois, les dirigeants du Congrès se concentrant davantage sur des questions telles que l’inflation et l’avortement. Comme Gonzalez c. Google (en anglais) , cela pourrait motiver les législateurs à aller de l’avant avec les réformes de l’article 230, dit Jesse Lehrich, qui dirige Accountable Tech, un groupe qui plaide en faveur de la réglementation des plateformes technologiques.

À moins de réformes législatives préventives, les experts politiques ont déclaré que les juges américains sont susceptibles d’exhorter le Congrès à agir.

« Ce n’est pas que l’entreprise veuille explicitement créer des outils pour responsabiliser. [bad] des choses à arriver », Lehrich dit. « Mais c’est le sous-produit de leur modèle d’affaires… avec très peu de contrôles ou de limites.

Les représentants de la Cour suprême et de Google n’ont pas répondu aux demandes de commentaires.

Gonzalez c. Google (en anglais) devrait faire l’objet d’une plaidoirie au cours du mandat d’octobre 2022-2023 de la Cour suprême. La date exacte de l’argument n’a pas encore été fixée.

Rate this post
Publicité
Article précédentOffre iPhone SE 3 Inde: Économisez Rs. 6000 instantanément sur Apple Store Online, Savoir comment !
Article suivantRegardez l’événement Made by Google ici
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici