Michael Reynolds-Pool / Getty Images / Composite par NPR
Soutien au siège du Capitole américain. De fausses promesses de remèdes contre le COVID-19. Des rumeurs sans fondement sur vaccins.
Qui devrait être tenu responsable de la propagation de l’extrémisme et des canulars en ligne?
Les PDG de trois entreprises technologiques influentes – Facebook, Google et Twitter – répondront à cette question, et plus sur la façon dont leurs plates-formes gèrent désinformation et ses conséquences les plus dommageables, lors de leur comparution devant le Congrès jeudi.
Ce sera la première fois que les dirigeants témoigneront depuis que certains des mêmes législateurs dans la salle d’audience ont été attaqués au Capitole par une foule pro-Trump le 6 janvier.
Le comité de l’énergie et du commerce de la Chambre discutera également de la question de savoir si les lois devraient être modifiées pour détenir des entreprises technologiquesplus responsable de ce que leurs utilisateurs publient, en particulier lorsque ces messages sont liés à des préjudices dans le monde réel.
Apparaissant par vidéo, les PDG donneront des points de vue contrastés sur la façon dont ils pensent que la réglementation Internet devrait être réécrite, avec Mark Zuckerberg de Facebook proposant des réformes d’un bouclier juridique clé et Sundar Pichai de Google avertissant que toute modification de cette loi pourrait se retourner contre vous.
Mais toutes les parties semblent s’accorder sur une chose: de nouvelles règles de la route sont inévitables.
« Il existe un accord bipartite sur le fait que le statu quo ne fonctionne tout simplement pas », a déclaré lundi le représentant Jan Schakowsky, D-Ill., Qui préside l’un des sous-comités accueillant l’audition. « Les grandes technologies n’ont pas réussi à répondre à ces graves défis à maintes reprises. »
Voici quatre choses à savoir avant l’audience:
Quel rôle la désinformation sur Facebook, Twitter et YouTube de Google a-t-elle joué dans l’émeute du 6 janvier?
Démystifié les allégations selon lesquelles la course à la présidentielle avait été volée et les appels à la violence tourbillonnaient sur les plateformes de médias sociaux à la suite des élections de novembre, culminant dans le prise d’assaut du Capitole le jour où la victoire du président Joe Biden a été certifiée, selon des chercheurs qui suivent la désinformation.
De nombreux émeutiers ont partagé leurs plans et ont largement documenté les événements du 6 janvier sur Facebook, Twitter et YouTube de Google, ainsi que plates-formes plus petites tel que Speaking, Gab et le service de diffusion en direct DLive.
Près de la moitié des émeutiers accusé devant un tribunal fédéral aurait utilisé les médias sociaux pour publier des photos, des diffusions en direct et d’autres preuves de leur implication, selon un la revue des documents de mise en accusation par le programme sur l’extrémisme de l’Université George Washington.
Facebook en particulier a été critiqué pour ne pas avoir réprimé plus rapidement Groupes « Stop the Steal » qui ont participé à la promotion de l’événement du 6 janvier et, plus largement, à la manière dont il a été automatisé systèmes de recommandation peut orienter les gens vers contenu plus extrême et groupes.
UNE rapport Cette semaine par l’organisation de défense à but non lucratif Avaaz, des groupes Facebook qui ont partagé à plusieurs reprises des informations erronées ont presque triplé leurs interactions – c’est-à-dire des likes, des commentaires, des partages et d’autres réactions sur les publications – entre octobre 2019 et octobre 2020.
« Nous avons plus d’un an de preuves que la plate-forme a contribué à générer des milliards de vues vers des pages et des contenus qui ont dérouté les électeurs, créé la division et le chaos et, dans certains cas, incité à la violence », a déclaré Fadi Quran, directeur de campagne chez Avaaz.
En réponse, Facebook a déclaré que la méthodologie du rapport était imparfaite et qu’elle « déforme le travail sérieux que nous avons accompli pour lutter contre l’extrémisme violent et la désinformation sur notre plateforme ».
Les membres du Congrès devraient également faire pression sur les entreprises sur ce qu’elles font pour arrêter la propagation de fausses informations et démentir les allégations concernant COVID-19 et vaccins.
Mercredi, un groupe de 12 procureurs généraux appelé sur Facebook et Twitter pour prendre des «mesures immédiates» pour éradiquer la désinformation sur les vaccins, avertissant que cela sape les efforts visant à mettre fin à la pandémie et à rouvrir l’économie.
Que disent les entreprises pour leur défense?
Les PDG prévoient de souligner les mesures qu’ils ont déjà prises pour lutter contre la désinformation – tout en soulignant que leurs plates-formes reflètent les problèmes de la société dans son ensemble.
«Les conversations en ligne reflèteront toujours les conversations qui ont lieu dans les salons, à la télévision et dans les messages texte et les appels téléphoniques à travers le pays», a déclaré Zuckerberg à l’audience. « Notre société est profondément divisée et nous le constatons également dans nos services. »
Le PDG de Twitter, Jack Dorsey, décrira «un déficit de confiance» qui s’est creusé aux États-Unis et dans le monde ces dernières années et qui «n’a pas seulement un impact sur les entreprises assises à la table aujourd’hui, mais qui existe dans l’écosystème de l’information et, en fait, dans de nombreux nos institutions. «
Les trois cadres ‘ déclarations écrites Discutez des changements de politique qu’ils ont apportés, de l’apposition d’étiquettes d’avertissement sur des messages qui peuvent être faux aux efforts visant à connecter les gens à des sources d’information crédibles sur la pandémie et les élections.
Par exemple, Facebook affirme avoir supprimé plus de 12 millions de publications démystifiées sur le COVID-19 et les vaccins, en élargissant sa liste de revendications interdites. La société affirme également que 95% du temps qu’elle met des avertissements sur les messages que ses vérificateurs de faits jugent faux, les gens ne cliquent pas dessus.
Facebook a également déployé changements dans la façon dont il recommande les groupes. Il a promis de sévir contre ceux qui enfreignent à plusieurs reprises ses règles, après des préoccupations de longue date sur le rôle que jouent les groupes Facebook dans la propagation de la désinformation et de la radicalisation.
YouTube, propriété de Google, a déclaré plus tôt ce mois-ci qu’il avait supprimé plus de 30000 vidéos contenant des allégations démenties sur les vaccins COVID-19 depuis octobre, et 800000 vidéos contenant des informations nuisibles ou trompeuses sur le coronavirus depuis février 2020. Il indique également avoir interdit 13000 chaînes entre octobre et décembre pour la promotion de la violence et de l’extrémisme violent.
Twitter a également commencé à sévir contre la désinformation sur les vaccins, supprimant les fausses allégations, telles que les tweets suggérant que les vaccins sont utilisés pour nuire ou contrôler les gens. Les tweets qui n’atteignent pas la barre de suppression – tels que les rumeurs, les réclamations contestées et les informations incomplètes ou hors contexte – sont désormais étiquetés comme potentiellement trompeurs. Dorsey soulignera également Observation des oiseaux, le nouvel effort de l’entreprise pour impliquer les utilisateurs dans la vérification des faits.
Les législateurs veulent-ils vraiment imposer des règles sur les réseaux sociaux?
Les membres du Congrès ont lancé un large éventail de projets de loi visant à freiner la Big Tech, allant du renforcement des lois antitrust à la refonte. Chapitre 230 du Communications Decency Act, un bouclier juridique clé qui protège les plates-formes technologiques d’être tenues pour responsables de la plupart de ce que leurs utilisateurs publient.
« Le message central est que la performance qu’ils nous ont montrée à ce jour est en grande partie, en grande partie, inacceptable », a déclaré Schakowsky, qui propose son propre effort de réforme de l’article 230 axé sur la protection des consommateurs. « Nous allons de l’avant avec la législation et la réglementation. »
Zuckerberg prévoit de dire au comité qu’il soutient les limites de la section 230, exigeant spécifiquement que les plates-formes aient « des systèmes en place pour identifier le contenu illégal et le supprimer » pour gagner les protections de la loi.
Représentant Anna Eshoo, D-Calif. a rejeté cette idée comme « une distraction magistrale » lors d’une conférence de presse mercredi. Eshoo a présenté un projet de loi visant à priver les plus grandes plates-formes d’immunité si leurs algorithmes favorisent des contenus menant à la violence.
Facebook « veut[s] Nous devons nous concentrer sur l’extinction des incendies et non sur le fait que leur produit est inflammable », a déclaré le représentant Tom Malinowski, DN.J., qui coparraine le projet de loi avec Eshoo.
« Ce que nous essayons d’encourager, c’est un changement dans la conception des réseaux sociaux », a-t-il déclaré. « Un changement dans la façon dont ils utilisent les algorithmes pour amplifier le contenu afin que nous ayons moins de propagation de l’extrémisme, des théories du complot, du contenu incendiaire qui est conçu uniquement pour maximiser l’engagement sur les plates-formes. »
Mais les PDG de la technologie ne sont pas unis sur leurs points de vue sur la réglementation. Pichai de Google dira aux législateurs que les modifications apportées à l’article 230 pourraient avoir des «conséquences inattendues», en forçant des plates-formes comme YouTube à «sur-filtrer le contenu ou à ne pas pouvoir filtrer du tout le contenu».
Dorsey de Twitter a également mis en garde contre les risques de changer la loi, soulignant que Twitter, avec moins de 200 millions d’utilisateurs quotidiens, est beaucoup plus petit que Facebook et Google, qui comptent des milliards d’utilisateurs. Lors d’une audience en octobre, il averti que certains des changements proposés risquent de renforcer davantage la puissance des plus grandes plates-formes.
Les républicains du Congrès ont également appelé à la révision ou même à l’abrogation de l’article 230, affirmant que les entreprises de technologie étaient couvertes pour des préjugés présumés contre les conservateurs – une affirmation qui a été infirmée par des recherches montrant contenu d’extrême droite obtient certains des plus hauts niveaux d’engagement sur les réseaux sociaux.
Qu’en est-il de l’ancien président Donald Trump?
Après l’émeute du 6 janvier, les trois entreprises ont expulsé le président Trump de leurs plates-formes – émeut ses partisans et certains politiciens républicains saisis comme une preuve supplémentaire de préjugé anti-conservateur.
Twitter a interdit Trump de façon permanente. Facebook a demandé à son Conseil de surveillance, un panel d’experts extérieurs, pour décider s’il faut réintégrer l’ancien président. Cette décision doit être prise d’ici la fin du mois d’avril.
YouTube a également suspendu Trump, mais la PDG Susan Wojcicki a récemment déclaré que le site vidéo laissera Trump revenir « lorsque nous déterminerons que le risque de violence a diminué ». Elle n’a donné aucun calendrier pour savoir quand cela se produirait, mais a déclaré que la société examinera divers signaux pour décider, y compris les avertissements du gouvernement, ce que les forces de l’ordre font dans le pays et la violence de la rhétorique sur YouTube.
Cette semaine, cependant, Trump a déclaré qu’il ne pourrait revenir sur aucune des principales plates-formes. Au lieu de cela, il peut lancer son propre réseau de médias sociaux.
« Je fais des choses ayant à voir avec la mise en place de notre propre plate-forme dont vous entendrez bientôt parler », Trump Raconté Lisa Boothe, contributrice de Fox News, dans un podcast publié lundi.
Au cours de sa présidence, Trump a poussé dur pour révoquer l’article 230 dans le cadre de sa querelle de longue date avec les plates-formes technologiques. S’il lance son propre site, cependant, un bouclier juridique affaibli ou abrogé pourrait le laisser aux prises avec ce que les utilisateurs publient.
Note de l’éditeur: Facebook et Google font partie des soutiens financiers de NPR.