Un de derniers chapitres dans les fichiers Facebook montre que malgré d’importants investissements et l’amélioration de la technologie, l’IA de Facebook ne parvient toujours pas à détecter les contenus nuisibles. Peut-être le plus frappant, les employés de Facebook ont ​​estimé qu’un énorme 99,4% du contenu qui viole les politiques de l’entreprise contre la violence et l’incitation reste sur la plate-forme. La raison en est qu’il y a beaucoup trop de choses à surveiller à la main, la détection de l’IA est donc essentielle, même si elle a du mal avec cette tâche difficile. Selon les mots d’un ingénieur senior de Facebook : « Nous n’avons pas et n’aurons peut-être jamais un modèle qui capture même la majorité des atteintes à l’intégrité.

Ce problème de modération de contenu n’est pas propre à Facebook ; il sévit sur toutes les grandes plateformes de médias sociaux. Cependant, au moins avec la désinformation, l’accent mis récemment sur la modération du contenu nous détourne de quelque chose d’important : en plus de détecter la désinformation sur les réseaux sociaux, l’IA peut être un outil pour financement désinformation afin qu’elle ne se propage pas sur les réseaux sociaux en premier lieu. Mais il n’est pas utilisé à cette deuxième fin aussi efficacement qu’il pourrait l’être.

La raison pour laquelle il existe beaucoup de fausses informations dangereuses est qu’elles sont, malheureusement, assez lucratives : les fausses nouvelles apportent de vrais clics, et avec cela de vrais dollars sous forme de revenus publicitaires. Si ces revenus publicitaires se tassaient, il en serait de même pour beaucoup de désinformation. Nous devons rendre plus difficile pour les éditeurs de désinformation d’héberger des publicités en ligne.

Google est le le plus grand société de publicité numérique dans le monde. Comme Facebook et Twitter, Google affiche des publicités sur ses propres sites, mais Google sert également d’intermédiaire reliant les annonceurs à des sites indépendants qui souhaitent héberger des publicités. Pour ce faire, Google organise des enchères en ligne pour distribuer de manière algorithmique des annonces à plus de 2 millions des sites autres que Google dans ce que l’on appelle le Réseau Display de Google. Ces sites GDN reçoivent un paiement des annonceurs pour l’hébergement d’annonces, en fonction du nombre de vues que les annonces reçoivent, et ils partagent un pourcentage de ce paiement avec Google.

L’organisation britannique à but non lucratif et non partisane Global Disinformation Index estimé qu’en 2019, les sites de désinformation ont généré près de 250 millions de dollars de revenus publicitaires, dont Google était responsable de près de 40 %. Un porte-parole de Google a répondu à un rapport du GDI connexe en disant qu’il était « fondamentalement défectueux en ce qu’il ne définit pas ce qui devrait être considéré comme de la désinformation » ; cette critique méthodologique de Google n’a pas dissuadé les dirigeants de plus d’une douzaine des plus grandes organisations philanthropiques aux États-Unis d’envoyer au PDG de Google Sundar Pichai un lettre soulevant des inquiétudes sur les problèmes mis en lumière dans le rapport du GDI. Les revenus publicitaires annuels pour la désinformation (une catégorie plus large que la désinformation) ont été récemment estimé par NewsGuard Technologies, une société de technologie visant à évaluer les sources d’information, à plus de 2,5 milliards de dollars.

Publicité

NewsGuard a identifié plus de 150 sites qui ont publié des mensonges et des théories du complot sur l’élection présidentielle de 2020 entre le jour du scrutin et le jour de l’investiture. Ce trouvé que 80 % de ces sites, y compris One America News Network et Gateway Pundit, ont reçu des emplacements publicitaires de Google. NewsGuard a également découvert plusieurs exemples d’organisations médicales très respectées plaçant par inadvertance des publicités sur des sites qui ont publié de fausses informations médicales nuisibles et ainsi leur fournir un financement.

Google a Stratégies l’interdiction de certains types de contenu sur le Réseau Display de Google. Cela inclut certaines catégories de désinformation sur les élections et la santé, et le 8 novembre, il ajoutée désinformation sur le déni du changement climatique à la liste. Google supprime d’abord le privilège d’hébergement publicitaire des pages individuelles qui enfreignent ses politiques ; il ne recourt à la démonétisation à l’échelle du site qu’en cas de violation persistante et flagrante.

L’énormité de la distribution des publicités nécessite une approche semi-automatisée pour détecter les violations des politiques, de sorte que l’IA est utilisée pour accélérer et intensifier les efforts des modérateurs humains. En 2020, Google a démonétisé 1 milliard de pages pour non-respect des règles. Il s’agit d’un nombre astronomique, mais, comme indiqué ci-dessus, une révélation particulière des fichiers Facebook est qu’autant de mauvaises choses que l’IA est capable d’attraper, il y en a toujours une tonne de plus qu’elle manque. Par exemple, Facebook estimations qu’il ne supprime que 3 à 5 % des discours de haine interdits sur la plate-forme, car c’est tout ce que le système de détection automatisé de l’IA est suffisamment sûr pour supprimer sans vérification humaine.

Les systèmes d’IA sont incapables de déterminer si un élément de contenu enfreint une politique. Ce qui se passe, c’est que l’IA estime le probabilité d’une violation de la politique, et si ce score est supérieur à un certain seuil, alors des mesures sont prises. Pour maintenir le nombre de faux positifs à un faible niveau, le seuil d’action est généralement fixé à un niveau extrêmement élevé. C’est pourquoi des enquêtes telles que celles de GDI et de NewsGuard trouvent tant d’informations erronées circulant dans le système de détection de Google malgré une violation flagrante des politiques d’hébergement publicitaire de Google : si le seuil est défini sur, disons, 90 %, alors le contenu avec un score de 89 % est considéré comme sûr.

Il existe un moyen douloureusement évident de faire beaucoup mieux : ces scores devraient également être utilisés comme pénalités dans les enchères algorithmiques que Google exécute dans lesquelles les sites du GDN enchérissent pour les emplacements d’annonces.

Même Facebook très décrié sait que c’est ainsi que l’IA doit être utilisée. Bien qu’il n’ait supprimé que 3 à 5 % des discours de haine, Facebook a considérablement réduit la quantité de discours de haine rencontrés par les utilisateurs (ce que Facebook appelle la « prévalence » du discours de haine). C’est parce qu’il utilise les probabilités de violation des politiques comme pénalités dans l’algorithme du fil d’actualité. Ainsi, plus un message est susceptible d’être un discours haineux, moins vous êtes susceptible de le voir, même si l’IA n’est pas assez confiante pour supprimer le message. entièrement. Facebook a encore un long chemin à parcourir, mais au moins avec cette approche de déclassement, Facebook utilise efficacement son IA pour aider les utilisateurs à voir moins de choses négatives sur la plate-forme.

La tâche de Google est beaucoup plus facile que celle de Facebook, car Facebook doit évaluer chaque élément de contenu alors que Google peut utiliser les antécédents d’un site pour aider à attribuer des sanctions. En fait, Google le fait déjà : il est fréquent rabatteurs ses efforts pour « élever le journalisme de qualité » dans les classements de recherche en rétrogradant les sites ayant des antécédents de publication de désinformation. Cela a été un succès dans une certaine mesure, ce qui explique en partie pourquoi Facebook et Google étaient tous deux dans la ligne de mire du public en 2016 pour leur rôle dans la propagation de la désinformation, mais aujourd’hui, nous entendons surtout parler des échecs de Facebook. Par exemple, Google n’a heureusement pas répété en 2020 son embarrassant 2016 débâcle de classer un blog WordPress affirmant à tort que Trump a remporté le vote populaire en tant que premier résultat pour la phrase de recherche « résultats finaux des élections ».

Il n’y a aucune raison pour que Google ne puisse pas appliquer le même type de rétrogradation dans son algorithme d’enchère/distribution d’annonces qu’il applique déjà dans son algorithme de classement de recherche pour les sites qui publient des informations erronées. Google s’appuie sur une approche poreuse du tout ou rien pour détecter la désinformation dans le GDN tout en restant les bras croisés sur une méthode éprouvée qui pourrait énormément aider.

C’est le summum de l’hypocrisie : dans l’ombre privée de la distribution d’annonces, Google achemine sciemment de l’argent vers les mêmes sites de désinformation qu’il combat fièrement dans son système de recherche public.

Lorsqu’on lui a demandé de commenter, un porte-parole de Google a écrit : « Nous avons des politiques d’éditeur strictes qui interdisent explicitement un large éventail d’affirmations non fiables et de désinformation. Lorsque nous trouvons du contenu qui enfreint ces règles, nous bloquons ou supprimons les annonces de la diffusion. Notre application varie – elle peut être spécifique à une page individuelle ou s’étendre à un site entier, selon la nature et l’omniprésence des violations. Ces politiques strictes sont paralysées par l’approche tout ou rien inutilement anémique de Google en matière d’application.

Nous devons continuer à pousser Facebook à corriger ses problèmes d’engagement algorithmes qui nuisent à notre démocratie, ainsi que les appels à plus de transparence afin que nous puissions mieux comprendre ces algorithmes et tenir Facebook responsable de leurs torts. Mais ne laissez pas l’hystérie anti-Zuckerberg nous distraire du rôle que Google a discrètement joué en soutenant financièrement une grande partie du contenu préjudiciable qui se retrouve sur Facebook.

Pour donner un peu de crédit à Google, il a finalement abandonné une option antérieure permettant aux sites du Réseau Display de rester anonymes pour les annonceurs (un choix populaire pour les sites de désinformation). Et il a récemment ajouté une option permettant aux annonceurs d’importer des listes d’exclusion de sites hôtes mises à jour de manière dynamique, organisées par des tiers, ce qui peut aider les annonceurs à éviter les sites de désinformation s’ils s’efforcent activement de le faire.

Bien que Google soit le plus grand distributeur d’annonces et porte donc une grande part de responsabilité ici, ce n’est pas le seul distributeur d’annonces qui finance la désinformation. Nous avons besoin du Congrès pour réglementer le marché de la publicité numérique dangereux et dysfonctionnel : exiger que tous les distributeurs de publicité en ligne révèlent leurs efforts pour interdire et dénigrer les sites de désinformation – afin qu’il y ait au moins une certaine responsabilité publique – et prescrire des mesures pour faciliter la tâche des annonceurs. des choix plus sains quant à l’endroit où placer leurs annonces, quel que soit le distributeur d’annonces qu’ils utilisent.

Grâce à Frances Haugen et aux lanceurs d’alerte qui l’ont précédée, nous savons à quel point le contenu préjudiciable se trouve sur Facebook et à quel point l’entreprise a fait peu pour l’arrêter. Ce sur quoi nous ne nous sommes pas suffisamment concentrés, c’est qui profite de la production de ce contenu nuisible en premier lieu et comment nous pouvons l’arrêter avant qu’il ne se propage et devienne à la fois un cauchemar technologique et un cauchemar pour la liberté d’expression.

Le futur est un partenariat de Ardoise, Nouvelle Amérique, et Université de l’État d’Arizona qui examine les technologies émergentes, les politiques publiques et la société.

Rate this post
Publicité
Article précédentDémo gratuite disponible pour le titre de stratégie Humankind • Fr.techtribune
Article suivantL’IRS prévoit des milliards de saisies de crypto-monnaie à partir de stratagèmes frauduleux l’année prochaine après avoir pris 3,5 milliards de dollars cette année | Actualités sur les devises | Actualités financières et commerciales
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici