LPeiter ‘Mudge’ Zatko, l’ancien responsable de la sécurité chez Twitter, a déposé une plainte devant la Securities and Exchange Commission (SEC) des États-Unis, alléguant que la méthode de mesure des robots de Twitter était « trompeur ». Dans sa plainte, Zatko a ajouté que « les dirigeants sont incités (avec des bonus allant jusqu’à 10 millions de dollars) à augmenter le nombre d’utilisateurs plutôt que de supprimer les robots spammeurs ». Dans la même semaine, Le New York Times Signalé que Google avait signalé à tort des images qu’un homme avait prises de l’aine de son fils à des fins médicales, comme du matériel d’abus pédosexuel ou CSAM

Ces deux incidents mettent en évidence les binaires dans lesquels l’autorégulation des médias numériques est tombée – l’inaction d’un côté et l’excès de l’autre.

Comme beaucoup d’autres homologues numériques responsables et importants, Google utilise une combinaison de technologies telles que l’intelligence artificielle et l’apprentissage automatique (IA / ML) pour identifier CSAM. Le recours à de tels outils est une caractéristique saillante de la technologie réglementaire (ou RegTech, comme on l’appelle communément), qui peut aider à résoudre des problèmes réglementaires complexes tels que CSAM. Dans le cas existant, un père de San Francisco a pris une photo des organes génitaux de son enfant et l’a téléchargée sur une plate-forme de télémédecine à la demande de son médecin. Cependant, les images ont également été automatiquement téléchargées sur Google Photos sur le téléphone du père et ont ensuite été signalées comme CSAM. Les images ont été signalées simultanément aux forces de l’ordre, mais la police n’a pas porté plainte contre le père parce qu’elle comprenait le problème. Malheureusement, le père a été exclu de son compte Google, pour lequel il n’a trouvé aucun recours immédiat.


À lire aussi : Pourquoi les OTT, les opérateurs de télécommunications ne doivent pas verrouiller les klaxons sur le partage des coûts infra


Le responsive design est la clé

Il est important de souligner ici que l’IA/ML ne peut pas toujours faire la distinction entre les médias échangés à des fins médicales ou ceux qui sont CSAM. Il y a une nuance qui sépare ces types de médias que les algorithmes ne peuvent pas capturer. La seule façon pour les entreprises technologiques de distinguer ces ridules est d’ajouter une couche d’intervention humaine à un stade approprié. Dans ce cas, il s’agirait peut-être de vérifier la demande reconventionnelle du père une fois qu’il aurait été exclu de son compte. En fin de compte, ce sont des personnes formées qui devront juger parce qu’elles peuvent comprendre le contexte d’une image ou d’une vidéo, alors que les algorithmes ne peuvent identifier que des modèles.

Publicité

En contraste complet avec une approche centrée sur la RegTech, il y a ce qui se passe chez Twitter, qui a longtemps lutté avec le problème des bots malgré solutions technologiques possibles . Officiellement, l’entreprise Revendications que les bots constituent moins de cinq pour cent de sa base d’utilisateurs. Mais Tauhid Zaman, professeur agrégé de gestion des opérations à l’Université de Yale, a affirmé dans son article d’août 2022 que le nombre est entre 1 et 14 %, en fonction du sujet discuté sur la plateforme. Il est également bien établi que les robots spammeurs peuvent être utilisés comme des armes pour la désinformation et peuvent causer une litanie d’autres préjudices aux utilisateurs. Le manque de précision sur les bots est l’une des principales raisons pour lesquelles la vente de Twitter au fondateur de Tesla, Elon Musk, n’a pas encore eu lieu, selon Rapports.

Pour résoudre le problème toujours persistant des bots, Twitter pourrait tirer parti de plusieurs méthodes assistées par RegTech pour confirmer la véracité des utilisateurs, tout en permettant l’anonymat que de nombreux utilisateurs chérissent. Et cela pourrait accélérer l’utilisation de RegTech pour nettoyer les robots spammeurs non comptabilisés, car il supposément c’est déjà le cas.

C’est-à-dire que l’authenticité et l’anonymat n’ont pas besoin d’être des objectifs concurrents sur les médias sociaux. Par exemple, les entreprises de médias sociaux pourraient adopter des méthodes d’authentification dans lesquelles les utilisateurs répondent à des questions basées sur des ensembles de données publics pertinents. Ils pourraient également fournir des options de vérification basée sur des documents afin de réduire les frictions. Il est essentiel d’investir dans une technologie qui offre aux utilisateurs plus d’autonomie. De plus, des services comme Twitter pourraient faire la différence entre les utilisateurs anonymes authentifiés et les utilisateurs non anonymes authentifiés pour offrir une expérience sociale plus réelle.


À lire aussi : Big n’est pas toujours mauvais – pourquoi l’Inde ne doit pas copier aveuglément la loi européenne sur les marchés numériques


L’importance de l’évolution numérique

Les produits et services numériques doivent évoluer constamment et investir continuellement dans des technologies qui favorisent l’intérêt des consommateurs. Aujourd’hui, il semble un peu étrange de penser que Twitter n’avait même pas de fonction de recherche intégrée, mais en 2008, c’était exactement le cas. Cette année-là, il a acheté Summize, un moteur de recherche qui permettrait aux utilisateurs pour rechercher des tweets en temps réel. En 2011, il acquis Julpan, un autre moteur de recherche en temps réel qui analysait les publications Twitter et diffusait du contenu spécifique aux utilisateurs. Il est tout à fait possible que l’entreprise n’ait jamais imaginé avoir besoin d’un moteur de recherche sur son service, et de même, ne peut pas imaginer un écosystème de médias sociaux avec des robots moins importants. Mais la vie sur Internet, tout comme la vie dans le monde réel, est incertaine et non déterministe.

Ce qui est certain, c’est que la RegTech est une innovation importante pour améliorer la confiance du public dans Internet. Après tout, des problèmes tels que CSAM et les faux comptes sont trop répandus pour être éliminés par les êtres humains. De même, les algorithmes, dont les origines sont enracinées dans des méthodes prédéfinies, sont mal équipés pour déchiffrer et naviguer dans le labyrinthe brumeux du comportement des utilisateurs sur Internet. Il a besoin du soutien de mains compétentes et d’esprits aiguisés et parfaitement conscients des divers contextes pour pouvoir réussir.

Les entreprises numériques doivent trouver un équilibre entre les droits des utilisateurs et la sécurité, l’inclusion avec les exceptions et la sécurité avec la commodité. Et ils doivent faire tout cela même lorsqu’ils atteignent l’échelle. Cela implique des compromis qui ne sont pas faciles mais qui viennent avec le territoire. La conception et le déploiement judicieux de la RegTech, associés à la nuance que seuls les humains apportent à la table, peuvent aider à tenir la promesse d’un Internet sûr.

Les auteurs travaillent chez Koan Advisory Group, une société de conseil en politique technologique. Les opinions sont personnelles.

Cet article fait partie de la série ThePrint-Koan Advisory qui analyse les politiques, lois et réglementations émergentes dans le secteur technologique indien. Lire tous les articles ici.

(Edité par Zoya Bhatti)

Rate this post
Publicité
Article précédentLava annonce « Service At Home » pour tous ses prochains smartphones
Article suivantTouhou Project Articles de mode sous licence officielle
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici