L’unité Jigsaw de Google publie le code d’un outil anti-harcèlement open source appelé Gestionnaire du harcèlement. L’outil, destiné aux journalistes et autres personnalités publiques, utilise l’API Perspective de Jigsaw pour permettre aux utilisateurs de trier les commentaires potentiellement abusifs sur les plateformes de médias sociaux à commencer par Twitter. Il fait ses débuts en tant que code source sur lequel les développeurs peuvent s’appuyer, puis est lancé en tant qu’application fonctionnelle pour les journalistes de la Fondation Thomson Reuters en juin.

Harassment Manager peut actuellement fonctionner avec l’API de Twitter pour combiner des options de modération – comme masquer les réponses aux tweets et désactiver ou bloquer des comptes – avec un système de filtrage et de rapport en masse. Perspective vérifie la langue des messages pour les niveaux de « toxicité » basés sur des éléments tels que les menaces, les insultes et les grossièretés. Il trie les messages dans des files d’attente sur un tableau de bord, où les utilisateurs peuvent les traiter par lots plutôt qu’individuellement via les outils de modération par défaut de Twitter. Ils peuvent choisir de brouiller le texte des messages pendant qu’ils le font, afin qu’ils n’aient pas besoin de lire chacun d’eux, et ils peuvent rechercher des mots-clés en plus d’utiliser les files d’attente générées automatiquement.

Une Image Du Tableau De Bord Harassment Manager Tel Que Décrit Dans Le Post

Google

Publicité

Harassment Manager permet également aux utilisateurs de télécharger un rapport autonome contenant des messages abusifs ; cela crée une trace écrite pour leur employeur ou, dans le cas de contenu illégal comme des menaces directes, pour les forces de l’ordre. Pour l’instant, cependant, il n’y a pas d’application autonome que les utilisateurs peuvent télécharger. Au lieu de cela, les développeurs peuvent librement créer des applications qui intègrent ses fonctionnalités et les services qui l’utilisent seront lancés par des partenaires comme la Fondation Thomson Reuters.

Jigsaw a annoncé Harassment Manager à l’occasion de la Journée internationale de la femme, et il a qualifié l’outil de particulièrement pertinent pour les femmes journalistes confrontées à des abus sexistes, mettant en évidence les contributions de « journalistes et militants largement présents sur Twitter » ainsi que d’organisations à but non lucratif telles que la Fondation internationale des femmes pour les médias et le Comité pour la protection des journalistes. Dans un article moyen, l’équipe dit qu’elle espère que les développeurs pourront l’adapter à d’autres utilisateurs de médias sociaux à risque. « Notre espoir est que cette technologie fournisse une ressource aux personnes confrontées au harcèlement en ligne, en particulier les femmes journalistes, militantes, politiciennes et autres personnalités publiques, qui font face à une toxicité disproportionnellement élevée en ligne », indique le message.

Une Capture D'Écran De L'Option De Signalement Dans Le Gestionnaire De Harcèlement De Jigsaw

Google a déjà exploité Perspective pour la modération automatisée. En 2019, il a publié une extension de navigateur appelée Tune qui permettent aux utilisateurs de médias sociaux d’éviter de voir des messages très susceptibles d’être toxiques, et il a été utilisé par de nombreuses plateformes de commentaires (y compris Coral de Vox Media) pour compléter la modération humaine. Mais comme nous l’avons noté autour la sortie de Perspective et Tune, le modèle d’analyse du langage est historiquement loin d’être parfait. Il classe parfois à tort le contenu satirique ou ne parvient pas à détecter les messages abusifs, et l’IA de type Jigsaw peut associer par inadvertance des termes comme « aveugle » ou « sourd » – qui ne sont pas nécessairement négatifs – avec toxicité. Jigsaw lui-même a également été critiqué pour un culture de travail toxiquebien que Google ait contesté les affirmations.

contrairement à Modération alimentée par l’IA sur des services comme Twitter et Instagram, cependant, Harassment Manager n’est pas une fonctionnalité de modération côté plateforme. C’est apparemment un outil de tri pour aider à gérer l’ampleur parfois écrasante des retours sur les réseaux sociaux, quelque chose qui pourrait être pertinent pour des personnes bien en dehors du domaine du journalisme, même si elles ne peuvent pas l’utiliser pour le moment.

Rate this post
Publicité
Article précédentNetflix continue d’élargir son équipe mondiale de lutte contre le piratage * TechTribune France
Article suivantPremier superyacht de 63 m NFT Project Metaverse mis en vente
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici