YouTube a annoncé qu’il ramènerait des évaluateurs humains pour modérer les contenus nuisibles tels que les discours de haine et les fausses nouvelles en raison des lacunes des modérateurs d’IA qu’il utilise depuis fin mars.

En mars, au début de la période de verrouillage dans de nombreux pays, YouTube a annoncé qu’il comptait davantage sur les modérateurs de l’IA que sur les modérateurs humains en raison de l’incapacité de travailler depuis le bureau. Cependant, les systèmes d’apprentissage automatique utilisés par YouTube sont loin d’être aussi précis et ont laissé les créateurs de contenu avec des retraits et des suppressions de vidéos injustifiés, l’entreprise a dit au Financial Times.

Parler au FT, Neal Mohan, directeur produit de YouTube, a déclaré: «L’une des décisions que nous avons prises [at the beginning of the pandemic] quand il s’agissait de machines qui ne pouvaient pas être aussi précises que les humains, nous allions faire erreur en nous assurant que nos utilisateurs étaient protégés, même si cela aurait pu entraîner [a] un nombre légèrement plus élevé de vidéos à venir.

Selon le FT, plus de 11 millions de vidéos ont été retirées au cours du deuxième trimestre de cette année (avril-juin) – bien plus que les années précédentes. En plus de cela, plus de la moitié des vidéos ont été rétablies après que les utilisateurs ont fait appel, ce qui est nettement supérieur aux 25% des trimestres précédents.

Cela montre le besoin de modérateurs humains lors de la vérification en ligne d’un contenu nuisible ou haineux – un travail qui peut être extrêmement pénible. Les plateformes ont ressenti la pression pour sévir contre les contenus préjudiciables, y compris la désinformation et les discours de haine, en particulier depuis le début de la pandémie et l’énorme mouvement Black Lives Matter plus tôt cette année.

Publicité

Les machines sont inestimables pour supprimer des vidéos qui enfreignent les règles. Mohan a reconnu la vitesse à laquelle les modérateurs d’IA sont capables de signaler et d’agir sur un tel contenu: «Plus de 50% de ces 11 millions de vidéos ont été supprimées sans une seule vue par un utilisateur réel de YouTube et plus de 80% ont été supprimées avec moins de 10 vues. . Et c’est donc la puissance des machines.

Cependant, Mohan a également noté les nuances que l’IA ne parvient souvent pas à comprendre, déclarant: «C’est là que nos évaluateurs humains formés entrent en jeu.» Les évaluateurs humains prennent le contenu signalé par l’IA, puis «prennent des décisions qui ont tendance à être plus nuancées, en particulier dans des domaines comme le discours de haine, la désinformation médicale ou le harcèlement».


Rate this post
Publicité
Article précédentcdiscount: Que vaut l’offre des automobile-écoles en ligne ?
Article suivantComment obtenir MVP pour déverrouiller le bus de combat Fortnite – HITC
Berthe Lefurgey
Berthe Lefurgey est une journaliste chevronnée, passionnée par la technologie et l'innovation, qui fait actuellement ses armes en tant que rédactrice de premier plan pour TechTribune France. Avec une carrière de plus de dix ans dans le monde du journalisme technologique, Berthe s'est imposée comme une voix de confiance dans l'industrie. Pour en savoir plus sur elle, cliquez ici. Pour la contacter cliquez ici

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici