Logo Open Source

YouTube apporte un nouvel éclairage sur la façon dont il modère sa vaste plate-forme vidéo, qui enregistre des milliards de vues chaque jour.

Mardi, la société a publié pour la première fois une statistique appelée «taux de vue non conforme», un nouveau point de données que YouTube prévoit d’inclure dans ses rapports d’application des directives communautaires. Fondamentalement, pour 10000 vues sur son réseau social – ou du moins au cours du dernier trimestre de 2020 – environ 16 à 18 de ces vues sont des vidéos qui enfreignent les règles de YouTube, qui interdisent actuellement tout ce qui discours de haine à désinformation médicale sur Covid-19 à Spam.

Dans un article de blog publié mardi, YouTube affirme que ces statistiques sont un signe de progrès et a déclaré que le «taux de vues violées» était en baisse de 70% depuis 2017 grâce aux améliorations apportées par la société à son intelligence artificielle axée sur la modération de contenu. “Nous avons fait une tonne de progrès, et c’est un chiffre très, très faible”, a déclaré Jennifer Flannery O’Connor, directrice de la gestion des produits de YouTube pour la confiance et la sécurité, “mais bien sûr, nous voulons qu’il soit inférieur, et c’est ce que mon équipe travaille jour après jour pour essayer de faire. »

YouTube a partagé ces nouvelles informations alors que les politiciens et les utilisateurs sont de plus en plus préoccupés par la façon dont les entreprises technologiques modèrent leurs plates-formes au milieu d’une «infodémie» de Informations erronées sur Covid-19, et suivant l’insurrection au Capitole américain et un cycle électoral présidentiel l’année dernière marqué par théories du complot.

Dans le même temps, les statistiques de YouTube sur les contenus violents renforcent le récit de certains dirigeants de YouTube. promu dans le passé: que ses systèmes font généralement un bon travail pour attraper le mauvais contenu, et que dans l’ensemble, le problème des vidéos néfastes sur son site est relativement petit. YouTube a également déclaré mardi qu’il était capable de supprimer 94% du contenu qui enfreignait ses règles avec des systèmes de signalement automatisés, et que la grande majorité de ces vidéos étaient capturées avant d’avoir 10 vues. Dans l’ensemble, YouTube affirme avoir supprimé plus de 83 millions de vidéos depuis qu’il a commencé à publier des rapports sur la transparence de l’application il y a trois ans.

«Nous avons un grand dénominateur, ce qui signifie que nous avons beaucoup de contenu», explique Susan Wojcicki, PDG a dit à Recode en 2019. «Quand on y regarde, quelles sont toutes les nouvelles, les préoccupations et les histoires à propos de ce fraction de un pour cent.»

Mais les chiffres publiés par YouTube mardi ont des limites. Voici comment il les a calculés: YouTube échantillonne un certain nombre de vues, c’est-à-dire des cas dans lesquels un utilisateur regarde une vidéo particulière (YouTube n’a pas publié le nombre de vidéos pris en compte dans cette statistique). Ensuite, YouTube examine les vidéos qui obtiennent ces vues et les envoie à ses réviseurs de contenu. Ils étudient toutes les vidéos et déterminent celles qui enfreignent les règles de l’entreprise, ce qui permet à YouTube de produire un pourcentage estimé de vues sur les “vidéos violentes”.

Gardez à l’esprit que les propres réviseurs de YouTube – et non des auditeurs indépendants – décident de ce qui constitue une violation des directives de YouTube. Alors que Facebook s’est engagé l’an dernier à un audit indépendant de ses mesures d’application des normes communautaires, Flannery O’Connor a déclaré lundi que la plate-forme vidéo n’avait pas encore pris un engagement similaire.

YouTube tarde souvent à décider quels types de contenu controversé il interdira. La plateforme uniquement a changé sa politique en matière de discours de haine d’interdire le négationnisme néonazi et la Shoah en 2019. Alors que les chercheurs avaient mis en garde contre la propagation de la théorie du complot de droite QAnon pendant des années, YouTube a seulement décidé d’interdire «le contenu qui cible un individu ou un groupe avec des théories du complot qui ont été justifier la violence dans le monde réel »en octobre l’année dernière.

Il y a aussi beaucoup de contenu que YouTube ne supprime pas – et ne viole pas les règles de l’entreprise – mais contourne la ligne, et qui, selon certains critiques, ne devrait pas être autorisé sur la plate-forme. YouTube appelle parfois ces types de vidéos controversées “contenu limite. » Il est difficile d’étudier à quel point ce contenu limite est répandu, compte tenu de l’énorme taille de YouTube. Mais nous savons que c’est là. L’entreprise a suivi vidéos contenant de la désinformation électorale et n’a étendu ses règles de harcèlement et de haine que pour interdire les contenus qui ciblent des groupes et des personnes ayant des théories du complot utilisées pour justifier la violence, à savoir QAnon, en Octobre de l’année dernière.

Un exemple majeur de YouTube qui n’a pas supprimé purement et simplement le contenu offensant et préjudiciable est survenu en 2019 lorsque YouTube a fait face à un tollé après que la société ait décidé de abandonner contenu du YouTuber conservateur Steven Crowder qui comprenait le harcèlement raciste et homophobe du journaliste de l’époque Vox Carlos Maza (sous une pression intense, YouTube a finalement pris La capacité de Crowder à diffuser des publicités). Plus tard cette année-là, Wojcicki Raconté créateurs qui “[p]le contenu roblematic représente une fraction d’un pour cent du contenu sur YouTube », mais a eu un« impact extrêmement démesuré ».

YouTube supprime les publicités pour les créateurs qui publient du contenu qui enfreint les règles de monétisation, et il classe le contenu limite à la baisse, mais YouTube ne publie pas de statistiques similaires sur la prévalence de ce type de contenu ou le nombre de vues qu’il obtient généralement.

Quant à savoir pourquoi YouTube publie cette statistique particulière en ce moment, Flannery O’Connor a déclaré que la société avait utilisé ce numéro en interne pendant plusieurs années pour étudier les progrès de YouTube en matière de sécurité et les pics de vues de vidéos violentes, et pour définir des objectifs pour son équipe d’apprentissage automatique. . «Nous nous sommes sentis comme [it’s] mieux vaut simplement être transparent et utiliser les mêmes paramètres en interne et en externe », a-t-elle déclaré.

L’annonce de YouTube fait partie d’un modèle plus large d’entreprises de médias sociaux affirmant que leurs plates-formes ne sont en fait pas dominées par un contenu néfaste – tandis que les critiques, les chercheurs et les journalistes continuent de souligner le grand nombre de vues et de clics que ce contenu attire souvent. Même lorsque YouTube supprime ces vidéos, ils ont parfois déjà réussi à partager des idées nuisibles qui se propagent hors de la plate-forme – par exemple, la vidéo Plandemic, qui diffusait de fausses conspirations Covid-19 l’année dernière, a capturé des millions de vues sur la plate-forme. avant qu’il ne soit démonté.

Open Source est rendu possible par Omidyar Network. Tout le contenu Open Sourced est éditorialement indépendant et produit par nos journalistes.



Leave a Reply