Si vous avez visité le YouTube de Google dans les jours qui ont suivi les élections la semaine dernière, vous avez peut-être trouvé une vidéo d’un présentateur de One America News Network déclarant la victoire du président Trump avec l’affirmation non fondée que les démocrates «lançaient des bulletins de vote républicains».

Ou un clip de M. Trump déclarant sur sa propre chaîne YouTube que si tous les «votes légaux» étaient comptés, il gagnerait facilement. Ou une vidéo revendiquant que Real Clear Politics, un site d’information politique, avait «annulé» son appel selon lequel le président élu Joseph R. Biden Jr. devait gagner la Pennsylvanie.

Toutes ces vidéos étaient sans fondement et diffusaient de la désinformation contestant la validité du résultat de l’élection. Pourtant, ces vidéos sont toujours disponibles sur YouTube tout en étant largement partagées sur Facebook et d’autres plateformes de médias sociaux.

Il ne s’agit pas d’un problème ou d’un oubli dans l’application des règles de YouTube. Au lieu de cela, YouTube a déclaré que ses politiques fonctionnaient comme prévu. Son approche légère diffère de Twitter et Facebook, qui ont réprimé sur la désinformation au sujet de l’élection et ont mis en évidence le contenu qu’ils jugent être de la désinformation.

« La désinformation se répand sur YouTube, mais ils ne sont pas du tout transparents sur la façon dont ils y font face », a déclaré Lisa Kaplan, la fondatrice d’Alethea Group, une entreprise qui aide à lutter contre la désinformation liée aux élections. été en mesure de rester à l’écart des projecteurs en raison de la nature de la plate-forme. »

Publicité

La vidéo est plus difficile à analyser que le texte, a déclaré Mme Kaplan, et les vidéos ne sont pas partagées de la même manière que les publications et les tweets Facebook sont partagés.

Avant les élections, YouTube a déclaré qu’il n’autoriserait pas les informations électorales trompeuses, mais qu’il se limitait principalement aux procédures relatives au vote – comment voter, qui pouvait voter ou être candidat, ou toute affirmation susceptible de décourager le vote. Les politiques ne s’étendent pas aux personnes exprimant des opinions sur le résultat d’une élection en cours ou le processus de dépouillement des votes – ce qui signifie, en fait, que les vidéos diffusant de fausses informations sur le résultat du vote seraient autorisées.

« La majorité des recherches liées aux élections font surface des résultats de sources faisant autorité, et nous réduisons la propagation de la désinformation nuisible liée aux élections », a déclaré Andrea Faville, une porte-parole de YouTube, dans un communiqué. «Comme d’autres entreprises, nous autorisons les discussions sur les résultats des élections et le processus de dépouillement des votes et continuons de suivre de près les nouveaux développements.»

La société supprime le contenu qui enfreint ses politiques, a-t-elle déclaré, en particulier tout contenu qui cherche à inciter à la violence. Elle a refusé de dire combien de vidéos YouTube avait supprimées.

Les actions de YouTube sont opaques. Son outil le plus puissant est un algorithme qui a été formé pour supprimer le contenu dit limite – les vidéos qui se heurtent à ses règles mais ne les enfreignent pas clairement – de paraître en tête des résultats de recherche ou des recommandations. Mais YouTube ne divulgue pas les vidéos désignées comme limites, les gens doivent donc deviner si l’entreprise prend des mesures ou non.

Même si YouTube prend des mesures pour qu’il soit plus difficile pour les gens de trouver les vidéos sur son site, cela n’empêche pas un utilisateur de les partager largement ailleurs. En conséquence, de nombreuses vidéos YouTube ont trouvé une nouvelle vie sur Facebook. La vidéo diffusant des mensonges sur Real Clear Politics annulant sa projection de la victoire de M. Biden en Pennsylvanie avait été vue environ 1,5 million de fois sur YouTube et avait été partagée 67000 fois sur Facebook mardi après-midi, selon BuzzSumo, un outil d’analyse Web.

YouTube a marqué certaines vidéos comme non éligibles à la publicité. Pour la vidéo de One America News, qui a été diffusée mercredi dernier, YouTube a déclaré qu’elle avait supprimé les publicités parce que le contenu sapait «la confiance dans les élections avec des informations manifestement fausses». Cela a laissé YouTube dans une position délicate pour reconnaître les effets potentiellement nocifs de la vidéo, tout en continuant à héberger la vidéo en même temps.

YouTube a également étiqueté toutes les vidéos liées aux élections. Samedi, il a changé l’étiquette d’un avertissement selon lequel le résultat des élections pourrait ne pas être définitif à une déclaration selon laquelle « l’AP a appelé la course présidentielle pour Joe Biden » avec un lien vers une page Google avec les résultats. YouTube a déclaré avoir affiché ce panneau d’information «des milliards de fois».

Rate this post
Publicité
Article précédentHutton Mobile Business offre un support d’achat essentiel pendant le verrouillage
Article suivantGenshin Impact Patch 1.1 est en ligne – Voici les nouveautés
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici