Plus tôt ce mois-ci, une vidéo graphique et inquiétante a été jonchée sur la plate-forme de partage de vidéos TikTok. Cachée par de fausses vignettes et téléchargée plus de 10000 fois, la vidéo de Ronnie McNutt, 33 ans, mourant par suicide, s’est répandue sur la plateforme, traumatisant des millions d’utilisateurs sans méfiance.
La vidéo est apparue sur TikTok après avoir été diffusée en direct sur Facebook fin août. Aujourd’hui, TikTok a écrit à un certain nombre de plateformes de médias sociaux pour les inviter à unir leurs forces pour supprimer et modérer le contenu dérangeant.
Selon le responsable de la politique publique européenne de TikTok, Theo Bertram, la pointe des vidéos suggérait une attaque coordonnée. «Il s’agit d’un défi à l’échelle de l’industrie, c’est pourquoi nous avons proposé à nos pairs de l’industrie de travailler ensemble à la création d’une« banque de hachage »pour un contenu graphique aussi violent et de nous avertir mutuellement lorsqu’un tel contenu est découvert afin que nous puissions tous mieux protéger nos utilisateurs, quelle que soit l’application qu’ils utilisent », a-t-il déclaré.
TikTok a écrit à neuf de ses concurrents – y compris Facebook, Instagram, Google, YouTube, Twitter, Twitch, Snapchat, Pinterest et Reddit – proposer un mémorandum de comprendre «cela nous permettra de nous informer rapidement de ce contenu», rapporte Interne du milieu des affaires.
En réponse à ce problème, TikTok a promis d’ajuster ses systèmes d’apprentissage automatique et d’urgence, ainsi que ses processus de modération, permettant à l’IA et aux modérateurs humains de mieux travailler ensemble.
Les plateformes de médias sociaux ont subi une pression énorme pour supprimer les contenus à la fois dérangeants et trompeurs. Le problème a été particulièrement grave tout au long de la pandémie, avec la montée des théories du complot, désinformation sur la santéet la désinformation politique se répand rapidement. Facebook a fait l’objet d’un examen minutieux pour avoir permis à la dangereuse conspiration américaine, QAnon, de se répandre sur la plate-forme, se propageant comme une traînée de poudre.
Hier, YouTube a annoncé qu’il reviendrait à la modération humaine en raison d’un trop grand nombre d’inexactitudes dans les décisions de modération de l’IA. Cependant, aujourd’hui, un ancien modérateur de contenu de la plate-forme a poursuivi YouTube pour négligence et pour avoir illégalement omis de fournir un espace de travail sûr pour elle-même et pour d’autres modérateurs de contenu qui souffrent maintenant des effets du SSPT.
Comme YouTube, TikTok s’appuie fortement sur l’intelligence artificielle et l’apprentissage automatique pour s’attaquer à la modération du contenu. Le dernier rapport de transparence de TikTok a révélé que 105 millions de contenus ont été retirés pour avoir enfreint ses règles au cours du seul premier semestre 2020 (encore une fois, sans aucun doute un symptôme de la pandémie et des commandes à domicile). C’était le double du nombre de vidéos supprimées au cours du dernier semestre de 2020 – bien que la plate-forme ait connu une croissance rapide depuis lors.
Alors que près de 97% des vidéos ont été supprimées de manière proactive par TikTok (avec 90,32% d’entre elles supprimées avant de recevoir des vues), le rythme rapide auquel la vidéo de la mort de McNutt a circulé est une source de préoccupation et il semble juste que d’autres plates-formes prennent TikTok dirige et unie ses forces pour créer un Web plus sûr.