Une ancienne modératrice de contenu qui travaillait chez YouTube poursuit la société appartenant à Google en raison de ses symptômes de dépression et d’anxiété liés au syndrome de stress post-traumatique.

La femme, qui n’a pas été nommée, intente un recours collectif contre la populaire plateforme de partage de vidéos afin de protéger d’autres personnes comme elle qui ont été soumises à la visualisation de contenus graphiques, violents et dérangeants tout en travaillant en tant que modérateurs de contenu sur la plateforme. et accuse YouTube de ne pas avoir fourni un environnement de travail sûr à ces employés.

Le procès se lit comme suit:

Chaque jour, les utilisateurs de YouTube téléchargent des millions de vidéos sur sa plateforme. Des millions de ces les téléchargements incluent des contenus graphiques et répréhensibles tels que les abus sexuels sur des enfants, le viol, la torture, la bestialité, les décapitations, le suicide et le meurtre. Pour maintenir une plate-forme aseptisée, maximiser ses bénéfices déjà vastes et cultiver son image publique, YouTube s’appuie sur des personnes comme Plaintiff – connues sous le nom de «modérateurs de contenu» – pour visionner ces vidéos et supprimer celles qui enfreignent les conditions d’utilisation de la société.

Le procès mentionnait le génocide très médiatisé au Myanmar et les fusillades de masse à Las Vegas et à Christ Church. Il inclut également les théories du complot, la propagande, la désinformation politique et les «croyances marginales» en tant que contenu répréhensible que les modérateurs sont sujets à visionner jusqu’à quatre heures à la fois.

Une poursuite similaire a été intentée contre Facebook en 2018 par la même société représentant ce modérateur de contenu YouTube anonyme. Cette année, Facebook s’est arrangé, en versant 52 millions de livres aux personnes touchées.

Publicité

Le parquet accuse également YouTube de ne pas avoir suivi ses propres conseils. L’entreprise a aidé à rédiger des normes de sécurité au travail qui protégeraient les modérateurs de contenu contre les dommages psychologiques. Selon le procès, ces normes comprennent:

  • obtenir le consentement éclairé d’un candidat au cours du processus d’entretien d’embauche initial
  • fournir aux modérateurs de contenu des conseils robustes et obligatoires et un soutien en santé mentale
  • modifier la résolution, l’audio, la taille et la couleur des images et des vidéos traumatisantes
  • former les modérateurs de contenu à reconnaître les symptômes physiques et psychologiques du SSPT, de l’anxiété et de la dépression

« Mais », lit-on dans le procès, « YouTube n’a pas mis en œuvre les normes de sécurité au travail qu’il a contribué à créer.

«Au lieu de cela, la société de plusieurs milliards de dollars exige que ses modérateurs de contenu travaillent dans des conditions qu’elle sait causer et exacerber un traumatisme psychologique.»

Selon CNet, l’ex-modératrice s’est entretenue avec plusieurs coachs en bien-être pour savoir comment faire face au traumatisme psychologique qu’elle ressentait. L’un lui a dit de faire confiance à Dieu tandis qu’un autre lui a dit de prendre des drogues illégales. De plus, le service des ressources humaines de YouTube n’a fourni «aucune aide» et, en raison d’un accord de non-divulgation, il est difficile pour les employés de parler de leurs problèmes.

L’ex-modératrice, selon le procès, ne peut pas être dans les zones bondées (en raison de la peur d’une fusillade de masse), a perdu des amis, souffre de crises de panique et a du mal à dormir: «… quand elle dort, elle fait d’horribles cauchemars », Lit le procès.

«Elle se réveille souvent la nuit en essayant de s’endormir, en rejouant des vidéos qu’elle a vues dans sa tête.»

En plus de cela, l’ex-modératrice a payé de sa poche son propre traitement psychologique. Avec ce procès, elle espère recevoir une compensation pour elle-même et pour d’autres personnes dans la même situation et pour protéger les autres modérateurs de contenu travaillant encore pour l’entreprise.

Hier, YouTube a déclaré qu’il ramènerait des modérateurs humains en raison de certaines limitations de leurs modérateurs IA. Au début du verrouillage, en raison de l’impossibilité pour les employés de travailler dans les bureaux, la société a annoncé qu’elle recruterait du machine learning pour modérer le contenu de la plate-forme. Cependant, l’IA n’a pas été en mesure de prendre des décisions nuancées, ce qui a presque doublé le nombre de suppressions vidéo inutiles entre avril et juin par rapport aux trimestres précédents.

Des plateformes comme YouTube, Facebook et Twitter s’appuient sur les modérateurs de contenu pour prendre des décisions éclairées et cruciales sur certains contenus, à la fois pour protéger les utilisateurs de la plateforme et son image. Comme le déclare ce procès, une grande partie de cela peut être extrêmement dommageable. Peut-être qu’une IA plus sophistiquée est nécessaire pour continuer à mener la bataille difficile de la modération du contenu, d’autant plus qu’une deuxième vague de Covid-19 se profile.


Rate this post
Publicité
Article précédentLe croisement de Fortnite avec Rocket League comprend un concert de Slushii
Article suivantUma Musume Pretty Derby TV Anime obtient sa deuxième saison en 2021 – Actualités
Berthe Lefurgey
Berthe Lefurgey est une journaliste chevronnée, passionnée par la technologie et l'innovation, qui fait actuellement ses armes en tant que rédactrice de premier plan pour TechTribune France. Avec une carrière de plus de dix ans dans le monde du journalisme technologique, Berthe s'est imposée comme une voix de confiance dans l'industrie. Pour en savoir plus sur elle, cliquez ici. Pour la contacter cliquez ici

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici