Depuis que j’ai commencé à rendre compte de l’industrie technologique, j’ai remarqué une micro-tendance: chaque semaine, la majorité des articles que j’écris sont tous interconnectés, renvoyant au dernier numéro au cœur de la Silicon Valley ou (massivement, ces jours-ci) la maison Blanche. Cette semaine, en dehors des dernières versions de produits et de la saga sans fin TikTok, l’accent a été mis sur le contenu dérangeant.
Cela ne veut pas dire que les informations sur les politiques de modération du contenu et la circulation des images graphiques et violentes perturbatrices sont nouvelles – ce n’est pas le cas – mais cela m’a fait réfléchir à la question de savoir si nous, les utilisateurs individuels, pouvons faire quelque chose pour empêcher ce contenu de fuir sur nos flux. et dans nos esprits.
Regardez: je serai le premier à dire que je passe trop de temps sur Twitter et Instagram. En fait, la semaine dernière, j’ai passé un peu moins de 19 heures sur les réseaux sociaux, soit un peu moins de la moitié du temps total que j’ai passé à regarder mon téléphone. Je ne me sens pas nécessairement coupable à ce sujet (malgré le fait de regarder Netflix extrêmement confrontant Le dilemme social, ce qui m’a fait peur pendant 90 minutes). Les médias sociaux sont amusants, oui. Mais plus que cela, cela fait partie de notre vie quotidienne; une nécessité, presque, surtout pendant la pandémie quand voir des amis et de la famille est fondamentalement un mythe.
Mais plus nous utilisons ces applications; plus l’internet en général a d’influence sur nos vies, plus les fissures commencent à apparaître. Et le côté obscur d’Internet devient de plus en plus visible.
Cette semaine, le jour après que YouTube a annoncé qu’il abandonnerait les modérateurs de contenu IA qu’il avait recrutés au milieu de la pandémie pour revenir à des modérateurs humains plus fiables, nuancés et précis, l’un des anciens modérateurs de la société, qui a travaillé avec eux via un agence, a déposé une plainte contre YouTube pour négligence. L’ex-membre du personnel a accusé YouTube de ne pas soutenir ses modérateurs de contenu, qui développaient des problèmes de santé mentale liés au SSPT après avoir visionné des heures de vidéos troublantes de fusillades dans des écoles, d’exécutions, de maltraitance d’enfants, etc. Les mêmes plaintes ont été déposées contre Facebook en 2018.
Puis, hier, nous avons vu TikTok tendre la main à ses concurrents pour proposer qu’ils unissent leurs forces pour lutter contre les contenus dérangeants en ligne. Cela est venu après qu’une vidéo d’un homme mourant par suicide, qui a été diffusée en direct sur Facebook, a été diffusée 10000 fois sur TikTok dans ce que la société pense être une attaque coordonnée. La vidéo a été téléchargée avec des miniatures trompeuses, ce qui rend difficile pour les modérateurs d’agir rapidement.
Cette année, nous avons vu notre juste part de contenu dérangeant. Malheureusement, une grande partie de cela a pris la forme de vidéos de brutalités policières contre les Noirs en Amérique, dont la majorité a entraîné la mort. S’il est clair que ces vidéos ont inspiré la dernière vague de manifestations de Black Lives Matter et ont apporté un autre éclairage sur la question du racisme systémique, de nombreux utilisateurs ont appelé les autres à arrêter de partager ce contenu traumatisant, qui a depuis été marqué «Porno traumatisme».
Ecrire pour Le nouvel homme d’État en 2017, la journaliste Stephanie Boland se souvient avoir vu des images d’un attentat terroriste sur Londres. Elle a expliqué comment maintenant, «alors que la frontière entre les nouvelles traditionnelles et les médias sociaux s’estompe», nous – en tant que consommateurs et participants au cycle de l’information – avons la responsabilité de faire preuve de prudence. Pour les utilisateurs de médias sociaux sans méfiance, l’exposition à des images de meurtre, de terreur et de violence graphique peut être extrêmement traumatisante. Je pense encore aux images qui ont fait surface sur Twitter il y a trois ans, après une attaque terroriste dans ma ville natale, Manchester. Je me souviens de ce que je ressentais en les voyant; que j’aurais souhaité ne jamais avoir et ne le ferais plus jamais.
En lisant le récit des anciens modérateurs de YouTube sur ce à quoi elle a dû faire face, il est devenu plus clair pour moi que nous devons arrêter de traiter les sites de médias sociaux comme purement technologiques. Il y a des humains dans les coulisses qui, encore plus que des utilisateurs individuels, sont soumis à des images horribles chaque jour. Et ces humains peuvent faire des erreurs. Quand ils le font, il devient de notre responsabilité – en tant qu’humains de l’autre côté de l’écran – de faire ce qui est juste, en prenant des décisions éclairées sur ce qui devrait et ne devrait pas être diffusé et sur les personnes que ce contenu pourrait affecter.