Plus tôt cette semaine Affaires de santé a publié un numéro entier consacré au thème du racisme et de la santé. Comme Affaires de santé est une revue de politique de santé à comité de lecture, ce numéro s’inscrit dans notre mission de servir de forum non partisan de haut niveau pour promouvoir l’analyse et la discussion sur l’amélioration de la santé et des soins de santé, et pour aborder des questions telles que le coût, la qualité et l’accès.
Des années de planification et des milliers d’heures d’efforts ont été consacrées à la production de ce numéro. Nous sommes allés au-delà des frontières de la revue avec une interview vidéo, des événements virtuels, des éléments interactifs, et plus encore, qui peuvent tous être trouvés sur notre page de destination dédiée.
Affaires de santé a plus que 160 000 abonnés Twitter et plus de 100 000 abonnés, mais nous voulions être sûrs d’atteindre de nouveaux lecteurs avec ce contenu important. Et comment un journal pourrait-il faire cela ? Avec un placement payant de notre contenu sur Twitter et Google (YouTube) qui cible les utilisateurs individuels en fonction de leurs intérêts, de leur profession, de leur âge et de leur emplacement. Il s’agit d’une méthode de sensibilisation standard appelée médias payants.
Pas si vite…
Les bots nous bloquent
Au moment où j’écris cet article, toutes nos publicités payantes sur Google et Twitter qui font la promotion de notre contenu sur le racisme et la santé ont été suspendues. Les images ci-dessous sont les réponses que nous avons reçues de ces deux sociétés :
Qu’est-ce qui se passe ici?
Les systèmes automatisés que ces grandes entreprises technologiques utilisent pour s’assurer que les organisations ne font pas la promotion de mensonges ont trouvé le mot « racisme » dans nos documents et l’ont signalé comme contenu sensible. Et nous sommes loin d’être la seule publication se heurter à ce genre de problème.
Nous savons que le moteur de recherche les algorithmes renforcent le racisme. Mais que se passe-t-il lorsque ces algorithmes signifient que nous ne pouvons même pas parler sur racisme?
Au début, nous étions frustrés par nous-mêmes. Peut-être aurions-nous dû anticiper cela et déposer une demande spéciale à l’avance. Mais une telle démarche devrait-elle vraiment être nécessaire ?
Ensuite, nous sommes passés en mode résolution de problèmes. Connaissons-nous quelqu’un qui connaît quelqu’un qui travaille chez Google ou Twitter qui peut résoudre ce problème ? En combien de temps pouvons-nous réduire les formalités administratives et soumettre les documents requis pour obtenir l’approbation de promouvoir notre contenu ?
Mais maintenant nous sommes juste en colère. Les bots ou les algorithmes, appelez-les comme vous voulez, bloquent notre contenu. Nos annonces ont été scannées par un robot ; le robot voit le mot « racisme » et désapprouve le contenu.
Cela présente un exemple parfait de la raison pour laquelle il peut être difficile de parler de racisme. Bien sûr, le racisme est un « contenu sensible », c’est ce que nous a dit chaque plateforme. Mais la recherche que nous avons publiée est exactement le type de contenu sensible dont notre pays a besoin en ce moment : une recherche évaluée par des pairs et ancrée dans des méthodes solides qui démontrent et explorent la relation entre le racisme et la santé.
Nous comprenons qu’une grande partie de ce qui est téléchargé sur Google et Twitter et qui utilise des termes comme le racisme et la discrimination peut conduire à des troubles, à la violence, à la haine, à la pêche à la traîne et à l’utilisation abusive des plateformes des géants de la technologie. Mais il n’y a aucun moyen de changer cela si ces mêmes plateformes font taire le contenu conçu pour mener à un discours productif.
Aidez-nous à vaincre les bots
Nous avons commencé le processus d’appel de la décision et, espérons-le, nous réussirons à faire apparaître nos annonces. Mais nous sommes déjà trois jours après le lancement du numéro, ce qui signifie que nous avons au moins deux semaines de retard dans le jeu de promotion pour un numéro de ce calibre.
Nous ne pouvons pas changer l’algorithme alors jouons le jeu. Plus cette publication et tous nos contenus sur le racisme et la santé reçoivent de partages, de clics, de vues, de commentaires, etc., plus nous envoyons de signaux. Ces signaux indiquent aux plateformes que notre contenu est important, que nous avons le pouvoir de publier sur ce sujet et que les utilisateurs comme vous veulent le lire.
Rejoignez-nous dans notre petit acte de désobéissance civile. En ce qui concerne notre numéro de Racisme et santé, lisez-le. Écoute le. Regarde ça. Recherche le. Partagez-le. Tweetez à ce sujet. Envoyez-le par e-mail.
Nous espérons que nos annonces apparaîtront bientôt. Jusque-là, battons l’algorithme.