- Publicité -


En 2016, l’ONU a déclaré que l’accès à Internet est un droit de l’homme.

Cette décision a été prise étant entendu qu’Internet est un outil permettant à chacun d’accéder à l’information à un prix abordable et de s’exprimer.

- Publicité -

Cette résolution a suscité des discussions sur l’accès en termes d’infrastructure, où les câbles à fibre optique sont installés ou mis à jour, ou permettant un accès ininterrompu pendant les troubles civils et autres urgences.

Bien qu’il s’agisse de points valables et importants, Internet n’est pas seulement des fils et des écrans, et les informations consultées peuvent être modifiées en fonction d’algorithmes.

Comme Internet s’est intégré dans nos vies, il fait maintenant partie de notre infrastructure sociale (similaire aux services médicaux ou éducatifs).

Il est bien documenté qu’il existe des biais dans les espaces médicaux et éducatifs, y compris l’accès aux soins et la qualité des soins, mais qu’en est-il des résultats de recherche?

Sont-ils justes? Sont-ils représentatifs du monde qui nous entoure ? Ou causent-ils plus de mal que de bien ?

Qu’y a-t-il dans un algorithme ?

Dans le marketing numérique, « algorithme » est un terme qui est lancé quotidiennement, que quelqu’un comprenne ou non ce que cela signifie. Chaque plateforme en a une (ou plusieurs), et notre travail est d’essayer de les satisfaire.

Un algorithme est une procédure suivie lorsqu’un système effectue un calcul.

Ce processus prend une entrée et utilise des formules, des règles ou d’autres opérations de résolution de problèmes pour produire une sortie.

Pour la recherche, cela signifie que les requêtes saisies dans une zone de recherche sont l’entrée et que la SERP (page de résultats du moteur de recherche) est la sortie.

C’est une explication très simpliste de ce qui se passe. Google utilise plusieurs algorithmes en combinaison avec l’IA (Intelligence Artificielle) et apprentissage automatique.

Disséquer l’ensemble du système serait bien au-delà de mon champ d’application et au-delà de l’objectif de cet article.

Le Canari dans les SERP

En tant que femme, je ne suis pas étrangère aux préjugés dans les sites Web, les politiques et la société en général.

Chaque jour, je navigue dans le monde avec une pincée de sel. Enquêter sur l’ biais potentiels dans les résultats de recherche est quelque chose qui m’intéresse depuis un certain temps, et j’ai commencé à faire des recherches sur le sujet en 2021.

Un projet de recherche original (Divulgation complète: que j’ai aidé à mener) appelé Donnez-nous des caractéristiques, pas des fleurs a examiné les préjugés sexistes du paysage social et de la recherche pour les photographes professionnels.

Plusieurs requêtes non sexistes ont été testées, telles que « meilleurs comptes Instagram de photographie » ou « meilleurs photographes ».

Les résultats ?

Les femmes ont été présentées comme des photographes professionnels beaucoup moins que les hommes dans les résultats riches et dans le contenu de la première page, bien qu’elles composent 50% des professionnels.

Qui est responsable de ces préjugés? Les rédacteurs qui ont écrit les articles? Les moteurs de recherche pour récompenser ces pages? Des pros seo pour recommander l’article à leur client ?

Ma réaction instinctive est de blâmer celui qui a créé l’algorithme.

Bien que cela soit vrai dans une certaine mesure, ce n’est pas toute l’histoire et ce n’est tout simplement pas juste.

Les préjugés sont enracinés dans nos structures sociétales existantes, tissés dans notre culture, notre gouvernement et nos interactions avec le monde qui nous entoure.

L’algorithme De PageRank est-il biaisé ?

Recherche publiée en 2011 a déjà remis en question l’équité du PageRank.

Les modèles montrent qu’à mesure que le Web s’est développé, la stabilité des sites Web les mieux classés devient plus stable, laissant les sites Web restants plaider en faveur de restes.

Nature, une revue à comité de lecture, a publié un article dans Février 2022 examiner l’algorithme PageRank pour voir s’il introduit ou amplifie les biais.

Pour le dire en termes simples, les chercheurs ont créé cinq modèles sociétaux potentiels avec différents degrés d’homophilie (« la tendance à se connecter à d’autres similaires »).

Chaque modèle contient 20 nœuds, mais appelons-les sites Web. Ensuite, chaque site Web s’est vu attribuer un classement de page et fait partie de la majorité ou de la minorité au sein de la société.

L’inégalité a été mesurée à l’aide du coefficient de Gini (une analyse statistique pour mesurer l’inégalité) pour voir comment un individu obtenait un score par rapport à une distribution égale. L’inégalité a été mesurée en calculant le pourcentage de minorités dans les premiers résultats de recherche.

Leurs résultats montrent que l’algorithme de PageRank peut réduire, répliquer ou amplifier les biais en fonction du modèle utilisé.

Dans les modèles avec un haut degré d’homophilie, les voix dominantes perpétué ces points de vue et ces préjugés tout en sous-représentant les minorités.

D’autre part, lorsque le groupe majoritaire est hétérophile (la tendance à se rassembler en groupes divers), il y a une surreprésentation des minorités.

Cela jette les bases de recherches futures sur les interventions potentielles ou la réduction des biais par rapport aux algorithmes.

L’intersection de la culture et des résultats de recherche Google Image

De nombreuses recherches ont montré que les algorithmes peuvent être et que beaucoup sont biaisés. Comme discuté précédemment, PankRank peut jouer dans ces biais pour les amplifier ou les diminuer, mais les algorithmes n’agissent pas seuls.

Dans le cas de Google, il n’y a pas seulement plusieurs algorithmes en jeu, mais aussi l’IA et l’apprentissage automatique. Tous ces éléments évoluent continuellement à travers nos interactions (humaines).

Une autre recherche qui a été publié cette année pour étudier si les inégalités sociétales entre les sexes étaient présentes dans les résultats de recherche Google Image (via des algorithmes de recherche localisés).

Les chercheurs ont tracé l’inégalité entre les sexes par pays (sur la base de l’indice mondial de l’écart entre les sexes) et le pourcentage d’hommes apparaissant dans les résultats de recherche Google Image lors de la recherche de « personne » dans la langue respective de chaque pays (en utilisant un VPN pour accéder aux résultats locaux).

Les pays où l’inégalité entre les sexes est plus grande ont vu plus d’images d’hommes pour le mot-clé neutre « personne ». Ce qu’ils prétendent être un lien entre les normes sociétales et la production algorithmique.

La deuxième partie de l’étude a examiné comment ces résultats biaisés peuvent influencer la prise de décision des individus.

Les participants ont regardé des captures d’écran des résultats de Google Image de pays à faible et forte inégalité et ont été interrogés sur le genre et la profession.

En sautant les détails (bien que je pense que l’article vaut la peine d’être lu), les résultats ont montré que les biais culturels présents dans les algorithmes peuvent (et influencent) la prise de décision individuelle.

Lorsque les participants ont vu des résultats d’image de pays à faible inégalité, leurs résultats étaient plus égalitaires que ceux de pays à forte inégalité, où les résultats renforçaient les préjugés sexistes.

Le niveau d’inégalité sociétale entre les sexes se reflète dans l’algorithme de recherche, ce qui m’amène à me demander à quel point. La combinaison de ces éléments influence ensuite la perception individuelle à travers chaque utilisation.

Qui est responsable des biais dans les SERP ?

J’ai commencé ce voyage en posant cette question en espérant une réponse simple.

Malheureusement, il n’y en a pas parce que nous sommes tous responsables des biais dans les résultats de recherche. Des codeurs originaux aux rédacteurs, en passant par les professionnels du référencement et les créateurs de liens, ainsi que la société, la culture et l’environnement dans lequel nous existons.

Imaginez tous les Algorithmes vous interagissez avec tous les jours. Si l’exposition à ces algorithmes influence votre perception du monde, alors elle devient désordonnée, démêlant les chaînes de plusieurs entrées.

Comment pouvons-nous l’améliorer?

En tant qu’optimiste désespéré, je ne peux pas vous laisser avec un fardeau aussi lourd. Commençons la discussion sur la façon dont nous pouvons faire de la recherche et du contenu un espace plus inclusif.

Les chercheurs qui ont examiné les biais dans le PageRank ont discuté du fait que si les réseaux homophiles étaient à l’origine d’inégalités de représentation, les minorités peuvent surmonter cela grâce à un réseautage stratégique.

Ce n’est pas une solution raisonnable, alors ils ont suggéré de mettre en œuvre Le (ne vous inquiétez pas, je n’entrerai pas dans les détails!).

Ce modèle éliminerait la nécessité pour les minorités d’être tenues de réseauter avec des majorités.

Les interventions basées sur la psychologie ont été suggérées par l’autre étude car elles ont conclu que l’inégalité sociétale entre les sexes se reflétait dans l’algorithme. Ils appellent à une IA plus éthique qui combine notre compréhension de la psychologie et de la société.

Généralement, la plus grande préoccupation d’un professionnel du référencement est de savoir comment faire appel à l’algorithme plutôt que de remettre en question l’équité ou l’égalité de ceux-ci ou comment nous pourrions perpétuer des préjugés nuisibles.

Grâce à l’utilisation de logiciels alimentés par l’IA pour interpréter les algorithmes alimentés par l’IA, il devrait y avoir un moment où nous devrions commencer à remettre en question la composante éthique de notre travail.

Actuellement, les résultats de recherche ne sont pas une représentation exacte d’un monde équitable alors qu’ils peuvent l’être.

En tant que professionnels du référencement, créateurs de contenu et spécialistes du marketing, nous jouons un rôle important dans la reproduction de contenu inéquitable, l’augmentation de la visibilité des voix déjà importantes et la perpétuation de nos préjugés culturels locaux.

Voici quelques autres suggestions que j’ai eues pour aider à créer un paysage de recherche plus équitable.

  • Arrêtez de répliquer du contenu biaisé – partager votre plateforme avec diversifiez les voix et créez de nouveaux récits autour de votre créneau.
  • Auditer le contenu de l’IA – Je ne vais pas dire non à tout le contenu de l’IA, mais il devrait être examiné par un humain car il risque de tomber dans les mêmes schémas.
  • Audits d’algorithmes – de la même manière que nous auditons les sites Web, les algorithmes peuvent être audités. Il existe des ressources pour vérifier les biais potentiels et vérifier pour analyses d’impact.
  • Soutenir l’éducation – soutenir ou faire du bénévolat auprès d’organisations qui fournissent des formations en codage, en logiciels ou techniques aux femmes, aux personnes de couleur ou à d’autres groupes marginalisés. Shoutout à Les femmes dans le SEO Tech pour être l’un de ces espaces.
  • Ressources multilingues – créer des ressources de référencement et d’autres ressources marketing dans des langues autres que l’anglais pour permettre des voix et des perspectives diverses.
  • Créer des algorithmes et une IA moins biaisés – plus facile à dire qu’à faire, mais Google AI a annoncé KELM l’année dernière, qui a un certain potentiel en ce qui concerne la vérification des faits et la réduction des biais
  • Arrêtez la gentrification de la recherche – Être anticoncurrentiel, c’est être anti-business. Il supprime les voix nouvelles et diverses, alors j’aimerais en voir plus entreprises dans la recherche paysage et plus de variété dans les résultats.

Je n’ai pas l’intention d’avoir le dernier mot sur ce sujet, car cette conversation devrait se poursuivre dans les fils Twitter, lors de conférences, autour d’un café et dans notre travail quotidien.

Veuillez partager vos réflexions ou vos questions sur ce sujet afin que nous puissions commencer à discuter de la création d’une expérience de recherche qui ne nuit pas à la société.

Plus de ressources :


Image en vedette: Andrii Yalanskyi / Shutterstock



Rate this post
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici