Un porte-parole de Google a déclaré que les différences dans les résultats n’étaient pas dues à la censure et que le contenu sur le massacre de la place Tiananmen est disponible via la recherche Google dans n’importe quelle langue ou paramètre régional. Les images touristiques gagnent en importance dans certains cas, a déclaré le porte-parole, lorsque le moteur de recherche détecte une intention de voyager, ce qui est plus probable pour les chercheurs plus proches de Pékin ou tapés en chinois. La recherche de la place Tiananmen depuis la Thaïlande ou les États-Unis à l’aide du paramètre de langue chinoise de Google génère également des images récentes et nettes du site historique.
« Nous localisons les résultats dans votre région et votre langue préférées afin que vous puissiez accéder rapidement aux informations les plus fiables », a déclaré le porte-parole. Les utilisateurs de Google peuvent ajuster leurs propres résultats en ajustant leurs paramètres de localisation et leur langue.
Les collaborateurs de Search Atlas ont également créé des cartes et des visualisations montrant comment les résultats de recherche peuvent différer dans le monde entier. L’une montre comment la recherche d’images de « Dieu » produit des images chrétiennes barbus en Europe et dans les Amériques, des images de Bouddha dans certains pays asiatiques et une écriture arabe pour Allah dans le golfe Persique et en Afrique du Nord-Est. Le porte-parole de Google a déclaré que les résultats reflètent la façon dont son service de traduction convertit le terme anglais « Dieu » en mots avec des significations plus spécifiques pour certaines langues, comme Allah en arabe.
D’autres frontières d’information tracées par les chercheurs ne correspondent pas directement aux frontières nationales ou linguistiques. Les résultats sur « comment lutter contre le changement climatique » ont tendance à diviser les nations insulaires et les pays sur les continents. Dans les pays européens tels que l’Allemagne, les mots les plus courants dans les résultats de Google concernaient des mesures politiques telles que la conservation de l’énergie et les accords internationaux ; pour des îles telles que Maurice et les Philippines, les résultats étaient plus susceptibles de citer l’énormité et l’immédiateté de la menace d’un changement climatique, ou des dommages tels que l’élévation du niveau de la mer.
Search Atlas a été présenté le mois dernier lors de la conférence académique Designing Interactive Systems ; ses créateurs testent une version bêta privée du service et réfléchissent à la manière d’en élargir l’accès.
Search Atlas ne peut pas révéler pourquoi les différentes versions de Google présentent le monde différemment. Les systèmes de classement lucratifs de l’entreprise sont étroitement contrôlés et l’entreprise en dit peu sur la façon dont elle ajuste les résultats en fonction de la géographie, de la langue ou de l’activité d’une personne.
Quelle que soit la raison exacte pour laquelle Google affiche (ou n’affiche pas) des résultats particuliers, ils ont un pouvoir trop facilement ignoré, déclare Ye, co-créateur de Search Atlas. « Les gens demandent aux moteurs de recherche des choses qu’ils ne demanderaient jamais à personne, et les choses qu’ils voient dans les résultats de Google peuvent changer leur vie », explique Ye. « Cela pourrait être ‘Comment puis-je obtenir un avortement ?’ restaurants près de chez vous, ou comment vous votez, ou faites-vous vacciner.
Les propres expériences de WIRED ont montré comment les personnes des pays voisins pouvaient être dirigées par Google vers des informations très différentes sur un sujet brûlant. Lorsque WIRED a interrogé Search Atlas sur la guerre en cours dans la région du Tigré en Éthiopie, l’édition Éthiopie de Google a signalé des pages Facebook et des blogs qui critiquaient la pression diplomatique occidentale pour désamorcer le conflit, suggérant que les États-Unis et d’autres tentaient d’affaiblir l’Éthiopie. Les résultats pour le Kenya voisin et la version américaine de Google ont mis en évidence une couverture d’actualités explicative provenant de sources telles que la BBC et Le New York Times.
Ochigame et Ye ne sont pas les premiers à souligner que les moteurs de recherche ne sont pas des acteurs neutres. Leur projet a été en partie inspiré par le travail de Safiya Noble, cofondatrice et codirectrice du Center for Critical Internet Inquiry de l’UCLA. Sa livre 2018 Algorithmes d’oppression ont exploré comment les recherches Google utilisant des mots tels que « Noir » ou « Hispanique » ont produit des résultats reflétant et renforçant les préjugés sociétaux contre certaines personnes marginalisées.
Noble dit que le projet pourrait fournir un moyen d’expliquer la vraie nature des moteurs de recherche à un public plus large. « Il est très difficile de rendre visible les manières dont les moteurs de recherche ne sont pas démocratiques », dit-elle.
.