Comment un moteur de recherche comme Google quantifie-t-il, analyse-t-il et classe-t-il les informations ? Quels facteurs prend-il en compte et comment sont-ils pondérés ? Les algorithmes qui gèrent les requêtes peuvent être opaques, mais les résultats finaux sont clairement visibles.
C’est l’idée derrière Rechercher dans l’Atlas, un nouvel outil développé par des universitaires qui vise à montrer comment Google afficherait les résultats de recherche si une requête était saisie dans différentes régions du monde. Il s’agit d’une interface expérimentale pour la recherche Google qui renvoie trois, plutôt qu’une, colonnes de résultats sélectionnés parmi plus de 100 versions géographiquement localisées du moteur de recherche à travers le monde. Ainsi, par exemple, une recherche de la place Tiananmen peut donner la priorité au tristement célèbre massacre de manifestants en 1989 ou aux directions pour les touristes ; aux États-Unis, certains résultats peuvent être supprimés en raison de plaintes relatives au Digital Millennium Copyright Act ; ou en France et en Allemagne, certains sites de négationnisme peuvent être bloqué des résultats.
Rapports filaires que les créateurs de Search Atlas ont présenté leurs résultats pour la première fois lors de la conférence Designing Interactive Systems en juin et que cela reste en version bêta privée, mais ils ont publié un papier et d’autres documents de prévisualisation sur le site du projet. L’outil donne déjà des résultats intéressants. Par exemple, l’utilisation de Search Atlas pour rechercher des images de « Dieu » fait apparaître des images chrétiennes aux États-Unis et en Europe, tandis qu’en Asie, des images de Bouddha ont été trouvées et dans le golfe Persique et en Afrique du Nord, une écriture arabe.
Au Royaume-Uni et à Singapour, une recherche sur la place Tiananmen a révélé des images liées au massacre, tandis qu’une recherche sur la Chine (où Google est bloqué depuis 2010) a révélé « des images récentes et ensoleillées de la place, parsemées de touristes ». selon Wired. Les résultats de « comment lutter contre le changement climatique » ont mis l’accent sur des solutions politiques en Allemagne, tandis que des pays insulaires comme Maurice et les Philippines semblait recevoir des résultats soulignant la nature immédiate et grave de la menace, comme le niveau de la mer hausse qui menace de les affecter de manière disproportionnée beaucoup plus tôt.
De même, Wired a écrit que les requêtes sur la guerre dans la région du Tigré en Éthiopie qui se déroulent à l’intérieur du pays ont révélé « des pages Facebook et des blogs qui critiquaient les pressions diplomatiques occidentales pour désamorcer le conflit, suggérant que les États-Unis et d’autres essayaient d’affaiblir l’Éthiopie », tandis que les recherches au Kenya ou aux États-Unis « une couverture médiatique explicative plus importante provenant de sources telles que la BBC et le New York Times ».
MIT science, technology, and society Ph.D. student and Search Atlas creator Rodrigo Ochigame told Wired that the project aims to dispel the persistent notion that search engines like Google are neutral arbitrators of information: “Any attempt to quantify relevance necessarily encodes moral and political priorities.”
Project co-creator Katherine Ye, a computer science Ph.D. student at Carnegie Mellon University and research fellow at the Center for Arts, Design, and Social Research nonprofit, told Wired that “People ask search engines things they would never ask a person, and the things they happen to see in Google’s results can change their lives. It could be ‘How do I get an abortion?’ restaurants near you, or how you vote, or get a vaccine.”
For example, Vous avez tweeté que les résultats de Google pour « l’annexion de la Crimée » ont montré des résultats en Russie axés sur l’impact sur la Fédération de Russie, en Ukraine sur « l’occupation » et aux Pays-Bas sur les sanctions de l’Union européenne contre la Russie.
Ces résultats disparates ne sont pas nécessairement le résultat d’une intention de supprimer des informations, mais de facteurs tels que Google essayant de localiser ses résultats pour qu’ils intéressent davantage les personnes dans des régions géographiques spécifiques, un intérêt commercial, des lois locales et ce que Ochigame et Ye ont dit à Wired sont des « frontières de l’information » qui créent des « perspectives partielles ». Ces ajustements prétendument apolitiques se répercutent néanmoins inévitablement sur la politique. Alors que la différence de résultats pour la place Tiananmen semble refléter le désir du gouvernement chinois de dissimuler l’incident, un porte-parole de Google a déclaré à Wired que le moteur de recherche affiche les images touristiques lorsqu’il en déduit une intention de voyager. Les différences dans les recherches de « Dieu », a déclaré le porte-parole au site, étaient dues à la façon dont le terme est traduit dans différentes langues.
Le résultat final est une tranche partielle de la réalité fondée sur les hypothèses de Google sur le monde et influencée par un désir de maximiser les revenus, selon les chercheurs.
« Même les plus tôt études, basées au anecdotique remarques, déjà suggéré que les moteurs de recherche suppriment systématiquement certains sites dans favoriser de d’autres, dans aligner avec financier intérêts », ont écrit les chercheurs dans le document. « Suite récent études avoir argumenté cette recherche commerciale moteurs déployer algorithmes cette renforcer existant les structures sociales, en particulier les schémas racistes et sexistes d’exposition, d’invisibilité et de marginalisation. Ainsi, il est vital d’exposer la perspective partielle des moteurs de recherche.
.