OAKLAND – Google d’Alphabet a décidé cette année de resserrer le contrôle sur les articles de ses scientifiques en lançant une revue de «sujets sensibles», et dans au moins trois cas, les auteurs ont demandé à s’abstenir de présenter sa technologie sous un jour négatif, selon des communications internes et des entretiens avec des chercheurs impliqué dans le travail.
La nouvelle procédure d’examen de Google demande aux chercheurs de consulter les équipes juridiques, politiques et de relations publiques avant de poursuivre des sujets tels que l’analyse des visages et des sentiments et les catégorisations de race, de sexe ou d’affiliation politique, selon les pages Web internes expliquant la politique.
«Les progrès technologiques et la complexité croissante de notre environnement externe conduisent de plus en plus à des situations où des projets apparemment inoffensifs soulèvent des problèmes éthiques, de réputation, réglementaires ou juridiques», a déclaré l’une des pages destinées au personnel de recherche. Reuters n’a pas pu déterminer la date du message, bien que trois employés actuels aient déclaré que la politique avait commencé en juin.
Google a refusé de commenter cette histoire.
Le processus des «sujets sensibles» ajoute un cycle d’examen minutieux à l’examen standard de Google des documents pour les pièges tels que la divulgation de secrets commerciaux, ont déclaré huit employés actuels et anciens.
Pour certains projets, les responsables de Google sont intervenus à des étapes ultérieures. Un haut responsable de Google examinant une étude sur la technologie de recommandation de contenu peu avant sa publication cet été a dit aux auteurs de «prendre grand soin de donner un ton positif», selon une correspondance interne lue à Reuters.
Le responsable a ajouté: «Cela ne veut pas dire que nous devons nous cacher des vrais défis» posés par le logiciel.
Une correspondance ultérieure entre un chercheur et des évaluateurs montre que les auteurs ont été « mis à jour pour supprimer toutes les références aux produits Google ». Un brouillon vu par Reuters avait mentionné YouTube appartenant à Google.
Quatre chercheurs membres du personnel, dont la scientifique principale Margaret Mitchell, ont déclaré qu’ils pensaient que Google commençait à interférer avec des études cruciales sur les dommages technologiques potentiels.
«Si nous recherchons la chose appropriée compte tenu de notre expertise, et que nous ne sommes pas autorisés à publier cela pour des raisons qui ne sont pas conformes à un examen par les pairs de haute qualité, nous nous retrouvons dans un grave problème de censure», a déclaré Mitchell.
Google déclare sur son site Web destiné au public que ses scientifiques ont une liberté «substantielle».
Des tensions entre Google et certains membres de son personnel ont éclaté ce mois-ci après le départ brutal du scientifique Timnit Gebru, qui dirigeait une équipe de 12 personnes avec Mitchell axée sur l’éthique dans les logiciels d’intelligence artificielle (IA).
Gebru dit que Google l’a licenciée après avoir remis en question une ordonnance de ne pas publier de recherche affirmant que l’IA qui imite la parole pourrait désavantager les populations marginalisées. Google a déclaré avoir accepté et accéléré sa démission. Il n’a pas été possible de déterminer si l’article de Gebru avait fait l’objet d’un examen sur des «sujets sensibles».
Le vice-président senior de Google, Jeff Dean, a déclaré dans un communiqué ce mois-ci que l’article de Gebru s’attardait sur les dommages potentiels sans discuter des efforts en cours pour y remédier.
Dean a ajouté que Google soutenait les bourses d’études en éthique de l’IA et «travaillait activement à l’amélioration de nos processus d’examen des documents, car nous savons que trop de freins et contrepoids peuvent devenir compliqués.
‘Sujets sensibles’
L’explosion de la recherche et du développement de l’IA dans le secteur de la technologie a incité les autorités aux États-Unis et ailleurs à proposer des règles pour son utilisation. Certains ont cité des études scientifiques montrant que les logiciels d’analyse faciale et d’autres IA peuvent perpétuer les biais ou éroder la vie privée.
Ces dernières années, Google a intégré l’IA dans ses services, en utilisant la technologie pour interpréter des requêtes de recherche complexes, décider des recommandations sur YouTube et des phrases de saisie semi-automatique dans Gmail. Ses chercheurs ont publié plus de 200 articles l’année dernière sur le développement responsable de l’IA, parmi plus de 1000 projets au total, a déclaré Dean.
L’étude des services Google pour les préjugés fait partie des «sujets sensibles» de la nouvelle politique de l’entreprise, selon une page Web interne. Parmi les dizaines d’autres «sujets sensibles» répertoriés figuraient l’industrie pétrolière, la Chine, l’Iran, Israël, le COVID-19, la sécurité domestique, l’assurance, les données de localisation, la religion, les véhicules autonomes, les télécommunications et les systèmes qui recommandent ou personnalisent le contenu Web.
Le document de Google pour lequel les auteurs ont été invités à adopter un ton positif discute de la recommandation AI, que des services comme YouTube utilisent pour personnaliser les flux de contenu des utilisateurs. Un projet examiné par Reuters incluait des «préoccupations» selon lesquelles cette technologie peut favoriser «la désinformation, des résultats discriminatoires ou autrement injustes» et «une diversité insuffisante du contenu», ainsi que conduire à une «polarisation politique».
La publication finale indique plutôt que les systèmes peuvent promouvoir «des informations exactes, l’équité et la diversité du contenu». La version publiée, intitulée «Pour quoi optimisez-vous? Aligner les systèmes de recommandation avec les valeurs humaines », a omis les chercheurs de Google. Reuters n’a pas pu déterminer pourquoi.
Un article de ce mois-ci sur l’IA pour comprendre une langue étrangère a adouci une référence à la façon dont le produit Google Traduction commettait des erreurs à la suite d’une demande des critiques de l’entreprise, a déclaré une source. La version publiée indique que les auteurs ont utilisé Google Traduction, et une phrase distincte indique qu’une partie de la méthode de recherche consistait à «réviser et corriger les traductions inexactes».
Pour un article publié la semaine dernière, un employé de Google a décrit le processus comme un «long-courrier», impliquant plus de 100 échanges de courriels entre chercheurs et évaluateurs, selon la correspondance interne.
Les chercheurs ont découvert que l’IA peut cracher des données personnelles et du matériel protégé par le droit d’auteur – y compris une page d’un roman «Harry Potter» – qui avait été extraite d’Internet pour développer le système.
Un projet décrit comment de telles divulgations pourraient enfreindre les droits d’auteur ou violer la loi européenne sur la protection de la vie privée, a déclaré une personne familière avec le sujet. À la suite des critiques des entreprises, les auteurs ont supprimé les risques juridiques et Google a publié l’article.