Google d’Alphabet Inc modifiera les procédures avant juillet pour examiner les travaux de ses scientifiques, selon un enregistrement de la mairie entendu par Reuters, dans le cadre d’un effort visant à réprimer le tumulte interne sur l’intégrité de ses recherches sur l’intelligence artificielle (IA).

Dans des remarques lors d’une réunion du personnel vendredi dernier, les dirigeants de Google Research ont déclaré qu’ils travaillaient pour regagner la confiance après que la société ait évincé deux femmes de premier plan et rejeté leur travail, selon un enregistrement d’une heure, dont le contenu a été confirmé par deux sources.

Les équipes testent déjà un questionnaire qui évaluera les projets en fonction des risques et aidera les scientifiques à naviguer dans les revues, a déclaré la directrice des opérations de l’unité de recherche Maggie Johnson lors de la réunion. Ce changement initial sera mis en œuvre d’ici la fin du deuxième trimestre, et la majorité des articles ne nécessiteront pas de vérification supplémentaire, a-t-elle déclaré.

Reuters a rapporté en décembre que Google avait introduit un examen des «sujets sensibles» pour les études portant sur des dizaines de questions, comme la Chine ou les biais dans ses services. Des réviseurs internes avaient exigé qu’au moins trois articles sur l’IA soient modifiés pour s’abstenir de jeter un regard négatif sur la technologie Google, a rapporté Reuters.

Jeff Dean, vice-président senior de Google chargé de superviser la division, a déclaré vendredi que l’examen des « sujets sensibles » est et était déroutant « et qu’il avait chargé un directeur de recherche principal, Zoubin Ghahramani, de clarifier les règles, selon l’enregistrement.

Publicité

Ghahramani, un professeur de l’Université de Cambridge qui a rejoint Google en septembre en provenance d’Uber, a déclaré lors de la mairie: « Nous devons être à l’aise avec cet inconfort » de la recherche autocritique.

Google a refusé de commenter la réunion de vendredi.

Un e-mail interne, consulté par Reuters, offrait de nouveaux détails sur les préoccupations des chercheurs de Google, montrant exactement comment le service juridique de Google avait modifié l’une des trois IA papiers, appelé «Extraction de données de formation à partir de modèles de grand langage».

L’e-mail, daté du 8 février, d’un co-auteur de l’article, Nicholas Carlini, a été adressé à des centaines de collègues, cherchant à attirer leur attention sur ce qu’il a appelé les modifications « profondément insidieuses » des avocats de la société.

«Soyons clairs ici», disait le courriel d’environ 1 200 mots. «Lorsque nous, universitaires, écrivons que nous avons une ‘inquiétude’ ou que nous trouvons quelque chose de ‘inquiétant’ et qu’un avocat de Google nous demande de le changer pour qu’il sonne mieux, c’est vraiment Big Brother qui intervient. »

Les modifications requises, selon son e-mail, comprenaient des échanges «négatifs à neutres» tels que le remplacement du mot «préoccupations» par «considérations» et «dangers» par «risques». Les avocats ont également exigé la suppression des références à la technologie Google; la conclusion des auteurs selon laquelle AI a divulgué du contenu protégé par le droit d’auteur; et les mots «violation» et «sensible», disait le courriel.

Carlini n’a pas répondu aux demandes de commentaires. Google, en réponse aux questions sur l’e-mail, a contesté son affirmation selon laquelle les avocats essayaient de contrôler le ton du journal. La société a déclaré qu’elle n’avait aucun problème avec les sujets étudiés par le journal, mais elle a trouvé certains termes juridiques utilisés de manière inexacte et a effectué une révision approfondie en conséquence.

Audit d’équité raciale

La semaine dernière, Google a également nommé Marian Croak, pionnière de la technologie audio sur Internet et l’un des rares vice-présidents noirs de Google, pour consolider et gérer 10 équipes étudiant des problèmes tels que les préjugés raciaux dans les algorithmes et la technologie pour les personnes handicapées.

Croak a déclaré lors de la réunion de vendredi qu’il faudrait du temps pour répondre aux préoccupations des chercheurs en éthique de l’IA et atténuer les dommages causés à la marque de Google.

«Veuillez me tenir entièrement responsable d’essayer de renverser cette situation», a-t-elle déclaré sur l’enregistrement.

Johnson a ajouté que l’organisation d’IA faisait appel à une société de conseil pour une vaste évaluation de l’impact sur l’équité raciale. La première vérification du genre pour le ministère conduirait à des recommandations «qui vont être assez difficiles», a-t-elle déclaré.

Les tensions au sein de la division de Dean se sont intensifiées en décembre après que Google a laissé tomber Timnit Gebru, codirigeant de son équipe de recherche sur l’IA éthique, à la suite de son refus de retirer un article sur l’IA génératrice de langage.

Gebru, qui est noire, a accusé l’entreprise à l’époque de revoir son travail différemment en raison de son identité et de marginaliser des employés issus de milieux sous-représentés. Près de 2700 employés a signé une lettre ouverte à l’appui de Gebru.

Au cours de la mairie, Dean a expliqué quelle bourse la société soutiendrait.

« Nous voulons une IA responsable et des enquêtes éthiques sur l’IA », a déclaré Dean, donnant l’exemple de l’étude des coûts environnementaux de la technologie.

Mais il est problématique de citer des données « de près d’un facteur cent » tout en ignorant des statistiques plus précises ainsi que les efforts de Google pour réduire les émissions, a-t-il déclaré.

Dean avait précédemment critiqué l’article de Gebru pour ne pas inclure d’importantes conclusions sur l’impact environnemental.

Gebru a défendu la citation de son article. « C’est un très mauvais regard pour Google de sortir aussi défensivement contre un article qui a été cité par tant de leurs institutions homologues », a-t-elle déclaré à Reuters.

Les employés ont continué à publier sur Twitter leurs frustrations au cours du mois dernier sous le nom de Google enquêté puis licencié la co-responsable de l’IA éthique Margaret Mitchell pour déplacer des fichiers électroniques à l’extérieur de l’entreprise.

Mitchell a déclaré sur Twitter qu’elle avait agi « pour soulever des inquiétudes concernant l’iniquité raciale et sexuelle, et dénoncer le licenciement problématique du Dr Gebru par Google ».

Mitchell avait collaboré sur le papier qui a provoqué le départ de Gebru, et une version publiée en ligne le mois dernier sans affiliation à Google nommée « Shmargaret Shmitchell » en tant que co-auteur.

Interrogé sur ses commentaires, Mitchell a exprimé par l’intermédiaire d’un avocat sa déception face à la critique du journal par Dean et a déclaré que son nom avait été retiré à la suite d’une commande de la société.

Rate this post
Publicité
Article précédentComment obtenir le mode nuit sur les anciens modèles d’iPhone pour filmer des scènes à faible éclairage comme un iPhone 11 ou 12 «iOS et iPhone :: Gadget Hacks
Article suivantThe Eminence in Shadow reçoit un anime télévisé: un nouveau volume vendredi
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici