Hier, lors de la conférence des développeurs I / O de Google, la société a présenté plans ambitieux pour son avenir construit sur une base d’intelligence artificielle avancée. Ces systèmes, a déclaré le PDG de Google, Sundar Pichai, permettront aux utilisateurs de trouver des informations et d’organiser leur vie en ayant des conversations naturelles avec des ordinateurs. Tout ce que vous avez à faire est de parler et la machine répondra.
Mais pour de nombreux membres de la communauté de l’IA, il y avait une absence notable dans cette conversation: la réponse de Google à sa propre recherche examinant les dangers de tels systèmes.
En décembre 2020 et février 2021, Google a d’abord licencié Timnit Gebru, puis Margaret Mitchell, codirigeants de son équipe Ethical AI. L’histoire de leur départ est complexe mais a été déclenchée par un article que le couple a co-écrit (avec des chercheurs extérieurs à Google) examinant les risques associés aux modèles de langage que Google présente désormais comme la clé de son avenir. Comme le note l’article et d’autres critiques, ces systèmes d’IA sont sujets à un certain nombre de défauts, y compris la génération de langage abusif et raciste; l’encodage des préjugés raciaux et sexistes par la parole; et une incapacité générale à trier les faits de la fiction. Pour beaucoup dans le monde de l’IA, le licenciement de Gebru et Mitchell par Google équivaut à censure de leur travail.
Pour certains téléspectateurs, alors que Pichai a expliqué comment les modèles d’IA de Google seraient toujours conçus avec « l’équité, la précision, la sécurité et la confidentialité » à cœur, la disparité entre les paroles et les actions de l’entreprise a soulevé des questions sur sa capacité à protéger cette technologie.
« Google vient de présenter LaMDA, un nouveau grand modèle de langage à I / O, » tweeté Meredith Whittaker, chercheuse sur l’équité en IA et cofondatrice de l’Institut AI Now. «Ceci est un indicateur de son importance stratégique pour les équipes de la Cie. Les équipes passent des mois à préparer ces annonces. Tl; dr ce plan était en place lorsque Google a renvoyé Timnit + a tenté d’étouffer sa + recherche critiquant cette approche. «
Google vient de présenter LaMDA un nouveau grand modèle de langage à I / O. Ceci est un indicateur de son importance stratégique pour les équipes Cie. Les équipes passent des mois à préparer ces annonces. Tl; dr ce plan était en place lorsque Google a renvoyé Timnit + a tenté de l’étouffer + recherche critiquant cette approche https://t.co/6VObPJ1ebo
– Meredith Whittaker (@mer__edith) 18 mai 2021
Gebru elle-même tweeté, «C’est ce qu’on appelle le lavage éthique» – faisant référence à la tendance de l’industrie technologique à dénoncer les préoccupations éthiques tout en ignorant les résultats qui entravent la capacité des entreprises à réaliser des bénéfices.
Parler à Le bord, Emily Bender, professeur à l’Université de Washington qui a co-écrit l’article avec Gebru et Mitchell, a déclaré que la présentation de Google n’avait aucunement apaisé ses inquiétudes quant à la capacité de l’entreprise à sécuriser cette technologie.
« Du article de blog [discussing LaMDA] et compte tenu de l’historique, je ne suis pas convaincu que Google se méfie réellement des risques que nous avons soulevés dans le document », a déclaré Bender. «D’une part, ils ont renvoyé deux des auteurs de cet article, nominalement pour le papier. Si les problèmes que nous soulevons étaient ceux auxquels ils étaient confrontés de front, alors ils se sont délibérément privés d’une expertise hautement pertinente pour cette tâche.
Dans son article de blog sur LaMDA, Google met en évidence un certain nombre de ces problèmes et souligne que son travail nécessite davantage de développement. «La langue est peut-être l’un des plus grands outils de l’humanité, mais comme tous les outils, elle peut être mal utilisée», écrit le directeur de recherche Zoubin Ghahramani et le vice-président de la gestion des produits Eli Collins. «Les modèles formés au langage peuvent propager cette mauvaise utilisation – par exemple, en internalisant les préjugés, en reflétant des discours haineux ou en reproduisant des informations trompeuses.»
Mais Bender dit que l’entreprise obscurcit les problèmes et doit être plus claire sur la façon dont elle les aborde. Par exemple, elle note que Google fait référence à la vérification du langage utilisé pour former des modèles comme LaMDA, mais ne donne aucun détail sur ce à quoi ressemble ce processus. «J’aimerais beaucoup connaître le processus de vérification (ou son absence)», déclare Bender.
Ce n’est qu’après la présentation que Google a fait référence à son unité d’éthique de l’IA, dans un CNET entrevue avec le chef de Google AI, Jeff Dean. Dean a noté que Google avait subi une véritable «atteinte à la réputation» des licenciements – quelque chose Le bord a déjà signalé – mais que l’entreprise devait «dépasser» ces événements. « Nous n’hésitons pas à critiquer nos propres produits », a déclaré Dean CNET. «Tant que cela est fait avec une lentille vers les faits et un traitement approprié du large éventail de travaux que nous faisons dans cet espace, mais aussi pour résoudre certains de ces problèmes.»
Pour les critiques de l’entreprise, cependant, la conversation doit être beaucoup plus ouverte que cela.