Google a limogé la tête de son équipe d’intelligence artificielle éthique, Meg Mitchell, aggravant la tourmente entourant sa division IA après la sortie acrimonieuse de l’ancien collègue de Mitchell, Timnit Gebru.
«Je suis viré», Mitchell tweeté Vendredi, une minute après avoir dit qu’elle «avait trop mal pour articuler beaucoup de choses utiles. Le fait de renvoyer @timnitGebru a créé un effet domino de traumatisme pour moi et le reste de l’équipe, et je pense que nous sommes de plus en plus punis pour ce traumatisme.
Le licenciement de Mitchell a souligné que même si Google tentait de surmonter le désarroi de sa division IA avec des excuses, un changement de direction et de nouvelles politiques, le bouleversement ne montrait aucun signe de relâchement.
Mitchell était devenu un féroce critique public de Google et de sa gestion après la sortie de Gebru. Gebru, l’une des rares femmes noires éminentes dans la recherche sur l’IA, a déclaré qu’elle avait été licenciée en décembre après avoir refusé de retirer un article de recherche critique d’une technologie clé de Google ou en retirer les auteurs de Google. L’entreprise a dit qu’elle avait démissionné. Mitchell était un co-auteur de l’article. D’anciens collègues ont exprimé leur indignation face à la gestion de l’affaire par Google.
La société Alphabet Inc. avait accusé Mitchell d’avoir téléchargé des fichiers à partir de ses systèmes et avait déclaré qu’elle examinerait sa conduite. Pendant cinq semaines, Mitchell, qui avait codirigé l’équipe d’IA éthique avec Gebru, a été exclue de tous les systèmes de l’entreprise – incapable d’accéder à son courrier électronique ou à son calendrier.
«Après avoir examiné la conduite de ce responsable, nous avons confirmé qu’il y avait eu de multiples violations de notre code de conduite, ainsi que de nos politiques de sécurité, qui incluaient l’exfiltration de documents confidentiels sensibles et de données privées d’autres employés», a Le porte-parole de Google a déclaré dans un communiqué.
Le licenciement de Mitchell est survenu le jour même où le chef de l’intelligence artificielle de Google, Jeff Dean, s’est excusé auprès du personnel pour la façon dont il a géré le départ de Gebru et s’est engagé à ce que les dirigeants soient évalués en fonction des progrès en matière de diversité. Dean a également déclaré que Google doublerait son personnel des ressources humaines dédié à la rétention des employés.
Alex Hanna, chercheur au sein de l’équipe d’intelligence artificielle de Google, a écrit qu’il existe un double standard de conduite chez le géant de l’internet, faisant allusion à des allégations d’inconduite sexuelle contre d’anciens dirigeants.
« Google est un terreau fertile pour les agresseurs, les accumulateurs d’opportunités et les personnes uniquement concernées par l’ego et le prestige », a écrit Hanna sur Twitter. « Mais quiconque est prêt à défendre ses amis contre la discrimination, qui élève des voix qui ont besoin d’être entendues, se voit montrer la porte. »
Plus tôt vendredi, Dean, dans un e-mail adressé au personnel, a déclaré que le comportement de Google envers Gebru avait blessé des employés féminins et noirs et les avait amenés à se demander s’ils appartenaient à l’entreprise, mais il ne s’est pas excusé directement auprès de Gebru. La société a annoncé jeudi une nouvelle organisation pour l’utilisation responsable de l’IA, dirigée par Marian Croak, un cadre noir respecté qui avait auparavant géré la fiabilité du site. Mais certains membres de l’équipe Ethical AI, qui rapporteront à Croak, se sont sentis aveuglés par la nouvelle.
Mitchell a rejoint Google en novembre 2016 après un passage au laboratoire de recherche de Microsoft Corp. où elle a travaillé sur le projet Seeing AI de l’entreprise, une technologie pour aider les utilisateurs aveugles à «visualiser» le monde qui les entoure et qui a été fortement promue par le directeur général Satya Nadella. Chez Google, elle a fondé l’équipe Ethical AI en 2017 et a travaillé sur des projets comprenant un moyen d’expliquer ce que font les modèles d’apprentissage automatique et leurs limites, et comment rendre les ensembles de données d’apprentissage automatique plus responsables et transparents.
window.fbAsyncInit = function() { FB.init({
appId : '119932621434123',
xfbml : true, version : 'v2.9' }); };
(function(d, s, id){
var js, fjs = d.getElementsByTagName(s)[0];
if (d.getElementById(id)) {return;}
js = d.createElement(s); js.id = id;
js.src = "https://connect.facebook.net/en_US/sdk.js";
fjs.parentNode.insertBefore(js, fjs);
}(document, 'script', 'facebook-jssdk'));