Le leadership de Google en matière d’IA a été critiqué en décembre lorsque Timnit Gebru, chercheur en éthique vedette, a été soudainement renvoyé tout en travaillant sur un article sur les dangers des grands modèles linguistiques. À présent, nouveau rapport de Bloomberg suggère que les troubles ont commencé bien avant son licenciement – et incluent des allégations de partialité et de harcèlement sexuel.
Peu de temps après l’arrivée de Gebru chez Google en 2018, elle a informé son patron qu’un collègue avait été accusé de harcèlement sexuel dans une autre organisation. Katherine Heller, une chercheuse de Google, a rapporté le même incident, qui comprenait des allégations d’attouchements inappropriés. Google a immédiatement ouvert une enquête sur le comportement de l’homme. Bloomberg n’a pas nommé l’homme accusé de harcèlement, et Le bord ne connaît pas son identité.
Les allégations ont coïncidé avec une histoire encore plus explosive. Andy Rubin, le «père d’Android» avait reçu un programme de sortie de 90 millions de dollars malgré une accusation crédible d’inconduite sexuelle. La nouvelle a suscité l’indignation de Google et 20000 employés ont quitté leur travail pour protester contre la gestion du harcèlement sexuel par l’entreprise.
Gebru et Margaret Mitchell, codirigeants de l’équipe de l’IA éthique, sont allés au chef de l’IA Jeff Dean avec une «litanie de préoccupations», selon Bloomberg. Ils ont parlé à Dean du collègue qui avait été accusé de harcèlement et ont déclaré qu’il y avait une tendance perçue selon laquelle les femmes étaient exclues et minées dans l’équipe de recherche. Certains se sont vu attribuer des rôles inférieurs à ceux des hommes, malgré de meilleures qualifications. Mitchell a également déclaré qu’elle s’était vu refuser une promotion en raison de «plaintes nébuleuses aux RH au sujet de sa personnalité».
Dean était sceptique quant aux allégations de harcèlement, mais a déclaré qu’il enquêterait, Bloomberg rapports. Il a repoussé l’idée selon laquelle les femmes de l’équipe de recherche avaient tendance à obtenir des postes de niveau inférieur à ceux des hommes.
Après la réunion, Dean a annoncé un nouveau projet de recherche avec le présumé harceleur à la barre. Neuf mois plus tard, l’homme a été licencié pour «problèmes de leadership», selon Bloomberg. Il avait été accusé d’inconduite chez Google, bien que l’enquête soit toujours en cours.
Après que l’homme ait été licencié, il a menacé de poursuivre Google en justice. L’équipe juridique a dit aux employés qui avaient dénoncé sa conduite qu’ils pourraient entendre les avocats de l’homme. La société était «vague» sur la question de savoir si elle défendrait les lanceurs d’alerte, Bloomberg rapports.
L’allégation de harcèlement n’était pas un incident isolé. Gebru et ses collègues ont signalé des allégations supplémentaires de comportement inapproprié et d’intimidation après l’accusation initiale.
Dans une déclaration envoyée par e-mail à Le bord, a déclaré un porte-parole de Google: « Nous enquêtons sur toute allégation et prenons des mesures fermes contre les employés qui enfreignent nos politiques claires sur le lieu de travail. »
Gebru a déclaré qu’il y avait également des problèmes en cours pour amener Google à respecter le travail de l’équipe d’IA éthique. Lorsqu’elle a essayé d’examiner un ensemble de données publié par la société de voitures autonomes de Google Waymo, le projet s’est embourbé dans un «marchandage juridique». Gebru voulait explorer l’impact du teint de la peau sur la technologie de détection des piétons de Waymo. « Les employés de Waymo ont parsemé l’équipe de demandes de renseignements, y compris pourquoi ils étaient intéressés par la couleur de la peau et ce qu’ils prévoyaient de faire avec les résultats », selon le Bloomberg article.
Après que Gebru eut rendu public son licenciement, elle a reçu un assaut de harcèlement de personnes qui prétendaient qu’elle essayait d’attirer l’attention et de jouer la victime. Les dernières nouvelles valident en outre sa réponse selon laquelle les questions qu’elle a soulevées faisaient partie d’un modèle de partialité présumée au sein de l’équipe de recherche.
Mise à jour le 21 avril, 18 h 05 HE: Article mis à jour avec une déclaration de Google.