Lorsqu’elle a codirigé l’équipe d’IA éthique de Google, Timnit Gebru était une voix d’initié de premier plan remettant en question l’approche de l’industrie de la technologie en matière d’intelligence artificielle.
C’était avant que Google ne la pousse hors de l’entreprise il y a plus d’un an. Maintenant, Gebru essaie d’apporter des changements de l’extérieur en tant que fondateur du Distributed Artificial Intelligence Research Institute, ou DAIR.
Né de parents érythréens en Éthiopie, Gebru s’est récemment entretenu avec l’Associated Press sur la façon dont les priorités de Big Tech en matière d’IA – et ses plateformes de médias sociaux alimentées par l’IA – servent mal l’Afrique et ailleurs. Le nouvel institut se concentre sur la recherche sur l’IA du point de vue des lieux et des personnes les plus susceptibles d’en subir les préjudices.
Elle est également cofondatrice du groupe Black in AI, qui fait la promotion de l’emploi et du leadership des Noirs dans le domaine. Et elle est connue pour avoir co-écrit une étude historique de 2018 qui a révélé les préjugés raciaux et sexistes dans les logiciels de reconnaissance faciale. L’interview a été éditée pour plus de longueur et de clarté.
Q : Qu’est-ce qui a motivé DAIR ?
R: Après avoir été licencié de Google, je savais que je serais sur la liste noire de tout un tas de grandes entreprises technologiques. Ceux que je ne serais pas — ce serait juste très difficile de travailler dans ce genre d’environnement. Je n’allais tout simplement plus faire ça. Quand j’ai décidé de (démarrer DAIR), la toute première chose qui m’est venue à l’esprit est que je veux qu’il soit distribué. J’ai vu comment les gens dans certains endroits ne peuvent tout simplement pas influencer les actions des entreprises de technologie et le cours que prend le développement de l’IA. S’il y a de l’IA à construire ou à rechercher, comment le faire bien? Vous voulez impliquer les communautés qui sont habituellement à la marge afin qu’elles puissent en bénéficier. Quand il y a des cas où il ne devrait pas être construit, nous pouvons dire: « Eh bien, cela ne devrait pas être construit. » Nous n’abordons pas la question du point de vue du solutionnisme technologique.
Q : Quelles sont les applications d’IA les plus préoccupantes qui méritent un examen plus approfondi ?
R: Ce qui est si déprimant pour moi, c’est que même les applications où maintenant tant de gens semblent être plus conscients des méfaits – elles augmentent plutôt que de diminuer. Nous parlons de reconnaissance faciale et de surveillance basées sur cette technologie depuis longtemps. Il y a quelques victoires: un certain nombre de villes et de municipalités ont interdit l’utilisation de la reconnaissance faciale par les forces de l’ordre, par exemple. Mais ensuite, le gouvernement utilise toutes ces technologies contre lesquelles nous avons mis en garde. D’abord, dans la guerre, et ensuite pour garder les réfugiés — à la suite de cette guerre — à l’écart. Donc, à la frontière américano-mexicaine, vous verrez toutes sortes de choses automatisées que vous n’avez jamais vues auparavant. La première façon dont nous utilisons cette technologie est d’empêcher les gens d’entrer.
Q: Pouvez-vous décrire certains des projets poursuivis par DAIR qui n’auraient peut-être pas eu lieu ailleurs?
R : L’une des choses sur lesquelles nous nous concentrons est le processus par lequel nous faisons cette recherche. L’un de nos premiers projets consiste à utiliser l’imagerie satellitaire pour étudier l’apartheid spatial en Afrique du Sud. Notre chercheur (Raesetje Sefala) est quelqu’un qui a grandi dans un township. Ce n’est pas elle qui étudie une autre communauté et qui s’y précipite. C’est elle qui fait des choses qui sont pertinentes pour sa communauté. Nous travaillons sur des visualisations pour comprendre comment communiquer nos résultats au grand public. Nous réfléchissons bien à qui nous voulons atteindre.
Q: Pourquoi mettre l’accent sur la distribution?
R: La technologie affecte le monde entier en ce moment et il y a un énorme déséquilibre entre ceux qui la produisent et influencent son développement, et ceux qui en ressentent les dommages. En parlant du continent africain, il paie un coût énorme pour le changement climatique qu’il n’a pas causé. Et puis nous utilisons la technologie de l’IA pour empêcher les réfugiés climatiques d’entrer. C’est juste une double punition, non? Pour inverser la tendance, je pense que nous devons nous assurer que nous défendons les intérêts des personnes qui ne sont pas à la table, qui ne dirigent pas ce développement et n’influencent pas son avenir, pour qu’elles puissent avoir la possibilité de le faire.
Q : Qu’est-ce qui vous a amené à vous intéresser à l’IA et à la vision par ordinateur ?
R : Je n’ai pas fait le lien entre le fait d’être ingénieur ou scientifique et, vous savez, les guerres ou les problèmes de travail ou quoi que ce soit du genre. Pendant une grande partie de ma vie, je ne pensais qu’aux sujets que j’aimais. Je m’intéressais à la conception de circuits. Et puis j’aimais aussi la musique. J’ai longtemps joué du piano et j’ai donc voulu combiner un certain nombre de mes intérêts. Et puis j’ai trouvé le groupe audio chez Apple. Et puis quand je revenais à une maîtrise et à un doctorat, j’ai suivi un cours sur le traitement de l’image qui touchait à la vision par ordinateur.
Q : Comment votre expérience Google a-t-elle changé votre approche ?
R : Quand je veuxcomme chez Google, j’ai passé une grande partie de mon temps à essayer de changer le comportement des gens. Par exemple, ils organisaient un atelier et ils avaient tous les hommes — comme 15 d’entre eux — et je leur envoyais simplement un e-mail, « Regardez, vous ne pouvez pas simplement avoir un atelier comme ça. » Je dépense maintenant plus d’énergie à réfléchir à ce que je veux construire et à la façon de soutenir les gens qui sont déjà du bon côté d’un problème. Je ne peux pas passer tout mon temps à essayer de réformer les autres. Il y a beaucoup de gens qui veulent faire les choses différemment, mais qui ne sont tout simplement pas en position de pouvoir pour le faire.
Q: Pensez-vous que ce qui vous est arrivé chez Google a apporté plus d’attention à certaines des préoccupations que vous aviez au sujet des modèles d’apprentissage des langues? Pourriez-vous décrire ce qu’ils sont?
Q: Une partie de ce qui m’est arrivé chez Google était liée à un article que nous avons écrit sur les grands modèles linguistiques – un type de technologie linguistique. La recherche Google l’utilise pour classer les requêtes ou les boîtes de questions-réponses que vous voyez, la traduction automatique, la correction automatique et tout un tas d’autres choses. Et nous voyions cette ruée vers l’adoption de modèles de langage de plus en plus grands avec plus de données, plus de puissance de calcul, et nous voulions mettre en garde les gens contre cette précipitation et réfléchir aux conséquences négatives potentielles. Je ne pense pas que le journal aurait fait des vagues s’ils ne m’avaient pas congédié. Je suis heureux qu’il ait attiré l’attention sur cette question. Je pense qu’il aurait été difficile d’amener les gens à réfléchir à de grands modèles linguistiques sans cela. Je veux dire, j’aimerais ne pas être viré, évidemment.
Q : Aux États-Unis, y a-t-il des mesures que vous attendez de la Maison-Blanche et du Congrès pour réduire certains des dommages potentiels de l’IA ?
R : À l’heure actuelle, il n’y a tout simplement pas de réglementation. J’aimerais une sorte de loi qui permette aux entreprises de technologie de nous prouver qu’elles ne causent pas de dommages. Chaque fois qu’ils introduisent une nouvelle technologie, il incombe aux citoyens de prouver que quelque chose est nocif, et même dans ce cas, nous devons nous battre pour être entendus. De nombreuses années plus tard, on pourrait parler de réglementation – puis les entreprises de technologie sont passées à la prochaine chose. Ce n’est pas ainsi que les compagnies pharmaceutiques fonctionnent. Ils ne seraient pas récompensés pour ne pas avoir examiné (les préjudices potentiels) – ils seraient punis pour ne pas avoir regardé. Nous avons besoin de ce genre de norme pour les entreprises technologiques.