Élevez votre technologie et votre stratégie de données d’entreprise à Transformer 2021.


Raia Hadsell, chercheuse chez Google DeepMind, estime que « l’IA responsable est un travail pour tous ». C’était sa thèse lors d’une conférence aujourd’hui au virtuel Sommet des lesbiennes qui Tech Pride, où elle a plongé dans les problèmes qui affligent actuellement le domaine et les actions qu’elle estime nécessaires pour garantir que l’IA est développée et déployée de manière éthique.

« L’IA va changer notre monde dans les années à venir. Mais parce qu’il s’agit d’une technologie si puissante, nous devons être conscients des risques inhérents qui découleront de ces avantages, en particulier ceux qui peuvent entraîner des préjugés, des dommages ou l’aggravation des inégalités sociales », a-t-elle déclaré. « J’espère que nous pourrons nous réunir en tant que communauté pour développer l’IA de manière responsable. »

Les approches de l’IA sont algorithmiques et générales, ce qui signifie qu’elles sont intrinsèquement multi-usages. D’un côté, il y a des promesses de guérir les maladies et de déverrouiller un avenir doré, et de l’autre, des approches contraires à l’éthique et cas d’utilisation dangereux qui font déjà du mal. Avec beaucoup de choses en jeu, la façon d’aborder ces technologies est rarement claire.

Hadsell a souligné que si les régulateurs, les avocats, les éthiciens et les philosophes jouent un rôle essentiel, elle s’intéresse particulièrement à ce que les chercheurs et les scientifiques peuvent faire activement pour construire une IA responsable. Elle a également détaillé certaines des résistances qu’elle a rencontrées au sein de la communauté des chercheurs et les changements qu’elle a contribué à apporter jusqu’à présent.

Publicité

Données, algorithmes et applications

Les problèmes qui affligent l’IA sont bien connus, mais Hadsell a donné un aperçu de leurs racines dans les données, les algorithmes et les applications.

Les données, par exemple, sont la pierre angulaire de l’IA moderne, qui est principalement basée sur apprentissage automatique. Hadsell a déclaré que la possibilité d’utiliser ces ensembles de données construits sur des millions ou des milliards de points de données humains est « vraiment un exploit d’ingénierie », mais avec des pièges. Sociétal biais et les inégalités sont souvent encodées dans les données, puis exacerbées par un modèle d’IA formé sur un ensemble de données. Il y a aussi des problèmes de confidentialité et de consentement, qui, selon elle, « ont trop souvent été compromis par l’enthousiasme irresponsable d’un jeune doctorant ».

Hadsell a également soulevé la question des deepfakes, et que le même algorithme utilisé pour les créer est également utilisé pour les prévisions météorologiques. « Une grande partie de la communauté de recherche en IA travaille sur la recherche fondamentale, et cela peut sembler être un monde à part d’un déploiement réel de cette recherche », a déclaré Hadsell, dont les propres recherches se concentrent actuellement sur la résolution des défis fondamentaux de la robotique et d’autres systèmes de contrôle.

Changer la culture

Au cours de l’événement, Hadsell s’est souvenu d’avoir parlé à un collègue qui avait rédigé un article sur leur nouvel algorithme. Lorsqu’on lui a demandé de discuter des impacts futurs possibles de la recherche, le collègue a répondu qu’ils « ne peuvent pas spéculer sur l’avenir » parce qu’ils sont un scientifique, pas un éthicien.

« Maintenant, attendez une minute, votre article prétend que votre algorithme pourrait guérir le cancer, atténuer le changement climatique et inaugurer une nouvelle ère de paix et de prospérité. J’exagère peut-être un peu, mais je pense que cela prouve que vous pouvez spéculer sur l’avenir », a déclaré Hadsell.

Cette interaction n’était pas ponctuelle. Hadsell a déclaré que de nombreux chercheurs ne veulent tout simplement pas discuter des impacts négatifs, et elle n’a pas mâché ses mots, ajoutant qu’ils « ont tendance à rejeter la responsabilité et la responsabilité pour les impacts plus larges de l’IA sur la société ». La solution, croit-elle, est de changer la culture de la recherche pour assurer les freins et contrepoids.

Un bilan chez NeurIPS

NeurIPS est la plus grande et la plus prestigieuse conférence sur l’IA au monde, mais malgré une croissance exponentielle du nombre de participants et d’articles soumis au cours de la dernière décennie, aucune directive éthique n’avait été fournie aux auteurs avant 2020. De plus, les articles ont été évalués strictement sur mérite technique sans considération pour les questions éthiques.

Ainsi, lorsque Hadsell a été invité à être l’un des quatre présidents de programme chargés de concevoir le processus d’examen des 10 000 articles attendus l’année dernière, elle a initié deux changements. L’un recrutait un groupe de conseillers en éthique pour donner des commentaires éclairés sur des articles jugés controversés. L’autre exigeait que chaque auteur soumette une déclaration d’impact plus large avec son travail, qui devrait discuter des impacts futurs positifs et négatifs potentiels, ainsi que de toutes les mesures d’atténuation possibles.

Cette idée d’une déclaration d’impact n’est pas nouvelle – c’est en fait une exigence commune dans d’autres domaines scientifiques comme la médecine et la biologie – mais ce changement n’a pas été bien accueilli par tout le monde. Hadsell a déclaré qu’elle « ne s’était pas fait beaucoup d’amis » et qu’il y avait eu quelques larmes, mais plus tard, certains auteurs ont tendu la main pour dire que c’était une expérience précieuse et qu’elle avait même inspiré de nouvelles directions de recherche. Elle a ajouté qu’il y avait également eu une légère augmentation des conférences nécessitant de telles déclarations.

« Ajouter la déclaration d’impact plus large à quelques milliers d’articles n’est pas tout à fait suffisant pour changer la culture vers une IA responsable. Ce n’est qu’un début », a déclaré Hadsell. Elle a également noté qu’il y a un danger que ces examens deviennent des « formalités de case à cocher » plutôt qu’un examen honnête des risques et des avantages de chaque nouvelle innovation technologique. « Nous devons donc maintenir l’intégrité et continuer, des déclarations d’impact plus larges à l’IA responsable. »

Marcher la marche

Avant même que le discours d’Hadsell ne commence, il y avait un éléphant dans la pièce. Google, qui détient le le prestigieux laboratoire DeepMind depuis 2014, n’a pas le meilleur bilan en matière d’IA éthique. Le problème est particulièrement présent depuis décembre, lorsque Google a renvoyé Timnit Gebru, l’un des chercheurs en IA les plus connus et co-responsable de son équipe d’éthique en IA, dans ce que des milliers d’employés de l’entreprise ont qualifié de « licenciement de représailles ». Gebru dit qu’elle a été licenciée par courrier électronique après avoir refusé d’annuler les recherches sur les risques de déployer de grands modèles linguistiques. Margaret Mitchell, l’autre co-responsable de l’équipe d’éthique, a également été licenciée.

Les participants ont déposé des questions sur le sujet dans le chat dès le début de la conférence de Hadsell. « Comment pouvez-vous créer une culture d’imputabilité et de responsabilité si des voix s’expriment sur les sujets de l’éthique de l’IA et [the] l’impact négatif des recherches de Google sur les algorithmes d’IA (comme Timnit Gebru) sont rejetés ? » a demandé un participant. Une autre a reconnu que Hadsell travaillait dans une autre partie de l’entreprise, mais lui a tout de même demandé ce qu’elle pensait du licenciement.

Hadsell a déclaré qu’elle n’avait pas d’informations ou d’idées supplémentaires autres que celles qui ont déjà été rendues publiques. Elle a ajouté: « Ce que je dirai, c’est que chez DeepMind, nous sommes, vous savez, vraiment soucieux de nous assurer que les voix que nous avons dans la communauté et en interne, et les publications que nous écrivons et publions, expriment notre diversité et tout les différentes voix chez DeepMind. Je pense qu’il est important que chacun ait la possibilité de parler de l’éthique de l’IA et des risques, quel que soit l’algorithme de Google.

VentureBeat

La mission de VentureBeat est d’être une place publique numérique pour les décideurs techniques afin d’acquérir des connaissances sur la technologie transformatrice et d’effectuer des transactions. Notre site fournit des informations essentielles sur les technologies et les stratégies de données pour vous guider dans la gestion de vos organisations. Nous vous invitons à devenir membre de notre communauté, pour accéder à :

  • des informations à jour sur les sujets qui vous intéressent
  • nos newsletters
  • contenu de leader d’opinion fermé et accès à prix réduit à nos événements prisés, tels que Transformer 2021: Apprendre encore plus
  • fonctionnalités de mise en réseau, et plus

Devenir membre

Rate this post
Publicité
Article précédentGoogle donne aux travailleurs un outil pour la planification du travail à distance | Technologie/Gadgets
Article suivantJournée communautaire Pokemon Go de juillet 2021: Shiny Tepig, mouvement d’événement, bonus, etc.
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici