James Manyika, un top Google (en anglais seulement Qui supervise les efforts de l’entreprise pour réfléchir sérieusement à l’impact de sa technologie sur la société, a déclaré que le géant de la technologie 2020 cuisson de Timnit Gebru, un éminent chercheur qui se penche sur l’éthique de l’intelligence artificielle et l’une des rares femmes noires de la division de recherche de l’entreprise, était « malheureux ».

« Je pense qu’il est regrettable que Timnit Gebru ait fini par quitter Google dans les circonstances, vous savez, peut-être que cela aurait pu être géré différemment », a-t-il déclaré.

Manyika ne travaillait pas chez Google lorsque l’entreprise a licencié Gebru. Google l’a embauché en janvier pour un nouveau rôle en tant que vice-président principal de la technologie et de la société, relevant directement du directeur général d’Alphabet, Sundar Pichai. Originaire du Zimbabwe, Manyika est une informaticienne et roboticienne très respectée. Il a passé plus de deux décennies en tant qu’associé de premier plan chez McKinsey & Co. conseillant des entreprises de la Silicon Valley et a été directeur du groupe de réflexion interne de la société, le McKinsey (en anglais seulement) Institut mondial. Il a siégé au Conseil de développement mondial du président Barack Obama et est actuellement vice-président du Comité consultatif national de l’IA des États-Unis, qui conseille l’administration Biden sur la politique en matière d’IA.

Manyika s’adressait exclusivement à Fortune avant l’annonce par Google aujourd’hui d’un engagement de 25 millions de dollars visant à faire progresser les objectifs de développement durable des Nations Unies en aidant les groupes non gouvernementaux à accéder à l’IA. L’entreprise a également lancé un L’IA pour les objectifs mondiaux qui comprend de la recherche, des outils logiciels libres et de l’information sur la façon de présenter une demande de subvention.

Google a fait ces annonces en conjonction avec l’ouverture de l’Assemblée générale des Nations Unies à New York cette semaine. La société a déclaré qu’en plus de l’argent, elle aiderait les organisations qu’elle sélectionne pour une aide sous forme de subvention avec des ingénieurs et des chercheurs en apprentissage automatique de sa branche caritative d’entreprise, Google.org, pour travailler sur des projets jusqu’à six mois.

Publicité

La société a commencé à aider les ONG travaillant sur les objectifs de développement durable des Nations Unies en 2018. Depuis lors, la société affirme avoir aidé plus de 50 organisations dans presque toutes les régions du monde. Il a aidé des groupes à surveiller la qualité de l’air, à développer de nouvelles substances antimicrobiennes et à trouver des moyens d’améliorer la santé mentale des jeunes LGBTQ+.

L’embauche de Manyika intervient alors que Google a cherché à réparer son image, auprès du grand public et de ses propres employés, autour de l’engagement de l’entreprise envers l’éthique technologique et la diversité raciale. Des milliers d’employés de Google ont signé une lettre ouverte protestant contre le licenciement de Gebru, et Pichai s’est excusé, affirmant que la façon dont l’entreprise avait géré l’affaire  » a conduit certains membres de notre communauté à remettre en question leur place chez Google ». Néanmoins, des mois plus tard, l’entreprise a également Rejeté La collègue de Gebru et co-responsable du groupe d’éthique de l’I.A., Margaret Mitchell. À l’époque, elle avait déclaré qu’elle restructurait ses équipes travaillant sur l’éthique et l’IA responsable. Ces équipes relèvent maintenant de Marian Croak, vice-présidente de l’ingénierie de Google, qui à son tour relève de Jeff Dean, chef de la division de recherche de Google. Croak et Manyika sont tous deux noirs.

Depuis son arrivée chez Google, Manyika se dit impressionné par le sérieux avec lequel Google prend son engagement en faveur d’une recherche et d’un déploiement responsables de l’IA et par les processus qu’il a mis en place pour débattre des préoccupations éthiques. « Cela m’a frappé de voir à quel point l’angoisse et les conversations se poursuivent sur l’utilisation de la technologie et comment essayer de bien faire les choses », a-t-il déclaré. « J’aimerais que le monde extérieur en sache plus à ce sujet. »

Manyika dit que, bien qu’il soit important d’être attentif aux préoccupations éthiques entourant l’IA, il y a un risque à laisser les craintes sur les conséquences négatives potentielles aux personnes aveugles aux énormes avantages, en particulier pour les groupes défavorisés, que l’IA pourrait apporter. Il est, au fond, a-t-il précisé, un techno-optimiste. « Il y a toujours eu cette asymétrie: nous dépassons très rapidement les avantages mutuels et l’utilité incroyables de cela, sauf peut-être pour quelques personnes qui continuent à en parler, et nous nous concentrons sur toutes ces préoccupations, ces inconvénients et les complications », a-t-il déclaré. Eh bien, la moitié d’entre eux sont vraiment des complications de la société elle-même, non? Et oui, certains d’entre eux sont, en fait, dus à la technologie qui ne fonctionne pas tout à fait comme prévu. Mais nous nous concentrons très rapidement sur cet aspect des choses sans penser, aidons-nous réellement les gens? Fournissons-nous des systèmes utiles? Je pense il sera extraordinaire de voir à quel point ces systèmes d’assistance seront pour compléter et augmenter ce que les gens font.

Il a dit qu’un bon exemple de cela était les modèles de langage ultra-larges, un type d’IA qui a conduit à des modèles étonnants avance dans le traitement du langage naturel ces dernières années. Gebru et un certain nombre d’autres chercheurs en éthique ont été critique de ces modèles – que Google a investis des milliards de dollars dans la création et la commercialisation – et le refus de Google de lui permettre, à elle et à son équipe, de publier un document de recherche soulignant les préoccupations éthiques concernant ces grands modèles linguistiques ont précipité l’incident qui a conduit à son licenciement.

Les modèles de langage ultra-larges sont formés sur de grandes quantités de matériel écrit trouvé sur Internet. Les modèles peuvent apprendre les stéréotypes raciaux, ethniques et de genre à partir de ce matériel, puis perpétuer ces biais lorsqu’ils sont utilisés. Ils peuvent tromper les gens en leur faisant croire qu’ils interagissent avec une personne au lieu d’une machine, ce qui augmente les risques de tromperie. Ils peuvent être utilisés pour produire de la désinformation. Et tandis que certains informaticiens voient les modèles de langage ultra-larges comme une voie vers une IA plus humaine, qui a longtemps été considérée comme le Saint Graal de la recherche sur l’IA, beaucoup d’autres sont sceptiques. Les modèles prennent également beaucoup de puissance informatique pour s’entraîner, et Gebru et d’autres ont critiqué l’empreinte carbone impliquée. Compte tenu de toutes ces préoccupations, l’une des collaboratrices de Gebru dans ses recherches sur les grands modèles de langage, Emily Bender, linguiste computationnelle à l’Université de Washington, a suggéré aux entreprises d’arrêter de construire des modèles de langage ultra-larges.

Manyika a déclaré qu’il était à l’écoute de tous ces risques, mais il n’était pas d’accord pour que le travail sur une telle technologie cesse. Il a déclaré que Google prenait de nombreuses mesures pour limiter les dangers de l’utilisation du logiciel. Par exemple, il a déclaré que la société avait des filtres qui filtrent la sortie des grands modèles linguistiques pour un langage toxique et une précision factuelle. Il a déclaré que dans les tests jusqu’à présent, ces filtres semblent être efficaces: dans les interactions avec le chatbot le plus avancé de Google, LaMDA, les gens ont signalé moins de 0,01% des réponses du chatbot pour l’utilisation d’un langage toxique. Il a également déclaré que Google avait également fait très attention à ne pas publier publiquement ses modèles de langage les plus avancés, car la société s’inquiétait d’une utilisation abusive potentielle. « Si vous voulez construire des choses qui sont puissantes, faites la recherche, faites le travail pour essayer de comprendre comment ces systèmes fonctionnent, au lieu de les jeter dans le monde et de voir ce qui se passe », a-t-il déclaré.

Mais il a déclaré que le fait d’éviter complètement le travail sur les modèles signifierait priver les gens, y compris ceux qui en ont le plus besoin, d’avantages vitaux. Par exemple, il a déclaré que de tels modèles avaient permis pour la première fois la traduction automatique de langues « à faibles ressources » – celles pour lesquelles il existe relativement peu de documents écrits sous forme numérique. (Certaines de ces langues ne sont parlées que par écrit; d’autres ont une forme écrite, mais peu de matériel a été numérisé.) Il s’agit notamment de langues telles que le luganda, parlé en Afrique de l’Est, et le quechua, parlé en Amérique du Sud. « Ce sont des langues parlées par beaucoup de gens, mais ce sont des langues à faibles ressources », a déclaré Manyika. « Avant ces grands modèles linguistiques et leurs capacités, il aurait été extraordinairement difficile, voire impossible, de traduire à partir de ces langues à faibles ressources. » La traduction permet aux locuteurs natifs de se connecter avec le reste du monde via Internet et de communiquer à l’échelle mondiale d’une manière qu’ils n’auraient jamais pu faire auparavant.

Manyika a également souligné de nombreuses autres façons dont Google utilisait l’IA au profit des sociétés et du développement mondial. Il a souligné le travail que l’entreprise fait au Ghana pour essayer de prévoir plus précisément les épidémies de criquets. Au Bangladesh et en Inde, l’entreprise travaille avec le gouvernement pour améliorer prévoir les inondations et fournir des alertes aux téléphones mobiles des gens avec des avertissements avancés qui ont déjà sauvé des vies. Il a également mentionné DeepMind, la société de recherche sur l’IA basée à Londres qui appartient à Alphabet. Il a récemment utilisé l’IA pour prédire la structure de presque toutes les protéines connues et les ont publiés dans une base de données libre d’accès. Il a déclaré que de tels progrès fondamentaux dans la science conduiraient finalement à une meilleure compréhension de la maladie et de meilleurs médicaments et pourraient avoir un impact important sur la santé mondiale.

Inscrivez-vous à l’ Fortune Fonctionnalités pour que vous ne manquiez pas nos plus grandes fonctionnalités, interviews exclusives et enquêtes.

Rate this post
Publicité
Article précédentComment désactiver les bordures dans l’appareil photo de l’iPhone
Article suivantMyMetaverse et Enjin apportent des NFT jouables aux serveurs Grand Theft Auto V et Minecraft
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici