Il n’est pas nécessaire de chercher loin pour trouver des exemples infâmes d’intelligence artificielle. Le nouveau modèle de langage A.I. GPT-3 d’OpenAI a été rapidement coopté par les utilisateurs pour leur dire Comment voler à l’étalage et fabriquer des explosifs, et il a fallu juste un week-end pour que le nouveau Chatbot A.I. de Meta réponde aux utilisateurs avec des commentaires antisémites.
Alors que l’IA devient de plus en plus avancée, les entreprises qui travaillent à explorer ce monde doivent marcher délibérément et prudemment. James Manyika, vice-président directeur de la technologie et de la société chez Google (en anglais), a déclaré qu’il existe toute une gamme d’abus dont le géant de la recherche doit se méfier alors qu’il construit ses propres ambitions en matière d’IA.
Manyika a abordé les pièges de la technologie à la mode sur scène au FortuneBrainstorm A.I. conférence lundi, couvrant l’impact sur les marchés du travail, la toxicité et les biais. Il a dit qu’il se demandait « quand il serait approprié d’utiliser » cette technologie, et « très franchement, comment la réglementer ».
Le paysage réglementaire et politique de l’IA a encore un long chemin à parcourir. Quelques suggérer que la technologie est trop nouvelle pour que l’on puisse introduire une réglementation lourde, tandis que d’autres (comme le PDG de Tesla, Elon Musk) disent que nous devons intervenir préventivement du gouvernement.
« En fait, je recrute beaucoup d’entre nous pour adopter la réglementation parce que nous devons réfléchir à la question suivante : « Quelle est la bonne utilisation de ces technologies ? » Manyika a déclaré, ajoutant que nous devons nous assurer que nous utilisons l’IA de la manière la plus utile et la plus appropriée avec une surveillance suffisante.
Manyika a commencé en tant que premier vice-président directeur de la technologie et de la société de Google en janvier, relevant directement du PDG de l’entreprise, Sundar Pichai. Son rôle est de faire progresser la compréhension de l’entreprise sur la façon dont la technologie affecte la société, l’économie et l’environnement.
« Mon travail n’est pas tant de surveiller, mais de travailler avec nos équipes pour m’assurer que nous construisons les technologies les plus utiles et que nous le faisons de manière responsable », a déclaré Manyika.
Son rôle comporte également beaucoup de bagages, car Google cherche à améliorer son image après le départ du co-responsable technique de l’équipe d’intelligence artificielle éthique, Timnit Gebru, qui a critiqué les modèles de traitement du langage naturel au sein de l’entreprise.
Sur scène, Manyika n’a pas abordé les controverses entourant les entreprises d’IA de Google, mais s’est plutôt concentré sur la route à suivre pour l’entreprise.
« Vous allez voir toute une gamme de nouveaux produits qui ne sont possibles que par l’IA de Google », a déclaré Manyika.
Notre nouveau bulletin hebdomadaire Impact Report examinera comment les nouvelles et les tendances ESG façonnent les rôles et les responsabilités des dirigeants d’aujourd’hui, et comment ils peuvent mieux relever ces défis. Abonnez-vous ici.