Vous avez manqué l’excitation du GamesBeat Summit ? Ne t’inquiète pas! Connectez-vous maintenant pour suivre toutes les sessions en direct et virtuelles ici.
Nous avons encore beaucoup à comprendre. C’était mon impression d’un panel lors de notre événement Transform 2023 hier qui a approfondi l’éthique de l’IA générative.
Le panel était animé par Philip Lawson, responsable de la politique d’IA chez Armilla AI | Institut Schwartz Reisman pour la technologie et la société. Il comprenait Jen Carter, responsable mondiale de la technologie chez Google.org, et Ravi Jain, président du groupe de travail de l’Association for Computing Machinery (ACM) sur l’IA générative.
Lawson a déclaré que l’objectif était de mieux comprendre les pièges de l’IA générative et comment gérer avec succès ses risques.
Il a noté que la technologie sous-jacente et les architectures basées sur Transformer existent depuis un certain nombre d’années, bien que nous soyons tous conscients de l’augmentation de l’attention au cours des huit à dix derniers mois environ avec le lancement de grands modèles de langage comme ChatGPT.
Événement
Transformer 2023
Rejoignez-nous à San Francisco les 11 et 12 juillet, où des cadres supérieurs partageront comment ils ont intégré et optimisé les investissements en IA pour réussir et éviter les pièges courants.
S’inscrire maintenant
Carter a noté que les créateurs s’appuyaient sur les progrès de l’IA depuis les années 1950 et que les réseaux de neurones offraient de grandes avancées. Mais l’infrastructure Transformer a été une avancée significative, à partir de 2017 environ. Plus récemment, elle a redémarré avec ChatGPT, donnant aux grands modèles de langage beaucoup plus d’étendue et de profondeur à ce qu’ils peuvent faire en réponse aux requêtes. Cela a été vraiment excitant, dit-elle.
« Il y a énormément de battage médiatique », a déclaré Jain. «Mais pour une fois, je pense que le battage médiatique en vaut vraiment la peine. La vitesse de développement que j’ai constatée au cours de la dernière année — ou huit mois — dans ce domaine est tout simplement sans précédent, uniquement en termes de capacités techniques et d’applications. C’est quelque chose que je n’ai jamais vu auparavant à cette échelle dans l’industrie. Cela a donc été extrêmement excitant.
>>Suivez toute notre couverture VentureBeat Transform 2023
Il a ajouté: «Ce que nous voyons, ce sont les types d’applications qui, il y a encore quelques années, auraient nécessité la construction de ces modèles. [by those with] beaucoup de données, de calcul et beaucoup d’expertise. Désormais, vous pouvez disposer d’applications et de domaines étendus pour la recherche, le commerce électronique, la réalité augmentée, la réalité virtuelle. En utilisant ces modèles fondamentaux, qui fonctionnent très bien dès la sortie de la boîte, ils peuvent être affinés. Ils peuvent être utilisés comme composants et faire partie d’un écosystème d’applications pour créer des applications vraiment complexes qui n’auraient pas été vraiment possibles il y a quelques années.
Les risques de l’IA générative
Mais beaucoup de gens soulignent les risques qui accompagnent les progrès rapides. Ce ne sont pas que des problèmes théoriques. Les applications sont si vastes et progressent si rapidement que les risques sont réels, a déclaré Jain.
Les risques couvrent des domaines tels que la confidentialité, les litiges de propriété et de droit d’auteur, le manque de transparence, la sécurité et même la sécurité nationale, a déclaré Jain.
« La chose qui est importante dans mon esprit est vraiment, pendant que nous développons cela, nous devons nous assurer que les avantages sont proportionnés aux risques », a-t-il déclaré. « Par exemple, si quelqu’un parle ou a une conversation avec un agent d’IA, alors l’humain doit toujours être informé [that] cette conversation est avec une IA.
Jain a déclaré que les risques ne peuvent être atténués par une seule entreprise ou un gouvernement.
«Ce doit vraiment être une conversation multipartite qui doit être une conversation ouverte et transparente où tous les secteurs de la société susceptibles d’être touchés en font partie. Et je ne suis pas sûr que nous ayons encore tout à fait cela », a-t-il déclaré.
Carter fait partie de Google.org, la branche philanthropique de Google. Elle voit l’IA générative aider les organisations à but non lucratif avec toutes sortes d’avantages potentiels, mais elle a également convenu qu’il existe de sérieux risques. Ceux qui viennent en tête sont ceux qui ont un impact social.
« Le premier concerne toujours la partialité et l’équité », a-t-elle déclaré.
L’IA générative a le potentiel de réduire les biais, mais elle « a absolument le risque de refléter ou de renforcer les biais existants. Et donc c’est quelque chose qui est toujours une priorité pour nous. Notre travail essaie généralement de servir les populations mal desservies. Et donc si vous ne faites que refléter ce parti pris, vous allez nuire à des communautés déjà vulnérables que vous essayez d’aider. Et il est donc particulièrement important pour nous d’examiner et de comprendre ces risques comme un exemple de base.
Par exemple, l’IA a été utilisée pour effectuer des évaluations des risques dans le système de justice pénale, mais s’il s’agit d’un « recyclage à partir de données historiques qui, de toute évidence, sont elles-mêmes biaisées », alors c’est un exemple de risque d’utilisation abusive de la technologie.
Et bien que l’IA générative ait le potentiel d’aider tout le monde, elle risque également d’aggraver davantage la fracture numérique, en aidant les entreprises ou les sociétés riches à progresser tout en laissant derrière elles les organisations à but non lucratif et les communautés vulnérables, a déclaré Carter.
« Quelles sont les choses que nous pouvons faire pour nous assurer que cette nouvelle technologie sera accessible et utile à tous afin que nous puissions tous en bénéficier », a-t-elle déclaré.
Elle a noté qu’il est souvent très coûteux de compiler toutes ces données. Et donc ce n’est pas toujours représentatif ou cela n’existe pas pour les pays à revenu faible et intermédiaire, a déclaré Carter.
Elle a également noté qu’il existe un potentiel d’impact environnemental.
« C’est lourd en termes de calcul pour faire une grande partie de ce travail. Et nous faisons beaucoup de travail pour réduire les émissions de carbone. Et il y a ici un risque d’augmentation des émissions car de plus en plus de personnes s’entraînent à ces modèles et les utilisent dans le monde réel », a déclaré Carter.
Un regard holistique sur les implications de la technologie
L’organisation de Jain, l’ACM, est préoccupée par les risques en tant que société informatique professionnelle.
« Nous construisons ces modèles, mais nous devons vraiment les regarder de manière beaucoup plus holistique », a déclaré Jain.
Les ingénieurs peuvent se concentrer sur la précision, les performances techniques et les aspects techniques. Mais Jain a déclaré que les chercheurs doivent également examiner de manière holistique les implications de la technologie. Est-ce une technologie inclusive qui peut servir toutes les populations ? L’ACM a récemment publié une déclaration de principes pour aider à guider les communautés et à établir un cadre pour réfléchir à ces questions, comme l’identification des limites appropriées de la technologie. Une autre question concerne les implications de la technologie pour la transparence. Devrions-nous utiliser la technologie uniquement si nous faisons savoir aux gens qu’elle est générée par l’IA plutôt que par l’homme ? Selon Jain, l’ACM a déclaré que les chercheurs ont une responsabilité sur ce front.
Carter a également souligné que Google a publié ses propres principes d’IA pour guider le travail qu’il fait dans une direction responsable et d’une manière qui peut être tenue pour responsable. Les chercheurs doivent réfléchir aux examens qui devraient avoir lieu pour toute nouvelle technologie. Elle a noté que certaines organisations à but non lucratif comme la Fondation Rockefeller étudient l’impact de l’IA sur les communautés vulnérables.
Risques liés à l’IA pour les entreprises
Les entreprises, quant à elles, sont également confrontées à des risques lorsqu’elles acquièrent la technologie et commencent à l’appliquer à l’intérieur de leurs murs.
« La première chose pour une entreprise est, avant de se précipiter dans l’adoption de la technologie, de consacrer du temps et des efforts pour avoir une conversation interne sur les objectifs et les valeurs de l’organisation », a déclaré Jain.
Ce type de conversation devrait tenir compte des conséquences imprévues de l’adoption de nouvelles technologies. C’est encore une fois pourquoi davantage de parties prenantes doivent être impliquées dans la conversation. L’impact sur le travail va être un gros risque, a déclaré Jain. Vous ne voulez pas être aveuglé par les impacts.
Carter a convenu qu’il est important pour les organisations de développer leurs propres principes. Elle a dit qu’il valait la peine de jeter un coup d’œil aux discussions du mouvement des droits des personnes handicapées qui notent que vous ne devriez rien faire pour nous sans nous. Cela signifie que vous devez impliquer toutes les populations concernées dans la discussion sur la nouvelle technologie.
« Les meilleures idées viennent de ceux qui sont les plus proches des problèmes », a déclaré Carter. « J’encouragerais également les organisations qui se lancent dans cet espace à adopter une approche vraiment collaborative. Nous travaillons en étroite collaboration avec les gouvernements, les universitaires, les organisations à but non lucratif et les communautés de tous ces différents groupes, décideurs et tous ces différents groupes ensemble.
Rôle du gouvernement
Jain a déclaré que le rôle du gouvernement est de créer un cadre réglementaire, qu’il s’agisse d’un bureau ou d’une agence au niveau gouvernemental. La raison pour laquelle nous en avons besoin est de mettre en place des garde-fous pour uniformiser les règles du jeu afin que l’adoption puisse se faire plus rapidement et de manière responsable. En plus de cela, nous avons besoin de quelque chose comme l’Agence des projets de recherche avancée pour l’IA, car le secteur privé a ses limites lorsqu’il s’agit de la recherche à long terme qui est nécessaire pour faire face à des risques tels que la sécurité nationale et la recherche sur la sûreté.
Carter a déclaré que l’IA est « trop importante pour ne pas être réglementée, et il est trop important de ne pas bien réglementer, et les décideurs politiques n’ont donc qu’un rôle extrêmement important dans ce qui est une question vraiment complexe ».
Elle a déclaré que l’éducation est un élément essentiel de l’enrôlement du gouvernement et de la collaboration entre les secteurs dans une sorte de campus d’IA.
« L’objectif est de former les décideurs politiques à la fois à nos principes et idées fondamentaux, mais également à la dernière compréhension des capacités et des risques », a déclaré Carter.
Le credo de GamesBeat lorsque couvrir l’industrie du jeu vidéo est « là où la passion rencontre les affaires ». Qu’est-ce que cela signifie? Nous voulons vous dire à quel point l’actualité compte pour vous, non seulement en tant que décideur dans un studio de jeux, mais aussi en tant que fan de jeux. Que vous lisiez nos articles, écoutiez nos podcasts ou regardiez nos vidéos, GamesBeat vous aidera à en savoir plus sur l’industrie et à vous engager avec elle. Découvrez nos Briefings.