Alors que la popularité de l’IA générative a explosé au cours des derniers mois seulement, les inquiétudes liées à la désinformation et aux autres impacts de la technologie se multiplient. Cette semaine, le « Parrain de l’IA » Geoffrey Hinton a quitté son poste chez Google, inquiet que personne ne puisse plus dire « ce qui est vrai ».
Geoffrey Hinton est considéré comme le « parrain de l’IA », en tant que l’une des personnalités qui ont jeté les bases de l’IA dont nous constatons l’impact aujourd’hui. Hinton, aux côtés de deux autres, a remporté un Turing Award en 2018 pour ce travail. Depuis 2013, Hinton travaille dans un rôle chez Googlemais a maintenant remis sa démission.
Dans une interview avec Le New York Times, Hinton a exprimé ses inquiétudes quant au fait que le rythme rapide des entreprises technologiques qui lancent des produits d’IA générative « court vers le danger ». Il a ajouté en outre :
Regardez comment [AI] c’était il y a cinq ans et comment c’est maintenant. Prenez la différence et propagez-la. C’est effrayant.
Hinton a quitté son poste chez Google pour lui permettre de discuter ouvertement des dangers de l’IA. Avant de quitter Google, Hinton a eu une conversation directement avec le PDG Sundar Pichai, mais les détails de cette conversation n’ont pas été divulgués publiquement.
Dans le New York Times Dans une interview, Hinton a déclaré que Google était considéré comme un « intendant » de l’IA, mais la donne a depuis changé. La décision rapide de Microsoft d’intégrer le GPT-4 d’OpenAI dans Bing, avec un succès retentissant, a conduit Google à se précipiter pour proposer une technologie similaire dans ses propres produits. Hinton dit qu’une telle concurrence pourrait être « impossible à arrêter ».
La préoccupation immédiate du point de vue de Hinton est la désinformation, affirmant que les faux textes, images et vidéos créés par l’IA qui inondent Internet conduiront les gens ordinaires à « ne pas [being] je ne peux plus savoir ce qui est vrai. Une autre préoccupation que Hinton partage avec beaucoup est que les produits d’IA finiront par « bouleverser » le marché du travail, remplaçant éventuellement des rôles tels que « parajuristes, assistants personnels, traducteurs » et autres. La tendance de l’IA à apprendre des comportements inattendus, comme générer et exécuter son propre code, est une autre chose qu’il craint désormais. Il ajoute également :
L’idée que ces choses pourraient en réalité devenir plus intelligentes que les gens – quelques personnes le croyaient. Mais la plupart des gens pensaient que c’était loin d’être le cas. Et je pensais que c’était loin. Je pensais que ce serait dans 30 à 50 ans, voire plus. Évidemment, je ne le pense plus.
En fin de compte, Geoffrey Hinton dit qu’il regrette désormais l’œuvre de sa vie.
Dans un tweeterHinton a déclaré que Google avait « agi de manière très responsable » avec l’IA jusqu’à présent, et a précisé que son départ de Google n’avait pas pour but de critiquer l’entreprise, mais plutôt les dangers de l’IA dans son ensemble, sans se soucier de l’impact de ses déclarations sur Google.
En savoir plus sur l’IA :
FTC : Nous utilisons des liens d’affiliation automatique générateurs de revenus. Plus.