Une main de robot écrit sur un clavier

Copyright de l’image
Getty Images

Cela pourrait être la preuve que l’intelligence artificielle a fait un grand bond en avant et que les écrivains humains et les développeurs de logiciels seront bientôt redondants.

Ou peut-être est-ce juste le dernier exemple du battage médiatique devançant la réalité? Sur Tech Tent de cette semaine, nous découvrons ce qu’est le gros problème à propos de quelque chose appelé GPT-3.

OpenAI est une société californienne créée en 2015 avec une mission ambitieuse: s’assurer que les systèmes d’intelligence artificielle générale qui pourraient surpasser les humains dans la plupart des emplois profiteraient à toute l’humanité.

Il a été fondé en tant qu’association à but non lucratif grâce aux généreux dons d’Elon Musk, entre autres, mais s’est rapidement transformé en une entreprise à but lucratif, Microsoft investissant 1 milliard de dollars.

  • Écoutez le dernier podcast Tech Tent sur BBC Sounds

  • Écoutez en direct tous les vendredis à 15h00 GMT sur le BBC World Service

Maintenant, il a publié GPT-3, un produit qui a eu des médias sociaux, ou cette partie qui est obsédée par les nouvelles technologies, bourdonnant d’enthousiasme ces derniers jours.

C’est une IA, ou pour être plus précis, un outil d’apprentissage automatique qui semble avoir des capacités étonnantes. Essentiellement, il s’agit d’un générateur de texte, mais les utilisateurs trouvent qu’il peut tout faire, de l’écriture d’un essai sur Twitter dans le style de Jerome K Jerome, à la réponse à des questions médicales ou même au codage de logiciels.

Jusqu’à présent, il n’a été disponible que pour quelques personnes qui ont demandé à rejoindre la version bêta privée, parmi lesquelles Michael Tefula. Il travaille pour un fonds de capital-risque basé à Londres, mais se décrit comme un passionné de technologie plutôt que comme un développeur ou un informaticien.

Il explique que ce qui rend GPT-3 si puissant, c’est le volume de données qu’il a ingéré à partir du Web par rapport à une version antérieure du programme. “Cette chose est une bête en termes de combien elle est meilleure que GPT-2.”

Copyright de l’image
Getty Images

Légende

Comment le système ferait-il face à la compréhension des documents juridiques?

Alors, que pouvez-vous en faire?

«Cela dépend vraiment de votre créativité avec l’outil, vous pouvez essentiellement lui indiquer ce que vous aimeriez qu’il fasse. Et il pourra générer des résultats en fonction de cette invite. »

Michael a décidé de voir comment cela fonctionnerait pour prendre des documents juridiques complexes et les traduire en quelque chose de compréhensible

«Je lui ai donné deux ou trois paragraphes qui provenaient d’un document juridique.

“Et je lui ai également donné deux ou trois exemples de ce à quoi ressemblerait une version simplifiée de ces paragraphes.”

Après avoir été formé, GPT-3 a pu fournir des versions simplifiées d’autres documents.

Il a ensuite cherché à savoir s’il pouvait apprendre son style d’écriture et générer des e-mails qui lui ressembleraient – et les résultats étaient encore une fois impressionnants.

Ce qui nous amène à l’un des problèmes de cette technologie. L’année dernière, OpenAI, se rappelant apparemment sa mission de protéger l’humanité, a déclaré qu’il ne publierait pas une version complète de GPT-2 car cela soulèverait des problèmes de sécurité.

À l’ère de la falsification, un algorithme qui pourrait générer des articles qui pourraient ressembler à un politicien de premier plan pourrait s’avérer dangereux.

Pourquoi alors, ont demandé certains critiques, le GPT-3 plus puissant était-il différent? Parmi eux, le chef de l’IA de Facebook, Jerome Pesenti qui a tweeté: «Je ne comprends pas comment nous sommes passés de gpt2 à une trop grande menace pour l’humanité pour être publié ouvertement à gpt3 étant prêt à tweeter, à soutenir les clients ou à exécuter des commandes shell.»

Il a soulevé le problème de l’algorithme générant un langage toxique reflétant les biais dans les données dont il a été nourri, soulignant que lorsqu’on lui donne des mots tels que «juif» ou «femmes», il génère des tweets antisémites ou misogynes.

Le fondateur d’OpenAI, Sam Altman, semblait désireux de calmer ces craintes, tweeter: “Nous partageons votre préoccupation concernant les préjugés et la sécurité dans les modèles de langage, et c’est en grande partie pourquoi nous commençons avec une version bêta et procédons à un examen de la sécurité avant que les applications puissent être mises en ligne.”

Copyright de l’image
Getty Images

Légende

L’IA a encore un long chemin à parcourir pour atteindre l’intelligence humaine

Mais l’autre question est de savoir si, loin d’être une menace pour l’humanité, GPT-3 est aussi intelligent qu’il y paraît. L’informaticien qui dirige la recherche sur l’intelligence artificielle de l’Université d’Oxford, Michael Wooldridge, est sceptique.

Il m’a dit que si la réalisation technique était impressionnante, il était clair que GPT-3 ne comprenait pas ce qu’il faisait, alors parler de sa rivalité avec l’intelligence humaine était fantaisiste: «C’est une avancée technique intéressante, et sera utilisée pour le faire. des choses très intéressantes, mais cela ne représente pas une avancée vers l’IA générale. L’intelligence humaine est bien plus qu’une pile de données et un grand réseau neuronal. »

C’est peut-être le cas, mais je suis toujours impatient de l’essayer. Cherchez dans les semaines à venir des preuves de blogs ou de scripts radio écrits par un robot.



Leave a Reply