Qu’est-ce qui vient de se passer? Il est compréhensible que de nombreuses personnes craignent que l’intelligence artificielle ne devienne une menace pour l’humanité ; Hollywood a produit de nombreux films sur les IA voyous au fil des ans. Mais lorsqu’un avertissement que le monde est proche d’une IA « potentiellement effrayante » vient de Sam Altman, le PDG du créateur de ChatGPT OpenAI, il est peut-être temps d’écouter.
Altman, co-fondateur et PDG d’OpenAI et ancien président de Y Combinator, a publié plusieurs tweets sur l’IA générative au cours du week-end. Il a écrit que les avantages de l’intégration des outils d’IA dans la société signifient que le monde s’adaptera probablement très rapidement à la technologie. Il croit qu’ils nous aideront à devenir plus productifs, en meilleure santé, plus intelligents et plus divertissants.
Altman dit que ce type de transition est « généralement bon » et peut se produire rapidement, en le comparant à la façon dont le monde est passé de l’ère pré-smartphone à l’ère post-smartphone, mais il sera tentant de faire le pas « très rapidement », ce qui, selon lui, est une perspective effrayante car la société a besoin de temps pour s’adapter.
Il y avait aussi un avertissement sur la nécessité d’une réglementation de l’industrie. « Nous avons également besoin de suffisamment de temps pour que nos institutions déterminent ce qu’il faut faire. La réglementation sera essentielle et prendra du temps à comprendre ; bien que les outils d’IA de la génération actuelle ne soient pas très effrayants, je pense que nous ne sommes potentiellement pas si loin de potentiellement effrayants », a tweeté Altman.
nous avons également besoin de suffisamment de temps pour que nos institutions sachent quoi faire. la réglementation sera essentielle et prendra du temps à comprendre ; bien que les outils d’IA de la génération actuelle ne soient pas très effrayants, je pense que nous ne sommes potentiellement pas si loin des outils potentiellement effrayants.
—Sam Altman (@sama) 19 février 2023
Les tweets ont mis en évidence certains des problèmes des IA génératives, tels que Bing Chat de Microsoft, alimenté par GPT, appelant les utilisateurs à des menteurs et étant trop agressifs ou grossiers avec eux. Microsoft a répondu à cela en limitant les utilisateurs à 50 tours de chat – un échange de conversation qui contient à la fois une question d’utilisateur et une réponse – par jour et 5 tours de chat par session. . Il veut également s’assurer qu’il n’y a pas de résultats biaisés des chatbots.
Ces conversations dérangeantes viennent du fait que les IA sont limitées par ce sur quoi elles sont formées et incapables de « penser » par elles-mêmes. C’est ce qui a récemment permis à un joueur amateur de go de battre une intelligence artificielle de haut niveau en utilisant une technique que les humains seraient facilement en mesure d’identifier.
L’IA générative n’est pas le seul type d’intelligence artificielle où la réglementation devient une priorité. L’utilisation de l’IA dans la guerre est sous le feu des projecteurs en ce moment et a conduit plus de 60 pays à accepter de placer l’utilisation responsable de l’intelligence artificielle plus haut dans l’agenda politique.