Il y a un bon raison de ne pas faire confiance à ce que les constructions d’IA d’aujourd’hui vous disent, et cela n’a rien à voir avec la nature fondamentale de l’intelligence ou de l’humanité, avec les concepts wittgensteiniens de représentation du langage, ou même avec la désinformation dans l’ensemble de données. Tout ce qui compte, c’est que ces systèmes ne font pas de distinction entre quelque chose qui est correct et quelque chose qui regards correct. Une fois qu’on comprend que l’IA considère ces choses comme plus ou moins interchangeables, tout prend beaucoup plus de sens.
Maintenant, je ne veux pas court-circuiter les discussions fascinantes et de grande envergure sur ce sujet qui se déroulent continuellement dans toutes les formes de médias et de conversations. Nous avons tout le monde, des philosophes et linguistes aux ingénieurs et hackers en passant par les barmans et les pompiers, qui se demandent et débattent de ce que sont réellement « l’intelligence » et le « langage », et si quelque chose comme ChatGPT les possède.
Ceci est incroyable! Et j’ai déjà beaucoup appris alors que certaines des personnes les plus intelligentes de cet espace profitent de leur moment au soleil, tandis que de la bouche de filles comparables émergent de nouvelles perspectives.
Mais en même temps, c’est beaucoup de choses à trier autour d’une bière ou d’un café lorsque quelqu’un demande « qu’en est-il de tous ces trucs GPT, c’est un peu effrayant à quel point l’IA devient intelligente, n’est-ce pas ? Par où commencer – avec Aristote, le Turc mécanique, le perceptron ou « L’attention est tout ce dont vous avez besoin » ?
Au cours d’une de ces discussions, j’ai découvert une approche simple qui, selon moi, aide les gens à comprendre pourquoi ces systèmes peuvent être à la fois vraiment cool et totalement peu fiables, tout en n’enlevant rien à leur utilité dans certains domaines et aux conversations étonnantes qui ont lieu autour. eux. J’ai pensé le partager au cas où vous trouveriez cette perspective utile pour en parler avec d’autres personnes curieuses et sceptiques qui ne veulent néanmoins pas entendre parler de vecteurs ou de matrices.
Il n’y a que trois choses à comprendre, qui conduisent à une conclusion naturelle :
- Ces modèles sont créés en leur demandant d’observer les relations entre les mots et les phrases, etc. dans un énorme ensemble de données de texte, puis de construire leur propre carte statistique interne de la façon dont tous ces millions et millions de mots et de concepts sont associés et corrélés. Personne n’a dit : ceci est un nom, ceci est un verbe, ceci est une recette, ceci est un dispositif rhétorique ; mais ce sont des choses qui apparaissent naturellement dans les modèles d’utilisation.
- Ces modèles ne apprennent pas spécifiquement comment répondre aux questions, contrairement aux éditeurs de logiciels familiers comme google et apple qui appellent l’IA depuis une décennie. Ceux sont essentiellement des Mad Libs avec les espaces vides menant aux API : chaque question est soit prise en compte, soit produit une réponse générique. Avec les grands modèles de langage, la question n’est qu’une série de mots comme les autres.
- Ces modèles ont une qualité expressive fondamentale de « confiance » dans leurs réponses. Dans un exemple simple d’IA de reconnaissance de chat, cela passerait de 0, ce qui signifie absolument sûr que ce n’est pas un chat, à 100, ce qui signifie absolument sûr que c’est un chat. Vous pouvez lui dire de dire « oui, c’est un chat » si son niveau de confiance est de 85 ou 90, selon la mesure de réponse que vous préférez.
Donc, étant donné ce que nous savons sur le fonctionnement du modèle, voici la question cruciale : de quoi est-il sûr ? à propos? Il ne sait pas ce qu’est un chat ou une question, seulement les relations statistiques trouvées entre les nœuds de données d’un ensemble d’apprentissage. Un ajustement mineur permettrait au détecteur de chat d’être tout aussi sûr que l’image montre une vache, ou le ciel, ou une nature morte. Le modèle ne peut pas avoir confiance en ses propres « connaissances », car il n’a aucun moyen d’évaluer réellement le contenu des données sur lesquelles il a été formé.
L’IA exprime à quel point elle est sûre que sa réponse semble correct à l’utilisateur.
Cela est vrai pour le détecteur de chat, et c’est vrai pour GPT-4 – la différence réside dans la longueur et la complexité de la sortie. L’IA ne peut pas faire la distinction entre une bonne et une mauvaise réponse – elle peut seulement prédire quelle est la probabilité une série de mots doit être considérée comme correcte. C’est pourquoi il doit être considéré comme le conneries le mieux informé au monde plutôt que comme une autorité sur n’importe quel sujet. Il ne sait même pas que ce sont des conneries — il a été formé pour produire une réponse qui ressemble statistiquement à une bonne réponseet il dira rien pour améliorer cette ressemblance.
L’IA ne connaît la réponse à aucune question, car elle ne comprend pas la question. Il ne sait pas quelles sont les questions. Il ne « sait » rien ! La réponse suit la question car, en extrapolant son analyse statistique, cette série de mots est la plus susceptible de suivre la série de mots précédente. Que ces mots fassent référence à des lieux, des personnes, des lieux réels, etc. n’est pas important – seulement qu’ils le sont. comme les vrais.
C’est la même raison pour laquelle l’IA peut produire une peinture de type Monet qui n’est pas un Monet : tout ce qui compte, c’est qu’elle possède toutes les caractéristiques qui amènent les gens à identifier une œuvre d’art comme étant la sienne. L’IA d’aujourd’hui se rapproche des réponses factuelles de la même manière qu’elle se rapprocherait des « Nénuphars ».
Maintenant, je m’empresse d’ajouter qu’il ne s’agit pas d’un concept original ou révolutionnaire, mais plutôt d’une autre façon d’expliquer le perroquet stochastique, ou la pieuvre sous-marine. Ces problèmes ont été identifiés très tôt par des personnes très intelligentes et constituent une excellente raison de lire largement les commentaires sur les questions technologiques.
Mais dans le contexte des systèmes de chatbot d’aujourd’hui, je viens de découvrir que les gens adoptent intuitivement cette approche : les modèles ne comprennent pas les faits ou les concepts, mais les relations entre les mots et leurs réponses sont une « impression d’artiste » d’une réponse. Leur objectif, en fin de compte, est de combler le vide de manière convaincantepas correctement. C’est la raison pour laquelle on ne peut fondamentalement pas faire confiance à ses réponses.
Bien sûr, parfois, même la plupart du temps, sa réponse est correct! Et ce n’est pas un hasard : pour de nombreuses questions, la réponse qui semble la plus correcte est la bonne réponse. C’est ce qui rend ces modèles si puissants – et si dangereux. Il y a tellement de choses que vous pouvez extraire d’une étude systématique de millions de mots et de documents. Et contrairement à la recréation exacte des « Nymphéas », il existe une flexibilité dans le langage qui permet à une approximation d’une réponse factuelle d’être également factuelle – mais aussi de faire apparaître une réponse totalement ou partiellement inventée de manière égale ou plus. La seule chose qui importe à l’IA, c’est que la réponse soit correcte.
Cela laisse la porte ouverte à des discussions sur la question de savoir s’il s’agit véritablement de connaissances, si les modèles « comprennent », s’ils ont atteint une certaine forme d’intelligence, ce qu’est même l’intelligence, etc. Vive le Wittgenstein !
De plus, cela laisse également ouverte la possibilité d’utiliser ces outils dans des situations où la vérité n’est pas vraiment une préoccupation. Si vous souhaitez générer cinq variantes d’un paragraphe d’ouverture pour contourner le blocage de l’écrivain, une IA pourrait être indispensable. Si vous souhaitez inventer une histoire sur deux animaux en voie de disparition, ou écrire un sonnet sur Pokémon, foncez. Tant qu’il n’est pas crucial que la réponse reflète la réalité, un grand modèle linguistique est un partenaire volontaire et capable – et ce n’est pas un hasard si c’est là que les gens semblent s’amuser le plus.
Il est très, très difficile de prédire où et quand l’IA se trompe, car les modèles sont trop grands et opaques. Imaginez un catalogue sur fiches de la taille d’un continent, organisé et mis à jour sur une période de cent ans par des robots, à partir de premiers principes qu’ils ont inventés à la volée. Vous pensez que vous pouvez simplement entrer et comprendre le système ? Il donne une bonne réponse à une question difficile et une mauvaise réponse à une question facile. Pourquoi? À l’heure actuelle, c’est une question à laquelle ni l’IA ni ses créateurs ne peuvent répondre.
Cela pourrait bien changer dans le futur, peut-être même dans un avenir proche. Tout évolue si vite et de manière si imprévisible que rien n’est sûr. Mais pour le moment, il s’agit d’un modèle mental utile à garder à l’esprit : l’IA veut que vous y croyiez et dira n’importe quoi pour améliorer ses chances.