La quête de la Silicon Valley pour tout automatiser est incessante, ce qui explique sa dernière obsession : GPT automatique.

Essentiellement, Auto-GPT utilise la polyvalence des derniers modèles d’IA d’OpenAI pour interagir avec les logiciels et les services en ligne, ce qui lui permet d’effectuer de manière « autonome » des tâches telles que X et Y. Mais comme nous apprenons avec de grands modèles de langage, cette capacité semble être aussi large qu’un océan mais aussi profond qu’une flaque d’eau.

Auto-GPT – que vous avez peut-être vu exploser sur les réseaux sociaux récemment – est une application open source créée par le développeur de jeux Toran Bruce Richards qui utilise les modèles de génération de texte d’OpenAI, principalement GPT-3.5 et GPT-4, pour agir « de manière autonome ».

Il n’y a pas de magie dans cette autonomie. Auto-GPT gère simplement les suivis d’une invite initiale des modèles OpenAI, en leur demandant et en y répondant jusqu’à ce qu’une tâche soit terminée.

Auto-GPT, en gros, est GPT-3.5 et GPT-4 associés à un bot compagnon qui indique à GPT-3.5 et GPT-4 ce qu’il faut faire. Un utilisateur indique à Auto-GPT quel est son objectif et le bot, à son tour, utilise GPT-3.5 et GPT-4 et plusieurs programmes pour effectuer chaque étape nécessaire pour atteindre l’objectif qu’il s’est fixé.

Publicité

Ce qui rend Auto-GPT raisonnablement capable, c’est sa capacité à interagir avec des applications, des logiciels et des services en ligne et locaux, comme les navigateurs Web et les traitements de texte. Par exemple, si vous recevez une invite telle que « aidez-moi à développer mon entreprise de fleurs », Auto-GPT peut développer une stratégie publicitaire quelque peu plausible et créer un site Web de base.

Comme Joe Koen, un développeur de logiciels qui a expérimenté Auto-GPT, l’a expliqué à fr.techtribune.net par e-mail, Auto-GPT automatise essentiellement les projets en plusieurs étapes qui auraient nécessité des allers-retours avec un modèle d’IA orienté chatbot comme, par exemple , ChatGPT d’OpenAI.

« Auto-GPT définit un agent qui communique avec l’API d’OpenAI », a déclaré Koen. « L’objectif de cet agent est d’exécuter une variété de commandes que l’IA génère en réponse aux demandes de l’agent. L’utilisateur est invité à entrer pour spécifier le rôle et les objectifs de l’IA avant que l’agent ne commence à exécuter des commandes. »

Dans un terminal, les utilisateurs décrivent le nom, le rôle et l’objectif de l’agent Auto-GPT et spécifient jusqu’à cinq façons d’atteindre cet objectif. Par exemple:

  • Nom: Smartphone-GPT
  • Rôle: Une IA conçue pour trouver le meilleur smartphone
  • Objectif: Trouvez les meilleurs Smartphones du marché
  • Objectif 1 : Faites des études de marché pour différents smartphones sur le marché aujourd’hui
  • Objectif 2 : Obtenez les cinq meilleurs smartphones et listez leurs avantages et inconvénients

Dans les coulisses, Auto-GPT s’appuie sur des fonctionnalités telles que la gestion de la mémoire pour exécuter des tâches, ainsi que GPT-4 et GPT-3.5 pour la génération de texte, le stockage de fichiers et la synthèse.

Auto-GPT peut également être connecté à des synthétiseurs vocaux, comme ElevenLabs’afin qu’il puisse « passer » des appels téléphoniques, par exemple.

Auto-GPT est disponible publiquement sur GitHub, mais il nécessite une configuration et un savoir-faire pour être opérationnel. Pour l’utiliser, Auto-GPT doit être installé dans un environnement de développement comme Docker, et il doit être enregistré avec une clé API d’OpenAI — qui nécessite un compte OpenAI payant.

Cela en vaut peut-être la peine – bien que le jury ne soit pas d’accord là-dessus. Les premiers utilisateurs ont utilisé Auto-GPT pour assumer les types de tâches banales mieux déléguées à un bot. Par exemple, Auto-GPT peut traiter des éléments tels que le débogage du code et la rédaction d’un e-mail ou des éléments plus avancés, tels que la création d’un plan d’affaires pour une nouvelle startup.

« Si Auto-GPT rencontre des obstacles ou une incapacité à terminer la tâche, il développera de nouvelles invites pour l’aider à naviguer dans la situation et déterminer les prochaines étapes appropriées », a déclaré Adnan Masood, l’architecte en chef d’UST, une société de conseil en technologie. fr.techtribune.net dans un e-mail. « Les grands modèles de langage excellent pour générer des réponses de type humain, mais s’appuient sur les invites et les interactions de l’utilisateur pour fournir les résultats souhaités. En revanche, Auto-GPT exploite les capacités avancées de l’API d’OpenAI pour fonctionner de manière indépendante sans intervention de l’utilisateur. »

Ces dernières semaines, de nouvelles applications sont apparues pour rendre Auto-GPT encore plus facile à utiliser, comme AgentGPT et GodMode, qui fournissent une interface simple où les utilisateurs peuvent saisir ce qu’ils veulent accomplir directement sur une page de navigateur. Notez que, comme Agent-GPT, les deux nécessitent une clé API d’OpenAI pour déverrouiller toutes leurs capacités.

Comme tout outil puissant, cependant, Auto-GPT a ses limites et ses risques.

Selon l’objectif fourni par l’outil, Auto-GPT peut se comporter de manière très… inattendue. Un Reddit utilisateur affirme que, compte tenu d’un budget de 100 $ à dépenser dans une instance de serveur, Auto-GPT a créé une page wiki sur les chats, exploité une faille dans l’instance pour obtenir un accès au niveau administrateur et a repris l’environnement Python dans lequel il fonctionnait – et puis « tué » lui-même.

Il y a aussi ChaosGPT, une version modifiée d’Auto-GPT chargée d’objectifs tels que « détruire l’humanité » et « établir une domination mondiale ». Sans surprise, ChaosGPT n’a pas failli provoquer l’apocalypse du robot – mais il a tweeté plutôt peu flatteur sur l’humanité.

Cependant, les problèmes imprévus qui peuvent survenir dans des scénarios par ailleurs parfaitement normaux sont sans doute plus dangereux que l’Auto-GPT qui tente de « détruire l’humanité ». Parce qu’il est construit sur les modèles de langage d’OpenAI – des modèles qui, comme tous les modèles de langage, sont sujets à des inexactitudes – il peut faire des erreurs.

Ce n’est pas le seul problème. Après avoir terminé avec succès une tâche, Auto-GPT ne se souvient généralement pas comment l’exécuter pour une utilisation ultérieure et, même lorsqu’il le fait, il ne se souvient souvent pas d’utiliser le programme. Auto-GPT a également du mal à diviser efficacement les tâches complexes en sous-tâches plus simples et a du mal à comprendre comment différents objectifs se chevauchent.

« Auto-GPT illustre la puissance et les risques inconnus de l’IA générative », a déclaré Clara Shih, PDG de Service Cloud de Salesforce et passionnée d’Auto-GPT, par e-mail. « Pour les entreprises, il est particulièrement important d’inclure une approche humaine dans la boucle lors du développement et de l’utilisation de technologies d’IA génératives comme Auto-GPT. »


5/5 - (10 votes)
Publicité
Article précédentAlexandra Daddario étourdit en tant que Wonder Woman dans une image à couper le souffle
Article suivantLe prix du Samsung Galaxy Note 10 Plus baisse avec une réduction massive de 44 % ; Vérifiez l’offre maintenant!
Berthe Lefurgey
Berthe Lefurgey est une journaliste chevronnée, passionnée par la technologie et l'innovation, qui fait actuellement ses armes en tant que rédactrice de premier plan pour TechTribune France. Avec une carrière de plus de dix ans dans le monde du journalisme technologique, Berthe s'est imposée comme une voix de confiance dans l'industrie. Pour en savoir plus sur elle, cliquez ici. Pour la contacter cliquez ici

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici