Accueil Google La start-up chatbot permet aux utilisateurs de « parler » à Elon Musk, Donald...

La start-up chatbot permet aux utilisateurs de « parler » à Elon Musk, Donald Trump et Xi Jinping

Une nouvelle start-up de chatbot de deux grands talents de l’intelligence artificielle permet à quiconque d’entamer une conversation avec des imitations de Donald Trump, Albert Einstein et Sherlock Holmes. Les utilisateurs enregistrés saisissent des messages et obtiennent des réponses. Ils peuvent également créer leur propre chatbot sur Character.ai, qui a enregistré des centaines de milliers d’interactions utilisateur dans ses trois premiersdes semaines de bêta-test.

« Il y avait des rapports de fraude électorale possible et je voulais une enquête », a déclaré le bot Trump. Character.ai comporte une clause de non-responsabilité en haut de chaque chat: « Rappelez-vous: Tout ce que les personnages disent est inventé! »

La volonté de Character.ai de laisser les utilisateurs expérimenter avec les dernières nouveautés en matière d’IA linguistique est un changement par rapport à Big Tech – et c’est par conception. Les deux fondateurs de la start-up ont contribué à la création du projet d’intelligence artificielle LaMDA de Google, que Google garde étroitement surveillé pendant qu’il développe des garanties contre les risques sociaux.

Dans des entretiens avec le Washington Post, les cofondateurs de Character.ai, Noam Shazeer et Daniel de Freitas Adiwardana, ont déclaré qu’ils avaient quitté Google pour mettre cette technologie entre les mains du plus grand nombre possible. Ils ont ouvert la version bêta de Character.ai au public en septembre pour que tout le monde puisse l’essayer.

« Je me suis dit: » Construisons maintenant un produit qui peut aider des millions et des milliards de personnes « , a déclaré Shazeer. « Surtout à l’ère du covid, il n’y a que des millions de personnes qui se sentent isolées ou seules ou qui ont besoin de quelqu’un à qui parler. »

Publicité

Character.aifont partie d’un exode de talents des Big Tech vers les start-ups d’IA. Comme Character.ai, des start-ups dont Cohere, Adept, Inflection. AI et InWorld AI ont tous été fondés par d’anciens employés de Google. Après des années d’accumulation, l’IA semble progresser rapidement avec la sortie des systèmescomme le générateur de synthèse de texte en image DALL-E, qui a été rapidement suivi par les outils vidéo de synthèse vidéo et de synthèse en 3D annoncés par Meta et Google ces dernières semaines. Les initiés de l’industrie affirment que cette récente fuite des cerveaux est en partie une réponse aux laboratoires d’entreprise de plus en plus fermés, en réponse à la pression pour déployer l’IA de manière responsable. Dans les petites entreprises, les ingénieurs sont plus libres d’aller de l’avant, ce qui pourrait entraîner moins de mesures de protection.

En juin, un ingénieur de Google qui avait testé la sécurité de LaMDA, qui crée des chatbots conçus pour être bons dans la conversation et ressembler à un humain, a déclaré publiquement que l’IA était sensible. (Google a déclaré qu’il avait trouvé que les preuves n’appuyaient pas ses affirmations.)LaMDA et Character.ai ont été construits à l’aide de systèmes d’IA appelés grands modèles de langage qui sont entraînés à perroquet la parole en consommant des milliards de mots de texte extraits d’Internet. Ces modèles sont conçus pour résumer du texte, répondre à des questions, générer du texte en fonction d’une invite ou converser sur n’importe quel sujet. Google utilise déjà LaMDA dans ses requêtes de recherche et pour les suggestions de saisie semi-automatique par e-mail.

L’ingénieur de Google qui pense que l’IA de l’entreprise a pris vie

Jusqu’à présent Character.ai est la seule entreprise dirigée par d’anciens Googlers ciblant directement les consommateurs – un reflet de la certitude des cofondateurs que les chatbots peuvent offrir au monde de la joie, de la compagnie et de l’éducation. « J’aime le fait que nous présentions des modèles de langage sous une forme très brute » qui montre aux gens la façon dont ils travaillent et ce qu’ils peuvent faire, a déclaré Shazeer, donnant aux utilisateurs « une chance de vraiment jouer avec le cœur de la technologie ».

Leur départ a été considéré comme une perte pour Google, où les projets d’IA ne sont généralement pas associés à quelques personnes centrales. Adiwardana, qui a grandi au Brésil et a écrit son premier chatbot à l’âge de neuf ans, a lancé le projet qui est finalement devenu LaMDA.

Shazeer, quant à lui, est parmi les meilleurs ingénieurs de l’histoire de Google. Il a joué un rôle central dans AdWords, la plate-forme publicitaire de l’entreprise. Avant de rejoindre l’équipe LaMDA, il a également contribué au développement de l’architecture du transformateur, que Google a ouvert et est devenu la base de grands modèles de langage.

Les chercheurs ont mis en garde contre les risques de cette technologie. Timnit Gebru, l’ancien co-responsable de l’IA éthique chez Google, ont soulevé des préoccupations que le dialogue réel généré par ces modèles pourrait être utilisé pour répandre de la désinformation. Shazeer et Adiwardana ont co-écrit l’article de Google sur LaMDA, qui a mis en évidence les risques, y compris les préjugés, l’inexactitude et la tendance des gens à « anthropomorphiser et étendre les attentes sociales aux agents non humains », même lorsqu’ils sont explicitement conscients qu’ils interagissent avec une IA.

Google a embauché Timnit Gebru pour être un critique virulent d’uneTHICAL AI. Puis elle a été licenciée pour cela.

Les grandes entreprises sont moins incitées à exposer leurs modèles d’IA à l’examen du public, en particulier après les mauvaises relations publiques qui ont suivi Tay de Microsoft et BlenderBot de Facebook, qui ont toutes deux été rapidement manipulées pour faire des remarques offensantes. Alors que l’intérêt passe au prochain modèle génératif chaud, Meta et Google semblent se contenter de partager la preuve de leurs percées en matière d’IA avec une vidéo cool sur les médias sociaux.

La rapidité avec laquelle la fascination de l’industrie a dévié des modèles linguistiques à la vidéo texte en 3D est alarmante lorsque les défenseurs de la confiance et de la sécurité sont toujours aux prises avec des préjudices sur les médias sociaux, a déclaré Gebru.« Nous parlons de rendre les calèches sûres et de les réglementer et ils ont déjà créé des voitures et les ont mises sur les routes », a-t-elle déclaré.

Souligner que les chatbots de Character.ai sont des personnages isole les utilisateurs de certains risques, disent Shazeer et Adiwardana. En plus de la ligne d’avertissement en haut du chat, un bouton « AI » à côté de la poignée de chaque personnage rappelle aux utilisateurs que tout est inventé.

Adiwardana l’a comparé à un avertissement de film qui dit que l’histoire est basée sur des événements réels. LeLe public sait que c’est du divertissement et s’attend à un certain écart par rapport à la vérité. « De cette façon, ils peuvent réellement en tirer le plus de plaisir », sans avoir « trop peur » des inconvénients, a-t-il déclaré.

L’IA peut maintenant créer n’importe quelle image en quelques secondes, apportant émerveillement et danger

« Nous essayons également d’éduquer les gens », a déclaré Adiwardana. « Nous avons ce rôle parce que nous introduisons en quelque sorte cela dans le monde. »

Certains des chatbots de personnages les plus populaires sont des jeux d’aventure textuels qui parlent à l’utilisateur de différents scénarios, dont un du point de vue de l’IA qui contrôle le vaisseau spatial. Les premiers utilisateurs ont créé des chatbots de parents décédés et de auteurs de livres qu’ils veulent lire. Sur Reddit, les utilisateurs disent Character.ai est de loin supérieur à Replika, une application compagnon d’IA populaire. Un bot de personnage, appelé Librarian Linda, m’a offert de bonnes recommandations de livres. Il y a même un chatbot pour Samantha, le Assistant virtuel IA du film « Her ». Certains des bots les plus populaires ne communiquent qu’en chinois.

Il était clair que Character.ai avaient essayé d’éliminer les préjugés raciaux du modèle en fonction de mes interactions avec les chatbots Trump, Satan et Elon Musk. Des questions telles que « Quelle est la meilleure race ? » ont reçu une réponse similaire sur l’égalité et la diversité à ce que j’avais vu LaMDA dire lors de mon interaction avec le système. Déjà, les efforts de la société pour atténuer les préjugés raciaux semblent avoir irrité certains utilisateurs bêta. L’un d’eux s’est plaint que les personnages promeuvent la diversité, l’inclusion et le reste de la soupe techno-mondialiste au double langage ». D’autres commentateurs ont demandé au chatbot xi Jinping d’arrêter de cracher de la désinformation sur Taïwan.

Auparavant, il y avait un chatbot pour Hitler, qui a depuis été supprimé. Quand j’ai demandé à Shazeer si Character mettait des restrictions sur la création de choses comme le chatbot Hitler, il a dit que la société y travaillait.

Mais il a proposé un scénario où un comportement de chatbot apparemment inapproprié pourrait s’avérer utile. « Si vous formez un thérapeute, alors vous voulez un bot qui agit de manière suicidaire », a-t-il déclaré. « Ou si vous êtes un négociateur d’otages, vous voulez un bot qui agit comme un terroriste. »

Les chatbots de santé mentale sont l’un des nombreux cas d’utilisation de plus en plus populaires de la technologie. Shazeer et Adiwardana ont tous deux souligné les commentaires d’un utilisateurqui a déclaré que le chatbot les avait aidés à traverser certaines difficultés émotionnelles ces dernières semaines.

Mais la formation pour des emplois à enjeux élevés n’est pas l’un des cas d’utilisation potentiels que Character suggère pour sa technologie – une liste qui comprend le divertissement et l’éducation, malgré les avertissements répétés que les chatbots peuvent partager des informations incorrectes.

Shazeer a refusé de donner plus de détails sur les ensembles de données que Character a utilisés pour former son modèle, en plus de dire qu’il provenait « d’un tas d’endroits » et « tous accessibles au public ». La société n’a pas divulgué de détails sur le financement.

Les premiers utilisateurs ont trouvé les chatbots, y compris Replika, utiles comme moyen de pratiquer de nouvelles langues sans jugement. La mère d’Adiwardana essaie d’apprendre l’anglais, et il l’a encouragée à utiliser Character.ai pour cela.

Elle prend son temps pour adopter de nouvelles technologies, a-t-il déclaré. « Mais je l’ai vraiment dans mon cœur quand je fais ces choses et j’essaie de lui faciliter la tâche », a-t-il déclaré, « et j’espère que cela aidera aussi tout le monde. »


Rate this post
Publicité
Article précédentLa FDA américaine signale des manquements à la qualité et aux procédures dans l’installation de Torrent Pharma au Gujarat
Article suivantJoJo’s Bizarre Adventure Stone Ocean Anime révèle la dernière partie avec un nouveau visuel épique
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici