Google utilise souvent sa conférence annuelle des développeurs, I/O, pour présenter intelligence artificielle avec un facteur wow. En 2016, il a introduit le Google Home haut-parleur intelligent avec Google Assistant. En 2018, Duplex a fait ses débuts pour répondre aux appels et planifier des rendez-vous pour les entreprises. Fidèle à cette tradition, le mois dernier, le PDG Sundar Pichai a présenté LaMDA, une IA « conçue pour avoir une conversation sur n’importe quel sujet ».

Dans une démo sur scène, Pichai a démontré ce que c’est que de converser avec un avion en papier et le corps céleste Pluton. Pour chaque requête, LaMDA a répondu avec trois ou quatre phrases censées ressembler à une conversation naturelle entre deux personnes. Au fil du temps, a déclaré Pichai, LaMDA pourrait être intégré aux produits Google, notamment Assistant, Workspace et, plus important encore, rechercher.

« Nous pensons que les capacités de conversation naturelles de LaMDA ont le potentiel de rendre l’information et l’informatique radicalement plus accessibles et plus faciles à utiliser », a déclaré Pichai.

La démonstration LaMDA offre une fenêtre sur la vision de Google pour la recherche qui va au-delà d’une liste de liens et pourrait changer la façon dont des milliards de personnes effectuent des recherches sur le Web. Cette vision est centrée sur l’IA qui peut inférer un sens à partir du langage humain, engager une conversation et répondre à des questions à multiples facettes comme un expert.

Toujours au niveau des E/S, Google a présenté un autre outil d’IA, baptisé Multitask Unified Model (MUM), qui peut prendre en compte les recherches avec du texte et des images. Le vice-président Prabhakar Raghavan a déclaré que les utilisateurs pourraient un jour prendre une photo d’une paire de chaussures et demander au moteur de recherche si les chaussures seraient bonnes à porter lors de l’ascension du mont Fuji.

Publicité

MUM génère des résultats dans 75 langues, ce qui, selon Google, lui donne une compréhension plus complète du monde. Une démonstration sur scène a montré comment MUM répondrait à la requête de recherche «J’ai parcouru le mont. Adams et veulent maintenant faire de la randonnée au mont. Fuji l’automne prochain, que dois-je faire différemment ? » Cette requête de recherche est formulée différemment de celle que vous recherchez probablement sur Google aujourd’hui, car MUM est destiné à réduire le nombre de recherches nécessaires pour trouver une réponse. MUM peut à la fois résumer et générer du texte ; il saura comparer le mont Adams au mont Fuji et cette préparation de voyage peut nécessiter des résultats de recherche pour l’entraînement physique, les recommandations d’équipement de randonnée et les prévisions météorologiques.

Dans un article intitulé « Repenser la recherche : faire des dilettantes des experts”, publié le mois dernier, quatre ingénieurs de Google Research ont envisagé la recherche comme une conversation avec des experts humains. Un exemple dans l’article considère la recherche « Quels sont les avantages et les risques pour la santé du vin rouge ? » Aujourd’hui, Google répond avec une liste de puces. L’article suggère qu’une réponse future pourrait ressembler davantage à un paragraphe disant que le vin rouge favorise la santé cardiovasculaire mais tache vos dents, avec des mentions et des liens vers les sources d’information. Le document montre la réponse sous forme de texte, mais il est également facile d’imaginer des réponses orales, comme l’expérience d’aujourd’hui avec Google Assistant.

Mais s’appuyer davantage sur l’IA pour déchiffrer le texte comporte également des risques, car les ordinateurs ont encore du mal à comprendre le langage dans toute sa complexité. L’IA la plus avancée pour des tâches telles que la génération de texte ou la réponse à des questions, connues sous le nom de grands modèles linguistiques, a montré une propension à amplifier les biais et à générer un texte imprévisible ou toxique. Un tel modèle, OpenAI‘s GPT-3, a été utilisé pour créer histoires interactives pour personnages animés mais a aussi texte généré sur des scènes de sexe impliquant des enfants dans un jeu en ligne.

Dans le cadre d’un article et démo publiés en ligne l’année dernière, des chercheurs du MIT, d’Intel et de Facebook ont ​​découvert que les grands modèles linguistiques présentaient des préjugés basés sur des stéréotypes sur la race, le sexe, la religion et la profession.

Rachael Tatman, linguiste titulaire d’un doctorat en éthique du traitement du langage naturel, affirme qu’à mesure que le texte généré par ces modèles devient plus convaincant, il peut amener les gens à croire qu’ils parlent avec une IA qui comprend le sens des mots qu’il est. générer, alors qu’en fait, il n’a aucune compréhension du monde de bon sens. Cela peut être un problème lorsqu’il génère du texte toxique pour personnes handicapées ou alors les musulmans ou dit aux gens de se suicider. En grandissant, Tatman se souvient qu’un bibliothécaire lui a appris à juger de la validité des résultats de recherche Google. Si Google combine de grands modèles linguistiques avec la recherche, dit-elle, les utilisateurs devront apprendre à évaluer les conversations avec des experts en IA.

.

Rate this post
Publicité
Article précédentLes fans de Dragon Ball adorent Megan l’étalon qui devient super saiyan pour son grand retour
Article suivantPays des merveilles ? Borderlands Dev Gearbox révèle une « nouvelle aventure » au Summer Game Fest
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici