Pour Google (GOOG, GOOGL) et Sundar Pichai, PDG d’Alphabet, son « ultime moonshot » est toujours Search, le moteur de recherche emblématique et extrêmement réussi de la société.

« [For] moi, notre ultime moonshot est toujours Search. Je sais que les gens seraient surpris d’entendre cela dans 20 ans. La recherche fonctionne très bien, mais comme je travaille sur la recherche, je vois toutes les limites. Même aujourd’hui, lorsque les internautes saisissent une requête complexe, nous recherchons des mots clés qui essaient de la faire correspondre. Nous avons encore un long chemin à parcourir pour comprendre réellement l’intention de l’utilisateur, le contexte, d’où il vient et donner la meilleure réponse. C’est donc toujours la lune », a déclaré Pichai à Yahoo Finance dans une interview exclusive de grande envergure.

Pichai a rejoint Google en 2004 et est rapidement devenu une étoile montante. Dix ans plus tard, il a été nommé à la tête des produits et de l’ingénierie des produits et des plates-formes de Google, notamment la recherche, Maps, Play, Android, Chrome, Gmail et G Suite. Il est devenu PDG de Google en 2015 et a rejoint le conseil d’administration d’Alphabet en 2017. Il a pris la direction de la société mère de Google, Alphabet, en décembre 2019.

Même avec toutes les exigences liées à la direction d’une entreprise à capitalisation boursière de 1,5 billion de dollars, le PDG de 48 ans est toujours très impliqué dans le processus de développement de produits. Cette semaine, la conférence des développeurs Google I / O est revenue après une interruption d’un an en raison de la pandémie avec une multitude d’annonces et de fonctionnalités de nouveaux produits. Parmi les annonces, un aperçu de la à venir Android 12 système d’exploitation, la vidéoconférence tridimensionnelle surnommée «Project Starline», l’intelligence artificielle pour détecter les affections dermatologiques et LaMDA – un modèle de langage pour les applications de dialogue, pour n’en nommer que quelques-uns.

Le Pdg De Google, Sundar Pichai, Prend La Parole Lors De La Session D'Ouverture De Google I / O 2019 Au Shoreline Amphitheatre De Mountain View, Californie, Le 7 Mai 2019 (Photo De Josh Edelson / Afp) (Photo De Josh Edelson / Afp Via Getty Images)

Le PDG de Google, Sundar Pichai, prend la parole lors de la session d’ouverture de Google I / O 2019 au Shoreline Amphitheatre de Mountain View, Californie, le 7 mai 2019 (Photo de Josh Edelson / AFP) (Photo de JOSH EDELSON / AFP via Getty Images)

Publicité

Pichai a déclaré à Yahoo Finance que la technologie comme LaMDA « est le travail que nous faisons pour progresser contre le moonshot » dans la recherche.

Bien que la technologie soit encore en recherche et développement, elle est utilisée en interne chez Google pour de nouvelles interactions. C’est un domaine ouvert et conçu pour converser sur n’importe quel sujet. Par exemple, à Google I / O, LaMDA a été démontré via des conversations avec Pluton, la planète et un avion en papier.

«J’ai eu la chance de jouer avec Pluton avec mon fils. Et j’aurais pu m’asseoir et avoir une conversation avec lui sur l’espace. Cela aurait pu marcher. Mais en le faisant, je peux voir que cela a capturé son imagination, non? Et c’est le pouvoir de tout cela, être capable de le faire d’une manière plus naturelle », a déclaré Pichai.

A Google I / O, Pichai a noté que via LaMDA, « des conversations réelles sont générées, et elles ne prennent jamais le même chemin, deux fois. LaMDA est capable de mener une conversation, peu importe ce dont nous avons parlé. »

Pour être sûr, LaMDA « ne fait pas tout bien » et parfois il donne « des réponses absurdes », a noté Pichai à I / O.

Pourtant, Pichai considère que les capacités de conversation de LaMDA ont le «potentiel de rendre l’information et l’informatique radicalement plus accessibles et plus faciles à utiliser», y compris pour ajouter de meilleures fonctionnalités de conversation dans l’Assistant Google, la recherche et l’espace de travail.

Alors que LaMDA est un « énorme pas en avant » dans une conversation plus naturelle, à l’heure actuelle, il n’est formé que par le texte. Pichai a déclaré à la foule d’E / S que l’équipe devait créer des modèles multimodaux (MUM) pour permettre aux gens de poser des questions sur différents types d’informations.

« Même maintenant, assis dans cette conversation, nous absorbons tout. Ce n’est pas seulement ce que nous parlons – nous sommes dans un endroit, nous nous voyons. C’est ainsi que les humains interagissent avec le monde », a déclaré Pichai.

Il a ajouté que les modèles multimodaux pourraient aider « les ordinateurs à comprendre les images, le texte, l’audio et la vidéo de la même manière que les humains perçoivent les informations afin qu’ils puissent les aider de manière plus significative. Et c’est ce qui m’excite dans les changements que nous apportons. »

Julia La Roche est correspondante de Yahoo Finance. Suivez-la sur Twitter.


Rate this post
Publicité
Article précédentLe patch du 21 mai de la guerre froide de Black Ops vous permet d’utiliser l’audio de Black Ops 4 et la batte de baseball à venir demain
Article suivantAlors que Bitcoin n’a gagné que 10% depuis le 3 janvier, cette stratégie de crypto trading a généré un retour sur investissement de 2150%
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici