Lors de son événement Search On aujourd’hui, Google a présenté plusieurs nouvelles fonctionnalités qui, prises ensemble, sont ses tentatives les plus puissantes à ce jour pour amener les gens à faire plus que taper quelques mots dans un champ de recherche. En exploitant à petite échelle sa nouvelle technologie d’apprentissage automatique du modèle unifié multitâche (MUM), l’entreprise espère lancer un cercle vertueux : elle fournira plus de détails et des réponses riches en contexte, et en retour, elle espère que les utilisateurs poseront des questions plus détaillées et plus contextuelles. -questions riches. L’entreprise espère que le résultat final sera une expérience de recherche plus riche et plus approfondie.

Google SVP Prabhakar Raghavan supervise la recherche aux côtés de l’assistant, des publicités et d’autres produits. Il aime dire – et l’a répété dans une interview dimanche dernier – que « la recherche n’est pas un problème résolu ». C’est peut-être vrai, mais les problèmes que lui et son équipe essaient de résoudre maintenant ont moins à voir avec les querelles du Web qu’avec l’ajout de contexte à ce qu’ils y trouvent.

Pour sa part, Google va commencer à étendre sa capacité à reconnaître des constellations de sujets connexes à l’aide de l’apprentissage automatique et à vous les présenter de manière organisée. Une refonte à venir de la recherche Google commencera à afficher des cases « Choses à savoir » qui vous renvoient à différents sous-thèmes. Quand il y a une section d’une vidéo qui est pertinente au sujet général – même si la vidéo dans son ensemble ne l’est pas – elle vous y enverra. Les résultats d’achat commenceront à afficher l’inventaire disponible dans les magasins à proximité, et même des vêtements de différents styles associés à votre recherche.

Pour votre part, Google propose – bien que « demander » soit peut-être un meilleur terme – de nouvelles façons de rechercher qui vont au-delà de la zone de texte. Il fait une poussée agressive pour introduire son logiciel de reconnaissance d’image Google Lens dans plus d’endroits. Il sera intégré à l’application Google sur iOS et également au navigateur Web Chrome sur les ordinateurs de bureau. Et avec MUM, Google espère amener les utilisateurs à faire plus que simplement identifier des fleurs ou des points de repère, mais plutôt à utiliser directement Lens pour poser des questions et faire des achats.

« C’est un cycle qui, je pense, va continuer à s’intensifier », dit Raghavan. « Plus de technologie conduit à plus de moyens financiers pour l’utilisateur, conduit à une meilleure expressivité pour l’utilisateur et exigera plus de nous, techniquement. »

Publicité

Gif;Base64,R0Lgodlhaqabaiaaaauebaaaacwaaaaaaqabaaacakqbads

Google Lens permettra aux utilisateurs de rechercher à l’aide d’images et d’affiner leur requête avec du texte.
Image : Google

Ces deux côtés de l’équation de recherche sont destinés à lancer la prochaine étape de la recherche Google, une étape où ses algorithmes d’apprentissage automatique deviennent plus importants dans le processus en organisant et en présentant directement les informations. En cela, les efforts de Google seront grandement aidés par les récentes avancées dans le traitement du langage par l’IA. Grâce aux systèmes connus sous le nom de grands modèles de langage (MUM en fait partie), l’apprentissage automatique s’est beaucoup amélioré pour cartographier les liens entre les mots et les sujets. C’est sur ces compétences que l’entreprise s’appuie pour rendre la recherche non seulement plus précise, mais aussi plus exploratoire et, elle l’espère, plus utile.

L’un des exemples de Google est instructif. Vous n’avez peut-être pas la première idée du nom des pièces de votre vélo, mais si quelque chose est cassé, vous devrez le découvrir. Google Lens peut identifier visuellement le dérailleur (la pièce de changement de vitesse suspendue près de la roue arrière) et plutôt que de simplement vous donner l’information discrète, il vous permettra de poser directement des questions sur la réparation de cette chose, vous amenant à l’information ( dans ce cas, l’excellent Berm Peak Youtube canaliser).

La poussée pour amener plus d’utilisateurs à ouvrir Google Lens plus souvent est fascinante en soi, mais la situation dans son ensemble (pour ainsi dire) concerne la tentative de Google de rassembler plus de contexte sur vos requêtes. Plus compliquées, les recherches multimodales combinant du texte et des images exigent « un niveau de contextualisation entièrement différent que nous, le fournisseur, devons avoir, et cela nous aide donc énormément à avoir autant de contexte que possible », explique Raghavan.

On est très loin des soi-disant « dix liens bleus » des résultats de recherche fournis par Google. Il affiche depuis longtemps des boîtes d’informations, des résultats d’images et des réponses directes. Les annonces d’aujourd’hui sont une autre étape, une étape dans laquelle les informations fournies par Google ne sont pas seulement un classement des informations pertinentes, mais un condensé de ce que ses machines comprennent en grattant le Web.

Dans certains cas, comme pour les achats, cette distillation signifie que vous enverrez probablement plus de pages vues à Google. Comme pour Lens, il est important de garder un œil sur cette tendance : les recherches Google vous poussent de plus en plus vers les propres produits de Google. Mais il y a aussi un plus grand danger ici. Le fait que Google vous dise plus de choses directement augmente un fardeau qu’il a toujours eu : parler avec moins de préjugés.

J’entends par là un parti pris dans deux sens différents. Le premier est technique : les modèles d’apprentissage automatique que Google souhaite utiliser pour améliorer la recherche présentent des problèmes bien documentés de préjugés raciaux et sexistes. Ils sont formés en lisant de larges portions du Web et, par conséquent, ont tendance à adopter des manières de parler désagréables. Les problèmes de Google avec son équipe d’éthique de l’IA sont également bien documentés à ce stade – il a licencié deux chercheurs principaux après avoir publié un article sur ce même sujet. Comme l’a dit le vice-président de la recherche de Google, Pandu Nayak, Le bord‘s James Vincent dans son article sur les annonces MUM d’aujourd’hui, Google sait que tous les modèles linguistiques ont des préjugés, mais l’entreprise pense qu’elle peut éviter de « la proposer aux gens pour qu’ils consomment directement ».

Gif;Base64,R0Lgodlhaqabaiaaaauebaaaacwaaaaaaqabaaacakqbads

Une nouvelle fonctionnalité appelée « Choses à savoir » aidera les utilisateurs à explorer des sujets liés à leurs recherches.
Image : Google

Quoi qu’il en soit (et pour être clair, ce n’est peut-être pas le cas), cela évite une autre question conséquente et un autre type de biais. Alors que Google commence à vous en dire plus sur ses propres synthèses d’informations directement, de quel point de vue parle-t-il ? En tant que journalistes, nous parlons souvent du fait que la soi-disant « vue de nulle part » est une façon inadéquate de présenter nos reportages. Quel est le point de vue de Google ? Il s’agit d’un problème auquel l’entreprise a été confrontée dans le passé, parfois connu sous le nom de problème « une seule vraie réponse ». Lorsque Google essaie de donner aux gens des réponses brèves et définitives à l’aide de systèmes automatisés, cela finit souvent diffuser de mauvaises informations.

Présenté avec cette question, Raghavan répond en soulignant la complexité des modèles linguistiques modernes. « Presque tous les modèles de langage, si vous les regardez, sont des plongements dans un espace de grande dimension. Il y a certaines parties de ces espaces qui ont tendance à faire plus autorité, certaines parties qui font moins autorité. Nous pouvons évaluer mécaniquement ces choses assez facilement », explique-t-il. Raghavan dit que le défi est alors de savoir comment présenter une partie de cette complexité à l’utilisateur sans le submerger.

Mais j’ai l’impression que la vraie réponse est que, pour l’instant du moins, Google fait ce qu’il peut pour éviter d’être confronté à la question du point de vue de son moteur de recherche en évitant les domaines dont il pourrait être accusé, comme le dit Raghavan , « éditorialisation excessive ». Souvent, lorsqu’ils parlent aux dirigeants de Google de ces problèmes de préjugés et de confiance, ils se concentrent sur des parties plus faciles à définir de ces espaces de grande dimension comme « l’autorité ».

Par exemple, les nouvelles cases « À savoir » de Google n’apparaîtront pas lorsque quelqu’un recherchera des éléments que Google a identifiés comme « particulièrement dangereux/sensibles », bien qu’un porte-parole ait déclaré que Google « n’autorise ou n’interdit pas des catégories spécifiques organisées, mais nos systèmes sont capables de comprendre de manière évolutive les sujets pour lesquels ces types de fonctionnalités devraient ou ne devraient pas se déclencher.

La recherche Google, ses entrées, ses sorties, ses algorithmes et ses modèles de langage sont tous devenus d’une complexité presque inimaginable. Lorsque Google nous dit qu’il est maintenant capable de comprendre le contenu des vidéos, nous tenons pour acquis qu’il a les moyens informatiques pour y parvenir – mais la réalité est que même l’indexation d’un corpus aussi volumineux est une tâche monumentale qui éclipse le mission originale d’indexer les premiers sites Web. (Google indexe uniquement les transcriptions audio d’un sous-ensemble de YouTube, pour mémoire, bien qu’avec MUM, il vise à faire de l’indexation visuelle et d’autres plates-formes vidéo à l’avenir).

Souvent, lorsque vous parlez à des informaticiens, le problème de voyageur de commerce viendra. C’est une célèbre énigme où vous essayez de calculer le trajet le plus court possible entre un nombre donné de villes, mais c’est aussi une riche métaphore pour réfléchir à la façon dont les ordinateurs effectuent leurs machinations.

« Si vous me donniez toutes les machines du monde, je pourrais résoudre des instances assez importantes », déclare Raghavan. Mais pour la recherche, il dit que c’est non résolu et peut-être insoluble en y jetant simplement plus d’ordinateurs. Au lieu de cela, Google doit proposer de nouvelles approches, comme MUM, qui tirent mieux parti des ressources que Google peut créer de manière réaliste. « Si vous m’avez donné toutes les machines qu’il y avait, je suis toujours limité par la curiosité et la cognition humaines. »

Les nouvelles façons de comprendre l’information de Google sont impressionnantes, mais le défi est de savoir ce qu’il fera avec l’information et comment il la présentera. Ce qui est amusant avec le problème du voyageur de commerce, c’est que personne ne semble s’arrêter pour demander ce qu’il en est exactement, que montre-t-il à tous ses clients lorsqu’il fait du porte-à-porte ?

Rate this post
Publicité
Article précédentMeilleurs gadgets de 2021 : Apple, Jackery, Insta360 et plus
Article suivantJujutsu Kaisen taquine le panel Jump Festa 2022
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici