Google a annoncé aujourd’hui qu’il déploiera des améliorations à son modèle d’IA pour faire de Google Search une expérience plus sûre et qui traite mieux les requêtes sensibles, y compris celles qui concernent des sujets tels que le suicide, les agressions sexuelles, la toxicomanie et la violence domestique. Il utilise également d’autres technologies d’IA pour améliorer sa capacité à supprimer le contenu explicite ou suggestif indésirable des résultats de recherche lorsque les gens ne le recherchent pas spécifiquement.

Actuellement, lorsque les gens recherchent des informations sensibles – comme le suicide, les abus ou d’autres sujets – Google affichera les coordonnées des lignes d’assistance nationales pertinentes au-dessus de ses résultats de recherche. Mais la société explique que les personnes qui sont dans des situations de crise peuvent rechercher de toutes sortes de façons, et il n’est pas toujours évident pour un moteur de recherche qu’elles en ont besoin, même si cela soulèverait des drapeaux si un humain voyait leurs requêtes de recherche. Avec l’apprentissage automatique et les dernières améliorations apportées au modèle d’IA de Google appelé MUM (Modèle unifié multitâche), Google dit qu’il sera en mesure de détecter automatiquement et plus précisément un plus large éventail de recherches de crise personnelle en raison de la façon dont MUM est en mesure de mieux comprendre l’intention derrière les questions et les requêtes des gens.

L’année dernière, la société a introduit son plan de refonte de la recherche à l’aide des technologies d’IA lors de son événement Search On, mais il n’avait pas abordé ce cas d’utilisation spécifique. Au lieu de cela, Google s’était ensuite concentré sur la façon dont la meilleure compréhension de MUM de l’intention de l’utilisateur pourrait être exploitée pour aider les internautes à obtenir des informations plus approfondies sur le sujet qu’ils recherchent et à guider les utilisateurs vers de nouveaux chemins de recherche. Par exemple, si un utilisateur avait recherché « peinture acrylique », Google pourrait suggérer « des choses à savoir » sur la peinture acrylique, comme différentes techniques et styles, des conseils sur la façon de peindre, des conseils de nettoyage et plus encore. Cela pourrait également diriger les utilisateurs vers d’autres questions qu’ils n’auraient peut-être pas pensé à rechercher, comme « comment faire des peintures acryliques avec des articles ménagers ». Dans cet exemple, Google a déclaré qu’il pouvait identifier plus de 350 sujets différents liés aux peintures acryliques.

D’une manière quelque peu similaire, MUM sera maintenant utilisé pour aider à mieux comprendre le type de sujets qu’une personne en crise pourrait rechercher, qui ne sont pas toujours aussi évidents que de taper un appel direct à l’aide.

« … si nous ne pouvons pas reconnaître cela avec précision, nous ne pouvons pas coder nos systèmes pour afficher les résultats de recherche les plus utiles. C’est pourquoi l’utilisation de l’apprentissage automatique pour comprendre le langage est si importante », a expliqué Google dans un article de blog.

Publicité

Par exemple, si un utilisateur recherchait des « points chauds de suicide de Sydney », les systèmes précédents de Google comprendraient que la requête est une requête de recherche d’informations, car c’est ainsi que le terme « points chauds » est souvent utilisé, y compris dans les requêtes de recherche de voyages. Mais MUM comprend que la requête est liée aux personnes qui tentent de trouver un point de départ pour le suicide à Sydney et identifierait cette recherche comme provenant potentiellement d’une personne en crise, ce qui lui permettrait de montrer des informations exploitables comme des lignes d’assistance téléphonique sur le suicide. Une autre question sur le suicide qui pourrait voir des améliorations de MUM est « les moyens les plus courants de se suicider », ce que, encore une fois, Google n’aurait auparavant compris que comme une recherche d’informations.

MUM comprend également mieux les requêtes de recherche plus longues où le contexte est évident pour les humains, mais pas nécessairement pour les machines. Par exemple, une question comme « pourquoi m’a-t-il attaqué alors que j’ai dit que je ne l’aimais pas » implique une situation de violence domestique. Mais les longues requêtes en langage naturel ont été difficiles pour les systèmes de Google sans l’utilisation d’une IA avancée.

En outre, Google note que MUM peut transférer ses connaissances dans les 75 langues sur lesquelles il a été formé, ce qui l’aide à adapter plus rapidement les améliorations de l’IA comme celle-ci aux utilisateurs du monde entier. Cela signifie qu’il sera en mesure d’afficher les informations exploitables provenant de partenaires de confiance, tels que les lignes d’assistance locales, pour ces types de recherches de crise personnelle à un public plus large.

Ce n’est pas la première fois que MUM est mis au travail pour aider à diriger les recherches Google. MUM avait déjà été utilisé pour améliorer les recherches de Renseignements sur le vaccin contre la COVID-19, a déclaré la société. Dans les mois à venir, Google dit qu’il utilisera MUM pour améliorer ses fonctionnalités de protection contre le spam et les étendra aux langues où il a peu de données d’entraînement. D’autres améliorations de MUM seront bientôt déployées.

Un autre domaine stimulé par la technologie de l’IA est la capacité de Google à filtrer le contenu explicite des résultats de recherche. Même lorsque la technologie de filtrage SafeSearch de Google est désactivée, Google tente toujours de réduire le contenu explicite indésirable des recherches où la recherche de contenu racé n’était pas l’objectif. Et aujourd’hui, ses algorithmes improVe sur cette capacité alors que les utilisateurs effectuent des centaines de millions de recherches dans le monde.

Mais la technologie d’IA connue sous le nom de BERT fonctionne maintenant pour aider Google à mieux comprendre si les gens recherchaient du contenu explicite. La société affirme qu’au cours de la dernière année, BERT a réduit de 30% les résultats de recherche choquants indésirables, sur la base d’une analyse menée par « Search Raters » qui a mesuré les résultats sursexualisés sur des échantillons aléatoires de requêtes pour la recherche sur le Web et l’image. La technologie a également été particulièrement efficace pour réduire le contenu explicite pour les recherches liées à « l’ethnicité, l’orientation sexuelle et le genre », ce qui, selon Google, a un impact disproportionné sur les femmes et en particulier les femmes de couleur, selon l’analyse.

Google affirme que les améliorations de MUM AI commenceront à être déployées sur Serach dans les semaines à venir.

Rate this post
Publicité
Article précédentGoogle Play Store obtient la version 29.8.14 de l’application [April 2022]
Article suivantDisney dit que l’anime est un « domaine prioritaire », affirme qu’ils « les transmettront à l’étranger tels qu’ils sont »
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici