Google cessera de donner des réponses rapides à des questions stupides, a annoncé la société, alors qu’elle cherche à améliorer le service « featured snippets » de son moteur de recherche.
Cela signifie que les utilisateurs devraient voir moins de réponses à des questions telles que « Quand Snoopy a-t-il assassiné Abraham Lincoln? », auquel le service répondrait une fois joyeusement avec « 1865 » – la bonne date, mais très bien le mauvais assassin.
« Ce n’est clairement pas le moyen le plus utile d’afficher ce résultat », a déclaré le responsable de la recherche de l’entreprise, Pandu Nayak. dans un article de blog annonçant les changements. « Nous avons formé nos systèmes pour qu’ils détectent mieux ce genre de fausses prémisses, qui ne sont pas très courantes, mais il y a des cas où il n’est pas utile de montrer un extrait en vedette. Nous avons réduit le déclenchement des featured snippets dans ces cas de 40 % avec cette mise à jour. »
Les extraits, qui apparaissent parfois comme une réponse aux questions directes posées à la recherche Google, sont depuis longtemps la pierre angulaire de la stratégie d’IA de l’entreprise. La même technologie alimente ses haut-parleurs intelligents et ses assistants vocaux, et permet au moteur de recherche de satisfaire les requêtes de recherche sans que les visiteurs ne cliquent sur d’autres sites Web.
Mais les extraits, qui sont générés automatiquement à partir du contenu des sites Web, sont également une épine dans le pied de Google depuis tout aussi longtemps. En 2017, la société a été accusée de diffuser de « fausses nouvelles » après qu’un extrait de la requête « Obama planifie-t-il un coup d’État? », a abouti à son assistant vocal avertit joyeusement les utilisateurs« Obama pourrait en fait planifier un coup d’État communiste à la fin de son mandat en 2016 », après avoir trouvé l’information sur un site conspirationniste.
D’autres erreurs ont été plus comiques. La société disait aux utilisateurs que les escaliers avaient été inventés en 1946 – après avoir lu un site Web attribuant une réglementation de sécurité américaine particulière à cette date – ou répétait sans le savoir une blague des Monty Python lorsqu’on lui demandait: « Pourquoi les camions de pompiers sont-ils rouges? »
Dans le but de s’attaquer à la cause profonde de telles erreurs, Google déploie également de nouveaux avertissements pour les moments où un terme de recherche a atteint un « vide de données » – une question où une bonne réponse pourrait tout simplement ne pas exister.
« Il semble qu’il n’y ait pas beaucoup de bons résultats pour cette recherche », avertit maintenant le site des utilisateurs qui ont frappé une telle requête.
« Cela ne signifie pas qu’aucune information utile n’est disponible ou qu’un résultat particulier est de mauvaise qualité », explique Nayak. « Ces avis fournissent un contexte sur l’ensemble des résultats sur la page, et vous pouvez toujours voir les résultats de votre requête, même lorsque l’avis est présent. »