« Courir avec des ciseaux est un exercice cardio qui peut augmenter votre fréquence cardiaque et nécessiter de la concentration et de la concentration », explique la nouvelle fonction de recherche IA de google. « Certains dis-le qu’il peut également améliorer vos pores et vous donner de la force. »

La fonctionnalité d’IA de Google a extrait cette réponse d’un site Web appelé Comédie de la petite vieille dame, qui, comme son nom l’indique, est un blog humoristique. Mais la gaffe est si ridicule qu’elle a circulé sur les médias sociaux, avec d’autres aperçus manifestement incorrects de l’IA sur Google. En effet, les utilisateurs quotidiens font désormais équipe rouge avec ces produits sur les médias sociaux.

En cybersécurité, certaines entreprises embauchent des « équipes rouges » – des pirates éthiques – qui tentent de violer leurs produits comme s’ils étaient de mauvais acteurs. Si une équipe rouge trouve une vulnérabilité, l’entreprise peut la corriger avant la livraison du produit. Google a certainement mené une forme de red teaming avant de publier un produit d’IA sur Google Search, qui est estimatif pour traiter des milliards de requêtes par jour.

Il est donc surprenant qu’une entreprise aussi riche en ressources que Google livre encore des produits présentant des défauts évidents. C’est pourquoi c’est maintenant devenu un mème pour faire le clown sur les échecs des produits d’IA, surtout à une époque où l’IA devient de plus en plus omniprésente. Nous l’avons vu avec une mauvaise orthographe sur ChatGPT, l’incapacité des générateurs de vidéos à comprendre comment les humains mangent des spaghettiset Grok AI des résumés d’actualités sur X qui, comme Google, ne comprennent pas la satire. Mais ces mèmes pourraient en fait servir de retour utile pour les entreprises qui développent et testent l’IA.

Malgré la nature très médiatisée de ces défauts, les entreprises technologiques minimisent souvent leur impact.

Publicité

« Les exemples que nous avons vus sont généralement des requêtes très rares et ne sont pas représentatifs des expériences de la plupart des gens », a déclaré Google à fr.techtribune.netdans un communiqué envoyé par e-mail. « Nous avons effectué des tests approfondis avant de lancer cette nouvelle expérience, et nous utiliserons ces exemples isolés pour continuer à affiner nos systèmes dans leur ensemble. »

Tous les utilisateurs ne voient pas les mêmes résultats d’IA, et au moment où une suggestion d’IA particulièrement mauvaise circule, le problème a souvent déjà été corrigé. Dans un cas plus récent qui est devenu viral, Google a suggéré que si vous faites de la pizza mais que le fromage ne colle pas, vous pouvez ajouter environ un huitième de tasse de colle à la sauce pour « lui donner plus de collant ». Il s’est avéré que l’IA tire cette réponse de un commentaire Reddit vieux de onze ans D’un utilisateur nommé « F–Smith ».

En plus d’être une erreur incroyable, cela indique également que les accords de contenu d’IA peuvent être surévalués. Google a un Contrat de 60 millions de dollars avec Reddit pour obtenir une licence pour son contenu pour l’entraînement de modèles d’IA, par exemple. Reddit a signé un accord similaire avec OpenAI la semaine dernière, et les propriétés d’Automattic WordPress.org et Tumblr le sont Rumeur d’être en pourparlers pour vendre des données à Midjourney et OpenAI.

Au crédit de Google, beaucoup d’erreurs qui circulent sur les médias sociaux proviennent de recherches non conventionnelles conçues pour faire trébucher l’IA. Au moins, j’espère que personne ne recherche sérieusement les « avantages pour la santé de courir avec des ciseaux ». Mais certaines de ces erreurs sont plus graves. Journaliste scientifique Erin Ross posté le X que Google a craché des informations incorrectes sur ce qu’il faut faire si vous vous faites mordre par un serpent à sonnette.

Le post de Ross, qui a obtenu plus de 13 000 likes, montre que l’IA a recommandé d’appliquer un garrot sur la plaie, de couper la plaie et d’aspirer le venin. Selon le Service des forêts des États-Unis, ce sont toutes des choses que vous devriez non faites, si vous vous faites mordre. Pendant ce temps sur Bluesky, l’auteur T Kingfisher a amplifié un article qui montre Gemini de Google Mal identifier un champignon toxique comme un champignon de bouton blanc commun – les captures d’écran du message ont Propagation à d’autres plateformes comme une mise en garde.

Lorsqu’une mauvaise réponse de l’IA devient virale, l’IA pourrait être plus confuse par le nouveau contenu autour de la sujet qui en découle. Mercredi, le journaliste du New York Times Aric Toler a posté une capture d’écran sur X qui montre une requête demandant si un chien a déjà joué dans la LNH. La réponse de l’IA a été oui – pour une raison quelconque, l’IA a traité le joueur des Flames de Calgary Martin Pospisil de chien. Maintenant, lorsque vous faites la même requête, l’IA extrait un article de le Daily Dot sur la façon dont l’IA de Google continue de penser que les chiens font du sport. L’IA est nourrie de ses propres erreurs, ce qui l’empoisonne davantage.

C’est le problème inhérent à l’entraînement de ces modèles d’IA à grande échelle sur Internet : parfois, les internautes mentent. Mais tout comme il y a Aucune règle contre un chien jouant au basket, il n’y a malheureusement aucune règle contre les grandes entreprises technologiques qui expédient de mauvais produits d’IA.

Comme le dit le proverbe : garbage in, garbage out.

5/5 - (250 votes)
Publicité
Article précédentLes députés obtiennent la propriété de gadgets parlementaires – FBC News
Article suivantTous les objets Fallout de la saison 3 de Fortnite détruits

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici