Paume faciale : Ce n’est un secret pour personne que Google s’est précipité sur le chatbot Bard de la société le mois dernier alors qu’il tentait de suivre le rythme de la course à l’IA générative. Mais le géant de la tech aurait dû prendre plus de temps avec son projet. Selon un nouveau rapport, les employés ont dit à Google de ne pas lancer Bard, le qualifiant de « menteur pathologique », « digne de grincer des dents » et « pire qu’inutile ».

Nous avons entendu en février que Google se précipitait pour lancer sa propre technologie de type ChatGPT, craignant d’être laissé pour compte dans la révolution de l’IA générative après l’arrivée de la technologie d’OpenAI. Un mois plus tard, Bard a été montré à un public peu impressionné dans une démo qui a vu le chatbot donner une mauvaise réponse. Néanmoins, Google a décidé de lancer Bard en mars.

Selon un nouveau rapport de Bloombergcitant une documentation interne et 18 employés actuels et anciens, il aurait peut-être été plus prudent pour Google de continuer à peaufiner Bard avant d’autoriser un accès anticipé à l’IA « expérimentale ».

Certaines des critiques comprenaient un employé écrivant, « Bard est pire qu’inutile : s’il vous plaît, ne vous lancez pas », dans un groupe de messages internes vu par 7 000 personnes, dont beaucoup étaient d’accord avec l’évaluation. Un autre employé a demandé à Bard des suggestions sur la façon d’atterrir un avion, auquel il a régulièrement donné des réponses qui provoqueraient un crash. Bard a également donné des réponses sur la plongée sous-marine qui « entraîneraient probablement des blessures graves ou la mort ».

Malgré les appels des travailleurs, Google « a annulé une évaluation des risques » soumise par une équipe de sécurité interne avertissant que Bard n’était pas prêt à être libéré.

Publicité

2023 04 20 Image 2

Les sources de Bloomberg affirment que Google, dans le but de suivre ses rivaux, propose des informations de mauvaise qualité tout en accordant moins de priorité aux engagements éthiques. On prétend que le personnel responsable de la sécurité et des implications éthiques des nouveaux produits a été invité à rester à l’écart des outils d’IA générative en développement.

Google, qui a retiré sa devise « Don’t be evil » de son code de conduite en 2018, a licencié la chercheuse en IA Timnit Gebru en 2020 après avoir rédigé un article de recherche sur les systèmes de langage d’IA contraires à l’éthique. Margaret Mitchell – la co-responsable de l’équipe Ethical AI de l’entreprise qui a également rédigé l’article – a été licenciée quelques mois plus tard en raison d’allégations d’inconduite.

Meredith Whittaker, ancienne responsable de Google, a déclaré à Bloomberg que « l’éthique de l’IA a pris du recul » dans l’entreprise.

Google prend du retard dans ses ambitions génératives en matière d’IA au même rythme que Microsoft fait avancer les siens. L’intégration des fonctionnalités d’intelligence artificielle dans Bing a non seulement permis de dépasser 100 millions d’utilisateurs actifs quotidiens pour la première fois dans l’histoire du navigateur, mais a également conduit Samsung à envisager de passer de Google à Bing comme moteur de recherche par défaut de ses appareils.

4.6/5 - (35 votes)
Publicité
Article précédentÉconomisez 50 $ sur les Samsung Galaxy Buds Live chez Best Buy
Article suivantLa campagne Daggerfly Cyberattack frappe les fournisseurs de services de télécommunications africains
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici