Google a ajouté une couche d’examen pour les documents de recherche sur des sujets sensibles, notamment le sexe, la race et l’idéologie politique. Un cadre supérieur a également demandé aux chercheurs de «prendre un ton positif» dans un article cet été. La nouvelle était rapporté pour la première fois par Reuters.

«Les progrès technologiques et la complexité croissante de notre environnement externe conduisent de plus en plus à des situations où des projets apparemment inoffensifs soulèvent des problèmes éthiques, de réputation, réglementaires ou juridiques», indique la politique. Trois employés ont déclaré à Reuters que la règle avait commencé en juin.

L’entreprise a également demandé à ses employés de «s’abstenir de présenter sa technologie sous un jour négatif» à plusieurs reprises, a déclaré Reuters.

Les employés travaillant sur un article sur la recommandation AI, qui est utilisé pour personnaliser le contenu sur des plates-formes comme YouTube, ont été invités à «faire très attention à avoir un ton positif», selon Reuters. Les auteurs ont ensuite mis à jour l’article pour « supprimer toutes les références aux produits Google ».

Un autre article sur l’utilisation de l’IA pour comprendre les langues étrangères «a adouci une référence à la façon dont le produit Google Traduction faisait des erreurs», a écrit Reuters. Le changement est venu en réponse à une demande des examinateurs.

Publicité

Le processus d’examen standard de Google vise à garantir que les chercheurs ne révèlent pas par inadvertance des secrets commerciaux. Mais l’examen des «sujets sensibles» va au-delà de cela. Les employés qui souhaitent évaluer les propres services de Google pour les préjugés sont invités à consulter d’abord les équipes juridiques, de relations publiques et de politique. D’autres sujets sensibles seraient la Chine, l’industrie pétrolière, les données de localisation, la religion et Israël.

Le processus de publication du géant de la recherche a été à l’honneur depuis le limogeage de l’éthicien de l’IA Timnit Gebru début décembre. Gebru dit qu’elle a été licenciée en raison d’un e-mail qu’elle a envoyé à la liste de diffusion Google Brain Women and Allies, un groupe interne d’employés de recherche sur l’IA de Google. Elle y parlait des responsables de Google qui la poussaient à retirer un article sur les dangers des modèles de traitement du langage à grande échelle. Jeff Dean, responsable de l’intelligence artificielle chez Google, a déclaré qu’elle l’avait soumis trop près de la date limite. Mais La propre équipe de Gebru a repoussé cette affirmation, affirmant que la politique était appliquée «de manière inégale et discriminatoire».

Gebru a contacté l’équipe des relations publiques et des politiques de Google en septembre à propos du document, selon Le Washington Post. Elle savait que l’entreprise pourrait contester certains aspects de la recherche, car elle utilise de grands modèles de traitement du langage dans son moteur de recherche. La date limite pour apporter des modifications au document n’était qu’à la fin de janvier 2021, ce qui a donné aux chercheurs suffisamment de temps pour répondre à toute préoccupation.

Une semaine avant Thanksgiving, cependant, Megan Kacholia, vice-présidente de Google Research, a demandé à Gebru de retirer l’article. Le mois suivant, Gebru a été licencié.

Google n’a pas immédiatement répondu à une demande de commentaire de Le bord.

Rate this post
Publicité
Article précédentLe fondateur du développeur de jeux mobiles emprisonné pour manipulation de stock
Article suivantRed Bull est prêt à prêter Albon à d’autres équipes de F1 | Actualités F1
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici