Google s’associe à un professeur de Harvard pour promouvoir une nouvelle échelle de mesure des tons de peau dans l’espoir de résoudre les problèmes de biais et de diversité dans les produits de l’entreprise.
Le géant de la technologie travaille avec Ellis Monk, professeur adjoint de sociologie à Harvard et créateur de la Monk Skin Tone Scale, ou MST. L’échelle MST est conçue pour remplacer les échelles de teint de peau obsolètes qui sont biaisées vers une peau plus claire. Lorsque ces échelles plus anciennes sont utilisées par les entreprises de technologie pour catégoriser la couleur de la peau, cela peut conduire à des produits moins performants pour les personnes ayant une coloration plus foncée, dit Monk.
« À moins d’avoir une mesure adéquate des différences de teint de la peau, nous ne pouvons pas vraiment intégrer cela dans les produits pour nous assurer qu’ils sont plus inclusifs », explique Monk. La Verge. « L’échelle de teint de peau Monk est une échelle de teint de peau de 10 points qui a été délibérément conçue pour être beaucoup plus représentative et inclure une gamme plus large de tons de peau différents, en particulier pour les personnes [with] des tons de peau plus foncés. »
Il existe de nombreux exemples de produits technologiques, en particulier ceux qui utilisent l’IA, qui fonctionnent moins bien avec des tons de peau plus foncés. Ceux-ci incluent : applications conçues pour détecter le cancer de la peau, logiciel de reconnaissance faciale, et même systèmes de vision industrielle utilisés par les voitures autonomes.
Bien qu’il existe de nombreuses façons de programmer ce type de biais dans ces systèmes, un facteur commun est l’utilisation d’échelles de teint obsolètes lors de la collecte de données d’entraînement. L’échelle de teint de peau la plus populaire est l’échelle de Fitzpatrick, qui est largement utilisée dans le milieu universitaire et l’IA. Cette échelle a été conçue à l’origine dans les années 70 pour classer la façon dont les personnes ayant une peau plus pâle brûlent ou bronzent au soleil et n’a été élargie que plus tard pour inclure une peau plus foncée.
Cela a conduit à certains critique que l’échelle de Fitzpatrick ne parvient pas à capturer une gamme complète de tons de peau et peut signifier que lorsque le logiciel de vision industrielle est formé sur les données de Fitzpatrick, il est également biaisé vers des types de peau plus clairs.
L’échelle de Fitzpatrick est composée de six catégories, mais l’échelle MST l’étend à 10 tons de peau différents. Monk dit que ce nombre a été choisi sur la base de ses propres recherches pour équilibrer la diversité et la facilité d’utilisation. Certaines échelles de teint offrent plus d’une centaine de catégories différentes, dit-il, mais trop de choix peut conduire à des résultats incohérents.
« Habituellement, si vous avez dépassé 10 ou 12 points sur ces types d’échelles [and] demandez à la même personne de choisir à plusieurs reprises les mêmes tons, plus vous augmentez cette échelle, moins les gens sont capables de le faire », explique Monk. « Cognitivement parlant, il devient vraiment difficile de différencier avec précision et fiabilité. » Un choix de 10 tons de peau est beaucoup plus gérable, dit-il.
La création d’une nouvelle échelle de teint n’est cependant qu’une première étape, et le véritable défi consiste à intégrer ce travail dans des applications réelles. Afin de promouvoir l’échelle MST, Google a créé un nouveau site Web, skintone.google, dédié à l’explication de la recherche et des meilleures pratiques pour son utilisation en IA. La société dit qu’elle travaille également à appliquer l’échelle MST à un certain nombre de ses propres produits. Ceux-ci incluent ses filtres photo « Real Tone », qui sont conçu pour mieux fonctionner avec des tons de peau plus foncés, et ses résultats de recherche d’images.
Google dit qu’il introduit une nouvelle fonctionnalité de recherche d’images qui permettra aux utilisateurs d’affiner les recherches en fonction des tons de peau classés par l’échelle MST. Ainsi, par exemple, si vous recherchez « maquillage des yeux » ou « apparence de maquillage de mariée », vous pouvez ensuite filtrer les résultats par teint de peau. À l’avenir, la société prévoit également d’utiliser l’échelle MST pour vérifier la diversité de ses résultats afin que si vous recherchez des images de « bébés mignons » ou de « médecins », vous ne verrez pas seulement des visages blancs.
« L’une des choses que nous faisons est de prendre un ensemble de [image] résultats, comprendre quand ces résultats sont particulièrement homogènes sur quelques tons et améliorer la diversité des résultats », a déclaré Tulsee Doshi, chef de produit de Google pour l’IA responsable. La Verge. Doshi a toutefois souligné que ces mises à jour en étaient à un stade de développement « très précoce » et n’avaient pas encore été déployées dans les services de l’entreprise.
Cela devrait faire preuve de prudence, non seulement pour ce changement spécifique, mais aussi pour l’approche de Google visant à résoudre les problèmes de biais dans ses produits en général. L’entreprise dispose d’un Histoire inégale quand il s’agit de ces questions, et l’industrie de l’IA dans son ensemble a tendance à promettre des lignes directrices éthiques et des garde-fous, puis à échouer sur le suivi.
Prenons, par exemple, la fameuse erreur Google Photos qui a conduit à son algorithme de recherche taguer des photos de Personnes noires comme des « gorilles » et des « chimpanzés ». Cette erreur a été remarquée pour la première fois en 2015, mais Google a confirmé à La Verge cette semaine qu’il n’a toujours pas résolu le problème mais a simplement supprimé ces termes de recherche. « Bien que nous ayons considérablement amélioré nos modèles en fonction des commentaires, ils ne sont toujours pas parfaits », a déclaré Michael Marconi, porte-parole de Google Photos. La Verge. « Afin d’éviter ce type d’erreur et potentiellement causer des dommages supplémentaires, les termes de recherche restent désactivés. »
L’introduction de ce type de changements peut également être culturellement et politiquement difficile, reflétant des difficultés plus larges dans la façon dont nous intégrons ce type de technologie dans la société. Dans le cas du filtrage des résultats de recherche d’images, par exemple, Doshi note que la « diversité » peut sembler différente dans différents pays, et si Google ajuste les résultats d’image en fonction du teint de la peau, il peut être nécessaire de modifier ces résultats en fonction de la géographie.
« Ce que signifie la diversité, par exemple, lorsque nous faisons apparaître des résultats en Inde [or] lorsque nous faisons apparaître des résultats dans différentes parties du monde, ils seront intrinsèquement différents », explique Doshi. « Il est difficile de dire nécessairement: » oh, c’est l’ensemble exact de bons résultats que nous voulons « , car cela différera par utilisateur, par région, par requête. »
L’introduction d’une nouvelle échelle plus inclusive pour mesurer les tons de peau est un pas en avant, mais des questions beaucoup plus épineuses impliquant l’IA et les préjugés demeurent.