Meta a annoncé mercredi la création d’un Conseil consultatif sur l’IA avec seulement des hommes blancs dessus. À quoi d’autre s’attendrions-nous ? Les femmes et les personnes de couleur s’expriment depuis des décennies sur le fait d’être ignorées et exclues du monde de l’intelligence artificielle, bien qu’elles soient qualifiées et jouent un rôle clé dans l’évolution de cet espace.

Meta n’a pas immédiatement répondu à notre demande de commentaire sur la diversité du conseil consultatif.

Ce nouveau conseil consultatif diffère du conseil d’administration actuel de Meta et de son conseil de surveillance, qui est plus divers dans la représentation des sexes et des races. Les actionnaires n’ont pas élu ce conseil d’administration d’AI, qui n’a pas non plus d’obligation fiduciaire. Meta a déclaré à Bloomberg que le conseil d’administration offrirait « des idées et des recommandations sur les avancées technologiques, l’innovation et les opportunités de croissance stratégique ». Il se réunirait « périodiquement ».

Il est révélateur que le conseil consultatif sur l’IA soit entièrement composé d’hommes d’affaires et d’entrepreneurs, et non d’éthiciens ou de personnes ayant une formation universitaire ou de recherche approfondie. Bien que l’on puisse affirmer que les dirigeants actuels et anciens de Stripe, Shopify et Microsoft sont bien placés pour superviser la feuille de route des produits d’IA de Meta compte tenu de l’immense nombre de produits qu’ils ont mis sur le marché parmi eux, il a été prouvé à maintes reprises que l’IA n’est pas comme les autres produits. C’est une entreprise risquée, et les conséquences d’une erreur peuvent être considérables, en particulier pour les groupes marginalisés.

Dans une récente interview avec fr.techtribune.net, Sarah Myers West, directrice générale de l’AI Now Institute, une organisation à but non lucratif qui étudie les implications sociales de l’IA, a déclaré qu’il était crucial d’« examiner de manière critique » les institutions produisant l’IA pour « s’assurer des besoins du public [are] servi. »

Publicité

« Il s’agit d’une technologie sujette aux erreurs, et nous savons, grâce à des recherches indépendantes, que ces erreurs ne sont pas réparties de manière égale, elles nuisent de manière disproportionnée aux communautés qui ont longtemps porté le poids de la discrimination », a-t-elle déclaré. « Nous devrions placer la barre beaucoup, beaucoup plus haut. »

Les femmes sont beaucoup plus susceptibles que les hommes de connaître le côté sombre de l’IA. Sensity AI a constaté en 2019 que 96 % des vidéos deepfake d’IA en ligne étaient des vidéos non consensuelles et sexuellement explicites. L’IA générative est devenue beaucoup plus répandue depuis lors, et les femmes sont toujours la cible de ce comportement violateur.

Lors d’un incident très médiatisé en janvier, des deepfakes pornographiques non consensuels de Taylor Swift sont devenus viraux sur X, l’un des messages les plus répandus recevant des centaines de milliers de likes et 45 millions de vues. Les plateformes sociales comme X ont historiquement échoué à protéger les femmes de ces circonstances – mais comme Taylor Swift est l’une des femmes les plus puissantes au monde, X est intervenue en interdisant des termes de recherche comme « taylor swift ai » et taylor swift deepfake.

Mais si cela vous arrive et que vous n’êtes pas une sensation pop mondiale, alors vous n’avez peut-être pas de chance. Il y a nombreux Rapports des collégiens et lycéens qui font des deepfakes explicites de leurs camarades de classe. Bien que cette technologie existe depuis un certain temps, elle n’a jamais été aussi facile d’accès – vous n’avez pas besoin d’être à l’aise avec la technologie pour Télécharger des applications spécifiquement annoncées pour « déshabiller » des photos de femmes ou échanger leurs visages sur de la pornographie. En fait, selon le reportage de Kat Tenbarge de NBC, Publicités hébergées sur Facebook et Instagram pour une application appelée Perky AI, qui se décrivait comme un outil pour créer des images explicites.

Deux des publicités, qui auraient échappé à la détection de Meta jusqu’à ce que Tenbarge alerte l’entreprise du problème, montraient des photos de célébrités Sabrina Carpenter et Jenna Ortega avec leurs corps floutés, exhortant les clients à inciter l’application à retirer leurs vêtements. Les publicités utilisaient une image d’Ortega datant de l’âge de seize ans.

L’erreur de permettre à Perky AI de faire de la publicité n’était pas un incident isolé. Le conseil de surveillance de Meta a récemment ouvert des enquêtes sur l’incapacité de l’entreprise à traiter les signalements de contenu sexuellement explicite généré par l’IA.

Il est impératif que les voix des femmes et des personnes de couleur soient incluses dans l’innovation des produits d’intelligence artificielle. Pendant si longtemps, ces groupes marginalisés ont été exclus du développement de technologies et de recherches qui changent le monde, et les résultats ont été désastreux.

Un exemple facile est le fait que jusque dans les années 1970, les femmes étaient exclues des essais cliniques, ce qui signifie que des domaines entiers de recherche se sont développés sans que l’on comprenne comment cela affecterait les femmes. Les Noirs, en particulier, voient les impacts de la technologie construite sans par exemple, les voitures autonomes sont plus susceptibles de les heurter parce que leurs capteurs pourraient avoir plus de difficulté détecter la peau noire, selon Une étude de 2019 fait par le Georgia Institute of Technology.

Les algorithmes entraînés sur des données déjà discriminatoires ne font que régurgiter les mêmes préjugés que les humains leur ont appris à adopter. De manière générale, nous voyons déjà des systèmes d’IA perpétuer et amplifier la discrimination raciale en emploi, logementet la justice pénale. Les assistants vocaux ont du mal à comprendre les différents accents et souvent Signaler le travail par des anglophones non natifs comme étant générés par l’IA depuis, comme l’a noté Axios, l’anglais est la langue maternelle de l’IA. Systèmes de reconnaissance faciale signaler plus souvent les Noirs comme des correspondances possibles pour les suspects criminels que les Blancs..

Le développement actuel de l’IA incarne les mêmes structures de pouvoir existantes en matière de classe, de race, de genre et d’eurocentrisme que nous voyons ailleurs, et il semble que trop peu de dirigeants s’y attaquent. Au contraire, ils le renforcent. Les investisseurs, les fondateurs et les leaders technologiques sont tellement concentrés sur la rapidité et la rupture qu’ils ne semblent pas comprendre que l’IA générative – la technologie d’IA en vogue du moment – pourrait aggraver les problèmes, et non les améliorer. Selon un rapport de McKinsey, l’IA pourrait automatiser environ la moitié de tous les emplois qui ne nécessitent pas un diplôme de quatre ans et paient plus de 42 000 dollars par an, des emplois dans lesquels les travailleurs issus de minorités sont surreprésentés.

Il y a lieu de s’inquiéter de la façon dont une équipe d’hommes entièrement blancs de l’une des entreprises technologiques les plus importantes au monde, engagée dans cette course pour sauver le monde en utilisant l’IA, pourrait jamais conseiller sur des produits pour tous alors qu’un seul groupe démographique étroit est représenté. Il faudra un effort massif pour construire une technologie que tout le monde – vraiment tout le monde – pourrait utiliser. En fait, les couches nécessaires pour construire une IA sûre et inclusive – de la recherche à la compréhension au niveau sociétal intersectionnel – sont si complexes qu’il est presque évident que ce conseil consultatif n’aidera pas Meta à bien faire les choses. Au moins, là où Meta échoue, une autre startup pourrait voir le jour.

[ad_2]

5/5 - (362 votes)
Publicité
Article précédentBest toddler toys, gadgets and accessories
Article suivantL'artiste transforme les personnages d'Elden Ring et de Dark Souls en Pokémon emblématiques

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici