Pour donner aux femmes universitaires axées sur l’IA et à d’autres le temps bien mérité – et attendu depuis longtemps – sous les projecteurs, fr.techtribune.neta publié une série d’interviews axées sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publions ces articles tout au long de l’année alors que le boom de l’IA se poursuit, mettant en évidence des travaux clés qui passent souvent inaperçus. Lisez plus de profils ici.

Sarah Myers West est directrice générale de l’institut AI Now, un institut de recherche américain qui étudie les implications sociales de l’IA et de la recherche politique qui aborde la concentration du pouvoir dans l’industrie technologique. Elle a précédemment été conseillère principale en IA à la Federal Trade Commission des États-Unis et est chercheuse invitée à la Northeastern University, ainsi que contributrice à la recherche au Citizens and Technology Lab de Cornell.

En bref, comment avez-vous commencé dans l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?

J’ai passé les 15 dernières années à interroger le rôle des entreprises technologiques en tant qu’acteurs politiques puissants alors qu’elles émergeaient en première ligne de la gouvernance internationale. Au début de ma carrière, j’étais aux premières loges pour observer comment les entreprises technologiques américaines se sont présentées dans le monde entier d’une manière qui a changé le paysage politique – en Asie du Sud-Est, en Chine, au Moyen-Orient et ailleurs – et j’ai écrit un livre sur la façon dont le lobbying et la réglementation de l’industrie ont façonné les origines du modèle commercial de surveillance d’Internet malgré les technologies qui offraient des alternatives dans théorie cela dans pratique ne s’est pas matérialisé.

À de nombreux moments de ma carrière, je me suis demandé : « Pourquoi sommes-nous enfermés dans cette vision très dystopique de l’avenir ? » La réponse a peu à voir avec la technologie elle-même et beaucoup à voir avec la politique publique et la commercialisation.

Publicité

C’est à peu près mon projet depuis, à la fois dans ma carrière de chercheur et maintenant dans mon travail politique en tant que codirecteur d’AI Now. Si l’IA fait partie de l’infrastructure de notre vie quotidienne, nous devons examiner de manière critique les institutions qui la produisent et nous assurer qu’en tant que société, il y a suffisamment de frictions – que ce soit par la réglementation ou par l’organisation – pour garantir que ce sont les besoins du public qui sont satisfaits en fin de compte, et non ceux des entreprises technologiques.

De quel travail êtes-vous le plus fier dans le domaine de l’IA ?

Je suis vraiment fier du travail que nous avons accompli à la FTC, qui est l’agence gouvernementale américaine qui, entre autres, est en première ligne de l’application de la réglementation de l’intelligence artificielle. J’aimais retrousser mes manches et travailler sur des affaires. J’ai pu utiliser ma formation en méthodes en tant que chercheur pour m’engager dans un travail d’enquête, puisque la boîte à outils est essentiellement la même. C’était gratifiant d’utiliser ces outils pour demander des comptes directement au pouvoir et de voir ce travail avoir un impact immédiat sur le public, qu’il s’agisse de la façon dont l’IA est utilisée pour dévaloriser les travailleurs et faire grimper les prix ou de lutter contre le comportement anticoncurrentiel des grandes entreprises technologiques.

Nous avons pu intégrer une équipe fantastique de technologues travaillant sous l’égide du Bureau de la politique scientifique et technologique de la Maison-Blanche, et il a été passionnant de voir que le travail de base que nous avons effectué là-bas a une pertinence immédiate avec l’émergence de l’IA générative et l’importance de l’infrastructure cloud.

Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?

Tout d’abord, les technologies d’IA sont largement utilisées dans des contextes très sensibles – dans les hôpitaux, les écoles, les frontières, etc. – mais restent insuffisamment testées et validées. Il s’agit d’une technologie sujette aux erreurs, et nous savons, grâce à des recherches indépendantes, que ces erreurs ne sont pas réparties de manière égale ; elles nuisent de manière disproportionnée aux communautés qui ont longtemps été les plus touchées par la discrimination. Nous devrions placer la barre beaucoup, beaucoup plus haut. Mais ce qui me préoccupe, c’est la façon dont les institutions puissantes utilisent l’IA – qu’elle fonctionne ou non – pour justifier leurs actions, de l’utilisation d’armes contre les civils à Gaza à la privation des droits des travailleurs. Ce n’est pas un problème dans la technologie, mais dans le discours : comment nous orientons notre culture autour de la technologie et l’idée que si l’IA est impliquée, certains choix ou comportements sont rendus plus « objectifs » ou obtiennent en quelque sorte un laissez-passer.

Quelle est la meilleure façon de construire l’IA de manière responsable ?

Nous devons toujours partir de la question : pourquoi construire de l’IA ? Qu’est-ce qui nécessite l’utilisation de l’intelligence artificielle, et la technologie de l’IA est-elle adaptée à cet objectif ? Parfois, la réponse est de construire mieux, et dans ce cas, les développeurs devraient s’assurer de la conformité à la loi, documenter et valider solidement leurs systèmes et rendre ouvert et transparent ce que ils le peuvent, afin que les chercheurs indépendants puissent faire de même. Mais d’autres fois, la réponse est de ne pas construire du tout : nous n’avons pas besoin d’armes ou de technologies de surveillance plus « construites de manière responsable ». L’utilisation finale est importante pour cette question, et c’est par là que nous devons commencer.

5/5 - (434 votes)
Publicité
Article précédentAprès 269 heures, le streamer Elden Ring bat tous les boss du nouveau jeu +7 au niveau un – est enfin prêt pour Shadow of the Erdtree
Article suivantObtenez 14 jeux Star Wars et 3 jeux Devil May Cry pour seulement 15 $ au total

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici