Pour donner aux femmes universitaires axées sur l’IA et à d’autres le temps bien mérité – et attendu depuis longtemps – sous les projecteurs, fr.techtribune.neta publié une série d’interviews axées sur des femmes remarquables qui ont contribué à la révolution de l’IA. Nous publions ces articles tout au long de l’année alors que le boom de l’IA se poursuit, mettant en évidence des travaux clés qui passent souvent inaperçus. Lisez plus de profils ici.
Miriam Vogel est la PDG d’EqualAI, une organisation à but non lucratif créée pour réduire les préjugés inconscients dans l’IA et promouvoir une gouvernance responsable de l’IA. Elle est également présidente du Comité consultatif national sur l’IA récemment lancé, mandaté par le Congrès pour conseiller le président Joe Biden et la Maison Blanche sur la politique en matière d’IA, et enseigne le droit et la politique technologiques au Georgetown University Law Center.
Vogel a précédemment occupé le poste de sous-procureur général adjoint au ministère de la Justice, conseillant le procureur général et le sous-procureur général sur un large éventail de questions juridiques, politiques et opérationnelles. En tant que membre du conseil d’administration du Responsible AI Institute et conseiller principal du Center for Democracy and Technology, Vogel’s a conseillé la direction de la Maison Blanche sur des initiatives allant des femmes, de l’économie, de la réglementation et de la politique de Sécurité alimentaire aux questions de justice pénale.
En bref, comment avez-vous commencé dans l’IA ? Qu’est-ce qui vous a attiré dans ce domaine ?
J’ai commencé ma carrière au gouvernement, d’abord en tant que stagiaire au Sénat, l’été précédant la 11e année. J’ai attrapé le virus de la politique et j’ai passé les étés suivants à travailler sur la Colline, puis à la Maison Blanche. À ce moment-là, je me concentrais sur les droits civiques, ce qui n’est pas la voie conventionnelle vers l’intelligence artificielle, mais avec le recul, c’est parfaitement logique.
Après mes études de droit, ma carrière est passée d’un avocat spécialisé dans le divertissement spécialisé dans la propriété intellectuelle à un travail sur les droits civils et l’impact social dans la branche exécutive. J’ai eu le privilège de diriger le groupe de travail sur l’égalité salariale lorsque j’étais à la Maison Blanche et, en tant que sous-procureur général adjoint sous l’ancienne procureure générale adjointe Sally Yates, j’ai dirigé la création et le développement d’une formation sur les préjugés implicites pour les forces de l’ordre fédérales.
On m’a demandé de diriger EqualAI en raison de mon expérience en tant qu’avocate dans le domaine de la technologie et de mon expérience en matière de politiques visant à lutter contre les préjugés et les préjudices systématiques. J’ai été attiré par cette organisation parce que j’ai réalisé que l’IA représentait la prochaine frontière des droits civiques. Sans vigilance, des décennies de progrès pourraient être anéanties par des lignes de code.
J’ai toujours été enthousiasmé par les possibilités créées par l’innovation, et je crois toujours que l’IA peut offrir de nouvelles opportunités étonnantes à davantage de populations pour prospérer – mais seulement si nous faisons attention à ce stade critique pour nous assurer que davantage de personnes sont en mesure de participer de manière significative à sa création et à son développement.
Comment relevez-vous les défis de l’industrie technologique dominée par les hommes et, par extension, de l’industrie de l’IA dominée par les hommes ?
Je crois fondamentalement que nous avons tous un rôle à jouer pour que notre IA soit aussi efficace, efficiente et bénéfique que possible. Cela signifie que nous devons nous assurer que nous faisons plus pour soutenir les voix des femmes dans son développement (qui, soit dit en passant, représentent plus de 85 % des achats aux États-Unis, et donc s’assurer que leurs intérêts et leur sécurité sont intégrés est une décision commerciale intelligente), ainsi que les voix d’autres populations sous-représentées d’âges et de régions différents. les ethnies et nationalités qui ne participent pas suffisamment.
Alors que nous travaillons à la parité hommes-femmes, nous devons nous assurer que davantage de voix et de perspectives sont prises en compte afin de développer une IA qui fonctionne pour tous les consommateurs, et pas seulement pour les développeurs.
Quels conseils donneriez-vous aux femmes qui cherchent à entrer dans le domaine de l’IA ?
Premièrement, il n’est jamais trop tard pour commencer. Jamais. J’encourage tous les grands-parents à essayer d’utiliser ChatGPT d’OpenAI, Copilot de Microsoft ou Gemini de google. Nous allons tous avoir besoin de maîtriser l’IA pour prospérer dans ce qui est en train de devenir une économie alimentée par l’IA. Et c’est passionnant ! Nous avons tous un rôle à jouer. Que vous commenciez une carrière dans l’IA ou que vous utilisiez l’IA pour soutenir votre travail, les femmes devraient essayer les outils d’IA, voir ce que ces outils peuvent et ne peuvent pas faire, voir s’ils fonctionnent pour elles et deviennent généralement des experts en IA.
Deuxièmement, le développement responsable de l’IA nécessite plus que des informaticiens éthiques. Beaucoup de gens pensent que le domaine de l’IA nécessite un diplôme en informatique ou un autre diplôme en STIM alors qu’en réalité, l’IA a besoin des perspectives et de l’expertise de femmes et d’hommes de tous horizons. Lancez-vous ! Votre voix et votre point de vue sont nécessaires. Votre engagement est crucial.
Quels sont les problèmes les plus urgents auxquels l’IA est confrontée au fur et à mesure de son évolution ?
Premièrement, nous avons besoin d’une plus grande culture de l’IA. WChez EqualAI, nous pensons que l’IA va offrir des opportunités sans précédent à notre économie et améliorer notre vie quotidienne – mais seulement si ces opportunités sont également disponibles et bénéfiques pour un plus grand échantillon de notre population. Nous avons besoin de notre main-d’œuvre actuelle, de la prochaine génération, de nos grands-parents… Nous tous — être doté des connaissances et des compétences nécessaires pour bénéficier de l’IA.
Deuxièmement, nous devons développer des mesures et des mesures standardisées pour évaluer les systèmes d’IA. Des évaluations standardisées seront essentielles pour renforcer la confiance dans nos systèmes d’IA et permettre aux consommateurs, aux régulateurs et aux utilisateurs en aval de comprendre les limites des systèmes d’IA avec lesquels ils s’engagent et de déterminer si ce système est digne de notre confiance. Comprendre à qui un système est conçu et les cas d’utilisation envisagés nous aidera à répondre à la question clé : pour qui cela pourrait-il échouer ?
Quels sont les problèmes dont les utilisateurs d’IA doivent être conscients ?
L’intelligence artificielle n’est que cela : artificiel. Il est construit par les humains pour « imiter » la cognition humaine et responsabiliser les humains dans leurs activités. Nous devons maintenir le scepticisme approprié et faire preuve de diligence raisonnable lorsque nous utilisons cette technologie pour nous assurer que nous plaçons notre confiance dans des systèmes qui méritent notre confiance. L’IA peut augmenter – mais pas remplacer – l’humanité.
Nous devons rester lucides sur le fait que l’IA se compose de deux ingrédients principaux : les algorithmes (créés par les humains) et les données (reflétant les conversations et les interactions humaines). En conséquence, l’IA reflète et adapte nos défauts humains. Les préjugés et les préjudices peuvent s’intégrer tout au long du cycle de vie de l’IA, que ce soit par le biais des algorithmes écrits par des humains ou par le biais des données qui sont un instantané de vies humaines. Cependant, chaque point de contact humain est une occasion d’identifier et d’atténuer les dommages potentiels.
Parce que l’on ne peut imaginer que dans la mesure où leur propre expérience le permet et que les programmes d’IA sont limités par les constructions selon lesquelles ils sont construits, plus il y a de personnes ayant des perspectives et des expériences variées dans une équipe, plus ils sont susceptibles de détecter les préjugés et autres problèmes de sécurité intégrés dans leur IA.
Quelle est la meilleure façon de construire l’IA de manière responsable ?
Construire une IA digne de notre confiance est notre responsabilité à tous. Nous ne pouvons pas attendre de quelqu’un d’autre qu’il le fasse pour nous. Nous devons commencer par nous poser trois questions fondamentales : (1) Pour qui ce système d’IA est-il construit (2), quels étaient les cas d’utilisation envisagés et (3) pour qui cela peut-il échouer ? Même avec ces questions à l’esprit, il y aura inévitablement des pièges. Afin d’atténuer ces risques, les concepteurs, les développeurs et les déployeurs doivent suivre les meilleures pratiques.
Chez EqualAI, nous promouvons une bonne « hygiène de l’IA », ce qui implique de planifier votre cadre et d’assurer la responsabilité, de normaliser les tests, la documentation et les audits de routine. Nous avons également publié récemment un guide sur la conception et l’opérationnalisation d’un cadre de gouvernance responsable de l’IA, qui définit les valeurs, les principes et le cadre de mise en œuvre responsable de l’IA dans une organisation. Le document sert de ressource pour les organisations de toute taille, de tout secteur ou de toute maturité qui sont en train d’adopter, de développer, d’utiliser et de mettre en œuvre des systèmes d’IA avec un engagement interne et public à le faire de manière responsable.
Comment les investisseurs peuvent-ils mieux promouvoir une IA responsable ?
Les investisseurs ont un rôle démesuré à jouer pour garantir que notre IA est sûre, efficace et responsable. Les investisseurs peuvent s’assurer que les entreprises à la recherche de financement sont conscientes et réfléchissent à l’atténuation des dommages et des responsabilités potentiels dans leurs systèmes d’IA. Le simple fait de poser la question « Comment avez-vous institué des pratiques de gouvernance de l’IA ? » est une première étape significative pour garantir de meilleurs résultats.
Cet effort n’est pas seulement bon pour le bien public ; Il est également dans l’intérêt des investisseurs qui voudront s’assurer que les entreprises dans lesquelles ils investissent et auxquelles ils sont affiliés ne sont pas associées à de mauvais titres ou encombrées de litiges. La confiance est l’un des rares éléments non négociables pour le succès d’une entreprise, et un engagement envers une gouvernance responsable de l’IA est le meilleur moyen de renforcer et de maintenir la confiance du public. Une IA robuste et digne de confiance est une bonne chose pour les affaires.