Un cycle électoral exténuant est arrivé à sa fin. Donald Trump sera le 47e président des États-Unis et, avec les républicains aux commandes du Sénat – et peut-être de la Chambre des représentants – ses alliés sont prêts à apporter des changements radicaux aux plus hauts niveaux du gouvernement.
Les effets se feront sentir dans l’industrie de l’IA, qui s’est largement mobilisée contre l’élaboration des politiques fédérales. Trump a déclaré à plusieurs reprises qu’il prévoyait de démanteler le cadre politique de Biden en matière d’IA dès le « premier jour » et s’est aligné sur les faiseurs de rois qui ont vivement critiqué toutes les réglementations, sauf les plus légères.
L’approche de Biden
La politique de Biden en matière d’IA est entrée en vigueur par le biais d’un décret, le décret sur l’IA, adopté en octobre 2023. L’inaction du Congrès en matière de réglementation a précipité le décret, dont les préceptes sont volontaires – et non obligatoires.
L’EO sur l’IA aborde tous les sujets, de la promotion de l’IA dans les soins de santé à l’élaboration de conseils conçus pour atténuer les risques de vol de propriété intellectuelle. Mais deux de ses dispositions les plus importantes – qui ont soulevé la colère de certains républicains – concernent les risques de Sécurité de l’IA et les impacts réels sur la sécurité.
L’une d’entre elles demande aux entreprises qui développent de puissants modèles d’IA de rendre compte au gouvernement de la manière dont elles forment et sécurisent ces modèles, et de fournir les résultats des tests conçus pour détecter les vulnérabilités des modèles. L’autre disposition ordonne au National Institute of Standards and Technology (NIST) du département du Commerce de rédiger des directives qui aident les entreprises à identifier – et à corriger – les défauts des modèles, y compris les biais.
L’EO IA a accompli beaucoup. Au cours de la dernière année, le département du Commerce a créé l’Institut américain de sécurité de l’IA (AISI), un organisme chargé d’étudier les risques dans les systèmes d’IA, y compris les systèmes ayant des applications de défense. Elle a également publié de nouveaux logiciels pour aider à améliorer la fiabilité de l’IA et a testé de nouveaux modèles d’IA majeurs dans le cadre d’accords avec OpenAI et Anthropic.
Les critiques alliés à Trump soutiennent que les exigences de déclaration de l’EO sont onéreuses et obligent effectivement les entreprises à divulguer leurs secrets commerciaux. Lors d’une audition à la Chambre en mars, la représentante Nancy Mace (R-SC) a déclaré qu’ils « pourraient effrayer les innovateurs potentiels et entraver davantage de percées de type ChatGPT ».
Parce que les exigences s’appuient sur une interprétation de la loi sur la production de défense, une loi des années 1950 visant à soutenir la défense nationale, elles ont également été qualifiées par certains républicains du Congrès d’exemple d’excès de pouvoir de l’exécutif.
Lors d’une audition au Sénat en juillet, le colistier de Trump, JD Vance, a exprimé ses inquiétudes quant au fait que les « tentatives de surréglementation préventive » « renforceraient les opérateurs technologiques en place que nous avons déjà ». Vance a également été Favorable de l’antitrust, y compris les efforts de la présidente de la FTC, Lina Khan, qui est le fer de lance Enquêtes des acquisitions de startups d’IA par de grandes entreprises technologiques.
Plusieurs républicains ont assimilé le travail du NIST sur l’IA à la censure du discours conservateur. Ils accusent l’administration Biden de tenter d’orienter le développement de l’IA avec des notions libérales sur la désinformation et les préjugés ; Le sénateur Ted Cruz (R-TX) a récemment critiqué les « normes de sécurité de l’IA woke » du NIST comme un « plan de contrôle de la parole » basé sur des préjudices sociaux « amorphes ».
« Quand je serai réélu », a déclaré Trump lors d’un rassemblement à Cedar Rapids, dans l’Iowa, en décembre dernier, « j’annulerai le décret de Biden sur l’intelligence artificielle et interdirai l’utilisation de l’IA pour censurer le discours des citoyens américains dès le premier jour. »
Remplacement de l’EO IA
Alors, qu’est-ce qui pourrait remplacer l’EO IA de Biden ?
Il n’y a pas grand-chose à tirer des décrets sur l’IA signés par Trump au cours de son dernier mandat présidentiel, qui ont fondé des instituts nationaux de recherche sur l’IA et ordonné aux agences fédérales de donner la priorité à la R&D sur l’IA. Ses décrets ont mandaté les agences pour qu’elles « protègent les libertés civiles, la vie privée et les valeurs américaines » dans l’application de l’IA, aident les travailleurs à acquérir des compétences pertinentes pour l’IA et promeuvent l’utilisation de technologies « dignes de confiance ».
Au cours de sa campagne, Trump a promis des politiques qui « soutiendraient le développement de l’IA enraciné dans la liberté d’expression et l’épanouissement humain » – mais a refusé d’entrer dans les détails.
Certains républicains ont déclaré qu’ils souhaitaient que le NIST se concentre sur les risques de sécurité physique de l’IA, y compris sa capacité à aider les adversaires à construire des armes biologiques (ce que l’EO de Biden aborde également). Mais ils ont également évité d’approuver de nouvelles restrictions sur l’IA, ce qui pourrait mettre en péril certaines parties des directives du NIST.
En effet, le sort de l’AISI, qui est hébergé au sein du NIST, est trouble. Bien qu’elle dispose d’un budget, d’un directeur et de partenariats avec des instituts de recherche sur l’IA dans le monde entier, l’AISI pourrait être liquidée par une simple abrogation de l’EO de Biden.
Dans une lettre ouverte publiée en octobre, une coalition d’entreprises, d’organisations à but non lucratif et d’universitésont demandé au Congrès de promulguer une loi codifiant l’AISI avant la fin de l’année.
Trump a reconnu que l’IA est «très dangereux» et qu’il faudra Des quantités massives de puissance pour développer et exécuter, suggérant une volonté de s’engager face aux risques croissants de l’IA.
Cela étant, Sarah Kreps, politologue qui se concentre sur la politique de défense américaine, ne s’attend pas à ce qu’une réglementation majeure de l’IA émerge de la Maison Blanche dans les quatre prochaines années. « Je ne sais pas si les opinions de Trump sur la réglementation de l’IA atteindront le niveau d’antipathie qui le pousse à abroger le décret sur l’IA de Biden », a-t-elle déclaré à TechCrunch.
Commerce et réglementation étatique
Dean Ball, chercheur à l’Université George Mason, convient que la victoire de Trump est probablement de bon augure d’un régime réglementaire léger – un régime qui reposera sur l’application de la loi existante plutôt que sur la création de nouvelles lois. Cependant, Ball prédit que cela pourrait encourager les gouvernements des États, en particulier dans les bastions démocrates comme la Californie, à essayer de combler le vide.
Les efforts menés par l’État sont en bonne voie. En mars, le Tennessee a adopté une loi Protéger artistes vocaux issus du clonage d’IA. Cet été, Colorado adopté une approche à plusieurs niveaux, basée sur les risques, pour les déploiements d’IA. Et en septembre, le gouverneur de Californie, Gavin Newsom, a signé Dizaines des factures de sécurité liées à l’IA, dont quelques-unes obligent les entreprises à publier les détails de leur formation à l’IA.
Les décideurs politiques de l’État ont Introduit près de 700 textes législatifs sur l’IA rien que cette année.
« On ne sait pas comment le gouvernement fédéral répondra à ces défis », a déclaré M. Ball.
Hamid Ekbia, professeur d’affaires publiques à l’Université de Syracuse, estime que les politiques protectionnistes de Trump pourraient avoir des implications réglementaires sur l’IA. Il s’attend à ce que l’administration Trump impose des contrôles plus stricts à l’exportation à la Chine, par exemple, y compris des contrôles sur les technologies nécessaires au développement de l’IA.
L’administration Biden a déjà mis en place un certain nombre d’interdictions sur l’exportation de puces et de modèles d’IA. Cependant, certaines entreprises chinoises supposément Utilisation de failles pour accéder aux outils via des services cloud.
« La régulation mondiale de l’IA en souffrira [of new controls], malgré les circonstances qui appellent à une plus grande coopération mondiale », a déclaré M. Ekbia. « Les ramifications politiques et géopolitiques de cette situation peuvent être énormes, permettant des utilisations plus autoritaires et oppressives de l’IA à travers le monde. »
Si Trump promulgue des droits de douane sur la technologie nécessaire à la construction de l’IA, il pourrait également réduire le capital nécessaire pour financer la R&D sur l’IA, explique Matt Mittelsteadt, un autre chercheur à l’Université George Mason. Au cours de sa campagne, Trump a proposé des droits de douane de 10 % sur toutes les importations américaines et de 60 % sur les produits fabriqués en Chine.
« Peut-être que l’impact le plus important viendra des politiques commerciales », a déclaré M. Mittelsteadt. « Attendez-vous à ce que tout tarif potentiel ait un impact économique massif sur le secteur de l’IA. »
Bien sûr, c’est tôt. Et bien que Trump ait pour la plupart évité d’aborder l’IA pendant la campagne, une grande partie de son programme – comme son projet de restreindre les visas H-1B et d’embrasser le pétrole et le gaz – pourrait avoir des effets en aval sur l’industrie de l’IA.
Sandra Wachter, professeure d’éthique des données à l’Oxford Internet Institute, a exhorté les régulateurs, quelle que soit leur affiliation politique, à ne pas perdre de vue les dangers de l’IA pour ses opportunités.
« Ces risques existent peu importe où vous vous situez sur l’échiquier politique », a-t-elle déclaré. « Ces méfaits ne croient pas en la géographie et ne se soucient pas des lignes de parti. Je ne peux qu’espérer que la gouvernance de l’IA ne sera pas réduite à une question partisane – c’est une question qui nous concerne tous, partout. Nous devons tous travailler ensemble pour trouver de bonnes solutions mondiales.
fr.techtribune.neta une newsletter axée sur l’IA ! Inscrivez-vous ici pour le recevoir dans votre boîte de réception tous les mercredis.