Le PDG de Google, Sundar Pichai, a suggéré plus d’une fois que l’intelligence artificielle (IA) affecterait le développement de l’humanité plus profondément que l’exploitation du feu par l’humanité. Il parlait, bien sûr, de l’IA comme d’une technologie qui donne aux machines ou aux logiciels la capacité d’imiter l’intelligence humaine pour accomplir des tâches de plus en plus complexes avec peu ou pas d’intervention humaine.
Vous pouvez rire de la comparaison de Pichai comme du battage médiatique habituel de la Silicon Valley, mais les négociateurs de la société ne rient pas. Depuis 2007, Google a acheté au moins 30 entreprises d’IA travaillant sur tout, de la reconnaissance d’images à des voix de synthèse plus humaines, plus que n’importe lequel de ses pairs Big Tech. L’une de ces acquisitions, DeepMind, que Google a racheté en 2014, vient de annoncé qu’il peut prédire la structure de chaque protéine du corps humain à partir de l’ADN des cellules, une réalisation qui pourrait déclencher de nombreuses percées dans la recherche biologique et médicale. Ces percées ne se produiront bien sûr que si Google permet un large accès aux connaissances de DeepMind, mais la bonne nouvelle est que Google a décidé qu’il le fera. Cependant, il y a un « mais ».
Le PDG de Google, Sundar Pichai, a suggéré plus d’une fois que l’intelligence artificielle (IA) affecterait le développement de l’humanité plus profondément que l’exploitation du feu par l’humanité. Il parlait, bien sûr, de l’IA comme d’une technologie qui donne aux machines ou aux logiciels la capacité d’imiter l’intelligence humaine pour accomplir des tâches de plus en plus complexes avec peu ou pas d’intervention humaine.
Vous pouvez rire de la comparaison de Pichai comme du battage médiatique habituel de la Silicon Valley, mais les négociateurs de la société ne rient pas. Depuis 2007, Google a acheté au moins 30 entreprises d’IA travaillant sur tout, de la reconnaissance d’images à des voix de synthèse plus humaines, plus que n’importe lequel de ses pairs Big Tech. L’une de ces acquisitions, DeepMind, que Google a racheté en 2014, vient de annoncé qu’il peut prédire la structure de chaque protéine du corps humain à partir de l’ADN des cellules, une réalisation qui pourrait déclencher de nombreuses percées dans la recherche biologique et médicale. Ces percées ne se produiront bien sûr que si Google permet un large accès aux connaissances de DeepMind, mais la bonne nouvelle est que Google a décidé qu’il le fera. Cependant, il y a un « mais ».
D’une part, Google n’est pas le seul gardien dont les décisions détermineront en grande partie la direction que prendra la technologie de l’IA. La liste des entreprises arraché Les startups de l’IA dans le monde sont également dominées par les noms familiers de la Big Tech qui accompagnent si souvent le géant de la recherche et de la publicité : Apple, Facebook, Microsoft et Amazon. En 2016, ce groupe, avec des méga-acteurs chinois comme Baidu, dépensé 20 à 30 milliards de dollars sur un total mondial estimé de 26 à 39 milliards de dollars pour la recherche, le développement et les acquisitions liés à l’IA. Avec une domination dans la recherche, les médias sociaux, la vente au détail en ligne et les magasins d’applications, ces entreprises ont quasi-monopoles sur les données de l’utilisateur. Grâce à leurs services cloud à croissance rapide et de plus en plus omniprésents, Google, Microsoft, Amazon et leurs homologues chinois préparent le terrain pour devenir les principaux fournisseurs d’IA pour tous les autres. (En fait, AI-as-a-service est déjà un Industrie de 2 milliards de dollars par an et devrait croître à un taux annuel de 34 %.) Selon une étude qui sera bientôt publiée par mon équipe de Digital Planet, les talents en IA des entreprises américaines sont également intensément concentrés : le nombre médian d’employés en IA dans les cinq—Amazon, Google, Microsoft, Facebook et Apple—est d’environ 18 000, tandis que la médiane pour les entreprises de 6 à 24 est d’environ 2 500. Les chiffres baissent considérablement à partir de là.
Le potentiel de l’IA est à la fois vaste et étendu : de conduite des gains d’efficacité et des économies de coûts dans presque toutes les industries à des impacts révolutionnaires dans l’éducation, l’agriculture, la finance, la sécurité nationale et d’autres domaines. Nous venons de voir un exemple des nombreux changements en cours grâce à l’IA : les restrictions de verrouillage imposées à la suite de la pandémie de COVID-19 ont conduit de nombreuses organisations à présenter bots et automatisation pour remplacer les humains. Dans le même temps, l’IA pourrait également créer de nouveaux emplois et améliorer la productivité. À d’autres égards également, l’IA a deux visages : accéléré le développement et le déploiement de vaccins COVID en prédisant la propagation des infections au niveau du comté pour éclairer les sélections de sites pour les essais cliniques ; cela a également aidé les sociétés de médias sociaux à signaler les fausses nouvelles sans avoir à employer des éditeurs humains. Mais les algorithmes optimisés par l’IA dans la recherche et les médias sociaux ont également créé des chambres d’écho pour les théories du complot anti-vaxxer en ciblant les plus vulnérables. Il existe des préoccupations croissantes concernant l’éthique, l’équité, la confidentialité, la surveillance, la justice sociale et la transparence dans la prise de décision assistée par l’IA. Les critiques avertissent que la démocratie elle-même pourrait être menacée si l’IA devient folle.
En d’autres termes, le mélange de points positifs et négatifs met cette puissante nouvelle suite de technologies à la fine pointe de la technologie. Avons-nous confiance qu’une poignée d’entreprises qui ont déjà perte de confiance du public peut prendre l’IA dans la bonne direction? Nous devrions avoir de nombreuses raisons de nous inquiéter compte tenu des modèles économiques qui motivent leurs motivations. Pour les entreprises axées sur la publicité comme Google et Facebook, il est clairement avantageux d’améliorer le contenu qui voyage plus rapidement et attire davantage l’attention et la désinformation. fait habituellement-tout en micro-ciblant ce contenu en collectant les données des utilisateurs. Les entreprises de produits de consommation, telles qu’Apple, seront motivées à donner la priorité aux applications d’IA qui aident à différencier et à vendre leurs produits les plus rentables, ce qui est loin d’être un moyen de maximiser l’impact bénéfique de l’IA.
Un autre défi est la hiérarchisation des ressources d’innovation. Le passage en ligne pendant la pandémie a conduit à bénéfices démesurés pour ces entreprises, et a concentré encore plus de pouvoir entre leurs mains. On peut s’attendre à ce qu’ils essaient de maintenir cet élan en donner la priorité les investissements en IA qui correspondent le mieux à leurs objectifs commerciaux étroits tout en ignorant la myriade d’autres possibilités. De plus, Big Tech opère sur des marchés avec des économies d’échelle, il existe donc une tendance aux gros paris qui peuvent gaspiller d’énormes ressources. Qui se souvient d’IBM Initiative Watson? Il aspirait à devenir l’outil de décision numérique universel et incontournable, en particulier dans le domaine de la santé, et n’a pas été à la hauteur du battage médiatique, tout comme le initiatives de voiture sans conducteur d’Amazon et d’Alphabet parent de Google. Alors que les échecs, les faux départs et les pivots font naturellement partie de l’innovation, les gros échecs coûteux provoqués par quelques entreprises extrêmement riches détournent des ressources d’investissements plus diversifiés dans une gamme d’applications socialement productives.
Malgré l’importance croissante de l’IA, la politique américaine sur la gestion de la technologie est fragmentée et manque d’une vision unifiée. Cela semble également être une réflexion après coup, les législateurs se concentrant davantage sur le comportement anticoncurrentiel de Big Tech sur ses principaux marchés, de la recherche aux médias sociaux en passant par les magasins d’applications. C’est une opportunité manquée, car l’IA a le potentiel d’avoir des impacts sociétaux beaucoup plus profonds que la recherche, les médias sociaux et les applications.
Il existe trois types d’actions que les décideurs devraient envisager pour libérer l’IA des griffes des Big Tech. Premièrement, ils peuvent augmenter les investissements publics dans l’IA. Deuxièmement, des mécanismes devraient être mis en place pour garantir que l’IA est éloignée des utilisations nuisibles et que la vie privée des consommateurs est protégée. Troisièmement, étant donné la concentration de l’IA parmi seulement une poignée d’acteurs Big Tech, le mécanisme antitrust devrait être adapté pour le rendre plus prospectif. Cela signifierait anticiper les risques d’un petit groupe de grandes entreprises pilotant une technologie avec des applications aussi étendues et établir un système de carottes et de bâtons pour bien piloter. Une telle réglementation proactive doit avoir lieu même si les décideurs politiques doivent en fin de compte s’appuyer sur les mêmes entreprises pour diriger le développement de l’IA, compte tenu de leur échelle, de leurs connaissances techniques et de leur accès au marché.
Alors que la demande de budget fédéral pour 2022 comprend 171 milliards de dollars pour la recherche et le développement publics, le budget ne précise pas le montant à consacrer à l’IA. Selon certains estimations, la recherche fédérale sur l’IA recevra 6 milliards de dollars, avec 3 milliards de dollars supplémentaires alloués aux contrats externes liés à l’IA. En 2020, une agence fédérale clé, la National Science Foundation, dépensé 500 millions de dollars sur l’IA et collaboré avec d’autres agences pour attribuer 1 milliard de dollars supplémentaires à 12 instituts et partenariats public-privé. Les allocations budgétaires pour 2021 comprennent 180 millions de dollars à consacrer à de nouveaux instituts de recherche en IA et à un 20 millions de dollars sur l’étude de l’éthique de l’IA. D’autres ministères fédéraux, tels que l’Énergie, la Défense et les Anciens Combattants, ont leurs propres projets d’IA en cours. En août 2020, le ministère de l’Énergie, par exemple, a attribué 37 millions de dollars sur trois ans pour financer la recherche et le développement de l’IA pour gérer les données et les opérations dans les installations scientifiques du département. Tous ces chiffres sont éclipsés par ceux de Big Tech.
En plus des investissements publics dans l’IA, il est nécessaire d’envisager les utilisations futures de l’IA et de réguler les investissements actuels. Les Etats Unis Loi sur l’autorisation de la défense nationale vise à garantir que l’IA est développée de manière éthique et responsable. Le National Institute of Standards and Technology a pour mission de gérer les risques liés à l’IA. Le Government Accountability Office a également publié des rapports soulignant les risques associés aux la reconnaissance faciale et algorithmes médico-légaux utilisé pour la sécurité publique, et a fourni un pratiques de responsabilisation cadre pour aider les agences fédérales et autres à utiliser l’IA de manière responsable. Cependant, toutes ces lignes directrices doivent être intégrées dans un cadre réglementaire plus formel.
Étant donné que la grande majorité des investissements et des talents en IA sont concentrés dans seulement une petite poignée d’entreprises, les nouvelles Biden révolution antitrust peut jouer un rôle clé. L’administration vise la domination écrasante de Big Tech sur les médias sociaux, la recherche, les magasins d’applications et la vente au détail en ligne. Bon nombre de ces marchés et de leurs structures peuvent être difficiles à changer car les entreprises technologiques agissent de manière préventive pour resserrer leur emprise, comme je l’ai fait décrite précédemment en politique étrangère. Le marché de l’IA, cependant, est encore émergent et potentiellement malléable. Les grandes entreprises technologiques peuvent être incitées à donner la priorité aux applications d’IA bénéfiques pour la société et à ouvrir leurs données, plates-formes et produits pour qu’ils soient au service du public. Pour accéder à ces coffres d’IA, le gouvernement américain pourrait utiliser l’effet de levier créé par les multiples actions antitrust envisagées contre Big Tech. Le précédent historique des Bell Labs peut être une source d’inspiration : le décret fédéral de consentement de 1956 contre le Système de cloche, qui détenait à l’époque un monopole national sur les télécommunications, a gardé l’entreprise intacte, mais en échange, Bell Labs a été obligé de licencier tous ses brevets libres de droits à d’autres entreprises. Cette utilisation de l’effet de levier public a conduit à une explosion d’innovation technologique dans de multiples secteurs de l’économie.
Vous pouvez ou non être d’accord avec la déclaration de Pichai selon laquelle l’impact de l’IA sur l’humanité est comparable à celui de la maîtrise du feu, mais il en a fait un autre commenter c’est beaucoup plus difficile à discuter : « [Fire] tue aussi des gens. À son honneur, DeepMind, propriété de Google, offre un accès ouvert à plus de 350 000 structures de protéines pour un usage public. En même temps, c’est encore pas clair si Google a donné aux entreprises des sciences de la vie au sein de l’empire d’entreprise d’Alphabet un accès anticipé au trésor de protéines et, le cas échéant, comment ces entreprises pourraient l’utiliser.
Si le monde émergent de l’IA est dominé par une poignée d’entreprises sans surveillance ni engagement publics, nous courons deux risques : nous empêchons les autres d’accéder aux outils pour allumer leurs propres feux, et nous pourrions brûler des parties du tissu social si ces entreprises feu dans le mauvais sens. Si nous parvenons à créer de nouveaux mécanismes pour éviter ces risques, l’IA pourrait être encore plus grande que le feu.