Dans le contexte: La montée et l’avancement soudains des systèmes d’intelligence artificielle au cours des derniers mois ont fait craindre ses effets potentiellement néfastes sur la société. Non seulement l’IA pourrait menacer les emplois humains et la créativité, mais l’utilisation de machines intelligentes dans la guerre pourrait avoir des conséquences catastrophiques. Pour faire face à ce danger, le premier Sommet mondial sur l’intelligence artificielle responsable dans le domaine militaire (REAIM) s’est tenu la semaine dernière, ce qui a conduit les pays à signer un accord pour placer l’utilisation responsable de l’IA plus haut dans l’agenda politique.
Co-organisée par les Pays-Bas et la Corée du Sud la semaine dernière à La Haye, la conférence REAIM a réuni des représentants de plus de 60 pays, dont la Chine. Des ministres, des délégués gouvernementaux, des groupes de réflexion et des organisations industrielles/civiles ont participé aux pourparlers. La Russie n’a pas été invitée à participer, tandis que l’Ukraine n’y a pas participé.
L’appel à l’action signé par tous les participants à l’exception d’Israël ont confirmé que les nations s’étaient engagées à développer et à utiliser l’IA militaire conformément aux « obligations juridiques internationales et d’une manière qui ne porte pas atteinte à la sécurité, à la stabilité et à la responsabilité internationales ».
La sous-secrétaire d’État américaine au contrôle des armements, Bonnie Jenkins, a appelé à une utilisation responsable de l’IA dans les situations militaires. « Nous invitons tous les États à se joindre à nous pour mettre en œuvre les normes internationales, en ce qui concerne le développement militaire et l’utilisation de l’IA » et des armes autonomes, a déclaré Jenkins. « Nous tenons à souligner que nous sommes ouverts à un engagement avec tout pays intéressé à nous rejoindre. »
Le représentant de la Chine, Jian Tan, a déclaré au sommet que les pays devraient « s’opposer à la recherche d’un avantage militaire absolu et de l’hégémonie par le biais de l’IA » et travailler par l’intermédiaire des Nations Unies.
Parmi les autres problèmes que les signataires ont convenu d’aborder, citons la fiabilité de l’IA militaire, les conséquences imprévues de son utilisation, les risques d’escalade et la manière dont les humains doivent être impliqués dans le processus de prise de décision.
En 2019, le DoD a déclaré que les humains auront toujours le dernier mot sur la question de savoir si les systèmes d’armes autonomes ouvrent le feu sur des cibles réelles. En ce qui concerne les conséquences involontaires mentionnées dans la déclaration, certains craignent que la poussée de l’Inde vers des systèmes militaires alimentés par l’IA ne conduise à une guerre nucléaire avec le Pakistan par le risque accru de frappes préventives.
Certains participants ont noté les avantages de l’utilisation de l’IA dans les conflits, en particulier en Ukraine, où l’apprentissage automatique et d’autres technologies ont été utilisés pour repousser un agresseur plus grand et plus puissant.
« Imaginez un missile frappant un immeuble d’habitation », a déclaré le vice-Premier ministre néerlandais Wopke Hoekstra. « En une fraction de seconde, l’IA peut détecter son impact et indiquer où les survivants pourraient se trouver. Encore plus impressionnant, l’IA aurait pu intercepter le missile en premier lieu. Pourtant, l’IA a également le potentiel de détruire en quelques secondes. »
Les critiques disent que la déclaration n’est pas juridiquement contraignante et ne répond pas à de nombreuses autres préoccupations concernant l’utilisation de l’IA dans les conflits militaires, y compris les drones guidés par l’IA.
D’autres craintes concernant les nombreuses applications potentielles de l’IA dans la guerre ont été soulevées la semaine dernière après que Lockheed Martin a révélé que son nouveau jet d’entraînement avait été piloté par l’intelligence artificielle pendant plus de 17 heures, marquant la première fois que l’IA était engagée de cette manière sur un avion tactique. Ailleurs, l’ancien PDG de Google et président d’Alphabet, Eric Schmidt, a déclaré que l’intelligence artificielle pourrait avoir un effet similaire sur les guerres comme l’introduction des armes nucléaires.