Dans le contexte: À mesure que les systèmes d’intelligence artificielle deviennent de plus en plus omniprésents, la nécessité de réglementer leur utilisation devient plus évidente. Nous avons déjà vu comment des systèmes comme la reconnaissance faciale peuvent être au mieux peu fiables et au pire biaisés. Ou comment les gouvernements peuvent abuser de l’IA pour empiéter sur les droits individuels. L’Union européenne envisage maintenant de mettre en œuvre une réglementation formelle sur l’utilisation de l’IA.
Mercredi, la Commission européenne proposé des réglementations qui limiteraient et guideraient la manière dont les entreprises, les organisations et les agences gouvernementales utilisent les systèmes d’intelligence artificielle. S’il est approuvé, ce sera la première loi formelle à régir l’utilisation de l’IA. La CE déclare que les règles sont nécessaires pour sauvegarder « les droits fondamentaux des personnes et des entreprises ». Le cadre juridique comprendrait quatre niveaux de réglementation.
Le premier niveau serait les systèmes d’IA jugés «à risque inacceptable». Il s’agirait d’algorithmes considérés comme «une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes». La loi interdirait carrément des applications comme le système de notation sociale de la Chine ou tout autre conçu pour modifier le comportement humain.
Le deuxième niveau consiste en une technologie d’IA considérée comme «à haut risque». La définition communautaire des applications à haut risque est large et couvre une large gamme de logiciels, dont certains sont déjà utilisés. Les logiciels d’application de la loi qui utilisent l’IA susceptible d’interférer avec les droits de l’homme seront strictement contrôlés. La reconnaissance faciale en est un exemple. En fait, tous les systèmes d’identification biométrique à distance entrent dans cette catégorie.
Ces systèmes seront très réglementés, exigeant entre autres des ensembles de données de haute qualité pour la formation, des journaux d’activité pour retracer les résultats, une documentation détaillée et une «surveillance humaine appropriée». L’Union européenne interdirait l’utilisation de la plupart de ces applications dans les espaces publics. Cependant, les règles auraient des concessions pour les questions de sécurité nationale.
Le troisième niveau est celui des IA à «risque limité». Il s’agit principalement de chatbots ou d’assistants personnels tels que Google’s Duplex. Ces systèmes doivent offrir un niveau de transparence suffisamment important pour pouvoir être identifiés comme non humains. L’utilisateur final doit être autorisé à décider s’il interagit ou non avec l’IA.
Enfin, il existe des programmes considérés comme «à risque minimal». Il s’agirait de logiciels d’IA qui ne nuisent pas ou peu à la sécurité ou aux libertés humaines. Par exemple, les algorithmes de filtrage des e-mails ou l’IA utilisés dans les jeux vidéo seraient exemptés de la réglementation.
Les mesures d’exécution consisteraient en des amendes de l’ordre de six pour cent des ventes mondiales d’une entreprise. Cependant, cela pourrait prendre des années avant que quoi que ce soit entre en vigueur alors que les États membres européens débattent et définissent les détails.