Dans le contexte: À mesure que les systèmes d’intelligence artificielle deviennent de plus en plus omniprésents, la nécessité de réglementer leur utilisation devient plus évidente. Nous avons déjà vu comment des systèmes comme la reconnaissance faciale peuvent être au mieux peu fiables et au pire biaisés. Ou comment les gouvernements peuvent abuser de l’IA pour empiéter sur les droits individuels. L’Union européenne envisage maintenant de mettre en œuvre une réglementation formelle sur l’utilisation de l’IA.

Mercredi, la Commission européenne proposé des réglementations qui limiteraient et guideraient la manière dont les entreprises, les organisations et les agences gouvernementales utilisent les systèmes d’intelligence artificielle. S’il est approuvé, ce sera la première loi formelle à régir l’utilisation de l’IA. La CE déclare que les règles sont nécessaires pour sauvegarder « les droits fondamentaux des personnes et des entreprises ». Le cadre juridique comprendrait quatre niveaux de réglementation.

Le premier niveau serait les systèmes d’IA jugés «à risque inacceptable». Il s’agirait d’algorithmes considérés comme «une menace claire pour la sécurité, les moyens de subsistance et les droits des personnes». La loi interdirait carrément des applications comme le système de notation sociale de la Chine ou tout autre conçu pour modifier le comportement humain.

2021 04 21 Image 26

Le deuxième niveau consiste en une technologie d’IA considérée comme «à haut risque». La définition communautaire des applications à haut risque est large et couvre une large gamme de logiciels, dont certains sont déjà utilisés. Les logiciels d’application de la loi qui utilisent l’IA susceptible d’interférer avec les droits de l’homme seront strictement contrôlés. La reconnaissance faciale en est un exemple. En fait, tous les systèmes d’identification biométrique à distance entrent dans cette catégorie.

Ces systèmes seront très réglementés, exigeant entre autres des ensembles de données de haute qualité pour la formation, des journaux d’activité pour retracer les résultats, une documentation détaillée et une «surveillance humaine appropriée». L’Union européenne interdirait l’utilisation de la plupart de ces applications dans les espaces publics. Cependant, les règles auraient des concessions pour les questions de sécurité nationale.

Publicité

Le troisième niveau est celui des IA à «risque limité». Il s’agit principalement de chatbots ou d’assistants personnels tels que Google’s Duplex. Ces systèmes doivent offrir un niveau de transparence suffisamment important pour pouvoir être identifiés comme non humains. L’utilisateur final doit être autorisé à décider s’il interagit ou non avec l’IA.

Enfin, il existe des programmes considérés comme «à risque minimal». Il s’agirait de logiciels d’IA qui ne nuisent pas ou peu à la sécurité ou aux libertés humaines. Par exemple, les algorithmes de filtrage des e-mails ou l’IA utilisés dans les jeux vidéo seraient exemptés de la réglementation.

Les mesures d’exécution consisteraient en des amendes de l’ordre de six pour cent des ventes mondiales d’une entreprise. Cependant, cela pourrait prendre des années avant que quoi que ce soit entre en vigueur alors que les États membres européens débattent et définissent les détails.

Rate this post
Publicité
Article précédentGoogle Pixel 5a 5G aura le Snapdragon 765G à la barre
Article suivantNichola Latifi de Williams révèle qu’il n’avait aucune idée qu’il s’était emmêlé avec Nikita Mazepin lors du crash du premier tour à Imola
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici