L’UE se prépare à publier des projets de loi qui réglementent l’utilisation de l’IA dans la société. Le projet de loi vise à limiter l’utilisation de l’IA à des fins de «surveillance aveugle» et à interdire l’utilisation de l’IA dans les systèmes qui peuvent être exploités pour influencer ou manipuler les comportements humains.

S’il était adopté, le projet de loi n’entrerait toujours pas en vigueur avant quelques années. Cependant, le contenu de la réglementation pourrait avoir un effet significatif sur l’utilisation de l’intelligence artificielle en Europe pendant de nombreuses années.

Alors, les propositions sont-elles suffisamment solides pour protéger les droits humains fondamentaux des citoyens?

Pas de bébé

En janvier 2020, l’UE a publié un livre blanc présentant des propositions pour réglementer l’intelligence artificielle utilisée pour suivre les citoyens dans les espaces publics.

Consultation publique sur le livre blanc abouti à plus de 1 250 réponses et soumissions de “parties prenantes intéressées des secteurs public et privé, y compris les gouvernements, les autorités locales, les organisations commerciales et non commerciales, les experts, les universitaires et les citoyens.”

Selon ECHAlliance, cela comprenait des contributions “du monde entier, y compris des 27 États membres de l’UE et des pays tels que l’Inde, la Chine, le Japon, la Syrie, l’Irak, le Brésil, le Mexique, le Canada, les États-Unis et le Royaume-Uni.” Maintenant, les propositions finalisées sont être publié mercredi, après quoi ils seront débattus au Parlement européen.

Dans les projets qui ont été divulgués à l’avance, des sections ont soulevé des préoccupations en raison de l’ambiguïté du langage utilisé et de l’existence de lacunes. Celles-ci, craint-on, pourraient permettre à l’IA d’être exploitée par les autorités militaires et gouvernementales de manière préjudiciable aux citoyens.

Statue à l'extérieur du bureau des commissaires européens

Valeurs de l’UE

Selon Politico qui a vu le projet mardi dernier, l’UE travaille à une approche «centrée sur l’humain» de la réglementation de l’IA qui permet une utilisation positive de l’IA.

La CE espère que cela permettra à l’UE de rivaliser avec l’Amérique et la Chine pour le progrès technologique – tout en accordant des droits aux citoyens qui interdisent l’utilisation de l’IA lorsqu’elle est “à haut risque”.

À ces fins, le projet de fuite restreint l’utilisation de l’IA “surveillance et suivi des personnes physiques dans des environnements numériques ou physiques, ainsi que l’agrégation et l’analyse automatisées de données personnelles provenant de diverses sources.” Il cherche également à limiter l’utilisation de l’IA lorsqu’elle enfreint les «valeurs» de l’UE et les droits de l’homme.

Pour y parvenir, les règlements proposés interdisent l’IA qui manipule les comportements humains et qui affecte négativement la capacité des citoyens à se forger une opinion ou à prendre des décisions et peut les amener à agir «à leur propre détriment».

Le projet propose également d’interdire l’IA dans les systèmes de notation sociale comme ceux utilisés en Chine, et pour «la surveillance aveugle appliquée de manière généralisée à toutes les personnes physiques sans différenciation».

Enfin, le projet de proposition limiterait l’utilisation de l’IA dans les systèmes prédictifs qui pourraient être exploités pour cibler les «vulnérabilités» d’une personne (ou d’un groupe de personnes).

Un dictionnaire zoomé sur le trou de la boucle de mots

Trop d’échappatoires?

Le règlement proposé sur l’IA serait le premier du genre à l’échelle mondiale – et peut certainement être considéré comme un pas dans la bonne direction. Cela dit, les experts sont inquiets en raison de l’ambiguïté du libellé et du potentiel d’interprétation.

Dans Tweets publiés mercredi dernier, Daniel Leufer, analyste politique européen, a déclaré:

“Comment déterminer ce qui est au détriment de quelqu’un? Et qui évalue cela?”

Leufer a souligné qu’il y a 4 interdictions dans le projet qui “sont très très vagues et contiennent de sérieuses lacunes”.

Plus précisément, Leufer souligne les interdictions qui ne s’appliquent pas si «de telles pratiques sont autorisées par la loi et sont réalisées [by public authorities or on behalf of public authorities] afin de sauvegarder la sécurité publique. »

Leufer craint qu’à la suite de ces exceptions, “la manipulation préjudiciable du comportement humain, l’exploitation et le ciblage des vulnérabilités des personnes, et une surveillance de masse aveugle puissent tous être effectués pour sauvegarder la sécurité publique.”

Ceci est accablant et laisse finalement trop de zones grises – une opinion appuyée par le Centre européen de droit des organismes sans but lucratif (ECNL) dans les commentaires adressés à la BBC . À l’instar de Leufer, l’ECNL a déclaré qu’il subsiste «beaucoup d’imprécision et de lacunes» dans les projets de propositions qui semblent les rendre inopportuns.

Cela dit, Leufer n’a pas tardé à souligner que l’ébauche de 80 pages divulguée était une version de la proposition datant de janvier, ce qui, espère-t-il, signifie qu’elle a “considérablement progressé depuis”.

Risque élevé

Mercredi, nous aurons enfin des éclaircissements sur les propositions de l’UE. Ce que nous savons jusqu’à présent, c’est que certaines utilisations à haut risque de l’IA seront identifiées et limitées dans la proposition.

En conséquence, toute organisation qui développe une IA qui est interdite – ou qui ne fournit pas les informations appropriées sur son IA – pourrait s’exposer à des amendes pouvant atteindre 4% de son chiffre d’affaires annuel mondial.

Les définitions de risque élevé répertoriées dans le projet de fuite comprennent:

  • Systèmes qui établissent la priorité dans la répartition des services d’urgence
  • Systèmes qui déterminent l’accès aux «instituts de formation scolaire ou professionnelle».
  • Algorithmes de recrutement
  • Systèmes qui évaluent l’éligibilité des personnes au crédit
  • Systèmes qui effectuent des évaluations individuelles des risques
  • Algorithmes de prévision du crime

Dans l’ensemble, il est formidable de voir la Commission européenne définir des classifications d’IA à haut risque. Cependant, il restera inévitablement des préoccupations importantes si le projet de mercredi ne réglemente pas également l’utilisation de l’IA dans les cas d’utilisation non critiques ou à haut risque.

Leufer soutient que toute base de données accessible au public sur les utilisations de l’IA doit inclure «tous les systèmes d’IA du secteur public, quel que soit leur niveau de risque attribué» si elle veut informer et protéger le public de manière adéquate.

Selon Leufer, cette attente a été clairement définie par Access Now lors de la phase de consultation publique, car “les gens n’ont généralement pas le choix d’interagir ou non avec un système d’IA dans le secteur public.”

Malheureusement, à moins que ces exigences ne soient remplies, l’UE pourrait finir par adopter des réglementations trop faibles pour empêcher l’utilisation de l’IA pour la reconnaissance faciale et d’autres pratiques excessives.

Cela pourrait sérieusement menacer le droit du public à la vie privée et aboutir à des technologies qui influencent la vie des gens avec des systèmes automatisés connus pour causer de graves erreurs, des préjugés et de la discrimination.



Leave a Reply