Une patate chaude : Dans une histoire rare (de nos jours) sur l’intelligence artificielle de type non génératif, l’Assemblée nationale française a approuvé l’utilisation de l’IA pour aider à la surveillance vidéo des Jeux olympiques de Paris 2024. Cette décision intervient malgré l’opposition de groupes de défense des droits qui affirment que son utilisation est une violation potentielle des libertés civiles tout en ouvrant la voie à l’utilisation future de la vidéosurveillance invasive basée sur des algorithmes à travers l’Europe.
Selon Le Regle gouvernement français a adopté l’article 7 de la loi en cours pour les Jeux olympiques et paralympiques de 2024, autorisant l’utilisation de l’analyse automatisée des vidéos de surveillance à partir de caméras fixes et de drones.
On dit que le système détecte des événements suspects spécifiques dans les espaces publics, tels que des comportements anormaux, des événements prédéterminés et des surtensions de foule.
Alors que le plan de surveillance alimenté par l’IA pourrait être contesté devant la plus haute cour constitutionnelle, la France est en passe de devenir le premier pays de l’Union européenne à utiliser un tel système.
Il semble que la France ait ignoré l’avertissement de 38 organisations de la société civile qui ont exprimé leurs inquiétudes face à la technologie dans un lettre ouverte. Ils affirment que les mesures de surveillance proposées violent le droit international des droits de l’homme car elles contreviennent aux principes de nécessité et de proportionnalité et présentent des risques inacceptables pour les droits fondamentaux, tels que le droit à la vie privée, la liberté de réunion et d’association et le droit à la non-discrimination. .
La lettre prévient que si le système d’IA est adopté, il créera un précédent de surveillance injustifiée et disproportionnée dans les espaces accessibles au public.
« Si le but des caméras pilotées par des algorithmes est de détecter des événements suspects spécifiques dans les espaces publics, elles captureront et analyseront nécessairement les caractéristiques physiologiques et les comportements des individus présents dans ces espaces, tels que leurs positions corporelles, leur démarche, leurs mouvements, leurs gestes ou leur apparence. « , lit-on dans la lettre ouverte. « Isoler les individus de l’arrière-plan, sans lequel il serait impossible d’atteindre l’objectif du système, équivaudra à une » identification unique « . »
Comme c’est souvent le cas avec la surveillance par IA, il existe également des craintes de discrimination. « L’utilisation de systèmes algorithmiques pour lutter contre le crime a entraîné une surveillance excessive, une discrimination structurelle dans le système de justice pénale et une surcriminalisation des minorités raciales, ethniques et religieuses », ajoutent les groupes.
Mher Hakobyan, conseiller d’Amnesty International pour la réglementation de l’IA, a dit la décision fait courir à la France le risque de se transformer définitivement en un État de surveillance dystopique.
La commission de réglementation de la Commission nationale de l’informatique et des libertés (CNIL) de France a soutenu le projet de loi à la condition qu’aucune donnée biométrique ne soit traitée, mais les défenseurs de la vie privée ne croient pas qu’une telle chose soit possible.
Daniel Leufer, conseiller politique de l’organisation de défense des droits numériques Access Now, a déclaré : « Vous pouvez faire deux choses : la détection d’objets ou l’analyse du comportement humain – cette dernière est le traitement de données biométriques ».
Titre : Henning Schlottmann