Le texte intégral et final de la loi européenne sur l’IA, la réglementation historique de l’Union européenne basée sur les risques pour les applications de l’intelligence artificielle, a été publié dans le Journal officiel.

Dans 20 jours, le 1er août, la nouvelle loi entrera en vigueur et dans 24 mois – donc d’ici la mi-2026 – ses dispositions seront généralement pleinement applicables aux développeurs d’IA. Cependant, la loi adopte une approche progressive pour mettre en œuvre le règlement de l’UE en matière d’IA, ce qui signifie qu’il y a plusieurs dates limites à noter d’ici là – et certaines même plus tard – car différentes dispositions juridiques commenceront à s’appliquer.

Les législateurs de l’UE ont conclu un accord politique sur le premier règlement complet de l’UE pour l’IA en décembre de l’année dernière.

Le cadre impose des obligations différentes aux développeurs d’IA, en fonction des cas d’utilisation et du risque perçu. La majeure partie des utilisations de l’IA ne seront pas réglementées car elles sont considérées comme à faible risque, mais un petit nombre de cas d’utilisation potentiels de l’IA sont interdits par la loi.

Les cas d’utilisation dits « à haut risque » – tels que les utilisations biométriques de l’IA ou l’IA utilisée dans les forces de l’ordre, l’emploi, l’éducation et les infrastructures critiques – sont autorisés par la loi, mais les développeurs de ces applications sont confrontés à des obligations dans des domaines tels que la qualité des données et la lutte contre les préjugés.

Publicité

Un troisième niveau de risque applique également des exigences de transparence plus légères pour les fabricants d’outils tels que les chatbots d’IA.

Pour les fabricants de modèles d’IA à usage général (GPAI), tels que GPT d’OpenAI, la technologie sous-jacente à ChatGPT, il existe également des exigences de transparence. Les IAGP les plus puissantes, généralement définies en fonction du seuil de calcul, peuvent également être nécessaires pour effectuer une évaluation du risque systémique.

Le lobbying intensif de certains éléments de l’industrie de l’IA, soutenus par une poignée de gouvernements d’États membres, a cherché à assouplir les obligations sur les PMIA, craignant que la loi ne freine la capacité de l’Europe à produire des géants locaux de l’IA pour concurrencer ses rivaux aux États-Unis et en Chine.

Mise en œuvre progressive

Tout d’abord, la liste des utilisations interdites de l’IA s’appliquera six mois après l’entrée en vigueur de la loi, soit au début de 2025.

Les cas d’utilisation interdits (ou « risques inacceptables ») de l’IA qui seront bientôt illégaux comprennent la notation du crédit social à la chinoise ; la compilation de bases de données de reconnaissance faciale par scraping non ciblé d’Internet ou de vidéosurveillance ; l’utilisation de la biométrie à distance en temps réel par les organismes d’application de la loi dans les lieux publics, à moins que l’une des nombreuses exceptions ne s’applique, comme lors d’une recherche de personnes disparues ou enlevées.

Ensuite, neuf mois après l’entrée en vigueur, soit vers avril 2025, les codes de bonnes pratiques s’appliqueront aux développeurs d’applications d’IA concernées.

L’Office de l’IA de l’UE, un organisme de construction et de surveillance des écosystèmes établi par la loi, est chargé de fournir ces codes. Mais qui le fera en fait Écrire les lignes directrices soulève encore des questions.

Selon un Euractiv plus tôt ce mois-ci, l’UE a recherché des sociétés de conseil pour rédiger les codes, déclenchant ainsi Préoccupations de la société civile que les acteurs de l’industrie de l’IA seront en mesure d’influencer la forme des règles qui leur seront appliquées. Plus récemment, MLex a indiqué que le Bureau de l’IA lancera un appel à manifestation d’intérêt afin de sélectionner les parties prenantes qui rédigeront les codes de bonnes pratiques pour les modèles d’IA à usage général, à la suite des pressions exercées par les députés pour rendre le processus inclusif.

Une autre échéance clé tombe 12 mois après l’entrée en vigueur – ou le 1er août 2025 – lorsque les règles de la loi sur les IAM qui doivent respecter les exigences de transparence commenceront à s’appliquer.

Un sous-ensemble de systèmes d’IA à haut risque s’est vu accorder le délai de conformité le plus généreux, soit 36 mois après l’entrée en vigueur – jusqu’en 2027 – leur permettant de respecter leurs obligations. Les autres systèmes à haut risque doivent être conformes plus tôt, après 24 mois.

5/5 - (168 votes)
Publicité
Article précédentLes joueurs de Fortnite demandent des améliorations pour les objets rares Mythic dans le chapitre 5 de la saison 3
Article suivantThe Last of Us : voici à quoi ressembleront Ellie et Dina dans la saison 2 ; les fans sont inquiets

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici