C’est officiel : la réglementation de l’Union européenne basée sur les risques pour les applications de l’intelligence artificielle est entrée en vigueur à partir du jeudi 1er août 2024.
Cela déclenche une série d’échéances de conformité échelonnées que la loi appliquera à différents types de développeurs et d’applications d’IA. La plupart des dispositions seront pleinement applicables d’ici la mi-2026. Mais la première date limite, qui impose l’interdiction d’un petit nombre d’utilisations interdites de l’IA dans des contextes spécifiques, tels que l’utilisation par les forces de l’ordre de la biométrie à distance dans les lieux publics, s’appliquera dans seulement six mois.
Selon l’approche de l’UE, la plupart des applications de l’IA sont considérées comme présentant un risque faible ou nul, de sorte qu’elles ne seront pas du tout dans le champ d’application de la réglementation.
Un sous-ensemble d’utilisations potentielles de l’IA est classé comme présentant un risque élevé, comme la biométrie et la reconnaissance faciale, ou l’IA utilisée dans des domaines tels que l’éducation et l’emploi. Les systèmes utilisés dans ces domaines devront être enregistrés dans une base de données de l’UE et leurs développeurs devront garantir le respect des obligations de gestion des risques et de la qualité.
Un troisième niveau de « risque limité » s’applique aux technologies d’IA telles que les chatbots ou les outils qui pourraient être utilisés pour produire des deepfakes. Ceux-ci devront répondre à certaines exigences de transparence pour s’assurer que les utilisateurs ne sont pas trompés.
Un autre volet important de la loi s’applique aux développeurs d’IA dites à usage général (IAGP). Là encore, l’UE a adopté une approche fondée sur les risques, la plupart des développeurs de l’IAGP étant confrontés à des exigences de transparence légères. On s’attend à ce qu’un sous-ensemble des modèles les plus puissants entreprenne également des mesures d’évaluation et d’atténuation des risques.
Ce que les développeurs du GPAI devront faire exactement pour se conformer à la loi sur l’IA est encore en cours de discussion, car les codes de pratique doivent encore être rédigés. Plus tôt cette semaine, l’AI Office, un organisme de surveillance stratégique et de construction de l’écosystème de l’IA, a lancé une consultation et un appel à participer à ce processus d’élaboration de règles, affirmant qu’il prévoyait de finaliser les codes en avril 2025.
Dans son propre introduction à la loi sur l’IA à la fin du mois dernier, OpenAI, le fabricant du grand modèle de langage GPT qui sous-tend ChatGPT, a écrit qu’il prévoyait de travailler « en étroite collaboration avec l’Office de l’IA de l’UE et d’autres autorités compétentes lorsque la nouvelle loi sera mise en œuvre dans les mois à venir ». Cela comprend la compilation de la documentation technique et d’autres conseils pour les fournisseurs et les déploiements en aval de ses modèles GPAI.
« Si votre organisation essaie de déterminer comment se conformer à la loi sur l’IA, vous devez d’abord essayer de classer tous les systèmes d’IA dans le champ d’application. Identifiez le GPAI et les autres systèmes d’IA que vous utilisez, déterminez comment ils sont classifiés et tenez compte des obligations qui découlent de vos cas d’utilisation », a ajouté OpenAI, offrant ses propres conseils de conformité aux développeurs d’IA. « Vous devez également déterminer si vous êtes un fournisseur ou un déployeur en ce qui concerne les systèmes d’IA concernés. Ces questions peuvent être complexes, vous devriez donc consulter un conseiller juridique si vous avez des questions.