Pourquoi est-ce important: En essayant de trouver un équilibre entre encourager l’innovation dans l’intelligence artificielle et veiller à ce que les entreprises n’en abusent pas à des fins diverses, la Commission européenne proposera bientôt un ensemble de réglementations qui susciteront sans aucun doute des tensions avec les États-Unis à un moment où la région est en retard sur le reste du monde dans la course à l’IA.

L’année dernière, la Commission européenne a révélé ses plans pour un «projet générationnel» censé réduire la dépendance de la région vis-à-vis des entreprises extérieures pour les produits et services numériques. Diverses propositions sont encore pour le débat public, mais la plupart d’entre eux tournent autour de la création d’une nouvelle politique du marché numérique qui aura des conséquences de grande envergure pour les géants de technologie comme Google, Amazon, Facebook, Microsoft, et toutes les autres sociétés qui recueillent un énorme quantité de données pour les alimenter en IA.

Une annonce officielle des règles proposées est attendue la semaine prochaine, mais grâce à un document divulgué obtenu par Politico, nous avons maintenant un aperçu préliminaire de ce que sont ces règles. Selon le projet de 81 pages, la Commission européenne cherche à interdire purement et simplement les systèmes d’IA «à haut risque» s’ils ne répondent pas à certains critères. Par exemple, le document précise que «la surveillance aveugle des personnes physiques devrait être interdite lorsqu’elle est appliquée de manière généralisée à toutes les personnes sans distinction».

Les entreprises qui ne respecteraient pas les critères pourraient se voir infliger une amende de quatre pour cent de leur chiffre d’affaires annuel ou jusqu’à 20 millions d’euros (23,95 millions de dollars).

La Commission veut également interdire les systèmes de notation sociale comme celui utilisé par la Chine, qui est largement considéré comme une violation des droits humains fondamentaux. Sinon, tout ce qui peut nuire aux citoyens européens en manipulant leur opinion ou leurs décisions, ainsi que les IA pouvant être utilisées pour une surveillance de masse, seront classés comme “contraires aux valeurs de l’Union” et interdits. Il existe cependant quelques exceptions qui permettraient aux autorités de lutter contre la criminalité et le terrorisme en utilisant des systèmes de reconnaissance faciale.

Les deepfakes sont également dans la ligne de mire de la Commission, mais pas au même degré que d’autres utilisations de l’intelligence artificielle. La technologie peut apporter des modifications très convaincantes aux images et aux vidéos, mais les outils de détection existants sont loin d’être suffisamment sophistiqués pour capturer ce contenu et le signaler de manière appropriée ou le supprimer avant qu’il ne devienne viral.

Des entreprises privées telles que Facebook et Microsoft ont établi des partenariats avec des universités pour aider à améliorer ces outils, mais la Commission européenne ne veut pas interdire complètement les deepfakes. Au lieu de cela, il les autorisera tant qu’ils seront marqués comme «créés ou manipulés artificiellement». Toutefois, cette obligation “ne s’applique pas lorsque cela est nécessaire aux fins de la sauvegarde de la sécurité publique [and other prevailing public interests] ou pour l’exercice d’un droit ou d’une liberté légitime d’une personne et sous réserve des garanties appropriées des droits et libertés des tiers. “

D’après le projet qui a fui, il semble que l’UE ne pense pas que cette question justifie plus qu’une chaîne de petits textes accompagnant presque tous les deepfake. Certains peuvent affirmer qu’il existe de nombreuses utilisations légitimes de la technologie derrière les deepfakes, telles que le divertissement, le retour de personnalités mortes depuis longtemps ou la protection de la vie privée en ligne. Cependant, l’imprécision de la proposition soulève des questions sur ce qui sera fait pour éviter les abus, ainsi que les abus de la part des agences gouvernementales.

D’autre part, l’Europe entend saluer le développement de systèmes d’IA qui aident à fabrication, rendre le réseau énergétique plus efficace, voitures autonomes, chirurgie à distance, modélisation du changement climatique ou médicaments médicaux. En outre, le projet propose la création d’un comité européen de l’intelligence artificielle en tant que mécanisme dédié de surveillance des nouvelles règles.

Tout le monde ne pense pas que l’UE pourra demander à réglementer l’IA de manière aussi stricte. Au cours d’une entrevue, l’ancien PDG de Google, Eric Schmidt, qui préside aujourd’hui la Commission de sécurité nationale américaine sur l’intelligence artificielle (NSCAI), a déclaré que la stratégie européenne sur la gouvernance de l’IA ne réussira pas car elle “n’est tout simplement pas assez grande du côté des plates-formes pour concurrencer la Chine. seule.”

Le Centre européen de droit des organismes à but non lucratif, qui est l’un des contributeurs au Livre blanc de la Commission européenne sur l’IA, croit “L’approche de l’UE en matière de définition binaire du risque élevé par rapport au risque faible est au mieux bâclée et au pire dangereuse, car elle manque de contexte et de nuances nécessaires pour l’écosystème complexe d’IA déjà existant aujourd’hui.

Leave a Reply