Un groupe bipartite de sénateurs a présenté un nouveau projet de loi visant à protéger les artistes, les auteurs-compositeurs et les journalistes contre l’utilisation de leur contenu pour former des modèles d’IA ou générer du contenu d’IA sans leur consentement. Le projet de loi, appelé le Loi sur la protection de l’origine et de l’intégrité du contenu des médias modifiés et deepfakeds (COCOPIE Act), vise également à faciliter l’identification des contenus générés par l’IA et à lutter contre l’essor des deepfakes nuisibles.

La présidente de la commission sénatoriale du commerce, Maria Cantwell (D-WA), le membre du groupe de travail sénatorial sur l’IA, Martin Heinrich (D-NM), et la membre de la commission du commerce, Marsha Blackburn (R-TN), ont rédigé le projet de loi.

Le projet de loi obligerait les entreprises qui développent des outils d’IA à permettre aux utilisateurs de joindre des informations sur la provenance du contenu à leur contenu dans un délai de deux ans. Les informations sur la provenance du contenu font référence à des informations lisibles par machine qui documentent l’origine du contenu numérique, comme les photos et les articles de presse. Selon le projet de loi, les œuvres avec des informations sur la provenance du contenu ne pourraient pas être utilisées pour former des modèles d’IA ou générer du contenu d’IA.

Le projet de loi est conçu pour donner aux propriétaires de contenu, tels que les journalistes, les journaux, les artistes, les auteurs-compositeurs et autres, la possibilité de protéger leur travail, tout en fixant les conditions d’utilisation de leur contenu, y compris la rémunération. Il leur donne également le droit de poursuivre en justice les plateformes qui utilisent leur contenu sans leur autorisation ou qui ont falsifié les informations de provenance du contenu.

La loi COCOPIE exigerait que le National Institute of Standards and Technology (NIST) crée des directives et des normes pour les informations sur la provenance du contenu, le filigrane et la détection du contenu synthétique.

Publicité

Ces normes seraient utilisées pour déterminer si le contenu a été généré ou modifié par l’IA, ainsi que l’origine du contenu de l’IA.

« La loi bipartisane COCOPIE que j’ai présentée avec les sénateurs Blackburn et Heinrich apportera une transparence indispensable autour du contenu généré par l’IA », a déclaré le sénateur Cantwell dans un communiqué de presse. « La loi COCOPIE redonnera également aux créateurs, y compris aux journalistes, aux artistes et aux musiciens locaux, le contrôle de leur contenu grâce à un processus de provenance et de filigrane qui, à mon avis, est très nécessaire. »

Le projet de loi est soutenu par plusieurs groupes d’artistes, dont SAG-AFTRA, la National Music Publishers’ Association, le Seattle Times, la Songwriters Guild of America, l’Artist Rights Alliance, entre autres.

L’introduction de la loi COCOPIE intervient alors qu’il y a eu un afflux de projets de loi liés à l’IA alors que les législateurs cherchent à réglementer la technologie.

Le mois dernier, le sénateur Ted Cruz déposé un projet de loi cela tiendrait les entreprises de médias sociaux comme X et Instagram responsables de la suppression et de la surveillance du porno deepfake. Le Loi sur le retrait est survenue au milieu de l’augmentation des photos pornographiques générées par l’IA de célébrités comme Taylor Swift qui ont fait le tour des médias sociaux.

En mai, le chef de la majorité au Sénat, Chuck Schumer, a présenté Une « feuille de route » pour s’attaquer à l’IA qui stimulerait le financement de l’innovation en IA, s’attaquer à l’utilisation des deepfakes dans les élections, utiliser l’IA pour renforcer la Sécurité nationale et plus encore.

De plus, Axios a rapporté plus tôt cette année, les législatures des États introduisent 50 projets de loi liés à l’IA par semaine. Selon le rapport, il y avait 407 projets de loi liés à l’IA dans plus de 40 États en février, ce qui représente une forte augmentation par rapport aux 67 projets de loi connexes introduits il y a un an.

Dans le contexte de l’émergence et de la popularité des outils d’IA, le président Joe Biden a publié un décret en octobre dernier pour établir des normes en matière de sûreté et de sécurité de l’IA. Les normes exigeraient que les développeurs de systèmes d’IA partagent les résultats de leurs tests de sécurité et d’autres informations essentielles avec le gouvernement avant de déployer leurs systèmes auprès du public. Il convient de noter que l’ancien président Donald Trump a promis d’abroger le décret s’il est réélu.

5/5 - (380 votes)
Publicité
Article précédentDrops spéciaux – Juillet 2024 – ÉVÉNEMENT
Article suivantLes joueurs de Fortnite accusent Epic Games d'avoir autorisé les tricheurs pendant le tournoi

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici