Google a interdit la formation de systèmes d’IA pouvant être utilisés pour générer des deepfakes sur sa plate-forme Google Colaboratory. Le Actualisé conditions d’utilisation, tacheté au cours du week-end par BleepingComputer, inclut le travail lié aux deepfakes dans la liste des projets interdits.

Colaboratory, ou Colab en abrégé, est né d’un projet interne de Google Research à la fin de 2017. Il est conçu pour permettre à quiconque d’écrire et d’exécuter du code Python arbitraire via un navigateur Web, en particulier du code pour l’apprentissage automatique, l’éducation et l’analyse de données. À cette fin, Google fournit aux utilisateurs gratuits et payants de Colab un accès au matériel, y compris les GPU et les unités de traitement tensoriel (TPU) conçues sur mesure et accélérant l’IA de Google.

Ces dernières années, Colab est devenu la plate-forme de facto pour les démonstrations au sein de la communauté de recherche en IA. Il n’est pas rare que les chercheurs qui ont écrit du code incluent des liens vers des pages Colab sur ou à côté des référentiels GitHub hébergeant le code. Mais Google n’a pas toujours été très restrictif en ce qui concerne le contenu Colab, ouvrant potentiellement la porte aux acteurs qui souhaitent utiliser le service à des fins moins scrupuleuses.

Utilisateurs du générateur de deepfake open source DeepFaceLab a pris conscience des conditions d’utilisation ont changé la semaine dernière, lorsque plusieurs ont reçu un message d’erreur après avoir tenté d’exécuter DeepFaceLab dans Colab. L’avertissement disait : « Vous exécutez peut-être du code qui n’est pas autorisé, ce qui peut restreindre votre capacité à utiliser Colab à l’avenir. Veuillez noter les actions interdites spécifiées dans notre FAQ.

Tous les codes ne déclenchent pas l’avertissement. Ce journaliste a pu courir l’un des projets deepfake Colab les plus populaires sans problème, et Rapport des utilisateurs de Reddit qu’un autre projet de premier plan, FaceSwap, reste pleinement fonctionnel. Cela suggère que l’application est basée sur une liste noire – plutôt que sur des mots clés – et qu’il incombera à la communauté Colab de signaler le code qui enfreint la nouvelle règle.

Publicité

Archive.org données montre que Google a discrètement mis à jour les termes de Colab à la mi-mai. Les restrictions précédentes sur des choses comme l’exécution d’attaques par déni de service, le craquage de mot de passe et le téléchargement de torrents ont été laissées inchangées.

Les deepfakes se présentent sous de nombreuses formes, mais l’une des plus courantes sont les vidéos où le visage d’une personne a été collé de manière convaincante sur un autre visage. Contrairement aux emplois Photoshop bruts d’antan, les deepfakes générés par l’IA peuvent mieux correspondre aux mouvements du corps, aux microexpressions et aux tons de peau d’une personne que les images de synthèse produites par Hollywood dans certains cas.

Les deepfakes peuvent être inoffensifs – voire divertissants – comme d’innombrables vidéos virales ont montré. Mais ils sont de plus en plus utilisés par les pirates informatiques pour cibler les utilisateurs de médias sociaux dans extorsion et fraude Régimes. Plus néfaste, ils ont été exploités dans la propagande politique, par exemple pour créer Vidéos du président ukrainien Volodymyr Zelenskyy prononçant un discours sur la guerre en Ukraine qu’il n’a jamais prononcé.

De 2019 à 2021, le nombre de deepfakes en ligne est passé d’environ 14 000 à 145 000, selon à une seule source. Forrester Research estimatif en octobre 2019, les escroqueries à la fraude deepfake coûteraient 250 millions de dollars d’ici la fin de 2020.

Os Keyes, professeur adjoint à l’Université de Seattle, a applaudi la décision de Google d’interdire les projets deepfake de Colab. Mais il a noté qu’il faut faire plus du côté politique pour empêcher leur création et leur propagation.

« La façon dont cela a été fait met certainement en évidence la pauvreté de compter sur l’autosurveillance des entreprises », a déclaré Keyes à TechCrunch par courrier électronique. « La génération Deepfake ne devrait absolument pas être une forme de travail acceptable, eh bien, n’importe où, et c’est donc bien que Google ne se rende pas complice de cela … Mais l’interdiction ne se produit pas dans le vide – elle se produit dans un environnement où une réglementation réelle, responsable et réactive de ces types de plates-formes de développement (et d’entreprises) fait défaut.

D’autres, en particulier ceux qui ont bénéficié de l’approche de la gouvernance de Colab en matière de laisser-faire, pourraient ne pas être d’accord. Il y a des années, le laboratoire de recherche en IA OpenAI a d’abord refusé d’ouvrir un modèle générateur de langage, GPT-2, de peur qu’il ne soit mal utilisé. Ces groupes motivés comme EleutherAI tirer parti d’outils tels que Colab pour développer et publier leurs propres modèles générateurs de langage, ostensiblement pour la recherche.

Quand je rayon à Connor Leahy, un membre d’EleutherAI, l’année dernière, il a affirmé que le coLa mmoditisation des modèles d’IA fait partie d’une « tendance inévitable » à la baisse du prix de la production de « contenu numérique convaincant » qui ne déraillera pas, que le code soit publié ou non. Selon lui, les modèles et les outils d’IA devraient être largement disponibles afin que les utilisateurs « à faibles ressources », en particulier les universitaires, puissent avoir accès à de meilleures études et effectuer leurs propres recherches axées sur la sécurité.

Nous avons demandé à Google s’il prévoyait de faire des exceptions à la nouvelle politique de deepfake pour la recherche. Nous mettrons à jour cet article si nous avons des nouvelles.

Rate this post
Publicité
Article précédentLe contrôleur de New York demande un moratoire sur l’extraction de crypto-monnaie
Article suivantSony pense que les appareils photo des téléphones éclipseront les reflex numériques d’ici quelques années
Avatar De Violette Laurent
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici