Par Leo Kelion
Éditeur du bureau technologique

Graphique du détecteur Deepfake

droit d’auteur d’imageGetty Images

Microsoft a développé un outil pour repérer les deepfakes – des images manipulées par ordinateur dans lesquelles la ressemblance d’une personne a été utilisée pour remplacer celle d’une autre.

Le logiciel analyse les photos et les vidéos pour donner un score de confiance quant à savoir si le matériel est susceptible d’avoir été créé artificiellement.

La firme espère que la technologie aidera à «combattre la désinformation».

Un expert a déclaré qu’il risquait de devenir rapidement obsolète en raison du rythme auquel la technologie deepfake progressait.

Pour résoudre ce problème, Microsoft a également annoncé un système distinct pour aider les producteurs de contenu à ajouter du code caché à leurs images afin que toute modification ultérieure puisse être facilement signalée.

Trouver des échanges de visage

Deepfakes a pris de l’importance au début de 2018 après qu’un développeur a adapté des techniques d’intelligence artificielle de pointe pour créer un logiciel qui permutait le visage d’une personne pour une autre.

Le processus a fonctionné en alimentant un ordinateur de nombreuses images fixes d’une personne et de séquences vidéo d’une autre. Le logiciel l’a ensuite utilisé pour générer une nouvelle vidéo mettant en vedette le visage du premier à la place du second, avec des expressions correspondantes, une synchronisation labiale et d’autres mouvements.

Depuis lors, le processus a été simplifié – en l’ouvrant à plus d’utilisateurs – et nécessite désormais moins de photos pour fonctionner.

Certaines applications existent qui ne nécessitent qu’un seul selfie pour remplacer le visage d’une star de cinéma par celui de l’utilisateur dans des clips de films hollywoodiens.

Mais il y a des inquiétudes que le processus puisse également être abusé pour créer des clips trompeurs, dans lesquels une personnalité importante est amenée à dire ou à agir d’une manière qui ne s’est jamais produite, à des fins politiques ou autres.

Au début de cette année, Facebook a interdit les deepfakes qui pourraient induire les utilisateurs en erreur

pensant qu’un sujet avait dit quelque chose qu’il n’avait pas. Twitter et TikTok ont ​​ensuite suivi avec des règles similaires.

L’outil Video Authenticator de Microsoft fonctionne en essayant de détecter les signes révélateurs qu’une image a été générée artificiellement, ce qui pourrait être invisible à l’œil humain.

droit d’auteur d’imageMicrosoft
légendeL’outil Video Authenticator donne un score de confiance basé sur un pourcentage sur la probabilité qu’un clip soit un deepfake

Celles-ci incluent des pixels subtils ou en niveaux de gris à la limite de l’endroit où la version créée par ordinateur du visage de la cible a été fusionnée avec celle du corps du sujet d’origine.

Pour le construire, l’entreprise a appliqué ses propres techniques d’apprentissage automatique à un ensemble de données public d’environ 1000 séquences vidéo approfondies puis testé le modèle résultant par rapport à un pair plus grande base de données d’échange de visages créée par Facebook.

Un conseiller en technologie a noté que les vidéos deepfake restent relativement rares pour le moment et que la plupart des clips manipulés impliquent des rééditions plus grossières effectuées par un humain. Malgré cela, elle a salué l’intervention de Microsoft.

«La seule utilisation vraiment répandue que nous ayons vue jusqu’à présent est la pornographie non consensuelle contre les femmes», a commenté Nina Schick, auteur du livre Deep Fakes and the Infocalypse.

«Mais les médias synthétiques devraient devenir omniprésents dans environ trois à cinq ans, nous devons donc développer ces outils à l’avenir.

“Cependant, à mesure que les capacités de détection s’améliorent, la capacité de génération le sera également – Microsoft ne pourra jamais sortir un seul outil capable de détecter toutes sortes de manipulations vidéo.”

Nouvelles empreintes digitales

Microsoft a reconnu ce défi.

À court terme, il a déclaré qu’il espérait que son produit existant pourrait aider à identifier les deepfakes avant les élections américaines de novembre.

Plutôt que de le rendre public, il ne fait que l’offrir via une organisation tierce, qui à son tour le fournira gratuitement aux éditeurs de nouvelles et aux campagnes politiques.

La raison en est d’empêcher les mauvais acteurs de s’emparer du code et de l’utiliser pour apprendre à leurs générateurs deepfake comment l’éviter.

Pour relever le défi à plus long terme, Microsoft s’est associé à la BBC, entre autres organisations médiatiques, pour soutenir Project Origin, une initiative visant à «marquer» le contenu en ligne d’une manière qui permet de repérer automatiquement toute manipulation du matériel.

L’entreprise technologique américaine le fera via un processus en deux parties.

Premièrement, il a créé un outil Internet pour ajouter une empreinte numérique – sous la forme de certificats et de valeurs de «hachage» – aux métadonnées des médias.

Deuxièmement, il a créé un lecteur, pour vérifier toute preuve que les empreintes digitales ont été affectées par des modifications tierces du contenu.

Microsoft affirme que les utilisateurs pourront alors utiliser le lecteur sous la forme d’une extension de navigateur pour vérifier qu’un fichier est authentique et vérifier qui l’a produit.

La manipulation de photos et de vidéos est cruciale pour la diffusion d’une désinformation souvent assez convaincante sur les réseaux sociaux.

Mais pour le moment, une technologie complexe ou profonde n’est pas toujours nécessaire. La technologie d’édition simple est le plus souvent l’option privilégiée.

C’était le cas d’une récente vidéo manipulée du candidat présidentiel américain Joe Biden, qui a été visionnée plus de deux millions de fois sur les réseaux sociaux.

Le clip montre une interview télévisée au cours de laquelle Biden semblait s’endormir. Mais c’était faux – le clip de l’animateur provenait d’une interview télévisée différente et des effets de ronflement avaient été ajoutés.

Les photos générées par ordinateur des visages des personnes, en revanche, sont déjà devenues la marque de fabrique des campagnes d’interférence étrangères sophistiquées, utilisées pour rendre les faux comptes plus authentiques.

Une chose est sûre, plus de moyens de repérer les médias qui ont été manipulés ou modifiés n’est pas une mauvaise chose dans la lutte contre la désinformation en ligne.

Rubriques connexes

  • Microsoft

  • Deepfakes

Leave a Reply