Lancez une pierre et vous tomberez probablement sur un deepfake. La banalisation de l’IA générative a entraîné une explosion absolue du faux contenu en ligne : selon la plateforme de vérification d’identité Sumsub, le nombre de deepfakes a été multiplié par 4 dans le monde entre 2023 et 2024. En 2024, les deepfakes représentaient 7 % de toutes les fraudes, selon Sumsub, allant des usurpations d’identité et des prises de contrôle de comptes aux campagnes sophistiquées d’ingénierie sociale.
Dans ce qu’elle espère être une contribution significative à la lutte contre les deepfakes, Meta lance un outil permettant d’appliquer des filigranes imperceptibles aux clips vidéo générés par l’IA. Annoncé jeudi, l’outil, appelé Meta Video Seal, est disponible en open source et conçu pour être intégré dans les logiciels existants. L’outil rejoint les autres outils de filigrane de Meta, Watermark Anything (réédité aujourd’hui sous une licence permissive) et Audio Seal.
« Nous avons développé Video Seal pour fournir une solution de filigrane vidéo plus efficace, en particulier pour détecter les vidéos générées par l’IA et protéger l’originalité », a déclaré Pierre Fernandez, chercheur en IA chez Meta, dans une interview à TechCrunch.
Video Seal n’est pas la première technologie du genre. SynthID de DeepMind peut filigraner des vidéos, et Microsoft a ses propres méthodologies de filigrane vidéo.
Mais Fernandez affirme que de nombreuses approches existantes sont insuffisantes.
« Bien qu’il existe d’autres outils de filigrane, ils n’offrent pas une robustesse suffisante à la compression vidéo, qui est très répandue lors du partage de contenu sur les plateformes sociales ; n’étaient pas assez efficaces pour fonctionner à grande échelle ; n’étaient pas ouverts ou reproductibles ; ou étaient dérivés du filigrane d’image, ce qui n’est pas optimal pour les vidéos », a déclaré Fernandez.
En plus d’un filigrane, Video Seal peut ajouter un message caché aux vidéos qui peuvent être découvertes ultérieurement pour déterminer leurs origines. Meta affirme que Video Seal est résistant aux modifications courantes telles que le floutage et le recadrage, ainsi qu’aux algorithmes de compression populaires.
Fernandez admet que Video Seal présente certaines limites, principalement le compromis entre la sensibilité des filigranes de l’outil et leur résistance globale à la manipulation. Une compression importante et des modifications importantes peuvent modifier les filigranes ou les rendre irrécupérables, a-t-il ajouté.
Bien sûr, le plus gros problème auquel est confronté Video Seal est que les développeurs et l’industrie n’auront pas beaucoup de raisons de l’adopter, en particulier ceux qui utilisent déjà des solutions propriétaires. Pour y remédier, Meta lance un classement public, Meta Omni Seal Bench, dédié à la comparaison des performances de diverses méthodes de filigrane, et organise un atelier sur le filigrane cette année à l’ICLR, une conférence majeure sur l’IA.
« Nous espérons que de plus en plus de chercheurs et de développeurs en IA intégreront une forme de filigrane dans leur travail », a déclaré Fernandez. « Nous voulons collaborer avec l’industrie et la communauté universitaire pour progresser plus rapidement dans le domaine. »