Les deepfakes devenant de plus en plus sophistiqués, il est plus difficile que jamais de faire la différence entre ce qui est réel et ce qui ne l’est pas. Aujourd’hui, nous vous parlerons de quelques signes révélateurs qui vous aideront à détecter les vidéos deepfake. Avec ces outils en main, nous espérons que vous ne deviendrez pas une victime involontaire de fausses nouvelles et de théories du complot. Nous vous donnerons également une idée de la technologie deepfake, de son fonctionnement et de la manière dont elle est utilisée par les propagandistes et les théoriciens du complot pour répandre la désinformation et inciter les internautes à croire à des mensonges.
Détectez les vidéos Deepfake pour prévenir la désinformation et les théories du complot
Actuellement, les deepfakes sont largement utilisés par les amateurs amateurs pour transformer les visages de célébrités dans des vidéos pour adultes, et par des éléments politiques peu recommandables pour diffuser de fausses nouvelles. Cependant, les experts s’inquiètent des utilisations encore plus dangereuses de la technologie dans un avenir pas si lointain. Donc, ici, nous énumérons quelques-unes des façons de vous aider à détecter les vidéos deepfake pour vous éviter d’être victime de désinformation malveillante.
Que sont les vidéos Deepfake?
Combinant les termes « apprentissage profond » et « faux », les deepfakes font référence à des médias manipulés qui utilisent l’intelligence artificielle ou des techniques d’apprentissage profond pour créer de l’audio ou des vidéos qui déforment la réalité. La technologie utilise des réseaux de neurones artificiels pour créer des vidéos hyper-réalistes qui semblent montrer des gens en train de dire ou de faire quelque chose qu’ils n’ont pas fait dans la vraie vie. Les exemples les plus virulents incluent des vidéos transformées à l’aide de l’apprentissage automatique pour mettre des mots dans la bouche des politiciens. Ceci est utilisé pour semer la confusion sur leurs politiques et influencer les élections.
Une autre utilisation toxique des deepfakes consiste à transformer les visages de célébrités dans des vidéos pour adultes en violations massives de la vie privée et de la dignité. Les Deepfakes sont devenus un problème majeur au cours des dernières années et il ne fait que s’aggraver avec la disponibilité de matériel plus rapide et de logiciels plus incisifs. La technologie a gagné en notoriété ces derniers temps pour son utilisation intensive dans les vidéos pornographiques, les fausses nouvelles et les canulars élaborés.
Cependant, toutes les utilisations des deepfakes ne sont pas louches, comme le prouve la vidéo suivante qui a été créée par un universitaire du MIT, Alexander Amini, pour faire rire ses étudiants. Cela montre apparemment l’ancien président américain, Barack Obama, invitant des étudiants à se joindre à la conférence d’Amini sur l’apprentissage profond à l’université. Cependant, c’est un deepfake de bout en bout, comme le chercheur l’a clairement révélé sur sa chaîne YouTube.
Comment fonctionnent les Deepfakes?
Deepfakes s’appuie sur un réseau neuronal artificiel appelé «autoencoder», qui est utilisé pour apprendre des codages de données efficaces de manière non supervisée. Il est généralement utilisé pour la reconnaissance faciale, ainsi que pour trouver la signification sémantique des mots, etc. Dans le cas de vidéos deepfake, la technologie utilise d’abord un encodeur pour entraîner un réseau de neurones sur de nombreuses heures de séquences vidéo réelles de l’individu cible . Ensuite, un décodeur reconstruit une nouvelle image en utilisant des informations clés sur leurs traits du visage et leur posture corporelle. Cela aide l’algorithme à superposer les caractéristiques faciales et physiques de la cible à la personne dans la vidéo originale.
Une technologie bien connue à cet égard est une classe spécialisée d’algorithmes d’apprentissage en profondeur appelée réseau antagoniste génératif. Le GAN est souvent ajouté au décodeur pour des résultats plus précis. Un GAN entraîne le décodeur et un discriminateur de manière à ce que le premier crée de nouvelles images à partir du matériau source, tandis que le second détermine si l’image nouvellement créée correspond ou non au métrage réel. Cela amène le générateur à créer des images qui imitent extrêmement bien la réalité, car l’algorithme contradictoire détecte toutes les failles.
Cela rend les deepfakes extrêmement difficiles à combattre car ils évoluent constamment. Chaque fois qu’un défaut apparaît, il peut être corrigé automatiquement via l’apprentissage automatique. Comme il ne nécessite aucune intervention humaine, GAN est devenu le choix ultime pour la plupart des créateurs de deepfake. Cependant, la technologie est compliquée et prend beaucoup plus de temps et de données pour créer des compositions réalistes. De plus, si les GAN sont bons pour synthétiser des images, ils ont du mal à préserver la cohérence temporelle, ce qui signifie qu’ils ont besoin d’une intervention humaine pour conserver l’alignement des images d’une image à l’autre.
Que sont les fausses vidéos peu profondes?
Une fausse vidéo superficielle est une version altérée d’une vidéo réelle existante, créée pour projeter une réalité déformée. Cela inclut souvent l’édition sélective, la manipulation de la vitesse des discours ou des conversations des gens, et même la modification de la tonalité pour donner l’impression que quelqu’un est en colère, en état d’ébriété ou se moque d’un problème grave, alors que rien de tout cela n’est vrai.
Un cas récent notable comprend la célèbre vidéo modifiée de la présidente de la Chambre des États-Unis, Nancy Pelosi, dont la fausse vidéo superficielle a ralenti son discours pour la rendre en état d’ébriété. Ces vidéos sont différentes des deepfakes dans la mesure où ce sont de vraies vidéos manipulées à l’aide d’outils de montage vidéo traditionnels au lieu d’algorithmes d’IA.
Deepfakes: histoire et applications
Les techniques de manipulation de photos ont été inventées à la fin du 19e siècle. La technologie s’est constamment améliorée tout au long du XXe siècle avant que l’explosion de l’IA et des technologies d’apprentissage automatique en fasse un problème majeur pour les internautes du monde entier. Les techniques de manipulation vidéo infusées par l’IA ont été largement étudiées par les chercheurs depuis les années 1990, et de nombreuses méthodes ont depuis été adoptées par des cinéastes du monde entier.
L’un des exemples les plus connus d’utilisation de deepfakes dans l’industrie du divertissement grand public a été la résurrection du regretté acteur, Paul Walker, pour Rapide et furieux 7 en 2015. Cependant, alors qu’il a fallu plusieurs semaines à des dizaines d’experts pour une reconstitution crédible de Walker, il faut maintenant à la plupart des amateurs ayant très peu de connaissances en codage quelques heures (voire moins) pour créer de nouvelles vidéos deepfake en utilisant de nouvelles techniques et algorithmes. Le phénomène est entré dans la conscience publique pour la première fois en 2017 lorsqu’un Redditor a utilisé des deepfakes pour créer et publier de fausses vidéos porno de célébrités.
Dangers des vidéos Deepfake
Les vidéos Deepfake représentent un danger pour les utilisateurs sans méfiance qui peuvent être bombardés d’images d’un événement supposé déstabilisant, comme une guerre ou une attaque terroriste qui ne s’est jamais produite. Cela peut provoquer du ressentiment et du mécontentement dans la société, conduisant à une augmentation des attaques à motivation politique fondées sur l’identité raciale, religieuse et ethnique des personnes. La technologie pourrait également être utilisée pour propager des FUD (peur, incertitude et doute) sur les catastrophes naturelles, provoquant une panique généralisée. Les experts prédisent également que si elles ne sont pas contrôlées, ces vidéos peuvent provoquer des crises politiques profondes et même perturber les relations internationales.
Un autre problème majeur qui a déjà pris des proportions pandémiques est la menace contre les femmes sans méfiance. Souvent qualifiées de pornographie non consensuelle, les fausses vidéos pour adultes auraient représenté plus de 90% de tous les deepfakes sur Internet en 2019. Bien que cela ait commencé avec des vidéos transformées représentant des célébrités comme Gal Gadot et Alexandra Daddario, il s’est depuis étendu pour cibler les femmes ordinaires dans le cadre de fausses campagnes de vengeance pornographique.
Comment détecter les vidéos Deepfake?
Détecter des vidéos deepfake est un travail que même les experts trouvent souvent difficile sans les bons outils. Cependant, des chercheurs du Massachusetts Institute of Technology (MIT) ont proposé plusieurs suggestions qui peuvent aider les gens ordinaires à faire la différence entre de vraies vidéos et des deepfakes. Selon eux, il faut porter une attention particulière au visage tout en essayant de vérifier si une vidéo d’un sujet humain est réelle ou fausse. C’est parce que les manipulations deepfake haut de gamme sont presque toujours des transformations faciales.
Le les zones du visage auxquelles il faut porter la plus grande attention sont les joues et le front. La peau paraît-elle trop lisse ou trop ridée? L’âge de la peau est-il similaire à l’âge des cheveux et des yeux? « DeepFakes est souvent incongru sur certaines dimensions », disent les chercheurs. De même, les yeux et les sourcils peuvent également être des signes révélateurs pour les spotters expérimentés. C’est parce que selon les chercheurs, les ombres dans les vidéos deepfake n’apparaissent pas toujours aux endroits auxquels vous vous attendez. « Les DeepFakes ne parviennent souvent pas à représenter pleinement la physique naturelle d’une scène », ils disent.
Les poils du visage sont une autre caractéristique qui est un cadeau mort. Les Deepfakes peuvent ajouter ou supprimer la moustache, les pattes ou la barbe, mais ils échouent souvent à donner aux transformations des poils du visage un aspect entièrement naturel. Il en va de même pour les grains de beauté faciaux qui ne semblent souvent pas assez naturels dans les deepfakes. La taille et la couleur des lèvres pourraient également donner un indice sur la validité d’une vidéo. Le taux et la vitesse de clignotement pourraient également en dire long sur le fait qu’une vidéo est réelle ou fausse. Des clignotements anormalement fréquents ou peu fréquents peuvent indiquer le caractère profond d’une vidéo.
Selon les chercheurs du MIT, les deepfakes de haute qualité ne sont pas faciles à détecter, mais « Avec de la pratique, les gens peuvent développer leur intuition pour identifier ce qui est faux et ce qui est réel ». Les chercheurs ont également créé une page Web à part entière où les gens peuvent télécharger des vidéos et essayer de deviner si elles sont réelles ou fausses. Vous pouvez essayer vos compétences de détection deepfake sur le MIT Détecter les faux site Internet.
Deepfakes: prévention et action législative
Divers pays du monde entier tentent déjà de faire face au danger clair et actuel posé par les deepfakes infusés par l’IA. Alors que la Chine a interdit les vidéos deepfake en 2019, l’État américain de Californie a également introduit une législation similaire plus tôt dans la même année pour rendre les deepfakes politiques illégaux, interdisant la création ou la distribution de vidéos, d’images ou d’audio falsifiés de politiciens dans les 60 jours suivant une élection. . Depuis lors, d’autres États américains, dont le Texas et la Virginie, ont également criminalisé le deepfake porn. En décembre 2019, le président Trump a signé la première loi fédérale du pays pour lutter contre les deepfakes dans le cadre de la loi sur l’autorisation de la défense nationale, 2020.
Pendant ce temps, en Inde, il n’y a pas de lois spécifiques sur les deepfake media. En fait, les lois liées aux algorithmes d’intelligence artificielle sont au mieux fragmentaires. L’une des utilisations les plus remarquables des deepfakes dans le pays a été observée lors des élections de 2020 à Delhi, lorsque la cellule informatique du BJP a publié une vidéo de campagne officielle censée montrer son principal candidat ministériel, Manoj Tiwari, faisant appel aux électeurs en hindi, en haaryanvi et en anglais. . Le problème est que seule la vidéo en hindi était réelle, tandis que les deux autres étaient des clips deepfake fabriqués à l’aide de la vidéo originale pour atteindre un plus grand nombre d’électeurs.
Empêcher la propagation de la désinformation en repérant les vidéos Deepfake
Autrefois réservée aux productions hollywoodiennes de plusieurs millions de dollars et aux agences et organisations parrainées par l’État, les deepfakes se sont de plus en plus démocratisés ces derniers temps. Cela permet aux internautes réguliers de créer des deepfakes à l’aide d’applications et de sites Web deepfake. Avec l’augmentation astronomique des deepfakes ces dernières années, être capable de les détecter est plus important que jamais.
Nous espérons que les informations présentées ici vous ont aidé à vous donner une idée plus globale de la technologie, des menaces qu’elle représente et des signes à surveiller pour mieux détecter les vidéos deepfake à l’avenir. Alors, avez-vous déjà été victime de deepfakes de groupes d’action politique peu recommandables ou de théoriciens du complot? Faites-nous savoir dans les commentaires ci-dessous.