À l'approche des élections générales, vous avez peut-être repéré des vidéos Minecraft mettant en vedette « Nigel Farage » et « Sir Keir Starmer » – bien que hilarantes, il s'agissait de vidéos « deepfake » entièrement irréelles, et les experts s'en inquiètent
En avance sur le Élection généralevous avez peut-être remarqué une étrange série de vidéos Minecraft circulant sur Internet. De manière hilarante, celles-ci présentaient «Nigel Farage » et nouveau Premier ministre « Monsieur Keir Starmer » semblant se faire des farces les uns aux autres dans le jeu sandbox populaire.
Dans une vidéo intitulé « Nigel chagrine la base Minecraft de Kiers », le chef du Parti réformiste est montré tombant sur la maison virtuelle de Starmer tout en plaisantant : « Il a clairement augmenté son budget de défense et s'est construit un sacré grand château… Je pense que j'ai eu l'idée parfaite, que dirais-tu de placer du TNT sous son trône et de le faire exploser quand il s'assoira dessus. »
Peu après, la vidéo se tourne vers le point de vue de l'actuel Premier ministre, qui semble réagir au piège qui se déroule sous ses yeux. Il ajoute : « Mais qu'est-ce qui vient de se passer ? Je parie que c'est Rishi qui pense que j'ai fait exploser sa foutue base. » Une vidéo ultérieure montre également Starmer en train de se venger de Farage.
Bien que certains commentateurs aient d'abord cru que les clips étaient authentiques, il s'agit en fait de vidéos « deepfake » entièrement fabriquées, créées à l'aide de PodcastPilot, un générateur de vidéos IA.
Il est clair que ces applications ont été créées avec une touche d'humour, l'application étant spécifiquement conçue pour créer un contenu « viral hilarant ». Mais cela pose une question plutôt troublante, à la Black Mirror : comment pouvons-nous distinguer les vrais et les faux médias en ligne ?
Le professeur Siwei Lyu, de l'Université de Buffalo, est un chercheur de premier plan sur ce sujet. Bien que ce domaine reste très étudié, il encourage les internautes à faire attention à certains signes « faux » classiques lorsqu'ils naviguent sur Internet.
« La meilleure défense est le bon sens », a-t-il déclaré à The Miroir« Quelle est la probabilité que cela se produise dans la vie réelle ? Et une fois que nous aurons des soupçons, [it’s important] pour vérifier si c'est le cas. Vérifiez d'autres sources pour voir si cela s'est produit dans la réalité monde.
« [Ask yourself] Qui partage l'information ? Qui sont les personnes derrière les comptes sociaux qui partagent cette information ? Ont-elles été fiables dans le passé et ont-elles de bons antécédents en matière de partage d'informations ? Le bon sens [and] Esprit critique. »
Les deepfakes sont des images, des vidéos ou des enregistrements manipulés numériquement pour dénaturer une personne, en faisant croire qu'elle a dit ou fait quelque chose qu'elle n'a pas fait. Si les vidéos Minecraft de Farage sont un exemple plus humoristique, elles peuvent prendre une forme sinistre et politiquement dangereuse.
En 2022, une vidéo deepfake en ligne semblait montrer le président ukrainien Zelensky parlant de se rendre à Russieselon le BBC. Et juste le mois dernier, Donald Trump s'est vu dans un deepfake si convaincant qu'il a même commencé à se demander si c'était réel, selon TEMPS.
Outre les signaux d'alarme les plus évidents, les humains et les détecteurs de pointe peuvent examiner les vidéos elles-mêmes, ce qui peut contenir peu de «œufs de Pâques » qui pointent vers leurs racines dans l'IA.
Le professeur Lyu poursuit : « Les algorithmes peuvent généralement détecter quelque chose de moins évident et probablement invisible aux yeux ou aux oreilles. [Think of it like] une radiographie… les médecins détectent des problèmes invisibles à l'œil nu.
« [Technologies] ne donnez pas de réponses concrètes, [they] donnent généralement une probabilité que quelque chose soit une IA – généralement pas 100 %, mais de l'ordre de 80 à 90 %.
« En examinant les détails des médias eux-mêmes, on peut relever plusieurs choses. Recherchez les endroits où l'IA aurait pu commettre toutes ces erreurs : les mains, les visages, les ombres, les sources de lumière. Ce sont les choses sur lesquelles l'IA fait généralement beaucoup d'erreurs.
« S'il s'agit d'une vidéo, regardez le mouvement des lèvres pour voir s'ils sont synchronisés avec la voix parlée… [if not] c'est un signe que cela pourrait être créé par l'IA.
Jake Moore, conseiller mondial en cybersécurité chez ESET, explique que des images de mauvaise qualité et des contours flous peuvent également signaler que quelque chose n'est pas réel. Il a déclaré au Mirror : « Il existe quelques signes permettant de repérer les deepfakes, tels que des contours flous, des problèmes de synchronisation et des mouvements étranges qui pourraient attirer votre attention.
« Alors que la technologie deepfake devient rapidement une bête inévitable à part entière avec l'accès à de meilleurs algorithmes et à des deepfakes en temps réel, les gens doivent être continuellement rappelés à son potentiel d'influence. »
À l'heure actuelle, le professeur Lyu estime que de nombreux deepfakes en ligne sont créés par des « amateurs » utilisant des outils de saisie de texte de moindre qualité, largement disponibles, mais il surveille cette situation de très près.
Le professeur Lyu a poursuivi : « La plupart des deepfakes que j'ai vus se situent à la frontière entre des blagues anodines et de véritables désinformations. Si quelqu'un utilise ces deepfakes, le but n'est pas d'influencer de manière significative l'opinion, mais de pousser subtilement l'opinion publique.
« La génération de technologie évoluera avec le temps, c'est certain… Je constate de plus en plus d'inquiétudes à différents niveaux – gouvernements, médias et grand public – quant au danger potentiel des deepfakes.
Parallèlement, Moore a ajouté : « L'ingénierie sociale a longtemps donné aux attaquants un avantage en matière de manipulation, mais maintenant que la technologie peut se faire passer pour n'importe qui, le processus de vérification est constamment remis en question.
« Les entreprises technologiques travaillent ensemble et les gouvernements tentent d’améliorer la réglementation et la capacité à détecter les contenus générés par l’IA, mais jusqu’à présent, tout dépendra de l’intelligence humaine. »
Si vous pensez avoir repéré un deepfake nuisible, vous pouvez le signaler à des sites comme Snopes.com. Des experts peuvent alors enquêter sur la source du média avant de publier leurs conclusions.
Dans le contexte de la montée des deepfakes politiques, un porte-parole du gouvernement britannique a déclaré au Mirror : « Le potentiel des deepfakes à nuire aux individus, à saper la démocratie et à accroître la fraude est évident. Ce nouveau gouvernement s'est engagé à créer un monde en ligne plus sûr et à garantir que les technologies nouvelles et existantes soient développées et déployées en toute Sécurité. »
Le Mirror a également contacté le Parti réformiste pour obtenir ses commentaires.
Qu'en pensez-vous ? Faites-le nous savoir dans la section commentaires ci-dessous