WTF ? ! Avec l’avancement de la capacité de l’intelligence artificielle à recréer des versions numériques de personnes et à simuler leur voix, c’est-à-dire des deepfakes, on s’inquiète de l’utilisation de la technologie à des fins néfastes, comme mettre des mots dans la bouche des politiciens. En ce moment, cependant, il est utilisé pour créer un faux Joe Rogan qui vend des pilules pour le pénis.

Comme pour les IA génératives telles que ChatGPT, les deepfakes font partie de ces technologies qui ont le potentiel de faire des choses à la fois formidables et terribles. Nous avons déjà vu ses pires côtés, les plus célèbres étant des clips porno qui sont montés de manière à ce qu’ils semblent présenter des actrices célèbres. Il y avait aussi la fausse vidéo du président ukrainien Volodymyr Zelensky se rendre.

À mesure que la technologie derrière la simulation vocale s’améliore également, les deepfakes deviennent de plus en plus convaincants. Une de ces vidéos qui trompe les gens est actuellement diffusée sur TikTok. Il a été mis en évidence par Coffeezilla, l’enquêteur qui a exposé le jeu vidéo basé sur la cryptographie de Logan Paul, CryptoZoo.

Dans le clip, le faux Rogan parle d’un produit stimulant la testostérone appelé Alpha Grind. Le jeu affirme que ces tablettes sont placées en haut des résultats lorsque vous tapez « stimulateur de libido pour hommes » sur Amazon, et c’est « parce que les gars se rendent compte que cela augmente littéralement la taille et fait une différence là-bas ».

La vidéo a trompé beaucoup de gens en leur faisant croire que c’était réel. Andrew D. Huberman, un véritable invité de l’émission de Rogan qui apparaît dans le clip, a dû confirmer que la conversation entre lui et Rogan avait été truquée et qu’ils parlaient de quelque chose de très différent.

Publicité

Ceux qui ont déjà entendu Rogan remarqueront peut-être que sa voix sonne un peu différemment dans le clip, et il y a des sections où la synchronisation labiale est désactivée, mais cela convainc toujours beaucoup de gens.

Les vidéos Deepfake ne feront que devenir plus réalistes à mesure que des outils d’IA comme Vall-E de Microsoft, qui peuvent imiter une voix humaine après avoir entendu un échantillon de trois secondes, sont développés. C’est peut-être une bonne nouvelle pour les cinéphiles, mais c’est une mauvaise nouvelle pour les doubleurs et ceux qui se font facilement escroquer.

Rate this post
Publicité
Article précédentThe Misfit of Demon King Academy II retarde Ep: 7 et au-delà
Article suivantLogiciel malveillant Clipper trouvé dans plus de 450 packages PyPI !
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici