WTF ? ! Si vous interviewez quelqu’un par appel vidéo et remarquez qu’il éternue ou tousse sans bouger le visage, vous interagissez probablement avec un deepfake. Le FBI met en garde contre une augmentation du nombre de criminels utilisant cette méthode, combinée à des informations personnelles identifiables (PII) volées, lors d’entretiens pour des emplois technologiques permettant d’accéder à des données clients sensibles.

Les deepfakes existent depuis quelques années maintenant. Ils étaient à l’origine utilisés pour placer les visages de célébrités sur le corps d’actrices adultes afin de créer un type de porno généré par l’IA, qui est interdit sur la plupart des plateformes. Le processus est devenu de plus en plus avancé depuis lors, conduisant à des lois conçues pour protéger contre les deepfakes politiques et pornographiques et les entreprises se précipitant pour trouver des moyens de les identifier.

La Attention publié par le FBI indique que de plus en plus de plaintes sont reçues concernant l’utilisation de deepfakes dans les entretiens pour des postes à distance ou de travail à domicile, y compris ceux pour les technologies de l’information et la programmation informatique, les bases de données et les emplois liés aux logiciels.

Les deepfakes incluent une image vidéo ou un enregistrement conçu pour présenter quelqu’un comme un demandeur d’emploi. Pour se rendre plus convaincants, ces criminels volent souvent les PII de ceux qu’ils imitent pour passer les contrôles d’identité effectués par l’employeur potentiel.

Publicité
YouTube video

Le FBI écrit que les actions et les mouvements des lèvres ne se coordonnent souvent pas avec l’audio de la personne qui parle. « Parfois, des actions telles que tousser, éternuer ou d’autres actions auditives ne sont pas alignées sur ce qui est présenté visuellement », a déclaré l’agence.

L’objectif ultime est d’être embauché pour le poste à distance, permettant aux imitateurs d’accéder aux informations personnelles des clients, aux données financières, aux bases de données informatiques de l’entreprise et aux informations exclusives, qui sont ensuite volées.

Alors que les deepfakes ont été utilisés pour redonner vie à de vieilles photos et ramener un jeune Mark Hamill à l’écran, ils ont également été utilisés à de nombreuses fins peu recommandables. James Cameron est particulièrement inquiet ; le réalisateur pense que Skynet pourrait anéantir l’humanité en utilisant une supercherie profonde.

Titre : Mihai Surdu

Rate this post
Publicité
Article précédentLa forte croissance du PIB américain et mondial renforce le besoin de la CBDC, la rendant plus immédiate
Article suivantLe nouveau logiciel malveillant YTStealer vise à détourner les comptes des créateurs de contenu YouTube
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici