Une patate chaude : Les deepfakes s’appuient sur l’IA pour créer des images ou des vidéos très convaincantes de quelqu’un disant ou faisant quelque chose qu’il n’a jamais dit ou fait. Certains exemples produits à des fins de divertissement équivalent à un plaisir inoffensif, mais d’autres utilisent la technologie à des fins néfastes.
Dans une récente annonce d’intérêt public du Internet Crime Complaint Center (IC3) du FBI, l’agence averti d’une augmentation du nombre de plaintes reçues concernant l’utilisation de deepfakes et d’informations personnelles volées pour postuler à des emplois à distance et à domicile.
Bien que les deepfakes aient parcouru un long chemin en un laps de temps relativement court, il existe encore des aspérités que les employeurs attentifs peuvent parfois relever. Lors d’entretiens en ligne en direct, par exemple, les actions et les mouvements des lèvres de la personne interrogée ne sont pas toujours synchronisés avec l’audio de la voix entendue. De plus, des actions comme tousser ou éternuer sont un autre indicateur que quelque chose de louche se passe car elles ne correspondent pas à ce qui est vu.
Le FBI a déclaré que les postes demandés dans les rapports comprenaient la technologie de l’information et la programmation informatique, les bases de données et les fonctions liées aux logiciels. Certains de ces postes accorderaient au candidat l’accès aux informations personnellement identifiables des clients, aux données financières de l’entreprise, aux bases de données informatiques et / ou aux informations exclusives, qui pourraient toutes être précieuses sur le marché noir.
Les entreprises ou les victimes de ce type d’activité sont encouragées à le signaler au FBI Division IC3.
Crédit image : Anna Shvets