La police des Émirats arabes unis enquête sur un vol de banque dans lequel des criminels auraient utilisé une intelligence artificielle (IA) profonde pour cloner la voix du directeur de l’entreprise et convaincre le directeur de la banque de transférer 35 millions de dollars.
À mesure que la technologie deepfake évolue pour offrir de nouvelles opportunités, les menaces qui en découlent évoluent également. Alors que certains d’entre nous pensaient que les pertes d’emplois induites par l’automatisation seraient la plus grande préoccupation dans une société soutenue par l’IA, une nouvelle vague de défis est apparue. La reconnaissance faciale, les deepfakes audio et vidéo (créés en manipulant les voix et les apparences) lorsqu’ils sont abusés peuvent constituer une menace sérieuse pour la vie privée et la sécurité, comme on l’a vu dans les derniers cas de fraude.
Schéma élaboré de voix grave
Début 2020 à Hong Kong, un directeur de banque a reçu ce qu’il croyait être un appel vocal du directeur d’une entreprise dont il connaissait la voix, quelqu’un à qui il avait parlé à plusieurs reprises. Ce directeur a appelé pour partager une bonne nouvelle et demander une faveur – que le directeur autorise des transferts d’une valeur de 35 millions de dollars pour permettre l’acquisition d’une entreprise.
Le directeur a affirmé qu’il avait engagé un avocat nommé Martin Zelner pour coordonner l’acquisition. Le directeur de la banque pouvait voir les e-mails du directeur et de Zelner dans sa boîte de réception, confirmant les montants exacts des transferts. Ignorant la technologie de la voix profonde et avec une confirmation écrite devant lui, il a agi en conséquence. Il a transféré le montant total sur plusieurs comptes à travers les États-Unis et, en un clin d’œil, 35 millions de dollars ont disparu. Les enquêteurs des Émirats arabes unis à la tête de l’enquête pensent qu’au moins 17 personnes ont été impliquées dans ce stratagème élaboré.
Nous sommes actuellement à la veille d’acteurs malveillants qui transfèrent leur expertise et leurs ressources à l’utilisation des dernières technologies pour manipuler des personnes qui ignorent innocemment les domaines de la technologie deepfake et même leur existence.
La première tentative signalée de ce type de fraude a eu lieu au Royaume-Uni en 2019, lorsque des fraudeurs a tenté de voler 240 000 $ à une entreprise énergétique en imitant la voix du PDG avec l’aide de l’IA. Contrairement à Hong Kong, cette tentative a échoué car elle a été identifiée avec succès comme une fraude à temps.
L’IA a traversé l’étrange vallée
Si vous trouvez le schéma de Hong Kong peu convaincant et que vous croyez en votre capacité à distinguer une voix ou un visage humain de celui créé par l’IA, une nouvelle étude publié dans les Actes de l’Académie nationale des sciences est là pour briser vos croyances. L’étude, menée par Hany Farid, professeur à l’Université de Californie à Berkeley et Sophie J. Nightingale, maître de conférences à l’Université de Lancaster, en Angleterre, suggère que nous sommes à un stade où les humains ne peuvent plus faire la différence entre le vrai et des visages générés par l’IA.
Les profils en ligne frauduleux en sont un bon exemple. Photos de passeport frauduleuses. Pourtant, les photos ont un usage néfaste… Mais là où les choses vont vraiment devenir épouvantables, c’est avec les vidéos et l’audio.
Selon la recherche, nous aurions une chance légèrement meilleure de choisir avec précision entre une image réelle et une image synthétique si nous lançions une pièce. Les participants à l’étude ont été capables de reconnaître de fausses images moins de la moitié du temps. Pour être précis, le score moyen était de 48,2 %. Nous pouvons affirmer avec certitude que les créations contemporaines de l’IA ont traversé l’étrange vallée.
La partie la plus effrayante, cependant, est la section de la recherche montrant que les gens ont une tendance 7,7% plus élevée à faire confiance aux images générées par l’IA qu’aux vrais visages. Lorsqu’on leur a demandé d’évaluer un ensemble de visages réels et fictifs en fonction du sentiment de fiabilité, les participants ont trouvé que les visages générés par l’IA étaient 7,7 % plus fiables que les vrais. Cette découverte jette un nouvel éclairage sur l’idée fausse « ça ne pourrait jamais m’arriver » qui peut être très dangereuse dans le monde en constante évolution d’aujourd’hui.
Nous avons été vraiment surpris par ce résultat car notre motivation était de trouver une voie indirecte pour améliorer les performances, et nous pensions que la confiance serait que – avec de vrais visages suscitant ce sentiment plus digne de confiance.
Protège toi
Aussi troublantes que soient ces découvertes, il existe encore des habitudes que nous pouvons pratiquer pour minimiser nos chances d’être victimes de la technologie deepfake et d’autres escroqueries :
- Continuez à vous rappeler que les avatars sont parmi nous et largement présents – Tout ce que vous voyez en ligne n’est pas réel. En fait, les escroqueries et les attaques de phishing se multiplient de jour en jour, et il devient presque impossible de les discerner à l’œil nu.
- Obtenez toute l’aide dont vous avez besoin – il existe d’excellentes solutions de sécurité avancées, comme Chercher, qui offrent une protection contre les logiciels malveillants et la navigation sécurisée. Ils analyseront tous les liens sur lesquels vous cliquez dans les médias sociaux, les messages texte et en ligne, puis bloqueront les menaces avant qu’elles ne puissent vous nuire.
- Faites toujours un effort supplémentaire pour identifier une entreprise ou un individu qui vous pousse à faire quelque chose ou à poser des questions sur des données sensibles. Le sentiment d’urgence est une astuce courante pour convaincre les gens de donner rapidement des informations. Rendez-vous directement à la source (passez quelques coups de téléphone, rendez-vous en personne si nécessaire) pour valider si la demande que vous avez reçue est authentique. Ne partagez jamais d’informations numériquement si vous ne pouvez pas valider leur identité avec une confiance à 100 %.