La police des Émirats arabes unis enquête sur un vol de banque dans lequel des criminels auraient utilisé une intelligence artificielle (IA) profonde pour cloner la voix du directeur de l’entreprise et convaincre le directeur de la banque de transférer 35 millions de dollars.

À mesure que la technologie deepfake évolue pour offrir de nouvelles opportunités, les menaces qui en découlent évoluent également. Alors que certains d’entre nous pensaient que les pertes d’emplois induites par l’automatisation seraient la plus grande préoccupation dans une société soutenue par l’IA, une nouvelle vague de défis est apparue. La reconnaissance faciale, les deepfakes audio et vidéo (créés en manipulant les voix et les apparences) lorsqu’ils sont abusés peuvent constituer une menace sérieuse pour la vie privée et la sécurité, comme on l’a vu dans les derniers cas de fraude.

Schéma élaboré de voix grave

Début 2020 à Hong Kong, un directeur de banque a reçu ce qu’il croyait être un appel vocal du directeur d’une entreprise dont il connaissait la voix, quelqu’un à qui il avait parlé à plusieurs reprises. Ce directeur a appelé pour partager une bonne nouvelle et demander une faveur – que le directeur autorise des transferts d’une valeur de 35 millions de dollars pour permettre l’acquisition d’une entreprise.

Le directeur a affirmé qu’il avait engagé un avocat nommé Martin Zelner pour coordonner l’acquisition. Le directeur de la banque pouvait voir les e-mails du directeur et de Zelner dans sa boîte de réception, confirmant les montants exacts des transferts. Ignorant la technologie de la voix profonde et avec une confirmation écrite devant lui, il a agi en conséquence. Il a transféré le montant total sur plusieurs comptes à travers les États-Unis et, en un clin d’œil, 35 millions de dollars ont disparu. Les enquêteurs des Émirats arabes unis à la tête de l’enquête pensent qu’au moins 17 personnes ont été impliquées dans ce stratagème élaboré.

Publicité

Nous sommes actuellement à la veille d’acteurs malveillants qui transfèrent leur expertise et leurs ressources à l’utilisation des dernières technologies pour manipuler des personnes qui ignorent innocemment les domaines de la technologie deepfake et même leur existence.

Jake Moore, expert en cybersécurité de la société de sécurité ESET

La première tentative signalée de ce type de fraude a eu lieu au Royaume-Uni en 2019, lorsque des fraudeurs a tenté de voler 240 000 $ à une entreprise énergétique en imitant la voix du PDG avec l’aide de l’IA. Contrairement à Hong Kong, cette tentative a échoué car elle a été identifiée avec succès comme une fraude à temps.

L’IA a traversé l’étrange vallée

Si vous trouvez le schéma de Hong Kong peu convaincant et que vous croyez en votre capacité à distinguer une voix ou un visage humain de celui créé par l’IA, une nouvelle étude publié dans les Actes de l’Académie nationale des sciences est là pour briser vos croyances. L’étude, menée par Hany Farid, professeur à l’Université de Californie à Berkeley et Sophie J. Nightingale, maître de conférences à l’Université de Lancaster, en Angleterre, suggère que nous sommes à un stade où les humains ne peuvent plus faire la différence entre le vrai et des visages générés par l’IA.

Les profils en ligne frauduleux en sont un bon exemple. Photos de passeport frauduleuses. Pourtant, les photos ont un usage néfaste… Mais là où les choses vont vraiment devenir épouvantables, c’est avec les vidéos et l’audio.

Hany Farid, professeur à l’Université de Californie

Selon la recherche, nous aurions une chance légèrement meilleure de choisir avec précision entre une image réelle et une image synthétique si nous lançions une pièce. Les participants à l’étude ont été capables de reconnaître de fausses images moins de la moitié du temps. Pour être précis, le score moyen était de 48,2 %. Nous pouvons affirmer avec certitude que les créations contemporaines de l’IA ont traversé l’étrange vallée.

La partie la plus effrayante, cependant, est la section de la recherche montrant que les gens ont une tendance 7,7% plus élevée à faire confiance aux images générées par l’IA qu’aux vrais visages. Lorsqu’on leur a demandé d’évaluer un ensemble de visages réels et fictifs en fonction du sentiment de fiabilité, les participants ont trouvé que les visages générés par l’IA étaient 7,7 % plus fiables que les vrais. Cette découverte jette un nouvel éclairage sur l’idée fausse « ça ne pourrait jamais m’arriver » qui peut être très dangereuse dans le monde en constante évolution d’aujourd’hui.

Nous avons été vraiment surpris par ce résultat car notre motivation était de trouver une voie indirecte pour améliorer les performances, et nous pensions que la confiance serait que – avec de vrais visages suscitant ce sentiment plus digne de confiance.

Sophie J. Nightingale, chargée de cours à l’Université de Lancaster, Angleterre

Protège toi

Aussi troublantes que soient ces découvertes, il existe encore des habitudes que nous pouvons pratiquer pour minimiser nos chances d’être victimes de la technologie deepfake et d’autres escroqueries :

Rate this post
Publicité
Article précédentL’avenir est féminin et le jeu mobile ne fait pas exception | Anzu | Micro ouvert
Article suivant10 critiques d’anime Shonen réellement aimés

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici