Les deepfakes TikTok sont réalistes et dérangeants, et risquent de revictimiser les familles des victimes de meurtre.

Tiktok Faux Profond

TIC TacL’une des IA a généré des deepfakes d’une victime de meurtre d’enfant.

Le vrai crime est un sujet de plus en plus populaire aujourd’hui. Mais certains comptes sur TikTok ont ​​​​porté l’intérêt de la société pour le vrai crime à un niveau inquiétant en créant des vidéos réalistes générées par l’IA de victimes de meurtre – souvent de jeunes enfants – et en les faisant discuter de la façon dont elles ont été tuées.

« Ils sont assez étranges et effrayants », a déclaré Paul Bleakley, professeur adjoint en justice pénale à l’Université de New Haven. Pierre roulante. « Ils semblent conçus pour déclencher de fortes réactions émotionnelles, car c’est le moyen le plus sûr d’obtenir des clics et des likes. C’est inconfortable à regarder, mais je pense que cela pourrait être le point.

Des comptes comme @truestorynow et Nostalgia Narratives comptent des dizaines de milliers d’abonnés et publient des vidéos réalistes de victimes de meurtre décrivant calmement ce qui s’est passé lorsqu’elles ont été assassinées. Certains montrent des victimes adultes célèbres, comme George Floyd, mais beaucoup représentent de jeunes enfants.

« Grand-mère m’a enfermé dans un four à 230 degrés alors que je n’avais que 21 mois », a déclaré l’un des deepfakes générés par l’IA publiés sur @truestorynow dans un bref clip. Identifiée comme Rody Marie Floyd dans le clip, la fille générée dans la vidéo raconte la véritable histoire de Royalty Marie Floyd, une fillette de 20 mois qui a été poignardée puis brûlée dans un four par sa grand-mère en 2018.

Publicité

« La royauté Marie Floyd était la meilleure chose qui me soit jamais arrivée », sa mère écrit sur Facebook après sa mort. « C’est ma seule et unique fille. Mon premier amour. La chose la plus dure que j’ai eu à traverser dans ma vie. Mon cœur a été arraché de ma poitrine.

Des clips comme celui de « Rody » ont des millions de vues sur TikTok.

Tiktok A Généré Une Victime De Meurtre

TIC TacUn expert a décrit les clips comme « étranges et effrayants » et « inconfortables à regarder ».

Pierre roulante ont rapporté que des comptes comme Nostalgia Narratives affirment qu’ils n’utilisent pas de photos réelles des victimes pour générer les deepfakes par « respect [for] la famille. » Cependant, l’utilisation des images est également interdite sur TikTok. Les directives communautaires de la plateforme interdisent les représentations deepfakes de particuliers ou de jeunes.

Que les photos soient réelles ou non, l’histoire l’est. Et des experts comme Bleakley pensent qu’un contenu comme celui-ci – utilisé sans l’autorisation de la famille – finit par blesser les proches de la victime du meurtre.

« Quelque chose comme ça a un réel potentiel pour revictimiser les personnes qui ont déjà été victimisées », a déclaré Bleakley. Pierre roulante. « Imaginez être le parent ou un parent de l’un de ces enfants dans ces vidéos d’IA. Vous allez en ligne, et dans cette voix étrange et aiguë, voici une image AI [based on] votre enfant décédé, entrant dans des détails très sanglants sur ce qui leur est arrivé.

Enfant Deepfake

TIC TacLes clips ont le potentiel de revictimiser les proches de la victime du meurtre.

Pierre roulante rapporte que, pour le moment, des vidéos comme celles-ci sont tout à fait légales. Aucune loi fédérale n’interdit explicitement les images et vidéos deepfakes non consensuelles. Et bien que les familles des victimes de meurtre puissent trouver les deepfakes bouleversantes, il n’y a aucun recours légal clair à leur disposition.

De plus, les clips AI de victimes de meurtre qui apparaissent maintenant sur TikTok ne pourraient qu’empirer. Comme Pierre roulante notes, rien n’empêche les créateurs de contenu de recréer des crimes en utilisant l’intelligence artificielle, jusqu’à chaque détail macabre.

« C’est toujours la question avec tout nouveau développement technologique », a déclaré Bleakley. « Où est-ce que ça va s’arrêter ? »

TikTok a agi pour endiguer la vague de deepfakes de victimes de meurtre. Pierre roulante rapporte que @truestorynow, qui comptait près de 50 000 abonnés, a été supprimé. Sur l’ensemble de la plate-forme, cependant, d’autres deepfakes sont toujours faciles à trouver.


Après avoir lu sur les deepfakes inquiétants de l’IA des victimes de meurtre qui ont commencé à se répandre sur TikTok, découvrez l’histoire de Claire Miller, la star de TikTok qui a assassiné sa sœur handicapée. Ou voyez comment les utilisateurs de TikTok au Pakistan auraient déclenché de dangereux incendies de forêt afin de créer des vidéos dramatiques.


4.6/5 - (30 votes)
Publicité
Article précédentLe film Legend of Zelda serait en préparation, Universal concluant une « grosse affaire » avec Nintendo
Article suivantSamsung lance le filtre Less Microfiber™ pour protéger les océans des plastiques de lessive – Samsung Newsroom Canada

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici