[ad_1]

Benzinga – par Rounak Jain, rédacteur de Benzinga.

YouTubeur populaire MonsieurBête a appelé TikTok de ByteDance Ltd. pour avoir autorisé une fausse version de ses iPhones faucon à 2 $, la qualifiant de « problème sérieux ». La vidéo virale qui a maintenant été supprimée montre une version deepfake de lui faisant la promotion du « plus grand cadeau iPhone 15 au monde ».

Ce qui s’est passé: TikTok a diffusé une publicité montrant une version deepfake de MrBeast générée par l’IA annonçant un cadeau de 10 000 iPhone 15 Pro pour 2 $ chacun. Apple Inc. (NASDAQ :AAPL) a lancé le iPhone 15 Pro en septembre.

« Beaucoup de gens reçoivent cette publicité frauduleuse de moi… les plateformes de médias sociaux sont-elles prêtes à gérer la montée des deepfakes de l’IA ? » » a déclaré MrBeast dans un message, appelant TikTok.

Publicité

« C’est un problème sérieux », a-t-il déclaré dans un message, rejoignant une liste de célébrités touchées par des deepfakes qui circulent sur les réseaux sociaux.

Le deep fake de MrBeast sur TikTok le montre en train de dire aux utilisateurs qu’il organise le « plus grand cadeau iPhone 15 au monde ». La vidéo est devenue virale sur TikTok, d’autant plus que MrBeast est connu pour ses cadeaux et ses concours.

Cependant, tout le monde n’a pas été aussi facilement dupe. « Seuls les baby-boomers craqueraient pour cette merde », a déclaré un utilisateur dans les commentaires.

Malgré la publicité portant le logo officiel de MrBeast et une coche bleue, des signes révélateurs de manipulation de l’IA étaient apparents, notamment une voix déformée et des mouvements de bouche non naturels.

Un porte-parole de TikTok a déclaré que l’annonce avait été supprimée quelques heures après sa publication et que le compte associé avait été supprimé pour violation de la politique, a rapporté Business Insider.

TikTok a récemment publié un outil pour aider les créateurs à étiqueter le contenu de l’IA et teste des moyens d’étiqueter automatiquement ce contenu.

Ce n’est pas le premier deepfake de célébrité : Il y a eu une recrudescence des deepfakes de célébrités populaires qui sont devenues virales – le mérite du rythme croissant de ces deepfakes revient également aux récents progrès de l’IA.

Plus tôt cette semaine, Tom Hanks a publié une déclaration sur Instagram appelant à une version deepfake de lui faisant la promotion d’un régime de soins dentaires. Il a prévenu ses partisans qu’il n’avait « rien à voir avec cela ».

Zelda, la fille de Robin Williams, a également qualifié les recréations IA de la voix de son père de « personnellement dérangeantes » et d' »horrible monstre Frankensteinien » dans une histoire Instagram.

L’acteur britannique Stephen Fry est également victime d’une utilisation abusive de l’IA. Il a déclaré que sa voix avait été volée dans les livres de Harry Potter et a averti que ce n’était que le début d’une utilisation abusive des contrefaçons de l’IA pour dire des choses qui n’avaient jamais été dites auparavant par les victimes.

Alors que des entreprises, comme Alphabet Inc.-détenu (NASDAQ : GOOG) (NASDAQ : GOOGL) Google, travaillent sur des solutions comme SynthID pour détecter les images générées par l’IA, il faudra un certain temps avant que des solutions similaires pour l’audio et la vidéo soient également élaborées. Pour l’instant, les utilisateurs devront s’en tenir au bon sens et les vérifier.

mobile icon banner Obtenir l’application

Rejoignez les millions de personnes qui restent au courant des marchés financiers mondiaux avec Investing.com.

Télécharger maintenant

Découvrez davantage de couverture Consumer Tech de Benzinga en suivant ce lien.

© 2023 Benzinga.com. Benzinga ne fournit pas de conseils en investissement. Tous droits réservés.

Lire l’article original sur Benzinga

[ad_2] ->Google Actualités

4.6/5 - (17 votes)
Publicité
Article précédentMatériel, kit et Eidolons Honkai Star Rail Topaz et Numby
Article suivantApple aurait testé iOS 17.0.3 pour résoudre le problème de surchauffe de l’iPhone 15 Pro

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici