Laboratoires V7 a créé un nouveau logiciel basé sur l’intelligence artificielle (IA) qui fonctionne comme une extension Google Chrome qui est capable de détecter des images de profil générées artificiellement – comme celles ci-dessus – avec une précision revendiquée de 99,28%.
V7 Labs est une société de logiciels qui conçoit des produits conçus pour automatiser les tâches visuelles. La société affirme que le monde repose sur la prise de décision visuelle et qu’elle s’efforce de rendre l’apprentissage profond plus robuste et plus facile à développer afin que toute entreprise puisse mettre en œuvre une IA de pointe à partir d’une plate-forme unique.
Détection de fausses photos de profil
Alberto Rizzoli, l’un des fondateurs de V7 Labs, décrit le nouveau logiciel comme conçu pour aider à lutter contre la désinformation en ligne. Il a démontré la fonctionnalité dans une vidéo publiée sur Loom.
« Il y a beaucoup de contenu trompeur sur les médias sociaux ces jours-ci et l’un de ses propagateurs sont de faux profils », explique Rizzoli. « Nous avons créé une extension Chrome capable de détecter si une photo de profil est une personne réelle ou un portrait généré par l’IA. »
Il montre comment cela fonctionne en vérifiant la photo de profil d’une personne qui l’a ajouté sur LinkedIn récemment. En quelques clics, l’extension a pu rapidement déterminer qu’elle était une fausse personne. Dans cet exemple particulier, il y avait des indicateurs révélateurs que la photo n’était pas réelle, comme une boucle d’oreille maladroitement placée et des pupilles étranges. Cependant, ceux-ci ne sont vraiment remarqués qu’après une inspection attentive et les fausses photos de profil peuvent encore être assez trompeuses.
Rizzoli montre un deuxième exemple qui est beaucoup plus réaliste avec moins ou pas de défauts immédiatement perceptibles, mais son plugin a pu le reconnaître comme une fausse photo avec près de 100% de confiance.
Il explique que beaucoup de ces photos sont générées sur le site Cette personne n’existe pas, qui fonctionne sur un générateur de visage d’IA alimenté par NVIDIA StyleGAN, un réseau neuronal développé en 2018. Le site a été mis en place par un ingénieur logiciel de San Francisco et est très simple à utiliser. Lors du chargement du site, il montre simplement un nouveau visage généré par l’IA. Chaque fois que la page est actualisée, un nouveau visage apparaîtra, créé à partir de zéro à partir de un vecteur de dimension 512.
Les deux photos ci-dessus ont été générées à l’aide de ce processus.
Il y a certaines caractéristiques que le générateur de visage AI présente, comme quelqu’un qui est très bien centré dans le cadre de la photo et les traits du visage. Cela dit, le logiciel de Rizzoli peut toujours faire la différence entre une personne réelle sur une photo qui ressemble beaucoup à celles générées à l’aide du programme d’IA et les faux.
Lutte contre la désinformation dangereuse
Les premiers exemples de Rizzoli semblent relativement inoffensifs, mais il dit que son logiciel est capable de mieux lutter contre les fausses nouvelles et la désinformation.
« C’est quelque chose qui se développe beaucoup, en particulier sur Amazon où des dizaines d’auteurs de livres », dit-il. « C’est de plus en plus courant à est très bon marché de simplement créer un faux personnage et d’enseigner aux gens le marketing coché. Peut-être que cela fait partie d’un plan plus vaste. »
Ils existent bien sûr aussi sur les médias sociaux, comme Rizzoli cite un exemple d’un utilisateur de Twitter avec un visage généré par l’IA qui répand de fausses informations sur la guerre en Ukraine.
« Cette extension Chrome aidera les autorités (et les gens ordinaires) à repérer et à signaler les profils diffusant de fausses nouvelles et créant un chaos informationnel, en particulier face à l’invasion russe de l’Ukraine », a-t-il déclaré. PetaPixel.
Tout de suite la prolongation ne fonctionne que sur les images générées par gaN, il n’est donc pas capable de détecter les deepfakes de haute qualité trouvé dans les vidéos. Du moins, pas encore.