Beaucoup craignaient que les élections de 2024 ne soient affectées, et peut-être décidées, par la désinformation générée par l’IA. Bien qu’il y en ait eu à trouver, c’était beaucoup moins que prévu. Mais ne vous y trompez pas : la menace de désinformation est réelle – vous n’êtes tout simplement pas la cible.
C’est du moins ce qu’affirme Oren Etzioni, un chercheur de longue date en IA, dont l’organisation à but non lucratif TrueMedia a le doigt sur l’impulsion de désinformation générée.
« Il y a, faute d’un meilleur mot, une diversité de deepfakes », a-t-il déclaré à fr.techtribune.netdans une récente interview. « Chacun a son propre objectif, et nous en connaissons certains plus que d’autres. Permettez-moi de le dire de cette façon : pour chaque chose dont vous entendez parler, il y en a une centaine qui ne vous visent pas. Peut-être un millier. Ce n’est vraiment que la partie émergée de l’iceberg qui arrive dans la presse grand public.
Le fait est que la plupart des gens, et les Américains plus que la plupart, ont tendance à penser que ce qu’ils vivent est la même chose que ce que les autres vivent. Ce n’est pas vrai pour de nombreuses raisons. Mais dans le cas des campagnes de désinformation, l’Amérique est en fait une cible difficile, compte tenu d’une population relativement bien formée, d’informations factuelles facilement disponibles et d’une presse à laquelle on fait confiance au moins la plupart du temps (malgré tout le bruit du contraire).
Nous avons tendance à considérer les deepfakes comme quelque chose comme une vidéo de Taylor Swift faisant ou disant quelque chose qu’elle ne ferait pas. Mais les deepfakes vraiment dangereux ne sont pas ceux de célébrités ou de politiciens, mais de situations et de personnes qui ne peuvent pas être si facilement identifiées et contreparties.
« La chose la plus importante que les gens n’obtiennent pas, c’est la variété. J’en ai vu un aujourd’hui d’avions iraniens au-dessus d’Israël », a-t-il noté – quelque chose qui ne s’est pas produit mais qui ne peut pas être facilement réfuté par quelqu’un qui n’est pas sur le terrain là-bas. « Vous ne le voyez pas parce que vous n’êtes pas sur la chaîne Telegram, ou dans certains groupes WhatsApp, mais des millions le font. »
TrueMedia offre un service gratuit (via le Web et l’API) pour identifier les images, les vidéos, les fichiers audio et d’autres éléments comme faux ou réels. Ce n’est pas une tâche simple et ne peut pas être complètement automatisée, mais ils construisent lentement une base de matériel de vérité de terrain qui alimente le processus.
« Notre mission principale est la détection. Les repères académiques [for evaluating fake media] ont été labourés depuis longtemps », a expliqué Etzioni. « Nous nous entraînons sur des éléments téléchargés par des personnes du monde entier ; Nous voyons ce que les différents fournisseurs en disent, ce que nos modèles en disent, et nous générons une conclusion. Par la suite, nous avons une équipe d’experts judiciaires qui mène une enquête plus approfondie, plus approfondie et plus lente, non pas sur tous les éléments, mais sur une fraction importante, de sorte que nous avons une vérité sur le terrain. Nous n’attribuons pas de valeur de vérité à moins d’en être tout à fait sûrs ; Nous pouvons toujours nous tromper, mais nous sommes nettement meilleurs que toute autre solution.
La mission principale est de quantifier le problème de trois manières principales, a souligné Etzioni :
- Combien y en a-t-il là-bas ? « Nous ne savons pas, il n’y a pas de google pour cela. Vous voyez diverses indications qu’il est omniprésent, mais il est extrêmement difficile, peut-être même impossible à mesurer avec précision.
- Combien de personnes le voient ? « C’est plus facile parce que quand Elon Musk partage quelque chose, vous voyez, ’10 millions de personnes l’ont vu’. Ainsi, le nombre de globes oculaires se chiffre facilement en centaines de millions. Je vois chaque semaine des articles qui ont été consultés des millions de fois.
- Quel impact cela a-t-il eu ? « C’est peut-être le plus important. Combien d’électeurs ne se sont pas rendus aux urnes à cause des faux appels de Biden ? Nous ne sommes tout simplement pas configurés pour mesurer cela. Le slovaque [a disinfo campaign targeting a presidential candidate there in February] était à la dernière minute, puis il a perdu. Cela aurait bien pu faire basculer cette élection.
Tous ces travaux sont en cours, certains ne font que commencer, a-t-il souligné. Mais il faut commencer quelque part.
« Permettez-moi de faire une prédiction audacieuse : au cours des 4 prochaines années, nous allons devenir beaucoup plus aptes à mesurer cela », a-t-il déclaré. Parce que nous devons le faire. Pour l’instant, nous essayons juste de faire face.
Quant à certaines des tentatives de l’industrie et de la technologie pour rendre les médias générés plus évidents, tels que le filigrane d’images et de texte, ils sont inoffensifs et peut-être bénéfiques, mais ne commencent même pas à résoudre le problème, a-t-il déclaré.
« La façon dont je le dirais, c’est de ne pas apporter de filigrane à une fusillade. » Ces normes volontaires sont utiles dans les écosystèmes collaboratifs où tout le monde a une raison de les utiliser, mais elles offrent peu de protection contre les acteurs malveillants qui veulent éviter d’être détectés.
Tout cela semble plutôt désastreux, et c’est le cas, mais l’élection la plus importante de l’histoire récente s’est déroulée sans beaucoup de manigances d’IA. Ce n’est pas parce que le La désinformation n’est pas monnaie courante, mais parce que ses fournisseurs n’ont pas jugé nécessaire d’y participer. Que cela vous fasse plus ou moins peur que l’alternative, c’est à vous de décider.