Hiya, les amis, bienvenue à la newsletter régulière de fr.techtribune.netsur l’IA. Si vous voulez cela dans votre boîte de réception tous les mercredis, inscrivez-vous ici.
Il a été étonnamment facile de créer un deepfake audio convaincant de Kamala Harris le jour des élections. Cela m’a coûté 5 $ et m’a pris moins de deux minutes, illustrant à quel point l’IA générative bon marché et omniprésente a ouvert les vannes à la désinformation.
Créer un deepfake Harris n’était pas mon intention initiale. Je jouais avec les Changeur de voix, un modèle qui transforme votre voix en une voix différente tout en préservant la prosodie de l’original. Cette deuxième voix peut être un « clone » de celle d’une autre personne – Cartesia créera une double voix numérique à partir de n’importe quel enregistrement de 10 secondes.
Alors, je me suis demandé si Voice Changer allait transformer ma voix en celle de Harris ? J’ai payé 5 $ pour déverrouiller la fonction de clonage de la voix de Cartesia, j’ai créé un clone de la voix de Harris en utilisant des discours de campagne récents et j’ai sélectionné ce clone comme sortie dans Voice Changer.
Cela a fonctionné comme un charme :
Je suis convaincu que Cartesia n’avait pas vraiment l’intention d’utiliser ses outils de cette manière. Pour activer le clonage vocal, Cartesia exige que vous cochiez une case indiquant que vous ne générerez rien de nuisible ou d’illégal et que vous consentez à ce que vos enregistrements vocaux soient clonés.
Mais ce n’est qu’un système d’honneur. En l’absence de véritables garde-fous, rien n’empêche une personne de créer autant de deepfakes « nuisibles ou illégaux » qu’elle le souhaite.
C’est un problème, cela va sans dire. Alors, quelle est la solution ? Y en a-t-il un ? Cartesia peut mettre en œuvre la vérification vocale, comme certains autre plateformes l’ont fait. Mais d’ici là, il y a de fortes chances qu’un nouvel outil de clonage de voix sans entrave ait émergé.
J’ai parlé de cette question avec des experts lors de la conférence Disrupt de TC la semaine dernière. Certains étaient favorables à l’idée de filigranes invisibles afin qu’il soit plus facile de dire si le contenu a été généré par l’IA. D’autres ont souligné les lois sur la modération du contenu telles que la loi sur la Sécurité en ligne au Royaume-Uni, qui, selon eux, pourraient aider à endiguer la vague de désinformation.
Traitez-moi de pessimiste, mais je pense que ces navires ont navigué. Nous sommes en présence, comme l’a dit Imran Ahmed, PDG du Center for Countering Digital Hate Company, d’une « machine à taureaux perpétuels ».
La désinformation se propage à un rythme alarmant. Voici quelques exemples très médiatisés de l’année écoulée Un réseau de bots sur X ciblant les élections fédérales américaines et un deepfake de messagerie vocale du président Joe Biden décourageant les résidents du New Hampshire de voter. Mais les électeurs américains et les férus de technologie ne sont pas les cibles de la plupart de ces contenus. selon le analyse, nous avons donc tendance à sous-estimer sa présence ailleurs.
Le volume de deepfakes générés par l’IA a augmenté de 900 % entre 2019 et 2020, selon aux données du Forum économique mondial.
Pendant ce temps, il y a relativement peu de lois ciblant le deepfake. Et la détection des deepfakes est sur le point de devenir une course aux armements sans fin. Certains outils choisiront inévitablement de ne pas utiliser de mesures de sécurité telles que le filigrane, ou seront déployés avec des applications expressément malveillantes à l’esprit.
À moins d’un changement radical, je pense que le mieux que nous puissions faire est d’être intensément sceptiques à l’égard de ce qui existe, en particulier du contenu viral. Il n’est plus aussi facile qu’autrefois de distinguer la vérité de la fiction en ligne. Mais nous sommes toujours en contrôle de ce que nous partageons par rapport à ce que nous ne partageons pas. Et c’est beaucoup plus percutant qu’il n’y paraît.
Nouvelles
Avis sur ChatGPT Search : Mon collègue Max a fait un tour la nouvelle intégration de recherche d’OpenAI pour ChatGPT, ChatGPT Search. Il l’a trouvé impressionnant à certains égards, mais peu fiable pour des requêtes courtes contenant seulement quelques mots.
Drones Amazon à Phoenix : Quelques mois après la fin de son programme de livraison par drone, Prime Air, en Californie, Amazon a déclaré qu’il avait commencé à effectuer des livraisons à certains clients par drone à Phoenix, en Arizona.
L’ancien responsable de la réalité augmentée de Meta rejoint OpenAI : L’ancienne responsable des efforts de Meta en matière de lunettes AR, y compris Orion, a annoncé lundi qu’elle rejoignait OpenAI pour diriger la robotique et le matériel grand public. La nouvelle survient après qu’OpenAI a embauché le cofondateur de X (anciennement Twitter), Pebble.
Freiné par le calcul : Dans un Reddit AMA, le PDG d’OpenAI, Sam Altman, a admis que le manque de capacité de calcul est l’un des principaux facteurs empêchant l’entreprise d’expédier des produits aussi souvent qu’elle le souhaiterait.
Récapitulatifs générés par l’IA : Amazon a lancé « X-Ray Recaps », une fonctionnalité générative alimentée par l’IA qui crée des résumés concisdes saisons télévisées entières, des épisodes individuels et même des parties d’épisodes.
Hausse anthropique des prix des haïkus : Le tout nouveau modèle d’IA d’Anthropic est arrivé : Claude 3.5 Haiku. Mais il est plus cher que la génération précédente, et contrairement aux autres modèles d’Anthropic, il ne peut pas encore analyser des images, des graphiques ou des diagrammes.
apple acquiert Pixelmator : Éditeur d’images alimenté par l’IA Pixelmator annoncé vendredi qu’il est en train d’être acquis par Apple. L’accord intervient alors qu’Apple est devenu plus agressif dans l’intégration de l’IA dans ses applications d’imagerie.
Une Alexa « agentique » : Le PDG d’Amazon, Andy Jassy, a fait allusion la semaine dernière à une version « agentique » améliorée de l’assistant Alexa de l’entreprise – une version qui pourrait prendre des mesures au nom d’un utilisateur. La version remaniée d’Alexa aurait été confrontée à des retards et à des revers techniques, et pourrait ne pas être lancée avant 2025.
Document de recherche de la semaine
Les pop-ups sur le Web peuvent également tromper l’IA, et pas seulement les grands-parents.
Dans un nouveau papier, des chercheurs de Georgia Tech, de l’Université de Hong Kong et de Stanford montrent que les « agents » d’IA – des modèles d’IA capables d’accomplir des tâches – peuvent être détournés par des « fenêtres contextuelles antagonistes » qui demandent aux modèles de faire des choses comme Télécharger des extensions de fichiers malveillantes.
Certaines de ces fenêtres contextuelles sont de toute évidence des pièges à l’œil humain, mais l’IA n’est pas aussi perspicace. Les chercheurs affirment que les modèles d’analyse d’images et de texte qu’ils ont testés n’ont pas réussi à ignorer les fenêtres contextuelles dans 86 % des cas et, par conséquent, étaient 47 % moins susceptibles d’accomplir des tâches.
Les défenses de base, comme demander aux modèles d’ignorer les fenêtres contextuelles, n’étaient pas efficaces. « Le déploiement d’agents à usage informatique présente toujours des risques importants », ont écrit les co-auteurs de l’étude, « et des systèmes d’agents plus robustes sont nécessaires pour garantir un flux de travail sûr des agents. »
Modèle de la semaine
Meta a annoncé hier qu’elle travaillait avec des partenaires pour rendre ses modèles d’IA « ouverts » Llama disponibles pour des applications de défense. Aujourd’hui, l’un de ces partenaires, Scale AI, a annoncé Lama de défense, un modèle construit sur le Llama 3 de Meta qui est « personnalisé et affiné pour soutenir les missions de sécurité nationale américaines ».
Defense Llama, qui est disponible dans la gamme Donavan pour les clients du gouvernement américain, a été optimisée pour la planification d’opérations militaires et de renseignement, selon Scale. Defense Llama peut répondre à des questions liées à la défense, par exemple comment un adversaire pourrait planifier une attaque contre une base militaire américaine.
Alors, qu’est-ce qui différencie le Defense Llama du Lama de base ? Eh bien, Scale dit qu’il a été affiné sur le contenu qui pourrait être pertinent pour les opérations militaires, comme la doctrine militaire et le droit international humanitaire, ainsi que les capacités de divers systèmes d’armes et de défense. Il n’est pas non plus limité à répondre à des questions sur la guerre, comme pourrait l’être un chatbot civil :
Il n’est pas clair qui pourrait être enclin à l’utiliser, cependant.
L’armée américaine a été lent à adopter l’IA générative – et sceptique quant à son retour sur investissement. Jusqu’à présent, l’armée américaine est le seulement branche des forces armées américaines avec un déploiement d’IA générative. Les responsables militaires ont exprimé des inquiétudes quant aux vulnérabilités de sécurité des modèles commerciaux, ainsi qu’aux défis juridiques associés au partage des données de renseignement et à l’imprévisibilité des modèles lorsqu’ils sont confrontés à des cas limites.
Sac à main
Spawning AI, une start-up qui crée des outils pour permettre aux créateurs de refuser l’entraînement de l’IA générative, a publié un ensemble de données d’images pour l’entraînement de modèles d’IA qui, selon elle, est entièrement dans le domaine public.
La plupart des modèles d’IA générative sont entraînés sur des données Web publiques, dont certaines peuvent être protégées par des droits d’auteur ou sous une licence restrictive. OpenAI et de nombreux autres fournisseurs d’IA affirment que Utilisation équitable les protège contre les revendications de droits d’auteur. Mais cela n’a pas arrêté les propriétaires de données De Dépôt de poursuites.
Spawning AI affirme que son ensemble de données d’entraînement de 12,4 millions de paires image-légende ne comprend que du contenu avec une « provenance connue » et « étiqueté avec des droits clairs et sans ambiguïté » pour l’entraînement de l’IA. Contrairement à d’autres ensembles de données, il est également disponible en téléchargement à partir d’un hébergeur dédié, ce qui élimine le besoin de faire du web-scraping.
« De manière significative, le statut de domaine public de l’ensemble de données fait partie intégrante de ces objectifs plus larges », écrit Spawning dans un billet de blog. « Les ensembles de données qui incluent des images protégées par le droit d’auteur continueront à s’appuyer sur le web-scraping parce que l’hébergement des images violerait le droit d’auteur. »
L’ensemble de données de Spawning, PD12M, et une version conçue pour des images « esthétiquement agréables », PD3M, peuvent être trouvés à ce lien.