Hiya, les amis, bienvenue à la newsletter régulière de fr.techtribune.netsur l’IA.

Cette semaine dans l’IA, OpenAI a perdu un autre cofondateur.

John Schulman, qui a joué un rôle central dans le développement de ChatGPT, la plateforme de chatbot alimentée par l’IA d’OpenAI, a quitté l’entreprise pour son rival Anthropic. Schulman a annoncé la nouvelle sur X, affirmant que sa décision découlait d’un désir d’approfondir son attention sur l’alignement de l’IA – la science qui consiste à s’assurer que l’IA se comporte comme prévu – et de s’engager dans un travail technique plus pratique.

Mais on ne peut s’empêcher de se demander si le moment du départ de Schulman, qui survient alors que le président d’OpenAI, Greg Brockman, prend un congé prolongé jusqu’à la fin de l’année, n’était pas opportuniste.

Plus tôt le jour où Schulman a annoncé son départ, OpenAI a révélé qu’elle prévoyait de changer le format de son événement DevDay cette année, optant pour une série de sessions d’engagement des développeurs sur la route au lieu d’une conférence d’une journée. Un porte-parole a déclaré à fr.techtribune.netqu’OpenAI n’annoncerait pas de nouveau modèle lors du DevDay, suggérant que le travail sur un successeur au produit phare actuel de la société, GPT-4o, progresse à un rythme lent. (Le google-meta-information-says-2024-08-03/ » target= »_blank » rel= »noreferrer noopener nofollow »>retarder des GPU Blackwell de Nvidia pourraient ralentir davantage le rythme.)

Publicité

OpenAI pourrait-il être en difficulté ? Schulman a-t-il vu l’écriture sur le mur ? Eh bien, les perspectives de l’empire de Sam Altman sont sans aucun doute plus sombres qu’elles ne l’étaient il y a un an.

Ed Zitron, professionnel des relations publiques et expert en technologie polyvalente, a décrit dans son bulletin récemment, les nombreux obstacles se dressent sur le chemin d’OpenAI vers un succès continu. C’est un article bien documenté et approfondi, et je ne vais pas lui faire une injustice en le rechapant. Mais les points soulevés par Zitron sur la pression croissante d’OpenAI pour performer méritent d’être soulignés.

OpenAI serait En voie de perdre 5 milliards de dollars cette année. Pour couvrir les coûts croissants des effectifs (les chercheurs en IA sont très, très chers), de la formation des modèles et du service de modèles à grande échelle, l’entreprise devra lever une énorme tranche de trésorerie dans les 12 à 24 prochains mois. Microsoft serait le bienfaiteur évident ; elle détient une participation de 49 % dans OpenAI et, malgré leur rivalité de temps, une relation de travail étroite avec les équipes de produits d’OpenAI. Mais avec les dépenses d’investissement de Microsoft augmentant de 75 % d’une année sur l’autre (pour atteindre 19 milliards de dollars) en prévision de retours de l’IA qui ne se sont pas encore matérialisés, est-ce que c’est le cas vraiment Vous avez l’envie d’investir des milliards de plus dans un pari risqué à long terme ?

Ce journaliste serait surpris si OpenAI, la société d’IA la plus importante au monde, ne parvenait pas à trouver l’argent dont elle a besoin quelque part à la fin. Il y a une possibilité très réelle que cette bouée de sauvetage s’accompagne de conditions moins favorables, cependant, et peut-être que le Modification de la structure des bénéfices plafonnés de l’entreprise, dont on parle depuis longtemps.

Survivre signifiera probablement qu’OpenAI s’éloigne davantage de son Mission originale et dans un territoire inexploré et incertain. Et peut-être que c’était une pilule trop difficile à avaler pour Schulman (et cie). Il est difficile de les blâmer ; Face à l’augmentation du scepticisme des investisseurs et des entreprises, l’ensemble de l’industrie de l’IA, et pas seulement OpenAI, est confrontée à des comptes.

Nouvelles

apple Intelligence a ses limites : Apple a donné aux utilisateurs le premier véritable avant-goût de ses fonctionnalités Apple Intelligence avec la sortie de la version bêta d’iOS 18.1 pour les développeurs le mois dernier. Mais comme l’écrit Ivan, la fonction Outils d’écriture trébuche lorsqu’il s’agit de jurons et de sujets délicats, comme la drogue et le meurtre.

Le Nest Learning Thermostat de Google fait peau neuver : Après neuf longues années, Google est enfin rafraîchir l’appareil qui a donné son nom à Nest. La société a annoncé mardi le lancement du Nest Learning Thermostat 4 – 13 ans après la sortie de l’original et près d’une décennie après le Learning Thermostat 3 et avant l’événement Made by Google 2024 la semaine prochaine.

Le chatbot de X a répandu de la désinformation sur les élections: Grok a diffusé de fausses informations sur la vice-présidente Kamala Harris sur X, le réseau social anciennement connu sous le nom de Twitter. C’est selon un Lettre ouverte rédigé par cinq secrétaires d’État et adressé à Tesla, SpaceX et au PDG de X, Elon Musk, qui affirme que le chatbot alimenté par l’IA de X a suggéré à tort que Harris n’est pas éligible pour figurer sur certains bulletins de vote présidentiels américains de 2024.

Un YouTuber poursuit OpenAI en justiceUn créateur de youtube cherche à intenter un recours collectif contre OpenAI, alléguant que la société a formé ses modèles d’IA générative sur des millions de transcriptions de vidéos YouTube sans notification ni compensationg les propriétaires des vidéos.

Le lobbying de l’IA s’intensifie: Le lobbying de l’IA au niveau fédéral américain s’intensifie au milieu d’un boom continu de l’IA générative et d’une année électorale qui pourrait influencer la future réglementation de l’IA. Le nombre de groupes faisant du lobbying auprès du gouvernement fédéral sur des questions liées à l’IA est passé de 459 en 2023 à 556 au cours de la première moitié de 2024, de janvier à juillet.

Document de recherche de la semaine

Les modèles « ouverts » comme la famille Llama de Meta, qui peuvent être utilisés plus ou moins comme les développeurs le souhaitent, peuvent stimuler l’innovation, mais ils présentent également des risques. Bien sûr, beaucoup ont des licences qui imposent des restrictions, ainsi que des filtres de Sécurité et des outils intégrés. Mais au-delà de cela, il n’y a pas grand-chose qui empêche un acteur malveillant d’utiliser des modèles ouverts pour diffuser de la désinformation, par exemple, ou de lancer une ferme de contenu.

Il pourrait y en avoir à l’avenir.

Une équipe de chercheurs provenant de Harvard, du Center for AI Safety, et d’ailleurs propose dans une Document technique une méthode « inviolable » permettant de préserver les « capacités bénignes » d’un modèle tout en empêchant le modèle d’agir de manière indésirable. Lors d’expériences, ils ont constaté que leur méthode était efficace pour prévenir les « attaques » sur les modèles (comme le faire croire qu’il fournit des informations qu’il ne devrait pas) au moindre coût de la précision d’un modèle.

Il y a un hic. La méthode ne s’adapte pas bien aux modèles plus grands en raison de « défis informatiques » qui nécessitent une « optimisation » pour réduire les frais généraux, expliquent les chercheurs dans l’article. Ainsi, bien que les premiers travaux soient prometteurs, ne vous attendez pas à ce qu’il soit déployé de sitôt.

Modèle de la semaine

Un nouveau modèle de génération d’images a récemment émergé sur la scène, et il semble donner du fil à retordre à des opérateurs historiques comme Midjourney et DALL-E 3 d’OpenAI.

Appelé Flux.1, le modèle — ou plutôt, Famille de modèles – a été développé par Black Forest Labs, une startup fondée par d’anciens chercheurs de Stability AI, dont beaucoup ont participé à la création de Stable Diffusion et à ses nombreux suivis. (Black Forest Labs a annoncé la semaine dernière son premier tour de financement : une amorçage de 31 millions de dollars dirigée par Andreessen Horowitz.)

Le modèle Flux.1 le plus sophistiqué, Flux.1 Pro, est fermé derrière une API. Mais Black Forest Labs a lancé deux modèles plus petits, Flux.1 Dev et Flux.1 Schnell (« rapide » en allemand), sur la plateforme de développement d’IA Hugging Face, avec de légères restrictions sur l’utilisation commerciale. Les deux sont compétitifs avec Midjourney et DALL-E 3 en termes de qualité des images qu’ils peuvent générer et de leur capacité à suivre les instructions, affirme Black Forest Labs. Et ils sont particulièrement doués pour insérer du texte dans les images, une compétence qui a échappé aux modèles de génération d’images par le passé.

Black Forest Labs a choisi de ne pas partager les données qu’il a utilisées pour entraîner les modèles (ce qui est une source d’inquiétude compte tenu des risques de droits d’auteur inhérents à ce type de génération d’images d’IA), et la startup n’est pas entrée dans les détails sur la manière dont elle entend empêcher l’utilisation abusive de Flux.1. Il adopte une approche résolument non interventionniste pour l’instant – alors méfiez-vous de l’utilisateur.

Sac à main

Les entreprises d’IA générative adoptent de plus en plus la défense de l’utilisation équitable lorsqu’il s’agit d’entraîner des modèles sur des données protégées par le droit d’auteur sans la bénédiction des propriétaires de ces données. Prenez Suno, la plate-forme de génération de musique par IA, par exemple, qui a récemment fait valoir devant les tribunaux qu’elle avait l’autorisation d’utiliser des chansons appartenant à des artistes et à des labels à l’insu de ces artistes et labels – et sans les rémunérer.

C’est aussi la pensée (peut-être un vœu pieux) de Nvidia, semble-t-il. Selon un média 404 rapport sorti cette semaine, Nvidia forme un modèle de génération massive de vidéos, nom de code Cosmos, sur le contenu YouTube et Netflix. La direction de haut niveau a donné son feu vert au projet, qui, selon elle, survivra aux batailles judiciaires grâce à l’interprétation actuelle de la loi américaine sur le droit d’auteur.

Alors, l’utilisation équitable sauvera-t-elle les Sunos, Nvidias, OpenAI et Midjourneys du monde entier de l’enfer juridique ? À déterminer – et les poursuites mettront certainement du temps à se dérouler, assurément. Il se pourrait bien que la bulle de l’IA générative éclate avant qu’un précédent ne soit établi. Si ce n’est pas le cas, soit les créateurs – des artistes aux musiciens en passant par les auteurs, les paroliers et les vidéastes – peuvent s’attendre à un gros salaire, soit ils seront forcés de vivre avec le fait inconfortable que tout ce qu’ils rendent public est un jeu équitable pour la formation d’une entreprise d’IA générative.

5/5 - (122 votes)
Publicité
Article précédentHBO révèle quand se terminera la dernière saison de « House of the Dragon »
Article suivantL'amiral Lohar, interprété par Abigail Thorn, est un excellent choix d'adaptation de La Maison du Dragon

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici