Hiya, les amis, et bienvenue à la newsletter régulière de fr.techtribune.netsur l’IA.

Cette semaine, dans l’affaire AI, la Cour suprême des États-Unis a annulé la « déférence Chevron », une décision vieille de 40 ans sur le pouvoir des agences fédérales qui obligeait les tribunaux à s’en remettre aux interprétations des lois du Congrès par les agences.

La déférence de Chevron a permis aux agences d’établir leurs propres règles lorsque le Congrès a laissé certains aspects de ses lois ambigus. Désormais, les tribunaux devront exercer leur propre jugement juridique – et les effets pourraient être de grande portée. Scott Rosenberg d’Axios Écrit que le Congrès – à peine le plus fonctionnel Ces jours-ci – doit maintenant tenter efficacement de prédire l’avenir avec sa législation, car les agences ne peuvent plus appliquer les règles de base aux nouvelles circonstances d’application.

Et cela pourrait tuer définitivement les tentatives de réglementation de l’IA à l’échelle nationale.

Déjà, le Congrès avait du mal à adopter un cadre politique de base en matière d’IA, au point que les régulateurs des deux côtés de l’allée se sont sentis obligés d’intervenir. Désormais, toute réglementation qu’il rédige devra être très spécifique s’il veut survivre aux contestations juridiques – une tâche apparemment insoluble, étant donné la vitesse et l’imprévisibilité avec lesquelles l’industrie de l’IA évolue.

Publicité

La juge Elena Kagan a évoqué l’IA spécifiquement lors des plaidoiries :

Imaginons que le Congrès adopte un projet de loi sur l’intelligence artificielle et qu’il ait toutes sortes de délégations. De par la nature des choses et surtout par la nature du sujet, il y aura toutes sortes d’endroits où, bien qu’il n’y ait pas de délégation explicite, le Congrès a en fait laissé un vide. … [D]Voulez-nous que les tribunaux comblent cette lacune, ou voulons-nous qu’une agence comble cette lacune ?

Les tribunaux combleront cette lacune maintenant. Ou les législateurs fédéraux considéreront l’exercice comme futile et mettront fin à leurs projets de loi sur l’IA. Quel que soit le résultat, la réglementation de l’IA aux États-Unis est devenue beaucoup plus difficile.

Nouvelles

Coûts de l’IA environnementale de google : Google a publié son rapport environnemental 2024, un document de plus de 80 pages décrivant les efforts de l’entreprise pour appliquer la technologie aux problèmes environnementaux et atténuer ses contributions négatives. Mais cela esquive la question de savoir combien d’énergie l’IA de Google utilise, écrit Devin. (L’IA est notoirement avide de pouvoir.)

Figma désactive la fonctionnalité de conception : Le PDG de Figma, Dylan Field, a déclaré que Figma désactiverait temporairement sa fonction d’IA « Make Design », qui serait en train d’arracher les conceptions de l’application Weather d’apple.

Meta change son étiquette d’IA : Après que Meta a commencé à étiqueter les photos avec une étiquette « Made with AI » en mai, les photographes se sont plaints que l’entreprise avait appliqué des étiquettes sur de vraies photos par erreur. Meta change maintenant la balise en « informations sur l’IA » dans toutes ses applications pour tenter d’apaiser les critiques, rapporte Ivan.

Chats robots, chiens et oiseaux : Brian écrit sur la façon dont l’État de New York distribue des milliers d’animaux robots aux personnes âgées au milieu d’une « épidémie de solitude ».

Apple apporte l’IA au Vision Pro : Les plans d’Apple vont au-delà des lancements d’Apple Intelligence annoncés précédemment sur iPhone, iPad et Mac. Selon Mark Gurman de Bloomberg, la société s’efforce également d’apporter ces fonctionnalités à ses casques de réalité mixte Vision Pro.

Document de recherche de la semaine

Les modèles de génération de texte comme GPT-4o d’OpenAI sont devenus des enjeux majeurs de la technologie. Rares sont les applications qui Ne pas utilisez-les de nos jours, pour des tâches qui vont de la rédaction d’e-mails à l’écriture de code.

Mais malgré la popularité des modèles, la façon dont ces modèles « comprennent » et génèrent un texte à consonance humaine n’est pas une science établie. Dans le but d’éplucher les couches, des chercheurs de l’Université Northeastern Regardé à la tokenisation, ou le processus de décomposition du texte en unités appelées Jetons avec lesquels les modèles peuvent plus facilement travailler.

Les modèles de génération de texte d’aujourd’hui traitent le texte comme une série de jetons tirés d’un ensemble de « vocabulaire de jetons », où un jeton peut correspondre à un seul mot (« poisson ») ou à un morceau d’un mot plus grand (« sal » et « mon » dans « saumon »). Le vocabulaire des jetons disponibles pour un modèle est généralement déterminé avant l’entraînement, en fonction des caractéristiques des données utilisées pour l’entraîner. Mais les chercheurs ont trouvé des preuves que les modèles développent également un vocabulaire implicite Cela fait correspondre des groupes de jetons – par exemple, des mots multi-jetons comme « nord-est » et l’expression « casser une jambe » – à des « unités » sémantiquement significatives.

Sur la base de ces preuves, les chercheurs développenta mis en place une technique pour « sonder » le vocabulaire implicite de tout modèle ouvert. De Llama 2 de Meta, ils ont extrait des expressions comme « Lancaster », « joueurs de la Coupe du monde » et « Royal Navy », ainsi que des termes plus obscurs comme « joueurs de Bundesliga ».

Le travail n’a pas été examiné par des pairs, mais les chercheurs pensent qu’il pourrait être un premier pas vers la compréhension de la façon dont les représentations lexicales se forment dans les modèles – et servir d’outil utile pour découvrir ce qu’un modèle donné « sait ».

Modèle de la semaine

Une équipe de recherche de Meta a formé plusieurs modèles pour créer des ressources 3D (c’est-à-dire des formes 3D avec des textures) à partir de descriptions textuelles, adaptées à des projets tels que des applications et des jeux vidéo. Bien qu’il existe de nombreux modèles générateurs de formes, Meta affirme qu’ils sont « à la pointe de la technologie » et prennent en charge le rending physique, qui permet aux développeurs de « rallumer » des objets pour donner l’apparence d’une ou plusieurs sources d’éclairage.

Les chercheurs ont combiné deux modèles, AssetGen et TextureGen, inspirés du générateur d’images Emu de Meta dans un seul pipeline appelé 3DGen pour générer des formes. AssetGen convertit les invites textuelles (par exemple, « un t-rex portant un pull en laine verte ») en un maillage 3D, tandis que TextureGen améliore la « qualité » du maillage et ajoute une texture pour donner la forme finale.

Méta
Crédits image : Méta

Le 3DGen, qui peut également être utilisé pour retexturer des formes existantes, prend environ 50 secondes du début à la fin pour générer une nouvelle forme.

« En combinant [these models’] , 3DGen réalise une synthèse d’objets 3D de très haute qualité à partir d’invites textuelles en moins d’une minute », ont écrit les chercheurs dans un Document technique. « Lorsqu’il est évalué par des artistes 3D professionnels, le résultat de 3DGen est préféré la plupart du temps par rapport aux alternatives de l’industrie, en particulier pour les invites complexes. »

Meta semble prêt à intégrer des outils comme 3DGen dans ses efforts de développement de jeux métavers. Selon un Liste des emplois, la société cherche à rechercher et à prototyper des jeux VR, AR et de réalité mixte créés à l’aide de la technologie d’IA générative – y compris, vraisemblablement, des générateurs de formes personnalisés.

Sac à main

Apple pourrait obtenir un siège d’observateur au conseil d’administration d’OpenAI à la suite du partenariat entre les deux entreprises annoncé le mois dernier.

Bloomberg Rapports que Phil Schiller, le dirigeant d’Apple chargé de diriger l’App Store et les événements Apple, rejoindra le conseil d’administration d’OpenAI en tant que deuxième observateur après Dee Templeton de Microsoft.

Si cette décision se concrétise, ce sera une remarquable démonstration de puissance de la part d’Apple, qui prévoit d’intégrer la plate-forme de chatbot alimentée par l’IA d’OpenAI, ChatGPT, à bon nombre de ses appareils cette année dans le cadre d’une suite plus large de fonctionnalités d’IA.

Apple ne le sera pas payant OpenAI pour l’intégration de ChatGPT, aurait fait valoir que l’exposition aux relations publiques est aussi précieuse ou plus précieuse que l’argent. En fait, OpenAI pourrait finir par payer Pomme; Apple réfléchirait à un accord dans lequel il obtiendrait une part des revenus de toutes les fonctionnalités premium de ChatGPT qu’OpenAI apporte aux plates-formes Apple.

Donc, comme l’a souligné mon collègue Devin Coldewey, cela place le proche collaborateur et investisseur majeur d’OpenAI, Microsoft, dans la position délicate de subventionner efficacement l’intégration ChatGPT d’Apple – avec peu de résultats. Ce qu’Apple veut, il l’obtient, apparemment – même si cela signifie que ses partenaires doivent aplanir les litiges.

5/5 - (190 votes)
Publicité
Article précédentLe pistolet à poulet frit de COD suscite des réactions négatives ; les joueurs accusent Fortnite
Article suivantLa Tour de Dieu dévoile un aperçu de la saison 2

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici