Suivre le rythme d’un secteur aussi rapide que l’IA est un défi de taille. Donc, jusqu’à ce qu’une IA puisse le faire pour vous, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes seules.

D’ailleurs, fr.techtribune.net prévoit de lancer bientôt une newsletter sur l’IA. Restez à l’écoute. En attendant, nous augmentons la cadence de notre chronique semi-régulière sur l’IA, qui était auparavant deux fois par mois (environ), à une fois par semaine – alors soyez à l’affût d’autres éditions.

Cette semaine dans l’IA, OpenAI a une fois de plus dominé le cycle de l’actualité (malgré tous les efforts de google) avec un lancement de produit, mais aussi, avec quelques intrigues de palais. La société a dévoilé GPT-4o, son modèle génératif le plus performant à ce jour, et quelques jours plus tard, elle a effectivement dissous une équipe travaillant sur le problème du développement de contrôles pour empêcher les systèmes d’IA « superintelligents » de devenir malveillants.

Le démantèlement de l’équipe a généré beaucoup de gros titres, comme on pouvait s’y attendre. Les rapports – y compris les nôtres – suggèrent qu’OpenAI a relégué la priorité à la recherche sur la Sécurité de l’équipe au profit du lancement de nouveaux produits comme le GPT-4o susmentionné, ce qui a finalement conduit à la démission des deux co-responsables de l’équipe, Jan Leike et le cofondateur d’OpenAI, Ilya Sutskever.

L’IA superintelligente est plus théorique que réelle à ce stade ; on ne sait pas quand – ou si – l’industrie technologique réalisera les percées nécessaires pour créer une IA capable d’accomplir n’importe quelle tâche qu’un humain peut accomplir. Mais la couverture de cette semaine semble confirmer une chose : que la direction d’OpenAI – en particulier le PDG Sam Altman – a de plus en plus choisi de donner la priorité aux produits plutôt qu’aux mesures de protection.

Publicité

Altman aurait «furieux » Sutskever en précipitant le lancement de fonctionnalités alimentées par l’IA lors de la première conférence de développement d’OpenAI en novembre dernier. Et il est aurait été critique à l’égard d’Helen Toner, directrice du Center for Security and Emerging Technologies de Georgetown et ancienne membre du conseil d’administration d’OpenAI, à propos d’un article qu’elle a co-écrit et qui présentait l’approche d’OpenAI en matière de sécurité sous un jour critique – au point qu’il a tenté de la pousser hors du conseil.

Au cours de la dernière année environ, OpenAI a laissé son magasin de chatbot se remplir de spam et (prétendument) youtube-transcripts-gpt-4-training-data-google »>données récupérées de YouTube contre les conditions d’utilisation de la plate-forme tout en exprimant l’ambition de laisser son IA générer des représentations de porno et de gore. Certes, la sécurité semble avoir été reléguée au second plan dans l’entreprise – et un nombre croissant de chercheurs en sécurité d’OpenAI sont arrivés à la conclusion que leur travail serait mieux soutenu ailleurs.

Voici quelques autres histoires d’IA à noter ces derniers jours :

  • OpenAI + Reddit : Dans d’autres nouvelles d’OpenAI, la société a conclu un accord avec Reddit pour utiliser les données du site social pour l’entraînement des modèles d’IA. Wall Street a accueilli l’accord à bras ouverts, mais les utilisateurs de Reddit ne seront peut-être pas aussi satisfaits.
  • L’IA de Google : Google a organisé sa conférence annuelle des développeurs I/O cette semaine, au cours de laquelle il a fait ses débuts une tonne des produits d’IA. Nous les avons rassemblés ici, du Veo générant des vidéos aux résultats organisés par l’IA dans Google Search en passant par les mises à niveau des applications de chatbot Gemini de Google.
  • Anthropic embauche Krieger : Mike Krieger, l’un des cofondateurs d’Instagram et, plus récemment, le cofondateur de l’application d’actualités personnalisées Artifact (que la société mère de fr.techtribune.net, Yahoo, a récemment acquise), rejoint Anthropic en tant que premier chef de produit de l’entreprise. Il supervisera à la fois les efforts de l’entreprise en matière de consommation et d’entreprise.
  • L’IA pour les enfants : Anthropic a annoncé la semaine dernière qu’il commencerait à permettre aux développeurs de créer des applications et des outils destinés aux enfants basés sur ses modèles d’IA, à condition qu’ils respectent certaines règles. Notamment, des rivaux comme Google interdisent à leur IA d’être intégrée dans des applications destinées aux plus jeunes.
  • Festival du film AI : La start-up d’IA Runway a organisé son deuxième festival du film sur l’IA au début du mois. La conclusion ? Certains des moments les plus puissants de la vitrine ne sont pas venus de l’IA, mais des éléments plus humains.

Plus d’apprentissage automatique

La sécurité de l’IA est évidemment au centre des préoccupations cette semaine avec les départs d’OpenAI, mais Google Deepmind va de l’avant avec un nouveau « cadre de sécurité aux frontières ». Fondamentalement, il s’agit de la stratégie de l’organisation pour identifier et, espérons-le, empêcher toute emballement des capacités – il n’est pas nécessaire que ce soit AGI, il peut s’agir d’un générateur de logiciels malveillants devenu fou ou autre.

deepmind miti
Crédits image : Google Deepmind

Le cadre comporte trois étapes : 1. Identifier les capacités potentiellement dangereuses d’un modèle en simulant ses trajectoires de développement. 2. EvaLuate régulièrement pour détecter quand ils ont atteint des « niveaux de capacité critiques » connus. 3. Appliquez un plan d’atténuation pour éviter l’exfiltration (par un autre ou par lui-même) ou un déploiement problématique. Il y a plus de détails ici. Cela peut sembler une série d’actions évidentes, mais il est important de les formaliser, sinon tout le monde s’y met. C’est comme ça que vous obtenez la mauvaise IA.

Un risque assez différent a été identifié par les chercheurs de Cambridge, qui s’inquiètent à juste titre de la prolifération des chatbots que l’on forme sur les données d’une personne décédée afin de fournir un simulacre superficiel de cette personne. Vous pouvez (comme moi) trouver tout le concept quelque peu odieux, mais il pourrait être utilisé dans la gestion du deuil et d’autres scénarios si nous sommes prudents. Le problème est que nous ne faisons pas attention.

manana
Crédits image : Université de Cambridge / T. Hollanek

« Ce domaine de l’IA est un champ de mines éthique. » a déclaré la chercheuse principale Katarzyna Nowaczyk-Basińska. « Nous devons commencer à réfléchir dès maintenant à la manière dont nous atténuons les risques sociaux et psychologiques liés à l’immortalité numérique, car la technologie est déjà là. » L’équipe identifie de nombreuses escroqueries, de bons et de mauvais résultats potentiels, et discute du concept en général (y compris les faux services) dans un article publié dans Philosophy & Technology. Black Mirror prédit l’avenir une fois de plus !

Dans les applications moins effrayantes de l’IA, physiciens au MIT recherchent un outil utile (pour eux) pour prédire la phase ou l’état d’un système physique, normalement une tâche statistique qui peut devenir onéreuse avec des systèmes plus complexes. Mais en entraînant un modèle d’apprentissage automatique sur les bonnes données et en l’ancrant avec certaines caractéristiques matérielles connues d’un système, vous disposez d’un moyen beaucoup plus efficace de vous y prendre. Juste un autre exemple de la façon dont le ML trouve des niches même dans la science avancée.

À CU Boulder, ils parlent de la façon dont l’IA peut être utilisée dans la gestion des catastrophes. La technologie peut être utile pour prédire rapidement où les ressources seront nécessaires, cartographier les dégâts, voire aider à former les intervenants, mais les gens hésitent (naturellement) à l’appliquer dans des scénarios de vie ou de mort.

cu boulder ai workshop
Participants à l’atelier.
Crédits image : CU Boulder

Professeur Amir Behzadan tente de faire avancer les choses, en déclarant que « l’IA centrée sur l’humain conduit à des pratiques plus efficaces d’intervention et de rétablissement en cas de catastrophe en promouvant la collaboration, la compréhension et l’inclusion entre les membres de l’équipe, les survivants et les parties prenantes ». Ils en sont encore à la phase d’atelier, mais il est important de réfléchir profondément à ce sujet avant d’essayer, par exemple, d’automatiser la distribution de l’aide après un ouragan.

Enfin, quelques travaux intéressants de Disney Research, qui cherchait à diversifier la production des modèles de génération d’images de diffusion, qui peuvent produire des résultats similaires encore et encore pour certaines invites. Leur solution ? « Notre stratégie d’échantillonnage recuit le signal de conditionnement en ajoutant un bruit gaussien programmé et monotone décroissant au vecteur de conditionnement pendant l’inférence pour équilibrer la diversité et l’alignement des conditions. » Je ne pourrais tout simplement pas mieux le dire moi-même.

CADS Image
Crédits image : Recherche Disney

Le résultat est une plus grande diversité d’angles, de paramètres et d’aspect général dans les sorties d’image. Parfois vous le voulez, parfois non, mais c’est bien d’avoir l’option.

5/5 - (117 votes)
Publicité
Article précédentLes entreprises tentent d’attirer davantage d’utilisateurs de smartphones à travers l’Afrique. Mais il y a des risques
Article suivantAdaptation de l’anime Garena Free Fire annoncée

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici