Suivre le rythme d’un secteur aussi rapide que l’IA est un défi de taille. Donc, jusqu’à ce qu’une IA puisse le faire pour vous, voici un tour d’horizon pratique des histoires récentes dans le monde de l’apprentissage automatique, ainsi que des recherches et des expériences notables que nous n’avons pas couvertes seules.

D’ailleurs, fr.techtribune.netprévoit de lancer une newsletter sur l’IA le 5 juin. Restez à l’écoute. En attendant, nous augmentons la cadence de notre chronique semi-régulière sur l’IA, qui était auparavant deux fois par mois (environ), à une fois par semaine – alors soyez à l’affût d’autres éditions.

Cette semaine dans le domaine de l’IA, OpenAI a lancé des plans à prix réduit pour les organisations à but non lucratif et les clients de l’éducation et a levé le rideau sur ses efforts les plus récents pour empêcher les mauvais acteurs d’abuser de ses outils d’IA. Il n’y a pas grand-chose à critiquer, du moins pas de l’avis de l’auteur. Mais je volonté disent que le déluge d’annonces semblait opportun pour contrer la mauvaise presse de l’entreprise ces derniers temps.

Commençons par Scarlett Johansson. OpenAI a supprimé l’une des voix utilisées par son chatbot alimenté par l’IA ChatGPT après que les utilisateurs aient souligné qu’elle ressemblait étrangement à celle de Johansson. Johansson a ensuite publié une déclaration disant qu’elle avait engagé un conseiller juridique pour se renseigner sur la voix et obtenir des détails exacts sur la façon dont elle avait été développée – et qu’elle avait refusé les demandes répétées d’OpenAI d’accorder une licence pour sa voix pour ChatGPT.

Maintenant, un article dans le Washington Post implique qu’OpenAI n’a en fait pas cherché à cloner la voix de Johansson et que toute similitude était accidentelle. Mais pourquoi, alors, le PDG d’OpenAI, Sam Altman, a-t-il contacté Johansson et l’a-t-il exhortée à reconsidérer sa décision deux jours avant une démo éclatante qui mettait en vedette la voix sonore ? C’est un peu suspect.

Publicité

Ensuite, il y a les problèmes de confiance et de Sécurité d’OpenAI.

Comme nous l’avons signalé plus tôt dans le mois, l’équipe Superalignment d’OpenAI, depuis dissoute, responsable du développement de moyens de gouverner et de diriger les systèmes d’IA « superintelligents », s’est vu promettre 20 % des ressources de calcul de l’entreprise – mais n’en a jamais reçu (et rarement) qu’une fraction de cette somme. Cela (entre autres raisons) a conduit à la démission des deux co-responsables des équipes, Jan Leike et Ilya Sutskever, ancien scientifique en chef d’OpenAI.

Près d’une douzaine d’experts en sécurité ont quitté OpenAI au cours de l’année écoulée ; plusieurs, dont Leike, ont publiquement exprimé leurs inquiétudes quant au fait que l’entreprise donne la priorité aux projets commerciaux plutôt qu’aux efforts de sécurité et de transparence. En réponse aux critiques, OpenAI a formé un nouveau comité pour superviser les décisions de sûreté et de sécurité liées aux projets et aux opérations de l’entreprise. Mais il a composé le comité d’initiés de l’entreprise – y compris Altman – plutôt que d’observateurs extérieurs. Ceci comme OpenAI aurait apple-deal »>envisage d’amerrir sa structure à but non lucratif en faveur d’un modèle traditionnel à but lucratif.

Des incidents comme ceux-ci rendent plus difficile la confiance en OpenAI, une entreprise dont le pouvoir et l’influence augmentent chaque jour (voir : ses accords avec les éditeurs de presse). Peu d’entreprises, voire aucune, sont dignes de confiance. Mais les technologies d’OpenAI qui perturbent le marché rendent les violations d’autant plus troublantes.

Cela n’aide pas les choses qu’Altman lui-même ne soit pas exactement un phare de vérité.

Lorsque les nouvelles d’OpenAI Tactiques agressives envers les anciens employés broke – tactiques qui impliquaient de menacer les employés de perdre leurs capitaux propres, ou d’empêcher les ventes d’actions, s’ils ne signaient pas d’accords de non-divulgation restrictifs – Altman s’est excusé et a affirmé qu’il n’avait aucune connaissance des politiques. Mais selon Vox, la signature d’Altman figure sur les documents de constitution qui ont promulgué les politiques.

Et si Helen Toner, ancienne membre du conseil d’administration d’OpenAI est à croire – l’un des anciens membres du conseil d’administration qui a tenté de démettre Altman de son poste à la fin de l’année dernière – Altman a dissimulé des informations, déformé les choses qui se passaient chez OpenAI et, dans certains cas, menti carrément au conseil d’administration. Toner dit que le conseil a appris la sortie de ChatGPT via Twitter, et non par Altman ; qu’Altman a donné des informations erronées sur les pratiques de sécurité formelles d’OpenAI ; et qu’Altman, mécontent d’un article universitaire co-écrit par Toner qui jetait une lumière critique sur OpenAI, a tenté de manipuler les membres du conseil d’administration pour pousser Toner hors du conseil.

Rien de tout cela n’est de bon augure.

Voici quelques autres histoires d’IA à noter ces derniers jours :

  • Le clonage vocal simplifié : Un nouveau rapport du Center for Countering Digital Hate révèle que les services de clonage vocal alimentés par l’IA rendent la falsification de la déclaration d’un politicien assez triviale.
  • Les aperçus de l’IA de google ont du mal : AI Overviews, les résultats de recherche générés par l’IA que GoogLe a commencé à se déployer plus largement plus tôt ce mois-ci sur Google Search, besoin de travail. La société l’admet, mais affirme qu’elle itére rapidement. (Nous verrons.)
  • Paul Graham sur Altman : Dans une série de messages sur X, Paul Graham, cofondateur de l’accélérateur de startups Y Combinator, a balayé les affirmations selon lesquelles Altman aurait subi des pressions pour démissionner de son poste de président de Y Combinator en 2019 en raison de conflits d’intérêts potentiels. (Y Combinator a une petite participation dans OpenAI.)
  • xAI lève 6 milliards de dollars : La startup d’IA d’Elon Musk, xAI, a levé 6 milliards de dollars de financement alors que Musk consolide des capitaux pour concurrencer agressivement des rivaux tels qu’OpenAI, Microsoft et Alphabet.
  • La nouvelle fonctionnalité d’IA de Perplexity : Avec sa nouvelle fonctionnalité Perplexity Pages, la startup d’IA Perplexity vise à aider les utilisateurs à créer des rapports, des articles ou des guides dans un format plus attrayant visuellement, rapporte Ivan.
  • Les chiffres préférés des modèles d’IA : Devin écrit sur les chiffres choisis par différents modèles d’IA lorsqu’ils sont chargés de donner une réponse aléatoire. Il s’avère qu’ils ont des favoris – un reflet des données sur lesquelles chacun a été formé.
  • Mistral sort Codestral : Mistral, la startup française d’IA soutenue par Microsoft et évaluée à 6 milliards de dollars, a publié son premier modèle d’IA générative pour le codage, baptisé Codestral. Mais il ne peut pas être utilisé commercialement, grâce à la licence assez restrictive de Mistral.
  • Chatbots et confidentialité : Natasha écrit sur le groupe de travail ChatGPT de l’Union européenne et sur la façon dont il offre un premier aperçu de la conformité du chatbot IA en matière de confidentialité.
  • Le générateur de sons d’ElevenLabs : La start-up de clonage vocal ElevenLabs a présenté un nouvel outil, annoncé pour la première fois en février, qui permet aux utilisateurs de générer des effets sonores via des invites.
  • Interconnexions pour puces d’IA : Des géants de la technologie tels que Microsoft, Google et Intel – mais pas Arm, Nvidia ou AWS – ont formé un groupe industriel, le UALink Promoter Group, pour aider à développer des composants de puces d’IA de nouvelle génération.

[ad_2]

5/5 - (247 votes)
Publicité
Article précédentL’anime A Journey Through Another World sera présenté en première le 7 juillet
Article suivantTop 5 des unités multimédias à découvrir en 2024

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici