Amazon jette son chapeau dans le ring de l’IA générative. Mais plutôt que de créer entièrement des modèles d'IA par elle-même, elle recrute des tiers pour héberger des modèles sur AWS.

AWS a dévoilé aujourd'hui Amazon Bedrock, qui offre un moyen de créer des applications génératives basées sur l'IA via des modèles pré-entraînés provenant de startups, notamment Laboratoires AI21, IA anthropique et de stabilité. Disponible en « aperçu limité », Bedrock offre également l’accès aux Titan FM (modèles de base), une famille de modèles formés en interne par AWS.

« Appliquer l'apprentissage automatique au monde réel – résoudre de vrais problèmes commerciaux à grande échelle – est ce que nous faisons le mieux », a déclaré Vasi Philomin, vice-président de l'IA générative chez AWS, à fr.techtribune.net lors d'un entretien téléphonique. « Nous pensons que chaque application peut être réinventée grâce à l’IA générative. »

Les débuts de Bedrock ont ​​été quelque peu télégraphiés par les partenariats récemment signés par AWS avec des startups d'IA générative au cours des derniers mois, en plus de ses investissements croissants dans la technologie nécessaire à la création d'applications d'IA générative.

En novembre dernier, Stability AI a choisi AWS comme fournisseur de cloud préféré, et en mars, Hugging Face et AWS ont collaboré pour intégrer les modèles de génération de texte du premier sur la plateforme AWS. Plus récemment, AWS a lancé un accélérateur d'IA générative pour les startups et a annoncé qu'il travaillerait avec Nvidia pour construire une infrastructure « nouvelle génération » pour la formation des modèles d'IA.

Publicité

Modèles de base et personnalisés

Bedrock est l'action la plus puissante d'Amazon à ce jour sur le marché de l'IA générative, qui pourrait valoir près de 110 milliards de dollars d'ici 2030, selon aux estimations de Grand View Research.

Avec Bedrock, les clients AWS peuvent choisir d'exploiter les modèles d'IA de différents fournisseurs, dont AWS, via une API. Les détails sont un peu flous : Amazon n'a pas annoncé de prix officiels, par exemple. Mais la société a fait soulignent que Bedrock s'adresse aux grands clients qui créent des applications d'IA « à l'échelle de l'entreprise », ce qui le différencie de certains services d'hébergement de modèles d'IA, comme Replicate (ainsi que ses rivaux historiques google Cloud et Azure).

On suppose que les fournisseurs de modèles d'IA génératifs ont été incités par la portée d'AWS ou le partage potentiel des revenus à rejoindre Bedrock. Amazon n'a cependant pas révélé les termes des modèles de licence ou d'accord d'hébergement.

Les modèles tiers hébergés sur Bedrock incluent la famille Jurassic-2 d'AI21 Labs, qui est multilingue et peut générer du texte en espagnol, français, allemand, portugais, italien et néerlandais. Claude, le modèle d'Anthropic sur Bedrock, peut effectuer une gamme de tâches conversationnelles et de traitement de texte. Pendant ce temps, la suite de modèles texte-image hébergés par Bedrock de Stability AI, y compris Stable Diffusion, peut générer des images, des œuvres d'art, des logos et des conceptions graphiques.

Crédits images : Amazone

En ce qui concerne les offres sur mesure d'Amazon, la famille Titan FM comprend actuellement deux modèles, et probablement d'autres à venir : un modèle de génération de texte et un modèle d'intégration. Le modèle de génération de texte, semblable au GPT-4 d'OpenAI (mais pas nécessairement à égalité en termes de performances), peut effectuer des tâches telles que la rédaction d'articles de blog et d'e-mails, la synthèse de documents et l'extraction d'informations à partir de bases de données. Le modèle d'intégration traduit les entrées de texte telles que des mots et des phrases en représentations numériques, appelées intégrations, qui contiennent la signification sémantique du texte. Philomin affirme qu'il est similaire à l'un des modèles qui alimentent les recherches sur Amazon.com.

Les clients AWS peuvent personnaliser n'importe quel modèle Bedrock en pointant le service vers quelques exemples étiquetés dans Amazon S3, le plan de stockage cloud d'Amazon – aussi peu que 20 suffisent. Aucune donnée client n'est utilisée pour former les modèles sous-jacents, indique Amazon.

« Chez AWS… nous avons joué un rôle clé en démocratisant l'apprentissage automatique et en le rendant accessible à tous ceux qui souhaitent l'utiliser », a déclaré Philomin. « Amazon Bedrock est le moyen le plus simple de créer et de faire évoluer des applications d'IA générative avec des modèles de base. »

Bien sûr, étant donné les questions juridiques sans réponse concernant l’IA générative, on se demande exactement combien de clients vont mordre.

Microsoft a connu du succès avec sa suite de modèles d'IA générative, Azure OpenAI Service, qui regroupe les modèles OpenAI avec des fonctionnalités supplémentaires destinées aux entreprises clientes. En mars, plus de 1 000 clients utilisaient Azure OpenAI Service, a déclaré Microsoft dans un communiqué. article de blog.

Mais plusieurs poursuites sont en cours concernant la technologie d'IA générative de sociétés telles qu'OpenAI et Stability AI, intentées par des plaignants qui allèguent que des données protégées par le droit d'auteur, principalement des œuvres d'art, ont été utilisées sans autorisation pour entraîner les modèles génératifs. (Les modèles d’IA générative « apprennent » à créer de l’art, du code et bien plus encore en « s’entraînant » sur des exemples d’images et de texte, généralement récupérés sans discernement sur le Web.) Un autre cas fait son chemin devant les tribunaux cherche à établir si les modèles de génération de code qui ne donnent pas d'attribution ou de crédit peuvent en fait être commercialisés, et un maire australien a menacé d'intenter une action en diffamation contre OpenAI pour inexactitudes jailli par son modèle génératif ChatGPT.

Franchement, Philomin n'a pas inspiré beaucoup de confiance, refusant de dire sur quelles données exactement la famille Titan FM d'Amazon a été formée. Au lieu de cela, il a souligné que les modèles Titan ont été conçus pour détecter et supprimer le contenu « nuisible » dans les données fournies par les clients AWS pour la personnalisation, rejeter les entrées de contenu « inappropriées » des utilisateurs et filtrer les sorties contenant des discours de haine, des grossièretés et de la violence.

Bien entendu, même les meilleurs systèmes de filtrage peuvent être contournés, comme le démontre ChatGPT. Des attaques dites par injection rapide contre ChatGPT et des modèles similaires ont été utilisées pour écrire des logiciels malveillants, identifier des exploits dans le code open source et générer du contenu odieusement sexiste, raciste et désinformationnel. (Les modèles d'IA générative ont tendance à amplifier les biais dans les données d'entraînement ou, s'ils manquent de données d'entraînement pertinentes, ils inventent simplement les choses.)

Mais Philomin a écarté ces inquiétudes.

« Nous nous engageons à utiliser ces technologies de manière responsable », a-t-il déclaré. « Nous surveillons le paysage réglementaire… nous avons de nombreux avocats qui nous aident à déterminer quelles données nous pouvons utiliser et lesquelles nous ne pouvons pas utiliser. »

Mis à part les tentatives d'assurance de Philomin, les marques ne voudront peut-être pas être responsables de tout ce qui pourrait mal tourner. (En cas de procès, il n'est pas tout à fait clair si les clients AWS, AWS lui-même ou le créateur du modèle incriminé seraient tenus responsables.) Mais les clients individuels pourraient le faire, en particulier s'il n'y a aucun frais pour ce privilège.

Lancement de CodeWhisperer, Trainium et Inferentia2 en GA

À ce sujet et coïncidant avec sa grande poussée d'IA générative aujourd'hui, Amazon a créé CodeWhisperer, son service de génération de code alimenté par l'IA, gratuitement pour les développeurs, sans aucune restriction d'utilisation.

Cette décision suggère que CodeWhisperer n’a pas connu l’adoption qu’Amazon espérait. Son principal rival, Copilot de GitHub, comptait plus d'un million d'utilisateurs en janvier, dont des milliers sont des entreprises clientes. CodeWhisperer a sûrement du chemin à rattraper – ce qu'il vise à faire du côté de l'entreprise avec le lancement simultané de CodeWhisperer Professional Tier. CodeWhisperer Professional Tier ajoute l'authentification unique avec l'intégration d'AWS Identity and Access Management ainsi que des limites plus élevées d'analyse des vulnérabilités de Sécurité.

CodeWhisperer a été lancé fin juin dans le cadre du Boîte à outils IDE AWS et les extensions IDE AWS Toolkit en réponse, en quelque sorte, au Copilot susmentionné. Formé sur des milliards de lignes de code open source accessible au public et sur la propre base de code d'Amazon, ainsi que sur la documentation et le code des forums publics, CodeWhisperer peut compléter automatiquement des fonctions entières dans des langages comme Java, JavaScript et Python en se basant uniquement sur un commentaire ou quelques frappes.

Amazon CodeWhisperer

Crédits images : Amazone

CodeWhisperer prend désormais en charge plusieurs langages de programmation supplémentaires – notamment Go, Rust, PHP, Ruby, Kotlin, C, C++, les scripts Shell, SQL et Scala – et, comme auparavant, met en évidence et filtre éventuellement la licence associée aux fonctions qu'il suggère et qui ressemblent. aux extraits existants trouvés dans ses données de formation.

La mise en évidence est une tentative de parer aux défis juridiques auxquels GitHub est confronté avec Copilot. Le temps nous dira si c’est réussi.

« Les développeurs peuvent devenir beaucoup plus productifs avec ces outils », a déclaré Philomin. « Il est difficile pour les développeurs d'être à jour sur tout… des outils comme celui-ci les aident à ne pas s'en soucier. »

Sur un territoire moins controversé, Amazon a annoncé aujourd'hui qu'il lancement des instances Elastic Cloud Compute (EC2) Inf2 en disponibilité générale, alimentées par les puces AWS Inferentia2 de la société, qui ont été présentées en avant-première l'année dernière lors de la conférence re:Invent d'Amazon. Les instances Inf2 sont conçues pour accélérer les temps d'exécution de l'IA, offrant un débit apparemment meilleur et une latence plus faible pour des performances globales de prix d'inférence améliorées.

De plus, les instances Amazon EC2 Trn1n optimisées par AWS Trainium, la puce conçue sur mesure par Amazon pour la formation en IA, est également généralement disponible pour les clients à partir d'aujourd'hui, a annoncé Amazon. Ils offrent jusqu'à 1 600 Gbit/s de bande passante réseau et sont conçus pour offrir des performances jusqu'à 20 % supérieures à celles du Trn1 pour les grands modèles gourmands en réseau, selon Amazon.

Inf2 et Trn1n sont tous deux en concurrence avec les offres concurrentes de Google et Microsoft, comme les puces TPU de Google pour la formation en IA.

« AWS offre l'infrastructure cloud la plus efficace pour l'IA générative », a déclaré Philomin avec confiance. « L'un des besoins des clients concerne les coûts adéquats pour traiter ces modèles… C'est l'une des raisons pour lesquelles de nombreux clients n'ont pas mis ces modèles en production. »

Ce sont des mots combatifs : la croissance de l’IA générative aurait mettait Azure à genoux. Amazon subira-t-il le même sort ? C'est à déterminer.

4.6/5 - (8 votes)
Publicité
Article précédentTendance du salon international des constructeurs : 75,4 milliards de gadgets d'ici 2025, préparant les maisons intelligentes du futur
Article suivantEn route vers PGC : distribution des points PUBG Esports 2024 – ACTUALITÉS

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici