Selon certaines rumeurs, Apple adopterait une approche différente pour déployer l'IA générative dans iOS 18 et dans les modèles d'iPhone de nouvelle génération, en conserver tous les traitements sur l'appareil plutôt que de l'envoyer vers le cloud et de le renvoyer pour obtenir des réponses.

Ces rapports semblent bien fondés compte tenu de l'approche robuste d'Apple en matière de confidentialité des utilisateurs et de forme passée. Garder les demandes entièrement locales sera probablement plus rapide et plus sûr que d’envoyer et revenir les informations dans la stratosphère.

Cependant, il n'est pas clair si les modèles intégrés à l'appareil auront accès à la même richesse de connaissances que les modèles qui consultent le cloud, comme Gemini de Google et ChatGPT d'OpenAI. Samsung, par exemple, utilise une combinaison de prouesses sur appareil et de traitement cloud pour ses IA galaxie. Apple est la rumeur dit qu'il réfléchirait à un accord avec Google pour combler les lacunes en apportant Gemini aux iPhones.

Il n'est pas non plus clair si l'utilisation d'un modèle intégré limitera les nouvelles fonctionnalités aux prochaines générations de matériel iPhone, plutôt qu'aux appareils existants.

Publicité
Obtenez un iPhone 12 Pro Max « comme neuf » pour seulement 449 £

Obtenez un iPhone 12 Pro Max « comme neuf » pour seulement 449 £

Vous pouvez désormais acheter un iPhone 12 Pro Max reconditionné « comme neuf » pour seulement 449 £, ce qui est résolument un prix milieu de gamme.

  • GiffGaff
  • État reconditionné « comme neuf »
  • Maintenant 449 £

Voir l'offre

Il y a maintenant un peu plus de preuves suggérant que c'est précisément la voie qu'Apple cherchera à emprunter. Cette semaine, Apple a publié un certain nombre de grands modèles de langage open source qui, vous l'aurez deviné, sont conçus pour le traitement sur l'appareil.

Comme MacRumeurs rapports, la société a publié un papier blanc sur le lancement de huit OpenELM (Open-source Efficient Language Models) au sein de la communauté IA sur l'application Hugging Face.

Apple estime que les performances sont comparables à celles d'autres LLM qui utilisent l'aide du cloud, malgré moins de formation. Il espère que les développeurs s'impliqueront pour contribuer à faire progresser la fiabilité et la fiabilité des résultats.

Le document explique : « À cette fin, nous publions OpenELM, un modèle de langage ouvert de pointe. OpenELM utilise une stratégie de mise à l'échelle par couche pour allouer efficacement les paramètres au sein de chaque couche du modèle de transformateur, conduisant à une précision améliorée. Par exemple, avec un budget de paramètres d'environ un milliard de paramètres, OpenELM présente une amélioration de 2,36 % en termes de précision par rapport à OLMo tout en nécessitant 2 fois moins de jetons de pré-entraînement.

« Contrairement aux pratiques antérieures qui fournissent uniquement des pondérations de modèle et du code d'inférence, et pré-entraînent sur des ensembles de données privés, notre version inclut le cadre complet pour l'entraînement et l'évaluation du modèle de langage sur des ensembles de données accessibles au public, y compris les journaux d'entraînement, plusieurs points de contrôle et pré-entraînement. -configurations de formation. Nous publions également du code pour convertir les modèles en bibliothèque MLX à des fins d'inférence et de réglage fin sur les appareils Apple. Cette version complète vise à responsabiliser et à renforcer la communauté de recherche ouverte, ouvrant la voie à de futurs efforts de recherche ouverte.

Avez-vous de grands espoirs dans la plongée d'Apple dans l'IA générative dans iOS 18 et les futurs iPhones ? Faites-le-nous savoir @trustedreviews sur Twitter.

->Google Actualités

4.7/5 - (4 votes)
Publicité
Article précédentFortnite vous permettra de masquer les émotes « conflictuelles », y compris les plus populaires du jeu
Article suivantLa star de The Last of Us, Bella Ramsey, décroche le prochain rôle principal au cinéma

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici