Sam Altman annonce le gpt-4 turbo

Lors de sa toute première conférence des développeurs, OpenAI a lancé un nouveau modèle appelé GPT-4 Turbo. Il est meilleur que le modèle GPT-4 à tous égards et apporte de nombreux nouveaux changements que les développeurs et les utilisateurs généraux réclament depuis longtemps. De plus, le nouveau modèle est mis à jour jusqu’en avril 2023 et est beaucoup moins cher à utiliser. Pour tout savoir sur le modèle GPT-4 Turbo d’OpenAI, continuez à lire.

Le modèle GPT-4 Turbo est là !

Le modèle GPT-4 Turbo prend en charge le plus grand fenêtre contextuelle de 128 Ko, ce qui est encore plus élevé que la longueur du contexte de 100 Ko de Claude. Le modèle GPT-4 d’OpenAI était généralement disponible avec un jeton maximum de 8K et 32K pour certains utilisateurs. Désormais, selon OpenAI, le nouveau modèle peut ingérer plus de 300 pages d’un livre en une seule fois, et c’est impressionnant.

Sam Altman annonce la date limite des connaissances GPT-4 Turbo

N’oubliez pas qu’OpenAI a enfin mis à jour le date limite des connaissances jusqu’en avril 2023 sur le modèle GPT-4 Turbo. Du côté des utilisateurs, cela a également amélioré l’expérience ChatGPT, et les utilisateurs peuvent commencer à utiliser le modèle GPT-4 Turbo à partir d’aujourd’hui. Ce qui est étonnant, c’est que vous n’avez pas besoin de sélectionner un mode particulier pour accomplir une tâche. ChatGPT peut désormais choisir intelligemment ce qu’il faut utiliser en cas de besoin. Il peut naviguer sur le Web, utiliser un plugin, analyser le code et bien plus encore, le tout dans un seul mode.

Sam Altman démontrant les nouvelles fonctionnalités du modèle turbo gpt-4

Pour les développeurs, beaucoup de nouveautés ont été annoncées. Tout d’abord, l’entreprise a lancé un nouveau modèle de synthèse vocale (TTS). Il génère une parole incroyablement naturelle dans 6 préréglages différents. De plus, OpenAI a publié la prochaine version de son modèle de reconnaissance vocale open source, Chuchotement V3et il sera bientôt disponible via l’API.

Publicité

Ce qui est intéressant c’est que API pour Dall -E 3, GPT-4 Turbo avec Vision, et le nouveau modèle TTS sont sortis aujourd’hui. Coke lance aujourd’hui une campagne Diwali qui permet aux clients de générer des cartes Diwali à l’aide de l’API Dall -E 3. Passons maintenant à un mode JSON qui permet au modèle de répondre avec une sortie JSON valide.

De plus, l’appel de fonction a également été amélioré sur le modèle le plus récent. OpenAI permet également aux développeurs d’avoir plus contrôle du modèle. Vous pouvez maintenant définir le paramètre seed pour obtenir des sorties cohérentes et reproductibles.

Sam Altman annonce le prix du turbo gpt-4

En ce qui concerne le support de réglage fin, les développeurs peuvent désormais demander un réglage fin de GPT-4 dans le cadre du programme d’accès expérimental. GPT-4 a été mis à niveau vers une limite de débit plus élevée – le double de la limite de jetons/minute. Enfin, en ce qui concerne les prix, le modèle GPT-4 Turbo est nettement moins cher que le GPT-4. Il en coûte 1 centime pour 1 000 jetons d’entrée et 3 centimes pour 1 000 jetons de sortie. Effectivement, GPT-4 Turbo est 2,75 fois moins cher que GPT-4.

Alors, que pensez-vous du nouveau modèle GPT-4 Turbo ? Faites-nous savoir dans la section commentaire ci-dessous.

[ad_2]

4.2/5 - (19 votes)
Publicité
Article précédentÉloge des montagnes étranges et inhumaines de The Legend of Zelda : Breath of the Wild
Article suivantRapport : les utilisateurs de Minecraft sont les plus ciblés par les cybermenaces sur ordinateur
Avatar
Violette Laurent est une blogueuse tech nantaise diplômée en communication de masse et douée pour l'écriture. Elle est la rédactrice en chef de fr.techtribune.net. Les sujets de prédilection de Violette sont la technologie et la cryptographie. Elle est également une grande fan d'Anime et de Manga.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici