Lors de sa toute première conférence des développeurs, OpenAI a lancé un nouveau modèle appelé GPT-4 Turbo. Il est meilleur que le modèle GPT-4 à tous égards et apporte de nombreux nouveaux changements que les développeurs et les utilisateurs généraux réclament depuis longtemps. De plus, le nouveau modèle est mis à jour jusqu’en avril 2023 et est beaucoup moins cher à utiliser. Pour tout savoir sur le modèle GPT-4 Turbo d’OpenAI, continuez à lire.
Le modèle GPT-4 Turbo est là !
Le modèle GPT-4 Turbo prend en charge le plus grand fenêtre contextuelle de 128 Ko, ce qui est encore plus élevé que la longueur du contexte de 100 Ko de Claude. Le modèle GPT-4 d’OpenAI était généralement disponible avec un jeton maximum de 8K et 32K pour certains utilisateurs. Désormais, selon OpenAI, le nouveau modèle peut ingérer plus de 300 pages d’un livre en une seule fois, et c’est impressionnant.
N’oubliez pas qu’OpenAI a enfin mis à jour le date limite des connaissances jusqu’en avril 2023 sur le modèle GPT-4 Turbo. Du côté des utilisateurs, cela a également amélioré l’expérience ChatGPT, et les utilisateurs peuvent commencer à utiliser le modèle GPT-4 Turbo à partir d’aujourd’hui. Ce qui est étonnant, c’est que vous n’avez pas besoin de sélectionner un mode particulier pour accomplir une tâche. ChatGPT peut désormais choisir intelligemment ce qu’il faut utiliser en cas de besoin. Il peut naviguer sur le Web, utiliser un plugin, analyser le code et bien plus encore, le tout dans un seul mode.
Pour les développeurs, beaucoup de nouveautés ont été annoncées. Tout d’abord, l’entreprise a lancé un nouveau modèle de synthèse vocale (TTS). Il génère une parole incroyablement naturelle dans 6 préréglages différents. De plus, OpenAI a publié la prochaine version de son modèle de reconnaissance vocale open source, Chuchotement V3et il sera bientôt disponible via l’API.
Ce qui est intéressant c’est que API pour Dall -E 3, GPT-4 Turbo avec Vision, et le nouveau modèle TTS sont sortis aujourd’hui. Coke lance aujourd’hui une campagne Diwali qui permet aux clients de générer des cartes Diwali à l’aide de l’API Dall -E 3. Passons maintenant à un mode JSON qui permet au modèle de répondre avec une sortie JSON valide.
De plus, l’appel de fonction a également été amélioré sur le modèle le plus récent. OpenAI permet également aux développeurs d’avoir plus contrôle du modèle. Vous pouvez maintenant définir le paramètre seed pour obtenir des sorties cohérentes et reproductibles.
En ce qui concerne le support de réglage fin, les développeurs peuvent désormais demander un réglage fin de GPT-4 dans le cadre du programme d’accès expérimental. GPT-4 a été mis à niveau vers une limite de débit plus élevée – le double de la limite de jetons/minute. Enfin, en ce qui concerne les prix, le modèle GPT-4 Turbo est nettement moins cher que le GPT-4. Il en coûte 1 centime pour 1 000 jetons d’entrée et 3 centimes pour 1 000 jetons de sortie. Effectivement, GPT-4 Turbo est 2,75 fois moins cher que GPT-4.
Alors, que pensez-vous du nouveau modèle GPT-4 Turbo ? Faites-nous savoir dans la section commentaire ci-dessous.