Après avoir dévoilé son abonnement ChatGPT Plus en février dernier, OpenAI continue son développement en présentant deux nouvelles API pour ses modèles ChatGPT et Whisper. L’objectif est de permettre aux développeurs d’accéder à des fonctionnalités avancées en matière de langage et de synthèse vocale.
Grâce à une série d’optimisations à l’échelle du système, nous avons réussi à réduire les coûts de ChatGPT de 90 % depuis décembre ; nous faisons maintenant profiter les utilisateurs de l’API de ces économies, souligne OpenAI.
L’API ChatGPT pour un service conversationnel avancé
L’API ChatGPT est alimentée par GPT-3.5 turbo, le même modèle d’IA que son générateur de texte ChatGPT. Côté prix, il faut compter 0,002 $ pour 1 000 jetons, ce qui est « 10 fois moins cher » que les autres modèles GPT 3.5 d’OpenAI.
Certaines entreprises ont déjà commencé à utiliser l’API ChatGPT à l’instar de Snapchat qui vient juste de lancer un chatbot personnalisable nommé My AI pour les utilisateurs de Snapchat+, son abonnement payant. Shopify a également fait usage de l’API pour son application Shop. Son nouvel assistant d’achat, qui est alimenté par l’IA, est en capacité d’analyser des millions de produits pour trouver plus rapidement ce que les visiteurs recherchent et apporter des réponses plus pertinentes.
Demander un accès à l’API
Les utilisateurs de l’API de ChatGPT peuvent s’attendre à des améliorations continues des modèles et à la possibilité de choisir une capacité dédiée pour un meilleur contrôle des modèles.
L’API Whisper pour la transcription et traduction
En septembre 2022, OpenAI a mis en libre accès Whisper, son modèle qui intègre la reconnaissance automatique de la parole (ASR, Automatic Speech Recognition). Ses capacités : la transcription en plusieurs langues et la traduction de ces langues vers l’anglais. Whisper prend en charge les formats suivants : m4a, mp3, mp4, mpeg, mpga, wav, webm. Côté prix, il faut compter 0,006 $ par minute. Pour rappel, ce modèle a été entraîné sur 680 000 heures de données multilingues et multitâches collectées sur le web.
Les développeurs peuvent désormais utiliser notre modèle open-source Whisper large-v2 dans l’API avec des résultats beaucoup plus rapides et rentables, met en avant OpenAI.
Dans son blog post, OpenAI met en avant l’exemple de Speak, une application d’apprentissage des langues connue en Corée du Sud qui a déjà opté pour l’API Whisper afin d’alimenter un nouveau produit et compagnon d’apprentissage de l’anglais par l’IA. La société américaine souligne l’avantage de son modèle : « La précision de niveau humain de Whisper pour les apprenants en langues de tous niveaux permet de s’entraîner à la conversation de manière ouverte et d’obtenir un retour très précis. »