OpenAI lance GPT-4 Turbo et un programme de réglage fin pour GPT-4

OpenAI lance GPT-4 Turbo et un programme de réglage fin pour GPT-4

Aujourd’hui, lors de sa toute première conférence de développeurs, OpenAI a dévoilé GPT-4 Turbo, une version améliorée de son modèle phare d’IA génératrice de texte, GPT-4, qui, selon l’entreprise, est à la fois « plus puissante » et moins coûteuse.

GPT-4 Turbo se décline en deux versions : une version qui analyse strictement le texte et une seconde version qui comprend le contexte du texte et des images. Le modèle d’analyse de texte est disponible en avant-première via une API à partir d’aujourd’hui, et OpenAI indique qu’elle prévoit de rendre les deux versions généralement disponibles « dans les semaines à venir ».

Les prix sont de 0,01 $ pour 1 000 tokens d’entrée (~750 mots), où les « tokens » représentent des morceaux de texte brut – par exemple, le mot « fantastic » divisé en « fan », « tas » et « tic ») et de 0,03 $ pour 1 000 tokens de sortie. (Entrée sont des jetons introduits dans le modèle, tandis que sortie sont des jetons que le modèle génère sur la base des jetons d’entrée). Le prix du traitement d’image GPT-4 Turbo dépendra de la taille de l’image. Par exemple, le passage d’une image de 1080×1080 pixels à GPT-4 Turbo coûtera 0,00765 $, selon OpenAI.

« Nous avons optimisé les performances afin de pouvoir offrir GPT-4 Turbo à un prix trois fois moins cher pour les jetons d’entrée et deux fois moins cher pour les jetons de sortie par rapport à GPT-4 « , écrit OpenAI dans un billet de blog partagé avec TechCrunch ce matin.

GPT-4 Turbo se targue de plusieurs améliorations par rapport à GPT-4, l’une d’entre elles étant une base de connaissances plus récente sur laquelle s’appuyer pour répondre aux demandes.

Comme tous les modèles de langage, GPT-4 Turbo est essentiellement un outil statistique permettant de prédire des mots. Alimenté par un très grand nombre d’exemples, provenant pour la plupart du web, GPT-4 Turbo a appris la probabilité d’apparition des mots en se basant sur des modèles, y compris le contexte sémantique du texte environnant. Par exemple, si l’on considère un courriel typique se terminant par le fragment « Looking forward… » GPT-4 Turbo pourrait le compléter par « … d’avoir des nouvelles ».

Le GPT-4 a été formé sur des données web jusqu’en septembre 2021, mais le seuil de connaissance du GPT-4 Turbo est fixé à avril 2023. Cela signifie que les questions portant sur des événements récents – du moins des événements qui se sont produits avant la nouvelle date limite – donneront des réponses plus précises.

GPT-4 Turbo dispose également d’une fenêtre contextuelle élargie.

La fenêtre contextuelle, mesurée en tokens, correspond au texte que le modèle prend en compte avant de générer du texte supplémentaire. Les modèles dotés d’une petite fenêtre contextuelle ont tendance à « oublier » le contenu de conversations même très récentes, ce qui les amène à s’écarter du sujet, souvent de manière problématique.

GPT-4 Turbo offre une fenêtre contextuelle de 128 000 tokens – quatre fois la taille de GPT-4 et la plus grande fenêtre contextuelle de tous les modèles disponibles dans le commerce, dépassant même Claude 2 d’Anthropic (Claude 2 supporte jusqu’à 100 000 tokens ; Anthropic prétend expérimenter une fenêtre contextuelle de 200 000 tokens, mais ne l’a pas encore rendue publique). En effet, 128 000 jetons correspondent à environ 100 000 mots ou 300 pages, ce qui correspond à peu près à la longueur des « Hauts de Hurlevent », des « Voyages de Gulliver » et de « Harry Potter et le prisonnier d’Azkaban ».

GPT-4 Turbo prend en charge un nouveau « mode JSON », qui garantit que le modèle répond avec un JSON valide – le format de fichier standard ouvert et le format d’échange de données. C’est utile pour les applications web qui transmettent des données, comme celles qui envoient des données d’un serveur à un client pour qu’elles puissent être affichées sur une page web, explique l’OpenAI. D’autres nouveaux paramètres connexes permettront aux développeurs de faire en sorte que le modèle renvoie plus souvent des complétions « cohérentes » et, pour des applications plus spécialisées, de consigner les probabilités pour les jetons de sortie les plus probables générés par GPT-4 Turbo.

GPT-4 Turbo est plus performant que nos modèles précédents pour les tâches qui nécessitent de suivre attentivement les instructions, telles que la génération de formats spécifiques (par exemple, « toujours répondre en XML ») », écrit l’OpenAI. « Et GPT-4 Turbo est plus susceptible de renvoyer les bons paramètres de fonction ».

Mises à niveau GPT-4

OpenAI n’a pas négligé GPT-4 en déployant GPT-4 Turbo.

Aujourd’hui, la société lance un programme d’accès expérimental pour le réglage fin de GPT-4. Contrairement au programme de mise au point de GPT-3.5, le prédécesseur de GPT-4, le programme GPT-4 impliquera davantage de supervision et de conseils de la part des équipes d’OpenAI, selon l’entreprise – principalement en raison d’obstacles techniques.

« Les résultats préliminaires indiquent que le réglage fin de GPT-4 nécessite plus de travail pour obtenir des améliorations significatives par rapport au modèle de base, comparé aux gains substantiels réalisés avec le réglage fin de GPT-3.5 », écrit OpenAI dans le billet de blog.

Par ailleurs, OpenAI a annoncé qu’elle doublait la limite du nombre de jetons par minute pour tous les clients payants de GPT-4. Mais le prix restera inchangé à 0,03 $ par jeton d’entrée et 0,06 $ par jeton de sortie (pour le modèle GPT-4 avec une fenêtre de contexte de 8 000 jetons) ou 0,06 $ par jeton d’entrée et 0,012 $ par jeton de sortie (pour le modèle GPT-4 avec une fenêtre de contexte de 32 000 jetons).

IA