weedezign - stock.adobe.com
GPT-5.4 nano, mini, Astral : OpenAI s'équipe face à la montée en régime de Claude Code
OpenAI décline les versions mini et nano de GPT-5.4, centrées sur l’exécution de sous-agents IA, de plus en plus utilisés dans la programmation. Par ailleurs, il annonce l’acquisition d’Astral, éditeur d’une suite d’outils pour encadrer le développement Python. Le fournisseur tente ainsi de muscler Codex pour rattraper Claude Code.
OpenAI déroule son programme à vitesse grand V. Après GPT-5.4, voilà que le fournisseur de LLM décline GPT-5.4 mini et nano.
GPT-5.4 nano est la plus petite déclinaison de la famille. Et la moins chère. Via l’API, l’accès au LLM coûte 20 centimes de dollar par million de tokens en entrée, et 1,25 dollar pour le même volume en sortie.
Selon OpenAI, GPT-5.4 nano serait un remplaçant de GPT-5 nano et serait idéal pour les tâches de classification, d’extraction de données, et pour propulser des sous-agents dans les frameworks de programmation agentique.
GPT-5.4 mini, lui, serait deux fois plus rapide que GPT-5 mini et disposerait d’améliorations notables en matière de raisonnement, de compréhension multimodale, d’utilisation d’outils, et de programmation. Lui aussi peut être le moteur d’un sous-agent et dispose de la fonction « computer use ».
GPT-5.4 nano et mini : deux LLM pensés pour propulser des sous-agents IA
« Dans Codex, par exemple, un modèle plus grand comme GPT‑5.4 peut gérer la planification, la coordination et la décision finale, tout en déléguant à des sous-agents GPT‑5.4 mini qui prennent en charge des sous-tâches plus ciblées en parallèle », écrit OpenAI dans un billet de blog.
GPT-5.4 mini peut servir à rechercher un élément dans une base de code, « examiner un fichier volumineux ou traiter des documents complémentaires ».
GPT-5.4 mini coûte 0,75 dollar pour 1 million de tokens en entrée, et 4,5 dollars pour ce même quota en sortie.
Dans son mode de raisonnement xhigh, le LLM n’a pas à rougir face à ses concurrents. Selon Artificial Analysis, GPT-5.4 mini se place juste derrière Grok 4.2, GLM-5 et Claude Sonnet 4.6 max. Dans ce contexte, il est, non pas deux, mais trois fois plus rapide que GPT-5 mini. Pour rappel, OpenAI n’avait pas décliné de versions nano et mini de GPT-5.2. Toutefois, sans le mode de raisonnement activé, GPT-5.4 mini et nano sont moins « intelligents » que GPT-OSS 120B, selon les tests menés par Artificial Analysis. C’est encore une fois l’activation d’options et l’encadrement par des outils qui font la différence. Les deux LLM restent toutefois en deçà de GPT-5.4.
GPT-5.4 mini et nano disposent d’une fenêtre de contexte de 400 000 tokens et peuvent générer jusqu’à 128 000 tokens en une seule fois.
Si selon les données d’OpenAI, GPT-5.4 mini est pratiquement aussi sûr que GPT-5.4 Thinking (xhigh), sa chaîne de raisonnement est moins contrôlable.
Ce recentrage sur la programmation pour ces plus petits LLM multimodaux n’est pas anodin. La licorne tente de prouver la pertinence de Codex face à Claude Code qui, pour l’instant, semble rafler la mise. L’outil est déjà mentionné ou salué par les responsables informatiques français rencontrés par LeMagIT. OpenAI revendique de son côté 2 millions d’utilisateurs actifs de Codex par semaine. Anthropic mentionnait en février un revenu annualisé de 2,5 milliards de dollars imputable à Claude Code.
Accélérer et sécuriser le développement des applications Python avec Astral
Dans le cadre de cette course, OpenAI a également annoncé l’acquisition d’Astral, une startup américaine, pour un montant non dévoilé. L’opération dévoilée le 19 mars est soumise à l’approbation des autorités. Astral s’est spécialisée dans la conception de librairies et d’outils open source consacré à la programmation Python.
Fondée en 2022 à Brooklyn, elle propose UV, Ruff, TY et PYX. UV est un gestionnaire de paquets et de projets Python. Ruff est un linter, TY est un vérificateur de types, tandis que PYX est un registre associé à UV. Il est en cours de développement, mais la startup entend faciliter l’installation des librairies nécessaires au déploiement et à l’accélération des modèles d’IA : PyTorch, vLLM, FlashAttention, ou encore DeepSpeed.
La promesse de la startup est de réduire les dépendances à des paquets Python et, surtout, d’en accélérer le démarrage et l’exécution. Tous ces outils sont développés… en Rust, langage réputé pour sa fiabilité et sa vitesse d’exécution. Ils sont populaires sur GitHub et ont été téléchargés « des millions de fois » selon Charlie Marsh, CEO et cofondateur d’Astral.
« Ensemble, ces outils aident les développeurs à gérer leurs projets, à garantir la qualité et à détecter les erreurs dès les premières étapes du processus de développement », affirme OpenAI, dans un communiqué de presse. « Avec l’arrivée d’Astral au sein d’OpenAI, nous continuerons à soutenir ces projets open source tout en explorant les moyens de les intégrer plus harmonieusement à Codex, afin de permettre aux systèmes d’IA de fonctionner tout au long du cycle de développement Python », poursuit l’entreprise. « Notre objectif est simple : aider les développeurs à gagner en rapidité tout en préservant la fiabilité et les performances dont dépendent leurs flux de travail ».
C’est une direction prise également par Mistral AI. Son modèle Leanstral a été entraîné pour fonctionner avec Lean4, un outil open source de preuve formelle mathématique et de vérification fonctionnelle du code généré.
En attendant, Astral garde son indépendance. Dix jours plus tôt, le 9 mars, OpenAI a annoncé son intention d’acquérir Promptfoo, l’éditeur d’une suite d’outils d’évaluation et de détection de vulnérabilités au cours du développement d’applications propulsées à l’IA générative. C’est un concurrent du Français Giskard. Les outils de Promptfoo, eux aussi basés sur des fondamentaux open source, rejoindront la plateforme d’entreprise OpenAI Frontier.
