Starline Art - stock.adobe.com
Amazon Nova 2 : quatre LLM multimodaux pour rattraper Google Cloud
Lors de re:Invent 2025 à Las Vegas, AWS a présenté Amazon Nova 2, la deuxième itération de sa collection de grands modèles de langage, la troisième en deux ans. S’il ne cherche plus à casser les prix, le fournisseur tient à convaincre ses clients d’adopter des modèles légèrement en deçà de leurs concurrents, notamment Gemini 3 Pro, mais personnalisables.
Avec Nova premier du nom, le géant du cloud avait lancé six modèles entraînés par la division Amazon Science. AWS misait sur des modèles d’IA multimodaux dans la moyenne en matière de performance et à des prix très compétitifs.
Depuis, le marché s’est aligné. Non seulement les LLM ont gagné quelques points de performance, mais les acteurs dont Anthropic, Google et OpenAI ont abaissé le coût des entrées et sorties de tokens. AWS tente de suivre.
Nova 2 : Amazon rattrape les fournisseurs de LLM
Nova 2 inclut quatre modèles principaux : Nova 2 Lite, Pro, Omni, et Sonic. Tous sauf Sonic (qui traite du texte et des fichiers audio) sont capables d’ingérer en entrée du texte, des images, des documents des vidéos et de l’audio.
Nova 2 Lite est un équivalent des modèles mini d’OpenAI, Haiku d’Anthropic et Gemini Flash de Google.
Nova 2 Pro est le fleuron de cette collection. Il dispose de la même capacité de raisonnement hybride que Lite, mais est à placer en face de Claude Sonnet 4.5, GPT-5.1, ou encore Gemini 3 Pro.
Contrairement à Nova 2 Lite et Pro, Omni, lui, est un modèle multimodal capable de générer à la fois du texte et des images. C’est l’un des premiers de son genre, qui présenterait des capacités d’analyse de documents équivalentes à GPT-5 mini et à Gemini 2.5 Flash.
Nova 2 Sonic, comme son nom l’indique, est un modèle speech to speech, capable de comprendre la voix entrée et de répondre par la même modalité. Là, il s’agit de battre GPT-Realtime et Gemini 2.5 Flash Live. Il a été entraîné pour sept langues, dont l’anglais, le français, l’allemand, l’italien et l’espagnol.
L’on apprend dans la documentation d’AWS que tous les LLM disposent d’une fenêtre d’un million de tokens et peuvent générer jusqu’à 65 536 tokens (oui, c’est précis) en une seule fois.
Et AWS d’assurer qu’il peut ainsi couvrir les besoins liés aux architectures RAG, à la conception d’agents IA, la création d’assistants de « recherche profonde », la mise en place de pipelines d’analyse vidéo, des agents vocaux (avec Sonic) et des applications multimodales.
Comme chez les concurrents, les modèles de raisonnement hybrides disposent de trois niveaux de raisonnement, plus ou moins longs. Cette capacité est souvent nommée intensité.
En outre, AWS met en avant que Nova 2 Lite « égal ou surpasse » Claude Haiku 4.5 dans 13 des 15 benchmarks testés, GPT-5.1 mini dans 11 des 17 parangonnages, et Gemini Flash 2.5 dans 14 des 18 évaluations réalisées.
Nova 2 Pro ferait la même chose dans 10 des 16 tests communs contre Claude Sonnet 4.5, 8 des 16 évaluations soumises à GPT-5.1, 15 des 19 tests passés par Gemini 2.5 Pro et 8 des 18 benchmarks exécutés avec Gemini 3 Pro.
Comme l’année dernière, le fournisseur ne dévoile pas ses méthodes d’entraînement ni la typologie des données utilisées. Difficile, donc, d’expliquer comment Amazon obtient ses résultats.
Un rapport performance-prix dans la moyenne du marché
En revanche, les modèles Nova 2 ont déjà fait l’objet de tests par des acteurs tiers. Dans son classement Intelligence Index, Artificial Analysis remarque les bonds de performance des modèles Nova. Néanmoins, Nova 2 Pro demeure derrière Gemini 3 Pro, Claude Opus 4.5, GPT-5.1, Kimi K2, DeepSeek v3.2, Grok 4 et Claude 4.5 Sonnet. Nova 2 Lite ne surpasse pas le modèle open weight GPT-120B OSS.
AWS conserve d’autres arguments, notamment le prix. Oui, Nova 2 Pro est facturé au même prix que GPT-5.1, c’est-à-dire 1,25 dollar pour un million de tokens en entrée et 10 dollars pour le même volume de résultats.
Or, « compte tenu de l’utilisation des tokens, le modèle a coûté 662 dollars pour exécuter notre indice d’intelligence d’analyse artificielle », écrivent les analystes d’Artificial Analysis. « C’est nettement moins que d’autres modèles comme Claude 4.5 Sonnet (817 dollars) et Gemini 3 Pro (1201 dollars), mais cela reste supérieur à d’autres modèles comme Kimi K2 Thinking (380 dollars) ». C’est aussi moins que GPT-5.1 qui, selon le cabinet, lui a coûté 859 dollars.
Nova Lite 2.0 et Omni sont facturés 0,3 dollar pour un million de tokens en entrée, et 2,50 dollars pour le même volume de tokens en sortie. Toujours selon Artificial Analysis, Nova 2 Lite est légèrement plus cher que ses concurrents. Les deux LLM sont considérés comme rapides (103 tokens/sec pour Nova 2 Pro, 232 pour Nova 2 Lite).
Nova 2 Omni n’a pas réellement d’équivalent, mais sur les tâches de génération de texte, il serait légèrement derrière Mistral Large 3, tout en restant au-dessus de la moyenne. A contrario, le LLM speech to speech Nova Sonic se classe directement deuxième du classement du cabinet, devant GPT-Realtime et derrière Gemini 2.5 Flash Live.
De manière générale, AWS semble vouloir proposer une alternative proche de l’offre de Google Cloud, qui a visé juste avec Gemini 3 Pro. S’il propose un accès à la plupart des grands modèles de langage depuis sa plateforme, le fournisseur de cloud entend bien supplanter certains de ses concurrents et partenaires en matière d’IA générative.
AWS sur les starting-blocks de la course au fine-tuning
Et il a un argument phare. À partir de ces modèles déjà dans le haut du panier, AWS propose à ses clients de les fine-tuner. Nova 2 Lite peut « subir » une phase de fine-tuning supervisé ou d’apprentissage par renforcement (à l’aide d’un modèle de récompense) depuis Amazon Bedrock et SageMaker AI.
Il est par exemple possible de mixer des données propriétaires d’une entreprise avec les poids du modèle Nova 1 ou 2. Le fournisseur y inclut sa propre suite d’outils « d’IA responsable ». Un programme appelé Custom Model donne l’accès aux ingénieurs IA et aux data scientists d’AWS pour les aider à optimiser les modèles spécifiques à un domaine.
« Les clients français m’ont posé beaucoup de questions sur Nova Forge. Les entreprises veulent savoir si elles peuvent adapter les LLM en y intégrant leurs données », assure Julien Grouès, vice-président Europe du Sud chez AWS.
Ce fine-tuning sera facilité par Nova Forge qui simplifie, depuis SageMaker AI, la configuration des HyperPod composés d’instances Nvidia et AWS Trainium. Sous le capot, AWS utilise le framework Slurm, tout comme CoreWeave. Depuis Amazon SageMaker AI, le fournisseur dit faciliter le fine-tuning de « petits » modèles DeepSeek, GPT-OSS, Llama et Qwen dans un mode serverless. Un prétexte parfait pour vendre de la puissance de calcul à la demande.
De fait, Mistral AI, OpenAI ou encore Cohere sont quelques-uns des autres acteurs qui poussent pour l’affinage de leur LLM sur les données des entreprises. Les performances des LLM ont tendance à stagner, malgré des mises à jour presque trimestrielles. Or, une question se pose : les LLM ayant été saturés en très gros volume de tokens pourront-ils encore retenir les nouvelles informations ? Et si oui, avec quels résultats ? LeMagIT n’a actuellement pas de réponse.
Les modèles de la collection Nova 2 sont partiellement disponibles. N’oublions pas de mentionner Nova Act, un framework concurrent de celui mis en place par Google pour générer des interfaces utilisateurs.
N.B. : Intelligence Index d’Artificial Analysis combine les évaluations universitaires MMLU Pro, GPQA Diamond, Humanity Last Exam, LiveCodeBench, SciCode, AIME 2025, IFBench, ACC-LCR, Terminal-Bench Hard et τ² Bench Telecom.
