wolterke - stock.adobe.com

Gemma 4 : Google sort ses « modèles IA les plus intelligents »

Google a dévoilé la nouvelle génération de sa famille de modèles d’IA. Plus puissante, plus efficiente, elle s’appuie sur la R&D de Gemini 3. Les quatre déclinaisons, capables de tourner sur site et hors lignes, sont disponibles sous licence Apache 2.0.

Google a présenté en fin de semaine Gemma 4, la nouvelle génération de sa gamme de modèles d’IA open source/open weight destinés au raisonnement, aux workflows agentiques et à la génération de code.

Pour Google, il s’agirait des « modèles les plus intelligents » qu’il ait conçus jusqu’ici. La famille Gemma 4 s’appuie sur la R&D de Gemini 3, mais avec un bond en avant significatif en termes de capacités, insiste Google. Les modèles Gemma, toutes familles confondues, ont été téléchargés plus de 400 millions de fois.

Quatre modèles avec une meilleure performance par paramètre

Les modèles Gemma 4 sont déclinés en plusieurs versions chacune optimisée pour un environnement différent. Les modèles à 2 et 4 milliards de paramètres ciblent les smartphones et le edge. Le modèle Mixture of Experts à 26 milliards de paramètres et celui à 31 milliards ciblent les environnements plus puissants.

Le nombre de paramètres n’est cependant pas tout. Avec Gemma 4, Google assure que ces modèles proposent un niveau « d’intelligence par paramètre » sans précédent. Autrement dit, malgré leurs tailles relativement modestes, ils offrent des performances de modèles beaucoup plus gros. Par exemple, la version 26B (la MoE) surpasserait des modèles 20 fois plus gros, chiffre Google.

« Pour les développeurs, cela signifie concrètement qu’ils peuvent atteindre les perfs des modèles frontières, les plus avancés, avec une infrastructure matérielle considérablement allégée », écrivent Clement Farabet et Olivier Lacombe, respectivement VP of Research et Group Product Manager, de Google DeepMind.

Les modèles de Gemma 4 ont été entraînés sur plus de 140 langues. Ils intègrent également la capacité de traiter l’audio et l’image.

Nouvelle licence d’exploitation

Les outils de Gemma 4 sont disponibles sous licence Apache 2.0. L’évolution est importante dans la mesure où les précédentes générations étaient disponibles sous une autre licence. Ce changement offre une plus grande liberté pour modifier et déployer les modèles, y compris à des fins commerciales.

« Cette licence open source offre une flexibilité totale et une souveraineté numérique absolue, qui garantit un contrôle complet sur les données, l’infrastructure et les modèles » vante Google. « Elle permet de créer librement et de déployer en toute sécurité dans n’importe quel environnement, sur site ou dans le cloud. »

L’open source un atout, mais pas la panacée

Google fait partie des grands acteurs du secteur – comme Meta, Mistral, OpenAI, ou plusieurs éditeurs chinois – qui proposent des LLM open source, ou open weight aux entreprises.

« Une approche diversifiée combine plusieurs modèles open source et propriétaires pour trouver l’équilibre qui convient à l’évolution des besoins. »
Chirag DekateAnalyste VP chez Gartner

Ce type de modèles progressent pour plusieurs raisons : coûts, capacité d’adaptation à des cas d’usage métier spécifiques, compatibilité avec les approches multimodales, ou encore meilleur contrôle sur les données et sur l’infrastructure. Ce dernier point en fait une bonne option pour les secteurs soumis à des contraintes strictes de confidentialité.

Un rapport de Databricks estime que plus des trois quarts des organisations exploiteraient aujourd’hui plusieurs familles de modèles de langage, et qu’elles panacheraient technologies propriétaires et IA ouvertes.

Cependant, ces modèles ne sont pas la panacée, avertit Chirag Dekate, analyste VP chez Gartner. Ils apportent avec eux leurs propres défis. Par exemple, la présence moindre de garde-fous (gardrails) qui sont souvent intégrés, en sus, dans les systèmes fermés.

Un modèle comme Gemma 4, capable de tourner en local et hors ligne, offre donc de la flexibilité, mais il n’est pas une solution universelle pour tous les besoins, ajoute l’analyste. Certaines applications complexes, comme l’élaboration de modèles financiers sophistiqués, nécessiteraient encore, d’après lui, des solutions propriétaires avec des garde-fous éprouvés et des fonctionnalités avancées intégrées en natif.

Une stratégie de portefeuille

« Les DSI peuvent en revanche envisager une approche diversifiée, qui combine plusieurs modèles open source et quelques solutions propriétaires, pour trouver l’équilibre qui convient à l’évolution de leurs besoins » invite Chirag Dekate. « Dans ce domaine, la flexibilité prime sur les principes rigides. »

L’analyste met également en garde sur la « pérennité » ou la « durabilité ». Un éditeur attaché à l’open source ne reste pas forcément ouvert pour toujours, en témoigne le cas d’Alibaba dont les modèles Qwen sont aujourd’hui souvent propriétaires. A priori, il n’y aura pas de revirement de Google pour le futur de Gemma. Mais sait-on jamais ?

Il est donc préférable – conseillent les experts, à la suite de ce que l’on pourrait appeler la jurisprudence Sora – de ne pas mettre en production des modèles propriétaires trop récents, ou des technologies open source sans les avoir éprouvées en amont.

Article écrit en collaboration avec CIO Dive et AI Business.

Publié initalement le 07/04/2026 et mis à jour le 08/04/2026 avec des précisions techniques sur les modèles.

Pour approfondir sur IA appliquée, GenAI, IA infusée