Freedomz - stock.adobe.com

Gemini CLI : Google veut s’imposer face à Cursor et à Claude Code

Google annonce la préversion de Gemini CLI, une interface en ligne de commande open source (Apache 2.0) connectée à Gemini 2.5 Pro. Le fournisseur ne cache pas son intention de concurrencer, voire de s’imposer face à Cursor, Claude Code et Cursor CLI.

Le terminal propulsé à l’IA comprend, génère, débug du code en langage naturel. Il gère également les pull requests.

« Gemini 2.5 Pro dispose d’une fenêtre de contexte d’un million de tokens, il peut donc accéder au contenu de certains dépôts dans leur intégralité », vante Taylor Mullen, senior staff software Engineer chez Google.

Gemini 2.5 Pro dans un terminal

Le CLI majoritairement écrit en TypeScript ne s’appuie pas seulement sur les capacités du modèle : il se connecte au Web pour rechercher des informations externes, il prend en charge le protocole MCP (Model Context Protocol) afin d’activer des outils et des prompts et des instructions spécifiques via le fichier GEMINI.md. Il intervient aussi dans les scripts existants pour accomplir certaines tâches.

L’outil s’intègre par exemple au serveur MCP des modèles Imagen, Veo ou Lyria, dans le but de créer des images et des vidéos. Plus utile, Gemini CLI s’appuie sur GitHub pour explorer les pull requests, par exemple.

Il est aussi possible de s’appuyer sur les capacités multimodales de Gemini 2.5 Pro, ajoute Taylor Mullen. Depuis l’IDE, Google fournit une fonction d’appel de fichiers PDF ou de schémas pour les convertir en code.

L’accès au modèle reste toutefois gratuit à raison de 1 000 requêtes par jour et moins de 60 par minute. Toute personne possédant un compte Google – personnel ou Workspace – est autorisée à l’utiliser.

« Nous avons analysé l’usage de nos développeurs les plus friands de nos assistants IA et nous l’avons doublé », affirme Ryan J. Salva, directeur senior gestion produit, expérience développeur chez Google. « Ces limites ne devraient pas être un point bloquant ».

Pour les usages avancés ou pour les entreprises, il convient de générer une clé API depuis Google AI Studio.

« Le coût à la requête est le même qu’avec l’appel de Gemini 2.5 Pro depuis Vertex AI », affirme Ryan J. Salva.

Gemini CLI peut être connecté à Gemini Code Assist, l’assistant de programmation de Google afin d’apporter les mêmes fonctionnalités disponibles depuis VS Code. D’ailleurs, Code Assist bénéficiera d’un mode agent capable d’écrire des tests, d’ajouter des fonctionnalités ou de migrer du code en s’appuyant sur les capacités du modèle de raisonnement. Il est pour l’instant accessible en accès anticipé pour tous les plans (gratuit, Standard et Enterprise).

Copilot n’est jamais loin

Taylor Mullen et Ryan J. Salva sont deux anciens de Microsoft et de GitHub ayant travaillé de près ou de loin au développement de GitHub Copilot et Visual Studio Copilot.

Gemini CLI ne prend pas (encore) en charge les modèles déployés en local

Bien qu’il puisse s’exécuter sur Windows, macOS, Linux ou Chrome OS (Node.js 18 ou plus requis) ou une sandbox Docker ou Podman, Gemini CLI n’est pas initialement conçu pour s’appuyer sur des LLM installés sur la machine du développeur.

« Nous avons souhaité confier aux développeurs les modèles les plus performants », déclare Ryan J. Salva. « De plus, l’architecture Gemini CLI est proche de celles de Code Assist ».

Dans la documentation du projet, les ingénieurs de Google précisent que Gemini CLI est composé de deux paquets principaux.

Le premier, « CLI package » correspond au « front-end » du terminal : il gère le rendu de l’UI, l’historique, le traitement des entrées et les fonctions de configuration.

Le second, « Core Package » est le back-end : « il reçoit les requêtes, orchestre les interactions avec l’API Gemini (en enrichissant les prompts, N.D.L.R.) et l’exécution des outils disponibles ». Les outils (via le « tools package ») permettent d’accéder aux fichiers systèmes, aux commandes shell ou encore de rechercher des informations sur le Web.  

L’API Gemini est évidemment hébergée sur Google Cloud. Un utilisateur a tenté d’appeler l’API local de son serveur logique llama.ccp pour utiliser Gemma 3. Cela ne semble pas fonctionner.

En l’état, Gemini CLI est une réponse directe à Claude Code d’Anthropic, Codex CLI d’OpenAI, ou Cursor qui s’appuie sur l’IDE VS Code. Ces outils se connectent à des LLM hébergés dans le cloud et ciblent avant tout des développeurs indépendants, des étudiants et des amateurs, comme Google. Certains internautes perçoivent Gemini CLI comme un « clone de Claude Code ». Google promet toutefois le forfait gratuit le plus généreux du marché.

Cependant, le fait que ces paquets soient modulaires « permet un développement indépendant et des extensions futures potentielles ». En clair, l’intention primaire des ingénieurs de Google n’est pas de prendre en compte les modèles déployés localement-ou on-premise, même s’ils n’écartent pas l’idée. Ils imaginent d’ailleurs fournir la prise en charge des modèles Gemma. Ils n’empêchent pas non plus la communauté de se saisir du projet pour l’adapter à ce type de besoin. Malheureusement, il existe très peu de modèles dotés d’une fenêtre de contexte d’un million de tokens « open weight ». Et encore moins des LLM de ce type qui peuvent s’exécuter en local. Par exemple, Qwen 2.5-14B-Instruct-1M réclame au moins 320 Go de VRAM.

Des éléments à corriger et à clarifier

Certains pensent toutefois qu’une telle fenêtre de contexte n’est pas forcément utile.

Quant aux questions de sécurité, Taylor Mullen affirme qu’elles ont été considérées avec « sérieux ». « Nous nous appuyons sur des mécanismes de sandboxing pour empêcher les modifications involontaires, et l’API Gemini est dotée de mécanismes de sécurisation des communications. Les échanges avec le LLM sont soumis à des filtres, comme pour toutes les applications qui exploitent les modèles Gemini chez Google ».

Dans les premières heures de disponibilité, les utilisateurs ont noté des bugs de connexion pour lier leur compte Google à Gemini CLI. Le géant du cloud doit également clarifier sa politique d’accès au code pour les usagers non payants extraeuropéens. Bien que sa provenance soit anonymisée, il précise qu’il « utilise le contenu envoyé aux services et toutes les réponses générées pour fournir, améliorer et développer ses produits et services, ainsi que ses technologies de machine learning (apprentissage automatique), y compris ses fonctionnalités, produits et services d’entreprise ».

« Pour améliorer la qualité et ses produits, des réviseurs humains peuvent lire, annoter et traiter vos entrées et sorties d’API », lit-on dans la documentation de l’API Gemini.

Les usagers payants échappent normalement à cette politique, tout comme les résidents de l’espace économique européen, du Royaume-Uni et de la Suisse.

Pour approfondir sur Outils de développement