Gemini CLI : l'agent de terminal de Google face à Claude Code

March 9, 2026
Résumez cet article avec une IA

La guerre des agents de terminal est déclarée. De cursor à Claude Code, l’IA redéfini la profession de développer. Grand adepte de Claude Code, j’ai récemment essayé son pendant chez Google : Gemini CLI. Open source, gratuit, propulsé par les modèles Gemini 3, et taillé pour les développeurs qui veulent une intégration agentique avancée sans sortir la carte bleue. Mais est-ce que ça rivalise vraiment avec Claude Code ?

Réponse nuancée.

Ce que Gemini CLI fait bien

la guerre des CLI est déclarée

Une ergonomie pensée pour le terminal

Gemini CLI s'installe en une ligne (npm install -g @google/gemini-cli) et se lance avec la commande gemini. L'interface reprend les codes des outils CLI modernes : chaque action de l'agent est regroupée dans des blocs visuels distincts, ce qui rend le flux de travail lisible même sur des sessions longues. La prise en main est rapide. Pas besoin de configurer grand-chose pour commencer à être productif.

Le fichier GEMINI.md joue le rôle de prompt système persistant : placé à la racine du repo, il charge le contexte projet, les conventions de code, les contraintes métier. C'est l'équivalent du CLAUDE.md d'Anthropic. Une orchestration par repo qui permet de pré-initialiser l'agent avec une connaissance précise de l'environnement avant même la première requête.

Un tier gratuit réellement utilisable

C'est probablement le différenciateur le plus fort : avec un simple compte Google, Gemini CLI donne accès à 1 000 requêtes par jour sur les modèles Gemini 3. Aucun autre outil de ce niveau ne propose un free tier aussi généreux. Pour un développeur solo, une PME qui veut tester l'approche agentique ou une équipe en phase d'évaluation, c'est un argument de poids face à Claude Code qui, lui, nécessite un abonnement payant dès le départ.

La question du coût est d'ailleurs centrale dans tout projet d'IA en production. Si vous intégrez des agents IA à grande échelle, la maîtrise de la facture devient un enjeu stratégique. C'est tout le sujet du LLM FinOps : stratégies pour auditer, contrôler et réduire vos coûts de tokens.

Intégration agentique avancée et coût réduit sur API

Gemini CLI supporte nativement les MCP servers (Model Context Protocol), les hooks dans la boucle agentique, et les commandes personnalisées. Sur le coût API, Gemini 3 Flash - le modèle optimisé pour les workflows à haute fréquence - est disponible à une fraction du prix de Gemini 3 Pro, avec des scores de coding benchmark (78 % sur SWE-bench Verified) qui dépassent même son grand frère Pro sur certaines tâches agentiques. Concrètement : les tâches courantes passent automatiquement sur Flash, les raisonnements complexes escaladent sur Pro. Moins cher, sans compromis visible sur le quotidien.

Gestion dynamique des modèles en session

Une fonctionnalité qui mérite d'être soulignée : le routing intelligent automatique. Gemini CLI choisit en temps réel entre Gemini 3 Flash et Gemini 3 Pro selon la complexité perçue de la tâche. Et si l'auto-routing ne convient pas, la commande /model permet de switcher manuellement en cours de session, sans relancer, sans perdre le contexte. Pour les développeurs qui alternent entre refactoring lourd et questions rapides, c'est un gain de fluidité réel.

Ce mécanisme de routing entre modèles légers et modèles puissants est une tendance de fond. On retrouve cette logique dans les architectures combinant Small Language Models (SLM) et LLM, où le choix du bon modèle pour la bonne tâche permet d'optimiser à la fois le coût et la performance.

Écosystème complet pour utilisateurs avancés

Gemini CLI embarque tout ce qu'on attend d'un outil agentique mature :

  • MCP servers - connexion à des outils externes (Google Drive, bases de données, APIs métier)
  • Hooks - scripts déclenchés à des points précis de la boucle agentique (avant/après chaque outil, au démarrage de session, etc.), calqués sur le modèle de Claude Code Hooks mais avec une douzaine d'événements de cycle de vie
  • Git integration - lecture du contexte repo, diff, gestion des branches
  • Système de permissions granulaire - contrôle fin sur ce que l'agent peut ou ne peut pas faire
  • Skills (agents spécialisés) - fichiers Markdown avec frontmatter YAML définissant un agent dédié à une tâche précise, stockés au niveau projet (.gemini/agents/) ou utilisateur (~/.gemini/agents/)

L'ensemble est open source sous licence Apache 2.0. On peut inspecter le code, contribuer, et s'il le faut, forker. Pour les organisations qui évaluent des LLM open source pour leurs projets, cette transparence est un atout. Nous détaillons les critères techniques et juridiques à considérer dans notre guide pour choisir son LLM open source.

Google Cloud Unveils Gemini CLI: Free AI Assistant Brings Gemini 2.5 ...
interface de Gemini CLI

Là où Claude Code reste devant

Les sub-agents en mode expérimental : la parallélisation reste difficile

C'est le point de friction principal. Gemini CLI dispose bien de sub-agents, mais ils sont marqués comme expérimentaux (🔬) et doivent être activés manuellement dans les settings. Surtout, ils fonctionnent de manière séquentielle : un sub-agent à la fois, qui reporte au main agent avant que le suivant soit lancé.

Claude Code, lui, a introduit les Agent Teams : plusieurs sub-agents qui tournent en parallèle avec des fenêtres de contexte dédiées et un orchestrateur central qui gère les conflits et synchronise les résultats. Concrètement, sur un refactoring multi-fichiers, Claude peut faire tourner simultanément un agent sur la couche data, un autre sur les routes API, un troisième sur les tests. Gemini traite tout ça en séquence. Sur des tâches complexes, la différence de temps est perceptible.

Cette notion d'orchestration multi-agents est un enjeu central de l'IA moderne. Pour comprendre en profondeur comment ces architectures fonctionnent - répartition des tâches, gestion des conflits, adaptation temps réel - consultez notre article sur la construction de systèmes multi-agents : collaboration et orchestration dans l'IA agentique moderne.

Une sensation de lenteur globale

Plusieurs facteurs se cumulent pour créer une expérience subjective plus lourde. L'outil en lui-même est plus verbeux dans ses sorties (le Ctrl+K est nécessaire pour compresser l'affichage). L'absence de mode plan natif pour les tâches complexes ajoute des allers-retours. Et sans parallélisation, les sessions longues s'étirent.

Pas de bug bloquant, mais l'interface manque du niveau de polish de Claude Code. Notamment après un /clear qui peut rendre l'UI instable.

Une gestion du contexte moins fine

Gemini s'appuie sur sa fenêtre de contexte de 1 million de tokens pour maintenir la cohérence sur un repo entier. C'est puissant pour lire de grands codebases. Mais Claude Code va plus loin : il construit en interne un knowledge graph sémantique du projet, en mappant les dépendances via des syntax trees. Il charge dynamiquement les fichiers pertinents selon la tâche, maximisant l'utilité de son contexte plutôt que de tout ingérer brut.

En pratique, Claude a une compréhension architecturale plus profonde. Il comprend pourquoi les fichiers sont liés, pas seulement qu'ils existent. Gemini peut nécessiter des indications plus explicites pour naviguer les mêmes relations et reste assez sensible au "context root", malgré la taille de son contexte.

Sécurité et gouvernance : un enjeu transversal

Quel que soit l'outil choisi, la sécurité reste un point d'attention critique. Les agents de terminal ont accès au système de fichiers, au réseau, et peuvent exécuter du code de manière autonome. Les deux outils proposent des systèmes de permissions granulaires, mais le risque ne se limite pas à l'outil lui-même.

Le prompt injection - technique qui consiste à manipuler le comportement d'un LLM via des instructions cachées dans le contexte - est un vecteur d'attaque particulièrement pertinent pour les agents de terminal qui lisent et analysent du code tiers. Notre analyse détaillée sur le Prompt Injection : comprendre et bloquer cette nouvelle menace IA explore les mécanismes de défense à mettre en place.

Plus largement, la délégation de décisions techniques à des agents autonomes soulève des questions de gouvernance et d'éthique de l'IA agentique : traçabilité, périmètre d'action, responsabilité en cas d'erreur. Ces enjeux sont d'autant plus critiques que ces outils s'inscrivent dans des workflows de production.

Déployer ces outils à l'échelle : les questions à se poser

Au-delà du choix entre Gemini CLI et Claude Code, les équipes qui industrialisent l'usage d'agents IA doivent anticiper plusieurs dimensions :

  • Monitoring en production - Suivre les performances, détecter les dérives et les anomalies est indispensable. Notre guide sur l'optimisation et monitoring d'un LLM en production détaille les outils et bonnes pratiques.
  • Architecture de déploiement - Cloud, on-premise ou hybride ? Le choix dépend des contraintes de sécurité, de latence et de coût. Notre comparatif des architectures de déploiement LLM aide à arbitrer.
  • Confidentialité des données - Les agents de coding traitent du code propriétaire. Pour les entreprises soumises à des contraintes réglementaires, le déploiement d'un LLM sur site peut être la seule option viable.

Ce qu'il faut retenir

Gemini CLI Claude Code
Prix d'entrée Gratuit (1 000 req/jour) Payant (Pro $20/mois min.)
Modèles Gemini 3 Flash / Pro, auto-routing Claude Opus 4.6, Sonnet
Context window 1M tokens (standard) ~200K tokens
Sub-agents / parallélisation Expérimental, séquentiel Agent Teams, parallèle
Gestion du contexte Fenêtre brute large Knowledge graph sémantique
MCP / Hooks / Git ✅ Complet ✅ Complet
Open source ✅ Apache 2.0 ❌ Propriétaire
Search natif ✅ Google Search ✅ Crawler Chrome dans votre browser

Gemini CLI est l'outil parfait pour commencer avec le développement agentique sans friction financière, pour les projets sur de grands codebases qui bénéficient du contexte 1M tokens, et pour les équipes déjà dans l'écosystème Google. Claude Code reste la référence pour les workflows complexes multi-fichiers, les tâches qui gagnent à être parallélisées, et les équipes qui privilégient la précision architecturale à l'échelle.

La bonne nouvelle : les deux ne sont pas mutuellement exclusifs. Plusieurs développeurs utilisent aujourd'hui Gemini CLI pour les tâches quotidiennes et les explorations de codebase, en escaladant vers Claude Code pour les refactorings critiques.

Pour les PME qui découvrent ces approches, les agents IA de coding ne sont qu'une facette de la transformation agentique. Découvrez comment les agents IA transforment les métiers en PME et comment les tendances Microsoft autour des agents IA autonomes redéfinissent l'automatisation professionnelle.

Flowt - Agence Data & IA. Experts certifiés en Data Science, Machine Learning et IA Générative.

Demander un diagnostic gratuit →

Vous souhaitez être accompagné pour lancer votre projet Data ou IA ?

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Fondateur Flowt
Co-fondateur Flowt

On travaille ensemble ?

Demander un devis