Le 4 mai 2026, la Caisse des Dépôts a signé un accord-cadre avec Mistral AI pour équiper jusqu’à 100 000 agents publics en intelligence artificielle générative.
Le deal Mistral Caisse des Dépôts vaut jusqu’à 140 millions d’euros hors taxes sur quatre ans et couvre 19 entités du groupe.
Sous le vernis souverain, c’est un signal industriel précis : Mistral devient le fournisseur préférentiel d’un client public majeur, et le tandem Sopra Steria + Computacenter ramasse l’intégration.
Reste à mesurer ce qui se joue derrière les chiffres : la capacité de Mistral Medium 3.5 à tenir face à Claude Opus 4.5 et GPT-5.5, le coût réel pour une PME qui voudrait copier le pattern, et la part de dépendance américaine planquée dans le cloud souverain.
En bref
- Lire le deal CDC hors storytelling : accord-cadre mono-attributaire, 4 ans max, 140 M€ HT plafond, 19 filiales, 40 000 licences au démarrage, 100 000 utilisateurs cible.
- Mesurer Mistral Medium 3.5 sur le bon banc : 128B dense, 256k de contexte, SWE-Bench Verified 77,6 %, deux points sous Claude Sonnet 4.6, à la moitié du prix par million de tokens.
- Distinguer les paliers Le Chat : Pro (14,99 €/mois), Team (24,99 €/siège/mois), Enterprise avec trois modes (Cloud, VPC dédié, Self-Hosted).
- Brancher les outils internes via MCP : Le Chat Work expose 20+ connecteurs natifs et autorise les serveurs MCP custom depuis avril 2026.
- Cadrer le RGPD avec le DPA Mistral : hébergement EU, Module 4 SCC, SecNumCloud côté CDC, opt-out training dès Le Chat Pro.
- Budgeter le TCO réel à 25 sièges : licence 375 à 625 € par mois, total année 1 à trois ou quatre fois ce montant une fois SSO, DPA, formation et gouvernance shadow AI intégrés.
Le deal Caisse des Dépôts × Mistral, hors storytelling souverain
La Caisse des Dépôts n’a pas signé un partenariat de communication.
Elle a passé un marché public via appel d’offres, avec un consortium d’achat mutualisé entre 19 filiales du groupe.
L’accord-cadre, signé le 4 mai 2026, court sur deux ans renouvelables jusqu’à quatre ans maximum.
Le plafond cumulé atteint 140 millions d’euros HT, selon le communiqué Sopra Steria du 26 février 2026.
Périmètre et calendrier : 19 entités, 140 M€ HT, 40 000 puis 100 000 sièges
Le périmètre couvre deux lots.
Le lot 1 couvre les solutions d’IA générative : large language models (LLM, modèles de langage entraînés sur du texte massif), agents conversationnels, assistants métiers, fine-tuning.
Le lot 2 porte sur les capacités GPU (Graphics Processing Unit, processeurs graphiques pour faire tourner les modèles IA) et l’infrastructure SecNumCloud associée.
Le déploiement démarre à 40 000 licences et vise 100 000 utilisateurs sur la durée du contrat.
Les 19 entités embarquées incluent Bpifrance, La Banque Postale, La Poste, CNP Assurances, Docaposte, Geopost, Icade et SFIL.
L’analogie utile : un appel d’offres ferroviaire mutualisé, plafond ferme à 140 M€, fournisseur unique.
Sopra Steria et Computacenter, intégrateurs uniques
L’accord est mono-attributaire.
Le couple Sopra Steria + Computacenter ramasse l’intégration pour les 19 entités.
C’est un point que la couverture FR a peu commenté : la concentration intégrateur reste une fragilité industrielle.
Mono-attributaire ne veut pas dire monopole de fait.
Ça veut dire que pendant quatre ans, deux ESN tiennent la chaîne de valeur entre Mistral et les clients publics.
Si l’une décroche, le marché entier vacille.
Sopra Steria gère conseil et fine-tuning.
Computacenter fournit l’infrastructure SecNumCloud (qualification ANSSI, l’agence française de cybersécurité).
Les trois besoins nommés par la CDC : assistant IA généraliste pour les collaborateurs, conception et développement de systèmes d’information, AI studio pour les cas d’usage spécifiques.
Mistral Medium 3.5 : ce que le modèle apporte concrètement
Mistral a sorti Mistral Medium 3.5 le 29 avril 2026, cinq jours avant l’annonce CDC.
Le calendrier n’est pas un hasard : ce modèle motorise désormais Le Chat et Vibe, et c’est lui qui sera derrière les 100 000 sièges publics.
128B dense, 256k de contexte, reasoning_effort à la demande
Trois points techniques.
Un, 128 milliards de paramètres en architecture dense, tous activés à chaque token (pas un Mixture-of-Experts qui n’allume qu’une partie).
Deux, fenêtre de contexte de 256 000 tokens, suffisant pour avaler un code complet de PME et sa documentation en un seul prompt.
Trois, un paramètre reasoning_effort configurable par requête, qui module entre réponse rapide et raisonnement multi-étapes long.
Le modèle est multimodal (texte plus image en entrée), publié sous licence Modified MIT.
Le self-host tient sur 4 GPU H100 en quantization FP8, environ 70 Go de VRAM.
Tarif API : 1,50 $ par million de tokens en entrée, 7,50 $ en sortie.
Côté produit : Le Chat Pro à 14,99 € par mois, Le Chat Team à 24,99 € par siège, avec accès Work mode et Vibe CLI inclus.
SWE-Bench Verified 77,6 %, à lire en contexte
Le score SWE-Bench Verified de 77,6 % est le chiffre marketing.
SWE-Bench Verified mesure la capacité du modèle à résoudre de vrais bugs sur des dépôts open source publics, avec filtre humain.
Le modèle est deux points sous Claude Sonnet 4.6 (79,6 %) et plusieurs points sous Claude Opus 4.7.
Le test est en anglais et sur du code public : transposer le score à des tâches métier françaises n’a aucune validité statistique.
Un benchmark est une indication de plafond, pas un taux de succès en production.
La seule mesure qui compte sur le déploiement CDC, c’est le taux de résolution des tickets internes, et personne ne l’a publié.
Sur τ³-Telecom, banc agentique multi-étapes télécom, Mistral Medium 3.5 atteint 91,4 %.
À nuancer : ce banc est conçu et exécuté par Mistral, sans réplication indépendante.

Le Chat Work, Vibe Remote Agents et MCP comme socle agentique
Le modèle seul ne fait pas le produit.
Ce que la CDC achète, c’est une stack agentique complète : un assistant qui orchestre des outils internes, écrit des documents, ouvre des tickets, valide avant action sensible.
Work mode et Vibe : sandbox cloud et approbation explicite
Work mode est un mode agent introduit dans Le Chat le 29 avril 2026, en preview pour Pro, Team et Enterprise.
Il transforme Le Chat en harness multi-étapes : le modèle planifie, appelle des outils en parallèle, montre ses raisonnements et demande une approbation explicite avant chaque action sensible (envoi de message, modification de données, création de ticket).
Sous le capot, Work mode dispose d’un sandbox bash pour l’exécution de code, du web search, d’un Canvas pour éditer la sortie, des Libraries (upload de fichiers) et des connecteurs MCP.
Vibe Remote Agents, lancés le même jour, sont l’équivalent côté code : sessions de coding asynchrones qui tournent dans le cloud, dans un sandbox isolé, avec accès GitHub, Linear, Jira, Sentry, Slack et Teams.
L’analogie : un freelance dev qui travaille la nuit dans un sandbox cloud, ouvre une PR au matin sur GitHub et te laisse la review.
MCP, la brique d’intégration vers les SI maison
Le Model Context Protocol standardise l’accès aux outils internes depuis un agent IA.
Au lieu d’écrire une intégration API one-off pour chaque CRM, ERP ou base documentaire, on expose un serveur MCP qui parle un protocole unique.
Tous les agents qui supportent MCP le consomment sans code spécifique.
Mistral n’a pas de serveur MCP officiel : l’éditeur a choisi une approche client, Le Chat consomme des serveurs MCP externes.
Le directory officiel compte 20+ connecteurs natifs (GitHub, Notion, Jira, Snowflake, Databricks, Stripe, etc.).
Depuis le 15 avril 2026, la Connectors API permet de créer des connecteurs MCP custom par programmation, ce qui rend l’intégration métier envisageable pour une PME : exposer Sage, Cegid ou Odoo via un serveur MCP custom et brancher Le Chat dessus en quelques jours.
Pour la mécanique complète du protocole, ce guide complet du Model Context Protocol détaille l’architecture et les patterns d’implémentation.
Ce que le contrat valide pour Mistral, ce qu’il cache
Le deal CDC fait basculer Mistral d’un statut « champion politique » à un statut fournisseur stratégique opérationnel.
Le tableau réel reste plus nuancé que le récit officiel.
Traction enterprise FR : Banque Postale, France Travail, CMA-CGM
Mistral n’arrive pas vierge chez la CDC.
L’éditeur affiche déjà une liste de clients enterprise français consistante : La Banque Postale, France Travail, CMA-CGM, ASML, Moeve.
Le revenu annuel suit une trajectoire d’un milliard d’euros en 2026, et la levée de 830 millions d’euros de mars 2026 sert à bâtir un datacenter près de Paris.
NVIDIA, SecNumCloud et la dépendance amont
La souveraineté affichée est juridique et géographique : hébergement EU, qualification ANSSI SecNumCloud, juridiction française non soumise au CLOUD Act américain.
Elle n’est pas technologique.
Mistral entraîne ses modèles sur GPU NVIDIA, qui détient environ 95 % du marché des accélérateurs IA.
La souveraineté logicielle française flotte sur un socle matériel américain.
Tant que NVIDIA tient le marché GPU et que le couplage CUDA reste verrouillé, parler de pile 100 % souveraine est inexact.
Mistral combine ses propres datacenters (Bruyères-le-Châtel, Suède via partenariat) et des capacités cloud chez des hyperscalers américains pour la redondance.
Le récit complet sur la position française face aux géants américains se trouve dans cet article sur la souveraineté numérique de Mistral AI.
Adopter Mistral Medium 3.5 dans une PME française : parcours et TCO
Le deal CDC reste réplicable à plus petite échelle.
Une PME française de 25 à 50 personnes peut suivre un parcours d’évaluation structuré sans embarquer Sopra Steria, à condition de ne pas confondre les paliers et de budgéter le coût caché.
Le Chat Pro, Team, Enterprise et les 3 modes de déploiement
Quatre paliers à distinguer côté Le Chat.
Free : prompts potentiellement utilisés pour l’entraînement, à exclure pour tout usage pro avec données sensibles.
Pro à 14,99 € par mois : no-training par défaut, Vibe CLI inclus, Work mode disponible.
Team à 24,99 € par siège : 200 messages par utilisateur, 30 Go de stockage, contrôles admin.
Enterprise sur devis : SAML SSO, audit logs, contrôles granulaires.
Le palier Enterprise se décline en trois modes de déploiement.
Cloud multi-tenant (Le Chat hébergé chez Mistral, infrastructure mutualisée), VPC dédié (Virtual Private Cloud, environnement cloud cloisonné) et Self-Hosted on-premises.
Pour une PME de 25 sièges sans contrainte sectorielle lourde, Team suffit.
Pour une PME santé, finance ou défense, VPC dédié devient le minimum syndical.
DPA, SCC Module 4 et gouvernance shadow AI
Côté RGPD (Règlement Général sur la Protection des Données), Mistral propose un DPA (Data Processing Addendum, contrat de sous-traitance des données) via La Plateforme et Le Chat Enterprise.
Le mécanisme juridique est le Module 4 des SCC (Standard Contractual Clauses) : processeur Mistral vers contrôleur PME, hébergement EU par défaut, opt-out training dès Le Chat Pro.
Le piège du TCO (Total Cost of Ownership) pour 25 sièges Le Chat Team : la licence visible coûte 375 à 625 € par mois selon la remise.
La partie cachée : 5 jours-homme IT pour le SSO (Single Sign-On), 2 jours pour valider le DPA avec la direction juridique, 3 à 5 jours de formation interne et un dispositif anti shadow AI (usage non autorisé d’outils IA en parallèle).
Coût réel année 1 : multiplier la licence par 3 ou 4.

Comparatif chiffré face à Claude Opus 4.5 et GPT-5.5
Le déploiement Mistral Caisse des Dépôts pose une question concrète : à quels concurrents Mistral Medium 3.5 résiste, et sur quels axes décrochent-ils ?
- Mistral Medium 3.5 : 256k de contexte, 1,50 $ / 7,50 $ par million de tokens, SWE-Bench Verified 77,6 %, open weights Modified MIT, self-host 4 GPU.
- Claude Opus 4.5 : 200k de contexte, 5 $ / 25 $ par million de tokens, SWE-Bench Verified 80,9 %, closed weights, API only.
- GPT-5.5 : jusqu’à 1M de tokens de contexte, 5 $ / 30 $ par million de tokens, Terminal-Bench 2.0 à 82,7 %, closed weights, hébergement US.
Le bon arbitrage dépend du ratio coût / précision sur vos tâches.
Pour du batch documentaire, Mistral Medium 3.5 est entre 3,3 et 4 fois moins cher par token de sortie que Claude Opus 4.5.
Pour du frontier coding à haute valeur ajoutée, Claude Opus 4.5 garde un avantage mesurable.
Pour une PME française avec données sensibles, le combo Mistral Medium 3.5 + DPA EU + option self-host reste sans équivalent côté concurrence US.
Le contrat Mistral Caisse des Dépôts ne fait pas de Mistral le leader européen de l’IA.
Il en fait un fournisseur opérationnel stratégique pour le secteur public français, avec une stack agentique alignée sur les standards du marché (MCP, Work mode, Vibe).
La souveraineté reste partielle, la dépendance NVIDIA demeure, et la concentration intégrateur autour de Sopra Steria et Computacenter mérite d’être surveillée pendant les quatre années du contrat.
Pour la PME qui veut copier le pattern, le ticket d’entrée tient dès Le Chat Pro à 14,99 € par mois.
Pour replacer ce deal dans la feuille de route Mistral, lire le plan en 22 propositions pour le leadership IA européen.
FAQ : 10 questions sur le déploiement Mistral CDC
Quelle différence entre Le Chat Pro, Team et Enterprise ?
Pro à 14,99 €/mois (individuel, opt-out training), Team à 24,99 €/siège (PME, contrôles admin), Enterprise sur devis (SAML SSO, audit logs, trois modes de déploiement).
Combien coûte Mistral Medium 3.5 par million de tokens ?
1,50 dollar en entrée et 7,50 dollars en sortie via l’API.
Au-delà de 50 millions de tokens par jour, le self-host sur 4 GPU H100 devient économiquement intéressant.
Le déploiement CDC concerne-t-il bien 100 000 agents publics ?
40 000 licences au démarrage sur les 19 entités, cible 100 000 utilisateurs sur la durée du contrat (jusqu’à 4 ans).
Qui intègre Mistral chez la Caisse des Dépôts ?
Le consortium Sopra Steria + Computacenter, mono-attributaire depuis le 26 février 2026 : conseil et fine-tuning côté Sopra, SecNumCloud côté Computacenter.
Qu’est-ce que SecNumCloud exactement ?
Une qualification de sécurité ANSSI qui certifie qu’un hébergeur cloud répond à des exigences compatibles avec les données sensibles, y compris contre les juridictions extra-européennes.
Mistral est-il indépendant des États-Unis ?
Juridiquement oui : siège à Paris, hébergement EU, hors CLOUD Act.
Technologiquement non : entraînement sur GPU NVIDIA, qui tient 95 % du marché des accélérateurs IA.
Faut-il choisir Mistral Medium 3.5 ou Claude Opus 4.5 ?
Batch documentaire et coding standard : Mistral est 3 à 4 fois moins cher pour 3 points d’écart sur SWE-Bench Verified.
Frontier coding à haute valeur ajoutée : Claude Opus 4.5 garde un avantage mesurable.
Comment fonctionne MCP avec Le Chat Work ?
Le Chat Work consomme des serveurs MCP externes via un directory de 20+ connecteurs (GitHub, Notion, Jira, Snowflake, etc.).
Depuis avril 2026, les PME peuvent créer leurs propres serveurs MCP custom (Sage, Cegid, Odoo).
Le Chat est-il conforme RGPD pour une PME française ?
Oui dès Le Chat Pro (opt-out training par défaut).
Pour les données sensibles : DPA via La Plateforme ou Le Chat Enterprise, Module 4 des SCC activé.
Quel TCO réel pour 25 sièges Le Chat Team la première année ?
Licence affichée 375 à 625 € par mois.
Ajouter SSO, DPA, formation et dispositif anti shadow AI : multiplier la licence par 3 à 4 pour le TCO complet.
Articles Similaires
L’Europe vient de réécrire l’AI Act à 4h du matin : on a lu les 7 changements pour toi
Le Digital Omnibus de l’AI Act vient de réécrire le calendrier européen de l’intelligence artificielle. Dans la nuit du 6 au 7 mai 2026, vers 4h30 du matin, le Conseil…
Workspace Agents OpenAI au crédit dès le 6 mai 2026 : ce qui change pour les équipes
Depuis le 6 mai 2026, les Workspace Agents OpenAI ne sont plus gratuits. La phase test ouverte le 21 avril s’est refermée à minuit Pacific. Chaque action déclenchée par un…