Mistral gagnant pour la recherche

Le lancement d’Emmy, l’IA du CNRS fournie par Mistral, couronne la percée de la licorne française dans la recherche… mais d’autres projets d’IA souveraines sont en gestation.

— Le 30 janvier 2026

Bientôt des Emmy Awards au CNRS ?

Le 16 décembre 2025, le CNRS lançait officiellement son propre agent conversationnel baptisé Emmy. Qu’un organisme de recherche publique de cette taille propose à l’ensemble de ses agents – plus de 30 000 au total – un service d’IA générative reste totalement inédit. Un tournant dans les usages du secteur ? L’annonce début décembre faisait suite à un accord avec l’entreprise française Mistral mais le démarrage est finalement resté plutôt confidentiel : « On attendait un message le jour J avec un lien pour accéder au service mais rien… On a donc été chercher sur le portail CNRS », explique Daniel Comparat, directeur de recherche de l’organisme. Fin connaisseur des possibilités de ChatGPT, pour synthétiser des techniques expérimentales, explorer des domaines de recherche ou coder, le physicien s’est empressé de tester Emmy.

« Mon employeur dispose de ma bibliographie (…)  sur son archive ouverte HAL ; pourquoi son IA ne va-t-elle pas la consulter ? »

David Monniaux, CNRS

Ma meilleure Emmy. Résumer des documents, reformuler des textes, les traduire, passer en « mode raisonnement »… les promesses d’Emmy sur la page d’accès collent somme toute aux fonctionnalités d’une IA généraliste comme ChatGPT ou Gemini, mais présentée comme « l’IA générative du CNRS ». Cependant, après s’être identifiés via leur compte Janus, avoir coché les conditions d’utilisation et éventuellement passer les formations proposées, les utilisateurs arrivent en réalité sur le Chat de Mistral AI. « Emmy est simplement un portail d’accès au Chat fait pour les entreprises », analyse Daniel Comparat. Ce que le chatbot confirme : « Emmy n’est pas une IA générative (…) mais simplement le nom du système d’authentification. » Ceci étant dit, elle fait apparemment le job, avec ses avantages et ses inconvénients : si ChatGPT est souvent jugé plus robuste pour le raisonnement structuré et les échanges prolongés, Emmy / Le Chat semble être efficace en mode recherche bibliographique ou pour des tâches simples. « J’ai été agréablement surpris de voir que le Chat arrivait à générer du code Mathematica [un logiciel couramment utilisé pour la simulation numérique, NDLR] de manière performante », témoigne le physicien.

En toute franchise. Emmy n’est donc pas une IA dédiée spécifiquement à la recherche, de son propre aveu. « [Je suis] un outil peu fiable pour des usages d’enseignement ou de recherche, où des informations vérifiables, fondées sur des preuves et rigoureusement sourcées sont essentielles », a réussi à lui faire avouer le collectif toujours très critique RogueESR. À l’instar de la plupart des IA génératives, elle ne sait pas livrer des références bibliographiques correctes, comme le chercheur David Monniaux l’explique sur son blog : « Il est connu [que les IA génératives] hallucinent lorsqu’on leur demande une bibliographie, inventant des titres et des listes d’auteurs souvent assez plausibles (…) Ce qui est agaçant, c’est que mon employeur dispose de ma bibliographie intégrale (ou presque) sur son archive ouverte HAL ; pourquoi son IA ne va-t-elle pas la consulter ? » Le CNRS aurait peut-être pu en effet faire le choix – et le fera peut-être d’ailleurs dans le futur – d’entraîner en interne des modèles sur les données issues de la recherche, voire de les spécialiser par discipline. 

« La question de la souveraineté est importante et rien ne changera sans décision un peu “brutale” »

Daniel Comparat, CNRS

Avant-après. « Il est difficile d’être compétitif face à OpenAI sur une IA généraliste », estime Daniel Comparat. Utilisateur assidu de ChatGPT, il est même à l’initiative de l’achat de licences ChatGPT Business au sein de son unité, le Laboratoire Aimé Cotton à Orsay, promettant ainsi une certaine confidentialité de leurs données. Étant donné l’interdiction édictée par le CNRS d’utiliser d’autres outils d’IA générative depuis le lancement du sien, le physicien commence donc à basculer sur Emmy. « Pour les chercheurs qui s’appuient quotidiennement sur ces outils pour des tâches complexes, cette transition risque de représenter une perte fonctionnelle réelle », regrette-t-il. Mais c’est la politique volontariste du CNRS, sur les questions de science ouverte tout comme sur les outils numériques : « On nous a interdit Skype, Dropbox, Zoom… avec des outils alternatifs plus ou moins performants. Mais la question de la souveraineté est importante et rien ne changera sans décision un peu “brutale”… », reconnaît le chercheur. Emmy présente l’avantage d’être gratuite pour les agents CNRS – l’accès n’est a priori pas possible pour les autres, notamment les enseignants-chercheurs, créant ainsi de potentielles disparités au sein des UMR.

Mauvais genre. Emmy ne s’est pas construite en un jour : dès mars 2024, le CNRS passait un accord avec l’entreprise spécialisée dans le logiciel libre LINAGORA pour « participer à l’émergence d’une IA générative open source et souveraine ». Des prototypes d’IA génératives basés sur des modèles ouverts avaient également été développés en interne et hébergés par l’Institut du développement et des ressources en informatique scientifique (Idris). Ce proto, d’abord nommé Alan – certainement d’après Alan Turing – puis Emmy, d’après la trop peu connue mathématicienne du début du XXème siècle Emmy Noether – l’émission La Science CQFD sur France Culture retraçait récemment sa biographie. Un changement de genre qui, on l’espère, était motivé par de meilleures raisons que celles invoquées par David Monniaux sur son blog  : « On a peut-être pensé qu’il valait mieux un nom de femme pour un service destiné à être une assistante. » 

« Il serait déjà satisfaisant d’avoir des modèles d’apprentissage conçus en Europe ainsi que des données restant sur des serveurs institutionnels »

Frédéric Pascal, CentraleSupélec

Mistral gagnant. Annoncée en décembre 2024 à la convention des laboratoires du CNRS mais passée inaperçue au milieu de la polémique des Keylabs – relire notre analyse,  Emmy se faisait attendre… Et le CNRS a semble-t-il préféré faire appel à l’entreprise française Mistral AI pour le déploiement de l’outil plutôt que de gérer ça en interne. Coût de l’opération ? D’après ce même billet de RogueESR, Emmy livre elle-même une estimation de 2,7 millions d’euros, qui pourrait s’élever jusqu’à 7 millions, en se basant sur une expérimentation similaire au sein du secrétariat d’État chargé du Numérique. Contacté par nos soins, le CNRS n’a malheureusement pas répondu à nos questions sur ce point ainsi que sur de nombreux autres, comme les contreparties de l’accord avec Mistral – peut-être l’usage des ressources de calcul du CNRS ? – ou les garanties en termes de confidentialité données par l’entreprise.

Repoussoirs. Quelle souveraineté peut-on espérer ? Si elle doit en principe couvrir toute la chaîne depuis les matières premières, « il serait déjà satisfaisant d’avoir des modèles d’apprentissage conçus en Europe ainsi que des données restant sur des serveurs institutionnels », nous explique Frédéric Pascal, co-signataire d’un rapport sur l’IA dans l’enseignement supérieur rendu au ministère en juin 2025. En effet, les données personnelles des étudiants – dont les deux tiers ont recours au moins une fois par semaine à une IA générative, ChatGPT pour l’écrasante majorité – mais aussi les productions scientifiques non encore publiées par les chercheurs sont des informations stratégiques à protéger. Quant à la conception des modèles, le fait qu’ils soient construits en Europe « garantit leur respect de la législation – notamment le RGPD – et des gardes-fous posés par les concepteurs en accord avec nos valeurs démocratiques ». L’utilisation par des étudiants de Grok – comme on peut le voir dans cette émission de Grand Labo –, l’IA développée par Elon Musk promouvant des valeurs libertariennes et autorisant des contenus discriminatoires ou climatonégationnistes fait froid dans le dos. Tout aussi inquiétant, ces contenus seraient repris dans la dernière version de ChatGPT selon The Guardian.

« Il est difficile d’être compétitif face à OpenAI sur une IA généraliste »

Daniel Comparat, CNRS

Super poney. Dans un contexte international et géopolitique chaotique, le modèle Mistral apparaît ainsi pour beaucoup comme le plus éthique – et le moins biaisé. Néanmoins en termes de protection des données, Mistral est loin de cocher toutes les cases même si la licorne française, fierté du Président de la République lors du AI summit – relire notre analyse – offre certaines garanties. L’entreprise ne possède pas encore d’infrastructures en France – un data center est en construction à Bruyères le Châtel où se situe également le Centre de calcul recherche et technologie et la Direction des applications militaires du CEA – mais « les utilisateurs peuvent choisir d’orienter leurs requêtes vers des data centers opérés par AWS en Suède. La phase d’inférence qui demande de la rapidité [quand l’IA répond à vos requêtes, NDLR] est par ailleurs sous traitée à une société états-unienne nommée Cerebras », explique Frédéric Pascal. Ce dernier ajoute : « Nous devons collectivement nous engager à développer des modèles plus souverains et plus frugaux ». L’idéal étant évidemment d’héberger les outils IA dans les établissements de l’enseignement supérieur et de la recherche (ESR). 

Solution maison. C’est précisément ce qu’expérimente l’Université de Rennes avec le projet RAGaRenn. Depuis mars 2024, une interface web de type chatbot a été mise en place, avec la gestion de comptes utilisateurs et d’historique associé. Sauf que derrière, au lieu d’une seule IA générative sachant tout faire, plusieurs modèles – tous ouverts, voici la liste – sont proposés. « Des petits pour des tâches simples comme reformuler un email, d’autres plus puissants pour des tâches complexes comme croiser des informations au sein de plusieurs documents », explique Olivier Wong-Hee-Kam, vice-président numérique de l’établissement. L’approche dite RAG – pour Retrieval Augmented Generation – consiste à solliciter le modèle en ajoutant des textes issus d’une base documentaire maîtrisée avant de faire ses requêtes. « Cela garantit à la fois la sécurité des données car tout reste en interne et la fiabilité du contenu, ce qui serait impossible avec une IA généraliste comme ChatGPT », explique le vice-président. 

« Souvent, utiliser ChatGPT revient à conduire un camion de 33 tonnes pour aller chercher son pain »

Olivier Wong-Hee-Kam, université de Rennes

Nvidia superstar. Début 2025, dans le cadre des défis “Convergence IA” lancés par le gouvernement, l’outil a été ouvert à l’ensemble de l’ESR français et au-delà : des collectivités territoriales, régionales, veulent tester. Au total 105 établissements gèrent leur propre espace et plus de 4400 personnels sont inscrits. « Certains utilisateurs sont insatisfaits car ce n’est pas comme ChatGPT… », observe Olivier Wong-Hee-Kam. Mais le service requiert des infrastructures bien moindres : « Souvent, utiliser ChatGPT revient à conduire un camion de 33 tonnes pour aller chercher son pain. » Pour RAGaRenn, sont utilisées au maximum dix cartes graphiques – utilisées pour le calcul intensif et très gourmandes en électricité, relire notre analyse. En comparaison, les géants de l’IA comme Meta en détiennent des centaines de milliers. Une solution bien plus frugale, donc, mais un peu moins simple à prendre en main. 

Going public. « Nous avons organisé des ateliers pour comprendre les attentes, ainsi que des cafés IA pour partager les expériences et difficultés », explique Olivier Wong-Hee-Kam. Ainsi, des cas d’usage avec des prompts déjà prêts et personnalisables ont été préparés au sein de RAGaRenn. Mais si l’expérimentation est en principe ouverte à tous les personnels, l’établissement hésite à en faire la publicité : « La montée en charge risque de poser des problèmes de ressources (matérielles et humaines) ». Mais ce qui reste encore une expérimentation pourrait être bientôt pérennisée : « Les signaux sont positifs. » Avec à terme des usages qui pourraient être divisés en deux : d’un côté les documents confidentiels – données personnelles des étudiants, manuscrits ou projets de recherche non encore publiés – confiés aux IA et institutionnelles comme RAGaRenn. De l’autre, pour tout ce qui est public, le recours à l’outil jugé le plus pertinent par l’utilisateur. « Cela demande de former les personnels pour qu’ils soient capables de distinguer la sensibilité des usages », estime le VP numérique de Rennes. 

« La mutualisation permet de répartir la charge [de] limiter l’impact environnemental et d’être plus résilient »

Olivier Wong-Hee-Kam, université de Rennes

Des IA et des sous. Plusieurs établissements ont fait le même cheminement : l’école CentraleSupélec (Paris-Saclay) avait par exemple lancé dès 2024 son IA générative Aristote pour l’enseignement. Début 2025, cinq au total – les universités de Lille, Reims Champagne-Ardenne, Paris 1 Panthéon-Sorbonne, Rennes et CentraleSupélec – ont décidé de mettre leurs ressources en commun au sein d’une fédération baptisée ILaaS. « La mutualisation permet de répartir la charge au niveau national, d’optimiser l’utilisation pour limiter leur impact environnemental et d’être plus résilient – si l’un des serveurs tombe par exemple », explique Olivier Wong-Hee-Kam. Qu’ils apportent des ressources de calcul ou qu’ils souhaitent juste en profiter, de nombreux établissements souhaitent rejoindre ILaaS, qui passe la seconde avec le déploiement de modèles disponibles aux utilisateurs. En parallèle, dans le cadre de l’Alliance Mistral et faisant suite au partenariat signé entre le ministère et l’entreprise française en juin 2025, l’Agence de Mutualisation des Universités et Établissements (AMUE) a annoncé le lancement fin janvier 2026 d’un service d’IA souveraine « développé avec Mistral et opéré sur les datacenters de l’ESR », c’est-à-dire le réseau ILaaS. Il s’agira du Chat Pro, que les établissements paieront sur la base de 600 euros pour 10 comptes utilisateurs et 150 000 « tokens », sachant que 100 tokens représentent entre 75 mots (en anglais) et 50 mots (en français) ». Mais dans ce contexte de crise budgétaire, les établissements pourront-ils payer ? 

Celles et ceux qui refusent l’IA en bloc

« Même s’il est effectivement possible de faire des petites IAs éthiques aux impacts moindres, cela participe à l’acceptation générale de toutes les IAs génératives potentielles, dont celles qui ont un impact énorme et sont fort peu éthiques », argumentait la professeure en informatique Florence Maraninchi (Université Grenoble Alpes) dans un billet de blog sobrement intitulé « Pourquoi je n’utilise pas ChatGPT ». Quelques mois plus tard, l’Atelier d’écologie politique (Atecopol) publiait un manifeste, déclarant « adopter une posture d’objection de conscience face au déploiement des technologies d’IA générative dans nos institutions » avec trois principaux arguments : les conséquences désastreuses de l’IA en termes écologiques, sociales et éthiques. Un manifeste qui comptait plus de 2500 signataires au 13 janvier 2026. Alors, comme l’affirment également trois chercheurs dans une tribune au Monde, sous la pression des multinationales et parfois des institutions, faut-il résister à l’IA ? Vous avez les clés en main pour décider.

À lire aussi dans TheMetaNews

« J’ai fait des erreurs d’inattention »

La salle d’audience du Cneser disciplinaire est inhabituellement pleine en ce 21 janvier. Il faut avouer que le dossier du jour est particulier. Particulièrement long, déjà : « Plus de 9000 pages », entend-on dans les travées. Particulièrement original aussi : à la...

Les doctorant·es aux manettes de leur publication

Publier en premier auteur ? Une étape cruciale et parfois incontournable pour soutenir son doctorat. Mais parfois, pris par le temps ou estimant que le ou la doctorant·e n’en est pas capable, certains encadrants s’en chargent – l’une d’entre elles témoignait lors de...

Les très riches heures de la désinformation

« Brigitte Macron est un homme ». Cette fake news est devenue, par son ampleur et sa cible, l’exemple par excellence de cette apocalypse cognitive qui touche tout l’écosystème médiatique. Initiée en France par une médium et une journaliste autoproclamée, toutes...