Pour cette enquête, TheMetaNews et l’EPRIST ont mené un sondage auprès des membres de comités d’évaluation. Retrouvez la synthèse des résultats en version PDF. La majorité des citations sont tirées de deux journées organisées sur ce thème : l’une par l’EPRIST le 3 octobre 2025, l’autre par l’Académie des sciences le 18 novembre 2025.
Enfermés depuis maintenant plusieurs heures, une vingtaine de chercheuses et chercheurs débattent, n’arrivant à se mettre d’accord sur les candidat·es à sélectionner pour les quatre postes ouverts cette année. « X était quand même plus éloquente à l’oral », « le projet de Y est beaucoup plus porteur… », « Z a tout de même un h-index de 30 ! » Le mot est lâché, symbole d’une évaluation basée sur des indicateurs chiffrés. Une évaluation supposée être d’un autre temps à l’heure de la science ouverte. Les institutions académiques incitent aujourd’hui à prendre en compte la qualité et la portée des recherches et non la quantité de publications ou de citations. Mais qu’en est-il en pratique ? Un ange passe dans la salle où le jury s’est réuni, puis les discussions reprennent comme si de rien n’était. Le candidat Z sera finalement sélectionné… Si cette scène est le fruit de notre imagination, elle pourrait toujours avoir lieu en 2025.
« Adopter des pratiques vertueuses et faire de la “belle science” sont deux choses différentes »
Emmanuelle Jannès-Ober, Inrae
Mieux avant ? Mais tout d’abord, revenons sur la science ouverte. Il y a bien longtemps, les chercheurs consultaient les résultats de leurs collègues dans des revues papier qu’ils recevaient chaque mois. Puis le numérique est arrivé : les publications ont migré sur les sites des éditeurs, leur accès est dorénavant restreint par des paywalls. Que les travaux financés sur deniers publics restent cadenassés, monétisés par des éditeurs scientifiques ? Absurde pour certains, sachant que le web offrait la possibilité d’un accès illimité et par tous. Ainsi est apparu dès les années 1990 – arXiv date de 1991 – le mouvement de la science ouverte. D’abord défendu par une poignée d’activistes, il a réussi à convaincre les institutions : aujourd’hui, plus de six publications sur dix sont en accès ouvert. Mais comment aller au-delà ? Et surtout comment éviter aux chercheurs de se sentir tiraillés entre deux injonctions contradictoires : d’un côté satisfaire les exigences en matière de science ouverte de son établissement et de ses financeurs, de l’autre publier dans des revues prestigieuses pour progresser dans leur carrière. Réformer l’évaluation n’est pas une mince affaire.
Compostelle. L’évaluation dans le contexte de la science ouverte était justement l’objet d’une journée organisée par l’Eprist, l’association des responsables d’information scientifique et technique dans les organismes de recherche, le 3 octobre 2025 – nous y étions. « Publier en accès ouvert, oui, mais pour certains le facteur d’impact des revues reste important. Sur quoi baser l’évaluation – des institutions, des carrières, des projets – alors que dans les comités nous sommes tous pris par le temps ? » témoignait en introduction Michel Pohl, directeur du Département de la science ouverte (DSO) à l’Inserm et lui-même chercheur. Laurence El Khouri, directrice adjointe de la Direction des données ouvertes de la recherche (DDOR) au CNRS, présentait la feuille de route de l’organisme, qui sera sous peu mise à jour. Alors qu’en 2019 avait été annoncé le transfert automatique des publications déposées sur HAL – et seulement celles déposées sur HAL, ce qui n’avait pas manqué de faire réagir – dans les dossiers de suivi de carrière des chercheur·ses, la prochaine étape verra l’inclusion d’autres types de productions – données, logiciels, etc. Comparant le défi avec celui du changement climatique, Laurence El Khouri affirmait : « l’évaluation doit prendre un tournant (…) C’est à nous d’aller avec notre bâton de pèlerin voir les présidents de section ».
« Durant 30 ans, on a beaucoup recruté de profils “compétiteurs”, il nous manque aujourd’hui des chercheurs plus collaborateurs »
Pierre Alliez, Inria
Chacun, fait, fait, fait… « À Inrae, nous donnons des consignes aux présidents de commissions scientifiques spécialisées [l’équivalent des sections au CNRS, NDLR] mais nous ne savons pas si elles sont appliquées », témoignait Emmanuelle Jannès-Ober, directrice adjointe de la DipSO (Direction pour la science ouverte). Elle rappelle au passage qu’évaluer à l’aune de la science ouverte ne signifie pas évaluer le respect de ses principes : « Adopter des pratiques vertueuses et faire de la “belle science” sont deux choses différentes ». D’ailleurs, les chercheur·ses tiennent à pouvoir choisir là où ils publient, accès ouvert ou non. Question de liberté académique ? La réponse ne fait pas l’unanimité mais, dans tous les cas, l’incitation apparaît comme la meilleure stratégie à adopter pour les établissements – relire notre analyse sur Nantes Université qui voulait obliger ses chercheurs à publier dans des revues open.
Top of the pops. D’autant que l’évaluation quantitative, basée sur le volume des publications et le nombre de citations, semble avoir fait quelques dégâts : « Durant 30 ans, on a beaucoup recruté de profils “compétiteurs”, il nous manque aujourd’hui des chercheurs plus collaborateurs », analysait ce même 3 octobre dernier Pierre Alliez, président de la commission d’évaluation d’Inria. Un constat partagé par Marion Cipriano, directrice du Département évaluation de l’Inserm : « Nous avons besoin de diversité pour faire fonctionner les collectifs. » Mais face à la multiplication des évaluations – la dernière en date étant celle pour les primes dites Ripec 3, nous vous en parlions –, c’est aujourd’hui 2800 dossiers qui sont examinés chaque année par les sept CSS de l’Inserm – qui comprend 2000 chercheurs. « Entre fatigue et manque de temps, comment classer des profils très différents ? », interrogeait la représentante de l’Inserm qui a, comme la plupart des autres organismes, signé la déclaration de San Francisco sur l’évaluation de la recherche (DORA).
Le CV narratif
Passé dans les usages de nombreux organismes et agences de financement, le CV narratif est apparu comme une solution pour se débarrasser des indicateurs chiffrés. De quoi s’agit-il ? Au lieu d’une liste à la Prévert de toutes les publications du candidat, l’ANR demande une sélection de cinq publications commentées, le CNRS et l’ERC un maximum de dix productions. Avec la possibilité de mentionner des éléments de contexte – parcours différents, interruptions de carrière ou autres – pouvant « impacter la productivité » à la baisse, expliquait Maria Leptin le 18 novembre 2025 à Paris. Au CNRS, cinq faits marquants doivent également être décrits et une auto-évaluation a été instaurée dans les dossiers de carrière : 40 points à répartir en fonction du temps consacré à cinq facettes du métier de chercheur : recherche, encadrement, tâches collectives, transfert de connaissance… « Chacune est valorisée », affirmait, taux de réussite à l’appui, Martina Knoop, directrice de la Mission pour les initiatives transverses et interdisciplinaires (MITI), ce même jour à l’Académie des sciences.
Quali quali. Évaluation des chercheurs, évaluation des projets, même combat ? Signataire de DORA en 2018 puis de CoARA en 2022 (voir encadré sur l’international), l’Agence nationale de la recherche (ANR) « promeut une évaluation qualitative des propositions de projets, la reconnaissance de tous les produits de la recherche, la non prise en compte du facteur d’impact et du h-index », explique Zoé Ancion, responsable du pôle science ouverte. Comme dans beaucoup d’autres institutions, le CV demandé intègre des parties narratives (voir encadré). « Le mouvement en faveur de la science ouverte participe à la qualité de la science », affirme Zoé Ancion. Se plaçant en « relais des politiques déjà déployées dans les établissements », l’agence demande ainsi aux chercheurs qu’elle finance de déposer leurs publications en accès ouvert et en licence CC-BY – nous vous en parlions. Avec un détail d’importance : « Les auteurs sont libres de publier dans la revue de leur choix, les dépenses liées aux APC [article processing charges, NDLR] dans des revues ouvertes sont éligibles au paiement via les financements ANR, mais pas celles des revues hybrides [accessibles sur abonnement mais qui proposent aux auteurs de payer pour un accès ouvert à leur article, NDLR] ».
Incitation douce. Le tout dans une démarche d’adhésion : « Les publications déposées dans HAL apparaissent automatiquement dans l’espace projet et dans les rapports. L’objectif de l’ANR est de simplifier le processus pour les chercheurs », explique Zoé Ancion. Il en va de même pour le Plan de gestion des données, demandé pour tout projet financé et qui peut être construit à l’aide de l’outil DMP OPIDoR facilitant le transfert vers les services de l’ANR, avec la recommandation d’en déposer la version finale sur HAL, tout comme les logiciels via Software Heritage – nous vous le présentions en outil dans ce numéro. Pour aller plus loin, les pistes évoquées comprennent la possibilité pour les candidats de mettre en avant dans leur CV des prépublications ou des publications dans d’autres langues que l’anglais. Par ailleurs, l’agence souhaite sensibiliser davantage toutes les parties prenantes de l’évaluation des projets sur la science ouverte grâce à des modules en ligne et poursuivre l’organisation de retours d’expérience en fin de processus. « L’ensemble de ces dispositions seront présentées dans le prochain plan d’action CoARA de l’ANR, qui sera publié en début d’année », précise Zoé Ancion. Enfin, l’ANR également des appels dédiés à la science ouverte et à son impact sur les pratiques de recherche.
« Montrer une vidéo de sensibilisation juste avant que le jury ne commence sa sélection a fait ses preuves »
Maria Leptin, ERC
Faux jumeaux ? La formation des évaluateurs, l’European research council (ERC) y semble également très sensible. Lors d’un événement organisé par l’Académie des sciences le 18 novembre 2025, la présidente de l’ERC Maria Leptin a listé tous les biais auxquels nous sommes tous soumis, reviewer ou non. « Cela peut être aussi trivial qu’une date de naissance en commun (…) Et le biais de confirmation [on privilégie les informations qui confortent nos opinions, NDLR] reste le pire dans les comités », donnait-elle en exemple. Heureusement, les solutions existent : « Montrer une vidéo de sensibilisation juste avant que le jury ne commence sa sélection a fait ses preuves. » Il serait en effet possible de surmonter ses biais si on n’y prête attention… « mais pas quand on est fatigué, stressé ou qu’on a faim… Les échanges juste avant le déjeuner sont généralement bien plus rudes », précisait la présidente de l’ERC. L’agence européenne a fait évoluer son processus de sélection, comprenant aujourd’hui CV narratif (voir encadré).
Et à l’international ?
Si le mouvement est bien enclenché en France, il n’est pas en reste à l’international. Lancé par DORA, Reformscape recense des documents d’évaluation responsable d’institutions partout dans le monde, avec un moteur de recherche. À l’échelle européenne, les institutions et agences de financement tentent de se coordonner via ScienceEurope et la Coalition for advancing research assessment (CoARA). L’ANR affirme y être très active, et le Conseil national des universités (CNU) réfléchit à s’en rapprocher.
Mauvaises habitudes. Mais dans la pratique, comment évaluent les chercheuses et chercheurs ? TheMetaNews et l’Eprist ont diffusé un questionnaire à destination des membres des comités (dont revoici les résultats), commissions, sections des différents organismes de recherche et du Conseil national des universités (CNU), avec au total environ 120 réponses. « L’évaluation au prisme de la science ouverte est-elle un sujet familier et maîtrisé par tous les membres ? » Seulement 55% des répondants ont estimé que « oui » et moins d’un tiers dit avoir été formé – 45% parmi les présidents de comité. Pire, le recours au h-index ou à d’autres indicateurs quantitatifs semble une habitude encore bien ancrée chez certains évaluateurs. La pratique reste peu commune en sciences humaines mais aussi en sciences exactes où neuf répondants sur dix déclarent ne l’utiliser que “parfois” voire “jamais”. En revanche plus d’un tiers des sciences du vivant admettent y avoir recours “souvent” voire “tout le temps”.
« Le contenu de l’article est plus important que la revue dans laquelle il est publié »
Patrick Couvreur, Académie des sciences
Mise à l’index ? En plus d’aller à l’encontre de la science ouverte, le h-index, né de l’imagination très rationnelle d’un chercheur en physique – Jorge Hirsch, nous l’avions interviewé – fait l’objet de nombreuses critiques sur sa pertinence : « Le h-index ne dit pas tout : entre un chercheur avec trois publications dont une incroyable qui atteint 100 citations [donc un h-index de maximum 3, NDLR] et un autre chercheur avec 20 articles ayant chacun 20 citations [et donc un h-index de 20, NDLR], lequel préfère-t-on ? », demande Annaïg Mahé, spécialiste des indicateurs – relire notre interview. La question se discute, en effet. Le sociologue des sciences Yves Gingras appelle quant à lui régulièrement à en finir avec le h-index, donnant cette exemple assez parlant : Albert Einstein dépasse à peine 50, alors que celui de Didier Raoult dépasse les 100. Faut-il alors chercher à remplacer le h-index ? Que nenni. « Dès que l’on impose un indicateur, il devient un objectif en soi ; c’est l’effet Cobra », expliquait Martina Knoop du CNRS le 18 novembre dernier. Un terme qui vient de l’époque coloniale en Inde : les Britanniques voulant se débarrasser des cobras, ils ont promis des primes à qui rapporterait un cadavre de cet animal. Résultat : les locaux se sont lancés dans l’élevage de cobras.
Dans la nuance. « Il ne faut pas être psychorigide », a répété plusieurs fois Patrick Couvreur, académicien et professeur émérite en pharmacie à l’université Paris-Saclay, en présentant le rapport sur l’évaluation dans le contexte de la science ouverte publié en mars 2025 par l’Académie des sciences. Celui-ci recommande une priorité à l’évaluation qualitative : « Le contenu de l’article est plus important que la revue dans laquelle il est publié », rapportait l’académicien. Mais aussi de réduire la bureaucratie et d’augmenter les moyens matériels et humains. Publié par DORA en mai 2024, un guide sur l’utilisation des indicateurs quantitatifs tente d’apporter de la nuance et décrit les limites de chacun d’entre eux. Avec une recommandation pour celles et ceux qui les utilisent : être clair, transparent et juste. Car la situation semble pire à l’international, si l’on en croit le sondage mené par Springer Nature à l’été 2024 auprès de plus de 6000 chercheurs à travers le monde : 55% d’entre eux estimaient que l’évaluation de leur travail était basée tout ou partie sur des métriques.
« J’ai choisi de participer à l’évaluation de mes pairs justement pour (…) veiller aux biais »
Un·e répondant·e à notre enquête
Y a plus qu’à ? Malgré les politiques mises en place en France, reste-t-il des freins ? Plus de 70% des répondant·es à notre sondage TMN/Eprist jugent que oui. Parmi les plus cités : le manque de temps. « [L’évaluation selon les principes de la science ouverte est] une très belle chose mais difficile à mettre en œuvre », commente un·e des répondant·es en sciences sociales. Les habitudes et réflexes viennent en second. « Étant une pratique assez récente, elle n’a pas fait partie des habitudes des plus anciens », témoigne un·e enseignant·e-chercheur·e en sciences exactes. Sont également cités le manque d’expertise scientifique sur certains sujets précis, l’absence de consignes/définitions claires, ainsi que le besoin de connaissances voire de formations sur la science ouverte. « Je ne comprends pas cette notion de science ouverte. », commente un·e répondant·e en sciences humaines.
Poids du passé. Peu d’opposition de principe donc… « Mais ces évaluations sont réalisées par des chercheurs qui ont brillé dans un système qui évaluait sur des critères quantitatifs, il y a peu d’espoir que ces mêmes chercheurs changent le système qui les a mis en valeur ! », fait remarquer un·e chercheur·se en sciences du vivant. De l’enthousiasme pour ce nouveau paradigme d’évaluation ressort tout de même de notre sondage : « J’ai choisi de participer à l’évaluation de mes pairs justement pour aider à la mettre en application et de veiller aux biais. Même si nous n’y sommes pas pour tout, nous avons fait beaucoup de progrès. »
Cet article est publié en partenariat avec l’association des responsables de l’information scientifique et technique des organismes de recherche français publics ou d’utilité publique (EPRIST) sous licence CC-BY 4.0 (voir les conditions).
