Comment est née cette liste des chercheurs les plus cités ?
Cette liste est l’héritage des travaux d’Eugène Garfield, l’un des pères de la bibliométrie – appelée aussi scientométrie. Il travaillait avec des sociologues des sciences comme Robert Merton ou Harriet Zuckerman. Dans les années 1960, il a fondé l’Institute for Scientific Information (ISI) – aujourd’hui détenu par Clarivate – et a créé le Science Citation Index, qui deviendra le Web of Science. Il a alors conçu plusieurs listes, comme celle des Most cited researchers, avec l’idée de prédire les futurs Prix Nobel à partir du nombre de citations des publications. À l’époque, cet institut était le seul capable d’effectuer de tels calculs. Ces listes étaient publiées sous la forme de petits textes associés à un fascicule imprimé de l’index. Puis, dans les années 1980, l’ISI a créé quelque chose de plus conséquent : la liste des mille chercheurs contemporains, ayant publié dans une fenêtre temporelle récente, les plus cités. Cela a représenté deux ans de travail et a nécessité de faire tourner les ordinateurs près de 750 heures pour la produire. Il s’agit d’un des premiers grands travaux de bibliométrie autour des chercheurs très cités.
« Cette liste est [au départ] pensée comme un outil pour aider les chercheurs »
Lauranne Chaignon
À quel moment la liste des HCR devient-elle moins confidentielle ?
À la fin des années 1990, quand David Pendlebury – qui dirige toujours l’ISI – relance l’idée et propose de la partager via le web qui est à l’époque en train de se développer. Comme je l’explique dans mon article publié dans Quantitative Science Studies, 2001 marque le début de la phase “base de données”, où les membres de l’ISI demandent aux chercheurs les plus cités leur CV et complètent la liste de nombreuses données : naissance, études, postes, liste exhaustive des publications… Cette liste est à l’époque pensée comme un outil pour aider les chercheurs à faire leur veille, identifier des experts dans un domaine et pourquoi pas lier des collaborations. Elle sert également aux sociologues des sciences qui veulent étudier une communauté.
Y avait-il à l’époque une volonté d’évaluer la recherche ou les chercheurs ?
Non pas vraiment, les scientifiques de l’ISI voulaient surtout montrer quels chercheurs avaient le plus d’impact dans leur communauté et, pour cela, le nombre de citations de leurs publications leur semblait être la meilleure reconnaissance. Il serait faux de dire qu’ils n’avaient pas imaginé que cette liste pourrait devenir un indicateur mais ce n’était pas au cœur de leur projet.
« Il est plus facile de figurer dans la liste en physique appliquée qu’en physique théorique»
Lauranne Chaignon
Comment la liste est-elle alors devenue un indicateur d’excellence scientifique ?
Progressivement, avec l’apparition du classement de Shanghai en 2003. Des scientifiques chinois l’ont développé, à la demande de leur gouvernement qui voulait savoir comment leurs universités se positionnaient au niveau mondial ; ils étaient à l’affût d’éléments sur lesquels baser leur classement. Ils ont donc utilisé la liste des HCR, tout comme le nombre de prix Nobel ou de publications dans des revues prestigieuses telles que Nature ou Science. Le nombre de chercheurs très cités compte pour 20% de la note d’un établissement, ce qui n’est pas rien [les critères en détail, NDLR]. La liste des HCR a ainsi commencé à prendre de l’importance, jusqu’à devenir un indicateur destiné à évaluer la recherche d’un établissement, voire d’un pays. Figurer dans la liste est devenu un objectif en soi. Au cours des années 2010, les équipes de l’ISI ont constaté un emballement, avec des établissements qui les contactaient pour savoir quand serait publiée la liste, ou pourquoi tel chercheur n’y apparaissait pas.
Comment devient-on un chercheur très cité ?
L’ISI, qui dépend aujourd’hui de Clarivate, analyse les articles et reviews des onze dernières années et identifie le top 1% des plus cités au niveau mondial pour chaque grande discipline. Pour figurer dans la liste des HCR, un chercheur doit à la fois avoir un nombre suffisant de publications dans le top 1% et avoir un nombre suffisant de citations sur l’ensemble de ses articles très cités. En d’autres termes, l’ISI établit pour chaque discipline deux seuils à dépasser pour figurer dans la liste : le nombre de publications dans le top 1% et le nombre total de citations. C’est du moins la méthode actuelle, qui a beaucoup évolué depuis ses débuts.
« 40% des HCR seront renouvelés cette année »
Lauranne Chaignon
Est-ce plus facile d’être un HCR dans certaines disciplines que d’autres ?
La différence n’est pas forcément d’une discipline à l’autre mais entre sous-disciplines. Il est par exemple plus facile d’y figurer en physique appliquée qu’en physique théorique, tout simplement parce que les publications y sont plus citées. Un autre exemple : au sein des sciences sociales figure la santé publique qui a vu son impact exploser depuis la Covid et qui domine donc le classement dans la discipline. Des chercheurs ont d’ailleurs fait leur entrée dans la liste depuis la Covid, comme le virologue Bruno Canard – nous l’avions interviewé – qui travaillaient depuis des années sur le sujet et qui d’un coup a vu ses travaux très cités. La liste reflète donc parfois l’émergence de sujets, mais ce n’est pas la majorité des chercheurs de la liste.
Les HCR récompensent-ils les chercheurs à cheval sur plusieurs disciplines ?
Seulement depuis 2018 avec la création de la catégorie crossfields. Avant, il était possible de figurer dans les HCR dans deux disciplines différentes mais cela signifiait dépasser les seuils deux fois, ce qui n’était pas simple [cette année, seulement 227 chercheurs apparaissent dans au moins deux disciplines, NDLR]. Durant 17 ans, les scientifiques de l’ISI avaient essayé de traiter la question mais butaient devant la complexité du calcul. Au passage, les disciplines sont définies par l’ISI d’après la revue dans laquelle l’article est publié et les chercheurs n’apparaissent pas toujours dans la discipline qu’ils estiment être la leur. Aujourd’hui, près de la moitié des 6000 à 7000 chercheurs les plus cités chaque année font partie de la catégorie crossfields, avec des profils très variés – nous vous en parlions dans notre analyse sur les citations.
« Le caractère très masculin de la liste reflète les inégalités présentes dans la production scientifique »
Lauranne Chaignon
Les HCR changent-ils beaucoup d’une année sur l’autre ?
Entre 2023 et 2024, 70% de la liste est restée fixe. Une proportion que l’équipe de l’ISI estimait satisfaisante : la liste n’était pas éphémère, tout en permettant à de nouveaux profils d’émerger. Cependant cette année, leur méthodologie a encore évolué, ont-ils fait savoir sur leur blog début octobre, permettant l’arrivée de davantage de nouveaux profils : 40% de la liste sera donc renouvelée.
Les femmes sont-elles présentes parmi les HCR à leur juste proportion ?
Malheureusement non : elles en représentent à peine 15%. Dès l’établissement des premières listes, les scientifiques de l’ISI avaient fait le constat et remarqué qu’elles étaient plus présentes en sciences sociales. Aujourd’hui, ils expliquent dans les FAQ d’une part ne pas vouloir récolter de données sur le genre des auteurs à partir de leur prénom et précisent d’autre part que le caractère très masculin de la liste reflète les inégalités présentes dans la production scientifique : les femmes ont en moyenne moins accès que leurs homologues masculins aux revues prestigieuses et sont moins citées.
« L’ISI a pris au sérieux la question des fraudes »
Lauranne Chaignon
Chaque année, le nombre de chercheurs exclus de la liste augmente : 2400 cette année, contre 2000 en 2024. Comment est-il possible de manipuler la liste ?
Depuis 2020, l’ISI a mis en place des filtres pour la nettoyer via une analyse qualitative des auteurs. Il considère que l’impact des publications peut être en partie voire totalement fabriqué et ce par quatre moyens. En premier lieu, “l’hyper autorat” : deux à trois publications par semaine ne peuvent refléter une véritable contribution scientifique. L’ISI ne parle pas ici explicitement de méconduite mais assume ne pas vouloir mettre en avant ce type de profil. En deuxième figure l’autocitation : s’il est normal de faire référence à ses propres travaux, l’ISI repère les profils anormaux qui s’autocitent bien au-dessus de la moyenne dans la discipline concernée. Le troisième phénomène est le cercle ou cartel de citation, où plusieurs chercheurs s’accordent pour se citer l’un l’autre dans leurs articles, alors même que les thématiques sont parfois complètement différentes. Enfin, l’équipe de l’ISI est attentive aux articles rétractés ou signalés sur Retraction Watch ou PubPeer pour méconduites et font régulièrement appel à cette expertise externe pour les identifier. Les publications rétractées très citées ne sont déjà plus prises en compte depuis au moins 2016 mais il ne suffit pas d’une rétractation ou d’un commentaire sur PubPeer pour exclure un chercheur de la liste. L’ISI examine un ensemble d’indices et mène une analyse humaine et qualitative qui représente, pour leur équipe de cinq personnes, des mois de travail.
Diriez-vous que la liste a-t-elle perdu sa crédibilité ?
On peut d’abord se demander quel était au départ le crédit accordé à cette liste des HCR : loin d’être le seul critère de qualité scientifique, elle a été questionnée dès le départ. On peut ensuite constater que la liste a été très fragilisée, au point que les mathématiciens ne connaissaient plus aucun nom dans les HCR de leur discipline. En raison des petits nombres de publications et de citations en mathématiques, la discipline était plus vulnérable à la manipulation. En conséquence, la liste des HCR en maths n’apparaissait plus depuis 2023 mais elle revient cette année grâce à de nouvelles étapes de filtrage. Ayant compris le péril qui menaçait la liste – et bien conscient que la liste a également participé à cette course à la publication et aux pratiques douteuses – on peut dire que l’ISI a pris au sérieux la question des fraudes et ne s’en est pas lavé les mains. Aujourd’hui, sa crédibilité est certes entachée mais sans doute pas perdue, à condition encore une fois d’accorder du crédit à cet exercice au départ.
« Nous sommes arrivés à travailler sur cette liste en essayant d’ouvrir la boîte noire »
Lauranne Chaignon
Quel est l’intérêt pour Clarivate de financer une telle liste ?
Clarivate est une très grande entreprise, qui commercialise notamment le Web of Science, l’immense base de données des publications. Sur un marché très concurrentiel où sont présents Scopus d’Elsevier mais aussi l’alternative ouverte OpenAlex – nous vous en parlions – la liste des HCR représente une vitrine de leurs produits mais aussi de leur expertise en bibliométrie.
Vous êtes également ingénieure en bibliométrie, employée par PSL. En quoi est-ce important pour un établissement de suivre cette liste ?
La plupart des établissements scrutent le classement de Shanghai. À PSL, nous avons commencé à travailler sur cette liste en essayant d’ouvrir la boîte noire de ce classement, pour lequel les HCR participent à hauteur de 20% de la note. Avec un fonctionnement bien plus complexe à première vue que les prix Nobel. C’est pourquoi nous avons voulu comprendre en profondeur leur méthodologie.
« Nous avons réussi à la reproduire à environ 90% »
Lauranne Chaignon
L’établissement de la liste reste-t-il une recette secrète de Clarivate ? C’est un travail que nous avons mené avec Daniel Egret et Domingo Docampo et nous avons réussi à la reproduire à environ 90%. Cependant, l’étape de désambiguïsation des noms, notamment asiatiques – plusieurs chercheurs peuvent porter le même nom mais leurs publications doivent être comptabilisées de manière séparée – représente un immense travail. De plus, la partie qualitative de filtrage dont je parlais plus tôt demande une appréciation humaine que nous n’avons pas cherché à reproduire. L’établissement des seuils est en revanche un calcul que nous pouvons globalement refaire d’une année sur l’autre pour voir les tendances. Pour résumer, ce qui m’intéresse dans cette liste n’est pas de savoir si elle constitue ou non un bon indicateur mais l’éclairage qu’elle apporte sur la manière dont est produite aujourd’hui la recherche, ainsi que son évaluation.
Photo par Lucile Veissier
