Une histoire de visibilité. Depuis leur création, le but des altmetrics est de mesurer le rayonnement d’une publication sur les réseaux sociaux. Nés d’un manifeste en 2011, ils sont au départ plébiscités par DORA pour offrir une alternative plus saine au simple décompte du nombre de citations. Divers outils émergent à cette époque, dont ImpactStory – ensuite parti sur les rives de l’open access. Mais les altmetrics ne sont pas restés « alt » très longtemps : les grandes maisons d’éditions ont depuis fait main basse sur ces outils.
Deux acteurs majeurs occupent aujourd’hui la scène :
–Altmetric.com. Racheté en 2012 par Digital Science (lié au groupe Springer-Nature), il est présent sur toutes les revues du groupe.
– Plum Analytics. Développé par des bibliothécaires et racheté par Elsevier en 2017, il est maintenant intégré dans Mendeley, Scopus et Science Direct.
Une foultitude de données… les altmetrics peuvent intégrer une multitude de mesures pour une même publication :
– les vues : nombre de consultation de page ou téléchargement ;
– les discussions : nombre de commentaires dans les revues, blogs, Wikipedia, Twitter, Facebook et autres réseaux sociaux ;
– les sauvegardes : dans divers outils de bibliographie comme Mendeley, CiteULike, Zotero ou d’autres ;
– les citations : dans la littérature scientifique et tracées par Web of Science, Scopus, CrossRef…
– les recommandations : par exemple sur F1000Prime.
… mais pas toujours open. L’indicateur altmetric est ensuite calculé comme une somme pondérée de toutes les mesures ci-dessus – attention chaque outil possède une recette différente. Si Altmetric.com rend ses données accessibles à tous, ce n’est pas le cas de Plum Analytics. Pour Annaïg Mahé, chercheuse à l’Urfist Paris, il y a un « risque de se détourner de l’open science ».
Utiles pour les revues. Gratuits pour les chercheurs, ces outils sont payants pour les institutions et les revues. Ces dernières sont en effet très friandes de tout ce qui peut mesurer leur visibilité. « Alors qu’aujourd’hui environ la moitié des articles sont tweetés, les revues veulent savoir comment circulent les articles », confie Vincent Larivière, chercheur à Montréal. Mais les altmetrics peuvent aussi être utiles pour les chercheurs (à lire dans notre interview croisée).
Les limites des altmetrics
Sont-elles trop neutres ? Certains points de mesures sont considérés comme pertinents : les citations sur Wikipedia, l’enregistrement dans les bibliothèques (via par exemple Mendeley et Zotero)… Mais d’autres beaucoup moins. Les altmetrics ne distinguent pas si les commentaires à propos d’un article sont positifs ou négatifs – alors qu’une citation est en général un signal positif.
Que mesurent-elles en réalité ? Un gros problème avec les métriques alternatives est qu’on ne sait pas réellement les interpréter. Ni même pourquoi on les utilise : « Il n’y a pas vraiment de principe unificateur », affirme Vincent Larivière. Selon lui, les altmetrics auraient besoin d’être réorganisées.