Tout (ou presque) sur les altmetrics



vendredi 10 juillet 2020 /// L’actu des labos
100 %
Alternatif

Suite au vote sur le sujet remporté par les altmetrics à plus de 50% (la recherche verte n’étant pas loin avec 37%), nous vous avons concocté un numéro spécial.

  • Une enquête vous apprend le principe des altmetrics, et ses ressorts économiques,
  • Une brève vous résume les principales limites de ces indicateurs,
  • Le chiffre de la semaine vous éclaire sur leur fonctionnement,
  • Une interview croisée vous donne les avis de deux spécialistes aux points de vue complémentaires : Annaïg Mahé et Vincent Larivière.

Vous serez incollable sur le sujet !
Avec tout de même toujours vos modules préférés : un outil, des infos en passant, votre revue de presse, et pour finir…
En espérant que le format vous plaise,

Lucile de TMN


Après trois mois d’absence, vous avez de nouveau rendez-vous avec Matilda. Notre Matilda est cette fois Pérola Milman, physicienne et un peu artiste. A écouter absolument.


A partir d’ici 5′ de lecture passionnante !


Derrière les altmetrics


Les altmetrics évoquent l’open science ou du moins des indicateurs plus vertueux. Découvrez le dessous des cartes.


Ceci est une enquête virale.
Une histoire de visibilité. Depuis leur création, le but des altmetrics est de mesurer le rayonnement d’une publication sur les réseaux sociaux. Nés d’un manifeste en 2011, ils sont au départ plébiscités par DORA pour offrir une alternative plus saine au simple décompte du nombre de citations. Divers outils émergent à cette époque, dont ImpactStory – ensuite parti sur les rives de l’open access. Mais les altmetrics ne sont pas restés “alt” très longtemps : les grandes maisons d’éditions ont depuis fait main basse sur ces outils.
Deux acteurs majeurs occupent aujourd’hui la scène : 
Altmetric.com. Racheté en 2012 par Digital Science (lié au groupe Springer-Nature), il est présent sur toutes les revues du groupe.
Plum Analytics. Développé par des bibliothécaires et racheté par Elsevier en 2017, il est maintenant intégré dans Mendeley, Scopus et Science Direct.

Une foultitude de données… 
les altmetrics peuvent intégrer une multitude de mesures pour une même publication :
les vues : nombre de consultation de page ou téléchargement ;
les discussions : nombre de commentaires dans les revues, blogs, Wikipedia, Twitter, Facebook et autres réseaux sociaux ;
les sauvegardes : dans divers outils de bibliographie comme Mendeley, CiteULikeZotero ou d’autres ;
les citations : dans la littérature scientifique et tracées par Web of Science, Scopus, CrossRef…
les recommandations : par exemple sur F1000Prime.


… mais pas toujours open. 
L’indicateur altmetric est ensuite calculé comme une somme pondérée de toutes les mesures ci-dessus – attention chaque outil possède une recette différente. Si Altmetric.com rend ses données accessibles à tous, ce n’est pas le cas de Plum Analytics. Pour Annaïg Mahé, chercheuse à l’Urfist Paris, il y a un « risque de se détourner de l’open science ».


Utiles pour les revues. 
Gratuit pour les chercheurs, ces outils sont payant pour les institutions et les revues. Ces dernières sont en effet très friandes de tout ce qui peut mesurer leur visibilité. « Alors qu’aujourd’hui environ la moitié des articles sont tweetés, les revues veulent savoir comment circulent les articles », confie Vincent Larivière, chercheur à Montréal. Mais les altmetrics peuvent aussi être utiles pour les chercheurs (à lire dans notre interview croisée).


Les limites des altmetrics

Sont-elles trop neutres ? 
Certains points de mesures sont considérées comme pertinents : les citations sur Wikipedia, l’enregistrement dans les bibliothèques (via par exemple Mendeley et Zotero)… Mais d’autres beaucoup moins. Les altmetrics ne distinguent pas si les commentaires à propos d’un article sont positifs ou négatifs – alors qu’une citation est en général un signal positif. 

Que mesurent-elles en réalité ? 
Un gros problème avec les métriques alternatives est qu’on ne sait pas réellement les interpréter. Ni même pourquoi on les utilise : « Il n’y a pas vraiment de principe unificateur », affirme Vincent Larivière. Selon lui, les altmetrics auraient besoin d’être réorganisées.


Un chiffre qui en dit long
+8,4
C’est l’augmentation du score altmetric pour les articles ayant bénéficié d’un relais sur Twitter. Le réseau Thoracic Surgery Social Media Network a réalisé un essai randomisé en tweetant certains articles et pas d’autres. Résultat : un altmetric de 9,4 pour les “tweetés” contre seulement 1 pour les “non-tweetés”. Mais cela influe aussi sur les citations (classiques) : + 2,4 citations pour les articles tweetés.


3 questions à… Annaïg Mahé & Vincent Larivière
« Pas assez fiables pour évaluer les chercheurs »


Spécialistes des publications et de la communication scientifique, ces deux chercheurs partagent leurs visions des altmetrics.


En quoi les altmetrics ont changé depuis dix ans ?
A. M. 
Après un pic d’activité entre 2010 et 2015, le soufflet des altmetrics est retombé. Maintenant, nous sommes dans une phase d’étude dans laquelle nous pouvons creuser le sujet et faire notamment la comparaison avec les mesures de citations.
V. L. Il y a aujourd’hui consensus pour dire que les articles tweetés le sont principalement par d’autres scientifiques – et non par le grand public comme auparavant. La crise actuelle du Covid-19 donne une plus grande importance aux échanges entre scientifiques sur Twitter.

Quelle utilité pour les chercheurs ?
A. M. 
Ils peuvent être un outil de navigation et de veille. Grâce aux détails du score altmetric, on peut remonter aux mentions d’un article, et ainsi retrouver la communauté qui gravite autour d’un sujet, et se constituer une liste d’articles pertinents.
V. L. C’est un lieu unique pour avoir une vue globale de l’influence de ses propres publications. Je l’utilise pour voir l’ensemble des commentaires à mes articles. 

Peuvent-ils servir à l’évaluation des chercheurs ?
A. M. 
Je dirais qu’ils ne sont actuellement pas suffisamment fiables pour évaluer les chercheurs [voir notre encadré sur les limites, NDLR]. De plus, il existe de grandes inégalités dans l’usage des médias sociaux [en 2014, le Kardashian index montrait que les femmes restaient peu visibles sur les réseaux sociaux, NDLR].
V. L. Il y a deux ans, j’aurais répondu surtout pas ! Mais aujourd’hui, avec l’engagement grandissant des chercheurs sur les médias sociaux, je pense qu’il serait pertinent de valoriser les chercheurs qui contribuent à un débat sain sur ces plateformes. 


C’est dans la boîte (à outils)
L’intégrité vous va si bien
Une formation qui a fait ses preuves. Pour la troisième année consécutive, l’Université de Bordeaux organise ce Mooc sur l’intégrité scientifique qui débutera en octobre 2020 (inscription jusqu’au 16 août). Plutôt à destination des jeunes chercheurs, il demande environ 4 heures par semaine. Pourquoi vous y inscrire ? Parce que selon leur enquête, 9 personnes sur 10 ont trouvé la formation utile. Si c’est pas un super résultat, ça…


Des infos en passant //////// Comment lutter contre la fraude scientifique ? Le chimiste Paul Wilson tente de répondre à la question en publiant dans Exchanges un bel article de review sur le sujet //////// Lorsque des chercheurs s’associent avec des écrivains, la science-fiction n’a jamais aussi bien porté son nom : Nos futurs est une série de récit sur le changement climatique //////// L’Agence Universitaire de la Francophonie lance une consultation mondiale à l’attention des étudiants et doctorants //////// Elisabeth Bik constitue la première banque d’images utilisées par les « paper mill », ces faiseurs d’articles, souvent frelatés //////// Premier numéro pour la revue Intelligibilité du numérique autour de l’interdisciplinarité et de l’indexation des connaissances //////// 


Votre revue
de presse express



Et pour finir…

Le festival du GIF scientifique (qu’est-ce qu’un GIF ?) 2020 a décerné son prix : « Neurothèse 2000 » est le grand vainqueur ! La créatrice, Marie Lods, docteur en neuroscience, a brillament réussi à mettre en images animées son travail fastidieux de thèse.