G. Cabanac & C.Labbé « Si la détection de faux article est faite après leur publication, c’est trop tard »

Tous deux chercheurs, Guillaume Cabanac et Cyril Labbé ont développé un outil pour détecter les faux articles et scrutent la littérature scientifique.

— Le 11 juin 2021

Est-ce simple de générer un faux article ?

GC Pour un informaticien, oui. Auparavant, l’outil SCIgen était accessible à tous via un formulaire en ligne mais ne fonctionne plus ; le code reste disponible et c’est juste un script à lancer. Il existe aussi des variantes pour d’autres disciplines : Mathgen, PhysGen… On peut également paramétrer, en plus du titre et des auteurs, le vocabulaire utilisé. Puis, après avoir récupéré le code LaTeX, il est possible d’ajouter de vraies références.

Quel est le but des auteurs ?

GC Il y a plusieurs cas de figure. Certains chercheurs veulent juste s’amuser et générer un faux papier co-signé avec Albert Einstein par exemple. On en a même retrouvés sur des pages personnelles de sites officiels (CNRS, universités…), sans aucune précision. Le problème est que Google indexe tous ces articles; comme l’avait montré Cyril en créant un faux auteur : Ike Antkare [qui s’était retrouvé dans les highly cited researchers en 2010, NDLR].

Et pour les faux articles qui se retrouvent dans des revues ?

CL En effet, certains chercheurs soumettent ces articles à des revues… et ils sont parfois acceptés. Les objectifs sont clairs : le bourrage de CV ou la manipulation de citation.
GC Quelques chercheurs génèrent également de faux articles en leur nom pour piéger les revues. Mais là aussi, il faut faire attention à ne pas créer la confusion entre les vrais et les faux.

Les reviewers peuvent-ils détecter facilement ces faux articles ?

CL Oui, un faux article dans sa discipline se remarque tout de suite. Quand certains sont acceptés dans des revues cela signifie qu’il n’y a pas eu de peer-review ou que les reviewers étaient incompétents.
GC Parfois, c’est subtil : seul un paragraphe est généré automatiquement. Il faut alors lire attentivement l’article en entier pour le remarquer.

L’outil de détection que vous proposez est-il la solution ?

CL Si la détection est faite après publication, c’est trop tard. Elle serait donc utile si elle était faite avant même d’envoyer l’article aux reviewers. C’est aussi l’avantage des preprints, qui permettent la détection plus en amont. Mais la solution devrait être plus globale : arrêter de pousser à ce point les chercheurs à publier.

Des éditeurs laxistes ?

Dans un article (un vrai, celui-là) publié le mois dernier dans JASIST, les deux enseignants-chercheurs ont découvert que seulement 20% des faux papiers détectés par leur outil et acceptés dans des revues ont bien été rétractés. Parmi les revues concernées, on trouve quelques revues prédatrices mais pas que : les éditeurs IEEE et Elsevier regroupent un cinquième des faux articles publiés. Si la proportion de faux papiers reste faible (75 pour un million en informatique), pour Cyril Labbé, « ils sont le signal d’un dysfonctionnement ».

À lire aussi dans TheMetaNews