De la vaccination à la maladie d’Alzheimer, des faux articles ont déjà influencé la médecine et les politiques de santé : comment en est-on arrivé là ?

 

Dans l’imaginaire collectif, un article “publié dans une revue scientifique” a franchi une série de filtres rigoureux : expérimentation contrôlée, relecture par les pairs, sélection éditoriale exigeante. Cette vision n’est pas totalement fausse, mais elle est aujourd’hui mise à l’épreuve par les fake papers, des articles dont les données ont été manipulées ou entièrement inventées.

Ces faux articles ne se limitent plus à quelques cas isolés de fraude individuelle. Ils sont désormais produits à grande échelle par des entreprises spécialisées, souvent désignées sous le nom de paper mills, ou “usines à articles”, qui alimentent la littérature en travaux artificiels soigneusement formatés pour imiter des articles authentiques.

 

Les usines à articles : un marché parallèle

Les paper mills fonctionnent comme des prestataires en “publication scientifique clé en main”. Elles proposent des manuscrits complets – texte, figures, tableaux, résultats “positifs” – et vendent des places d’auteur, avec un tarif qui varie selon la position dans la liste et le prestige de la revue ciblée.

Les stratégies employées incluent la réutilisation de jeux de données pour générer une série d’articles très similaires, ou la création de données et d’images artificielles à l’aide de logiciels et d’outils d’intelligence artificielle, désormais capables de produire des résultats très difficiles à distinguer de données réelles.

Les clients de ces paper mills sont souvent des chercheurs ou des médecins soumis à une pression très forte pour publier : progression de carrière, accès à des postes hospitalo-universitaires, primes ou évaluations administratives dépendant directement du nombre et du type de publications. Dans ce contexte, un article “clé en main” peut apparaître comme une solution rapide, bien que gravement problématique.

À l’autre extrémité, des scientifiques déjà reconnus ont fabriqué ou embelli des résultats pour conserver un statut prestigieux ou revendiquer des découvertes spectaculaires. Dans ces cas, la fraude est parfois organisée sans intermédiaire, mais les logiques sous-jacentes – pression, compétition, quête de visibilité – restent comparables.

 

Des conséquences de la paillasse au patient

Un fake paper peut avoir un impact important lorsqu’il porte sur un sujet central. Des travaux très cités, par exemple dans la maladie d’Alzheimer ou les supraconducteurs “à température ambiante”, ont été remis en cause voire rétractés après des doutes sur l’intégrité des données. Entre la publication et la mise en évidence des problèmes, des équipes entières ont tenté de reproduire ces résultats, mobilisant des financements et des années de travail sur des bases instables.

Dans le domaine clinique, des essais douteux ou falsifiés ont contribué à orienter des recommandations thérapeutiques, qu’il s’agisse de solutions de perfusion, de traitements de prévention des fractures ou de médicaments mis en avant durant la pandémie de COVID-19. Une fois intégrés à des méta-analyses, ces travaux peuvent fausser l’évaluation bénéfice–risque d’un traitement, avec des conséquences directes pour les patients.

Chaque affaire de fraude alimente la suspicion envers la science. Pour un non-spécialiste, il est difficile de distinguer une erreur corrigée, une fraude isolée et une contamination plus large d’un domaine. Le risque est de basculer vers un scepticisme généralisé, alors même que la grande majorité des travaux sont réalisés de bonne foi et que des mécanismes de correction existent, même s’ils sont parfois lents.

 

Comment détecte-t-on un fake paper ?

La détection des fake papers repose en partie sur l’analyse attentive des figures et des données. Des éditeurs et relecteurs spécialistes scrutent les images (gels, western blots, microscopie) à la recherche de duplications, de collages ou de motifs de bruit anormaux. Des logiciels d’analyse d’images automatisent une partie de ce travail.

Dans certains domaines, des outils vérifient aussi les séquences d’ADN ou d’ARN mentionnées dans les articles. Des incohérences systématiques entre les séquences déclarées et les cibles réelles peuvent révéler des erreurs majeures ou des fabrications. La demande d’accès aux données brutes, notamment en cas de doute, est devenue un levier important : l’incapacité à fournir ces données est un signal d’alerte fort.

Des indices plus périphériques tels que des similitudes textuelles entre articles, des schémas de soumission étranges, des recours à des reformulations automatiques laissant des expressions maladroites, complètent cet arsenal. Des outils d’analyse linguistique et de détection de similarités tentent de repérer ces motifs, mais aucun critère isolé n’est suffisant.

Il n’existe pas de détecteur infaillible : certains faux articles sont très élaborés, tandis que des travaux honnêtes présentent parfois des imperfections. La détection repose donc sur la combinaison de plusieurs approches, et sur un travail d’enquête qui reste en grande partie humain.

 

Main feuilletant un article scientifique imprimé avec des graphiques, un stylo posé sur une autre page annotée et une paire de lunettes sur la table, illustrant la lecture critique des publications.

Il devient parfois difficile de s’y retrouver face aux fake papers.

 

Rétractations et vigilance collective

Lorsqu’un article est jugé irrémédiablement problématique, la revue peut décider de le rétracter. L’article reste accessible, mais marqué comme tel et accompagné d’une note explicative. L’augmentation du nombre de rétractations au cours des dernières années reflète à la fois l’ampleur des problèmes et une vigilance accrue de la communauté.

La rétractation ne signifie pas que “la science ne fonctionne pas”, mais qu’elle accepte de corriger publiquement ses erreurs, y compris lorsque celles-ci sont liées à des fraudes.

La surveillance ne se limite plus au cadre des revues. Des plateformes de commentaires post-publication, ainsi que des blogs spécialisés dans l’intégrité scientifique, jouent un rôle important dans l’identification de travaux suspects et le suivi des rétractations. Ils contribuent à une forme de “relecture continue” qui prolonge celle réalisée avant publication.

 

Repenser l’évaluation scientifique

La survalorisation d’indicateurs comme le nombre de publications, le facteur d’impact ou l’indice h crée un environnement où la “productivité” peut primer sur la rigueur. Dans un tel contexte, les solutions rapides proposées par les paper mills deviennent attractives pour certains, car elles répondent directement aux attentes de systèmes d’évaluation très axés sur les chiffres.

De nombreuses initiatives plaident pour une évaluation plus qualitative de la recherche : attention portée aux méthodes, à la transparence des données, à la reproductibilité, à la contribution à la communauté scientifique et à l’enseignement. Une telle évolution ne supprimerait pas la fraude, mais en réduirait les incitations et redonnerait du poids à ce qui fait la valeur réelle d’un travail scientifique.

 

Que peut faire le lecteur non spécialiste ?

Même sans expertise technique, il est possible d’adopter quelques réflexes : éviter de tirer des conclusions définitives à partir d’une seule étude “spectaculaire”, regarder si des travaux indépendants vont dans le même sens, et, lorsque c’est possible, privilégier les synthèses (rapports d’agences, recommandations de sociétés savantes, méta-analyses récentes) plutôt que des articles isolés.

Reconnaître l’existence des fake papers ne doit pas conduire à rejeter la science en bloc, mais à développer une confiance plus informée : la science se trompe parfois, mais elle se dote aussi de moyens pour repérer, discuter et corriger ses erreurs. C’est cette dynamique – et non l’illusion d’infaillibilité – qui mérite d’être comprise et défendue.

 


Pour une exploration plus approfondie, je ne peux que vous inviter à consulter l’article:

Article Source: Wittau J, Seifert R. How to fight fake papers: a review on important information sources and steps towards solution of the problem. Naunyn Schmiedebergs Arch Pharmacol. 2024 Dec;397(12):9281-9294. doi: 10.1007/s00210-024-03272-8. Epub 2024 Jul 6. PMID: 38970685; PMCID: PMC11582211.