Recherche

«Publish or perish», quand la science met les chercheurs sous pression

Les journaux scientifiques et leur système de publications influencent lourdement la recherche. Les chercheurs sont incités à produire, pas à avoir raison. Premier volet de notre série consacrée aux cinq plaies de la recherche

[En partenariat avec Le Monde] Toute cette semaine, Le Temps vous emmène dans les coulisses de  la science qui se fabrique, découvrir les cinq plaies de la recherche actuelle. Voici le premier épisode. Sur le même sujet lisez aussi:

Peter Higgs, le physicien père du fameux boson qui porte son nom, ne pourrait plus faire ses recherches aujourd’hui. Car il ne trouvait pas assez vite et ne publiait pas assez, a-t-il lui-même raconté après avoir obtenu son prix Nobel en 2013. L’université d’Edimbourg était à deux doigts de se passer de ses services lorsqu’il a été nominé une première fois en 1980, ce qui lui a finalement assuré d’être toléré jusqu’à son prix...

Publier? Si la science progresse grâce à la recherche, elle dépend depuis le XVIIe siècle des journaux scientifiques pour être diffusée. C'est dans Nature, Science, Cell, The Lancet qu'avancées et découvertes sont annoncées, commentées, reprises et complétées. Et c'est donc en publiant qu'un chercheur pourra faire la preuve de ses qualités à sa communauté.

Publiez ou périssez

Mais la machine s'est emballée. Tout se passe comme si les universités et les organes de financement avaient délégué aux revues scientifiques le soin de faire le tri entre les projets, les idées, les chercheurs. L’arrivée dans les labos des principes du management et de la mode des métriques a fait le reste. Les articles scientifiques sont devenus Le critère qui fait que l‘on croit en vous et qu’on vous donne des fonds, un poste, une promotion. Ou pas. Une exténuante course à la publication s’est engagée, dans le monde entier. Plus de 2,5 millions d'articles sont écrits tous les ans. «Le hamster dans sa roue», souffle une biologiste.

De nombreux étudiants chercheurs ou chercheurs confirmés ont répondu par de longs messages à notre appel à témoignages. Signe de leur inquiétude, la plupart nous ont demandé de ne pas citer leur nom. Il ne fait pas bon critiquer un système dans lequel on rêve d'entrer. «On ne fait plus de la recherche pour comprendre le monde, on en fait pour publier».

Finir sa thèse grâce à l'assurance chômage

Il convient de publier dès le Master, pour augmenter ses chances de faire un doctorat. «Mon directeur de thèse en parle ouvertement:"C’est un bon moyen de savoir si un étudiant sera productif en thèse"», explique cette doctorante en biologie. La pression augmente en doctorat. «Sans article, pas de doctorat. Car plus une université a de publications, plus elle monte dans le ranking de Shangai» selon cet autre doctorant. Les thèses sont donc devenues des listes de publications. La course continue ensuite. Les post-docs, aux contrats précaires, sont aussi obsédés par leurs articles à écrire, si possible dans des revues cotées,  pour continuer d’avoir des subventions, trouver un salaire, un emploi. «Un de mes ex collègues s'en est sorti grâce à une fondation privée, un autre a terminé l'écriture de sa thèse et de ses publications en étant à l'assurance chômage» dénonce ce doctorant. Enfin, même nommés, les universitaires restent soumis à la pression de la publication pour être confirmés (tenure track aux Etats-Unis), pour montrer à leurs employeurs qu’ils peuvent rapporter de l’argent, ou tout simplement pour mener leurs projets. «On augmente la charge d'enseignement des professeurs qui publient trop peu, ou on leur ajoute des tâches administratives» raconte ce mathématicien américain.

Vos témoignages: stress, précarité, petits arrangements et grosse colère

Impact factor, mon amour

Il y a publier et publier, et toutes les disciplines ne sont pas également concernées. Posters, notes de lecture, proceedings de conférences: la recherche emprunte de multiples canaux. Plus de 25 000 journaux scientifiques existent aujourd'hui, fondés sur la sélection par les pairs (peer review), dont 12 000 dotés d’un «facteur d’impact» et hiérarchisés dans le classement de Thomson Reuters qui fait foi. Cet impact se fonde sur le nombre moyen de citations d’un article de la revue durant les deux années précédentes. Il est actuellement de 47 pour le Lancet, de 40 pour Nature et de 37 pour Science, et peut être inférieur à 1 pour les petites revues hyper-spécialisées. Toute la difficulté pour un chercheur sera de viser le «bon» niveau de revue pour son article, en évaluant les risques de rejet et les gains possibles en termes de reconnaissance. Car bien sûr, une grosse revue «rapporte» plus qu’une petite.

La bibliométrie a pris le pouvoir, cette habitude confortable d’identifier les chercheurs à des chiffres, comme l'omniprésent et controversé h index, qui prend en compte leur nombre d’articles et de citations de ces articles. Un index qui désavantage les auteurs de peu d'articles, même très importants. Celui de Peter Higgs, toujours lui, est ainsi de 11, tandis qu'à l'Académie américaine des sciences, les scores sont souvent supérieurs à 40. 

Lire aussi: Altmetrics, crac et bonus: 10 petites choses à savoir autour des publications scientifiques

Les dégâts de ce «publish or perish» sont d'abord humains, on l'a deviné. Publier est un énorme travail. L’écriture prend des mois d’ajustements, de lutte avec l’ensemble des auteurs, et même intéressée, une revue demande presque toujours des précisions, de nouvelles expériences, et donc de nouveaux mois de travail et de stress. Entretemps des bourses ont échu, d’autres équipes ont avancé. Les chercheuses hésitent à avoir des enfants. «Le supérieur d'une collègue soutient qu’elle doit profiter de son congé maternité pour travailler sur ses prochains articles» écrit une Genevoise. Seuls entre 10 et 15% des papiers soumis sont publiés dans les grandes revues. Entre épuisement et renoncements, le gâchis humain est là.

Une recherche qui se dégrade

Mais les dégâts sont aussi scientifiques. Car cette folle course à la publication entraîne quantités d’articles de moindre qualité, que de moins en moins de chercheurs ont le temps de lire. On saucissonne des résultats pour obtenir trois articles là où un seul aurait suffi. On exagère l’importance d’une étude pour créer un «effet waouh» qui séduira. On cite des pontes pour s’attirer de la bienveillance. On s’autocite à outrance pour «monter» dans les moteurs de recherche. On privilégie des sujets à la mode. Les chercheurs sont incités à être productifs, pas à faire avancer la science... On standardise la science, les projets originaux et créatifs n'entrant souvent pas dans le cadre d'une recherche métrée à l'extrême. Surtout, on met en scène des mécanismes d'explication supposés en faisant du storytelling au détriment de la confirmation des observations principales, socle de la science – «Flemming ne pourrait plus publier aujourd’hui» s’indigne Lawrence Rajendran, fondateur de la plateforme Science matters, en Suisse, qui milite pour une science moins théâtralisée. Pas étonnant que la reproductibilité de la science soit devenue un sujet d’inquiétude majeur ces dernières années, et que les rétractations d’articles se multiplient.

Autre signe de la recherche qui se dégrade: la hausse de la fraude. On bidouille des résultats pour qu’ils aillent dans le sens souhaité, sachant que peu d’équipes voudront prendre le temps ou les moyens de vérifier des résultats déjà publiés. Ou on paye son billet pour être rajouté comme auteur dans des revues peu scrupuleuses - un cas révélé au Congrès du peer review à Chicago, la semaine dernière.

La frustration et la prise de conscience

Tous ces excès font réagir la communauté scientifique. En 2013 a été signée à San Francisco Dora, la Déclaration sur l’évaluation de la recherche, qui prône l'abandon des facteurs d'impact pour juger un chercheur.  «C'est une méthode très peu scientifique, naïve et inadéquate que de prendre une revue comme mesure» abonde Matthias Egger, le président du Fonds national suisse, qui promet des changements au FNS dans les toutes prochaines années, et est bien décidé à mettre en place les procédures issues de DORA. «Juger un chercheur sur la revue qui l'a publié est un non sens, explique Jean-Pierre Bourguignon, le président du Conseil européen de la recherche, il faut se fonder sur la valeur intrinsèque d'un projet. Au Conseil on privilégie les projets «high risk, high gain».

Lire aussi: Matthias Egger:Les universités ont compris qu'elles devaient changer

Le changement passe aussi par la disruption numérique, avec l'arrivée de l'open access et de l'open science. Et il est accéléré par l'avidité des éditeurs scientifiques, dont les juteux bénéfices provoquent une fronde en Allemagne comme à Taiwan. Le porte-monnaie des Etats, nouveau bras armé des paillasses. C'est notre prochain épisode.


Premier auteur, dernier auteur, la grande embrouille: qui est l'auteur de l'étude que vous lisez?

Les articles sont presque toujours le fruit d'un travail d'équipe. Traditionnellement le premier auteur a généré la majorité des données et le dernier nom cité est celui du PI, le principal investigator, qui a imaginé, dirigé le travail et assuré le suivi de l’article. Entre les deux… c’est plus flou. Il y a ceux qui ont contribué en donnant matériel, locaux ou techniciens, mais aussi ceux qu’on cite pro deo pour obtenir plus tard un «renvoi d’ascenseur», et ceux qui profitent de leur position de force pour enrichir sans frais leur liste de publications et de citations – tout article vous permet de promouvoir votre h index (voir plus haut) et donc votre carrière, même si vous y figurez au milieu des auteurs.

Les sales coups abondent. L’histoire a marqué Raphaël Grolimund, bibliothécaire à l’EPFL à Lausanne, qui conseille les étudiants: c’est grâce à lui qu’une doctorante éplorée a découvert, trop tard, que jamais son directeur de thèse n’aurait dû s’inscrire à sa place en premier nom dans son article. Car en Europe «il y a des règles, ce n’est pas qu’un rapport de force».

Pour signer un article il faut avoir participé à la recherche, à la rédaction de l’article, et donné son accord au texte final. Les universités disposent de médiateurs ou de comités d’éthique pour régler les différends. Les patrons de labos cités comme auteurs dans des centaines de publications qu’ils n’ont même pas lues ne devraient plus exister. L’ordre peut être alphabétique quand il s’agit de grandes collaborations: l’article mettant en évidence les ondes gravitationnelles compte plus de 1000 auteurs. De nombreux chercheurs estiment que les critères retenus pour classer les noms des auteurs devraient systématiquement être explicités. En Chine, en Inde, la place d’un auteur dans un article est directement liée aux financements, l’article ne compte pas si vous n’êtes pas en 1ère ou 2e position. Une violence supplémentaire du publish or perish.

Dossier Les 5 plaies de la recherche scientifique

Publicité