
Il y a quelques jours, Le Monde a publié une tribune d’un collectif de directeurs de laboratoire intitulée « La bureaucratie du HCERES nuit gravement à la recherche française » (ici). Pour rappel, et pour ceux qui ne connaissent pas bien l’ESR, l’HCERES est le « Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur ». Ce conseil est chargé de l’évaluation de l’enseignement supérieur et de la recherche publique. Tous les 5 ans, l’HCERES évalue les entités de l’ESR après examen d’un dossier et d’une visite sur site pour rencontrer les acteurs de terrain.
L’HCERES a fait l’objet de critiques, à la fois par les mouvances conservatrices et nostalgiques de la « dictature UMR » (avant l’évaluation était gérée par le CNRS, du moins pour les unités en co-tutelle CNRS) mais aussi plus récemment de la cour des comptes (lire ici pour la cour des comptes). On en avait discuté dans un billet récent ici, billet qui résume les critiques majeures de la cour des comptes.
L’une des critiques de la cour des comptes concernait la lourdeur de ces évaluations. Je reprends l’extrait utilisé par la récente tribune des directeurs de laboratoire dans Le Monde : « Les rapports d’évaluation du Haut conseil ne jouissent pas, dans le milieu académique, d’une réputation à la hauteur de l’effort consenti. Menés sur la base de référentiels très normés et de procédures particulièrement longues, les travaux d’évaluations pèsent sur les établissements et plus encore, sur des unités de recherche déjà chargées en travaux non scientifiques. ».
L’HCERES a changé récemment de président. Lors de la présentation de sa candidature, le nouveau président avait déclaré en novembre 2020 : « Il faut trouver un équilibre entre la simplicité, la légèreté de l’évaluation, et son efficacité. […] L’idée selon laquelle il faut être attentif à faire passer la science avant la bureaucratie est légitime, tout comme l’est le questionnement sur l’indépendance » (source EAF n°639353). Comme c’était la pandémie et que le haut conseil a été un peu à l’arrêt, le moment a certainement été utilisé pour mettre en place une nouvelle mouture de l’évaluation (et occuper les bureaucrates durant cette période creuse, on imagine bien les nombreuses réunions zoom qui ont pu être faites à ce sujet).
La nouvelle mouture a été présentée en novembre 2021. En ce qui concerne les laboratoires, elle comporte des référentiels comprenant chacun plusieurs critères. Il y a 57 indicateurs qu’on demande de renseigner, ce qui fait beaucoup. Par ailleurs il est demandé deux fichiers Excel comprenant des informations respectivement sur la production scientifique et sur les RH. On peut avoir accès à ces documents d’évaluation ici. (cliquez sur l’onglet « évaluation les entités de recherche » pour activer le menu déroulant).
A mon avis on a là des « référentiels » qui vont vers une granulométrie trop fine. Je peux comprendre la critique des directeurs de laboratoire quand ils disent que tout cela est trop bureaucratique et normatif. Il aurait mieux valu se contenter de donner une liste de quelques « référentiels » majeurs à renseigner sous une forme libre, cela aurait été plus adapté à la diversité des entités de recherche (ensuite il aurait pu avoir un guide qui explique que pour tel référentiel l’entité peut, par exemple, parler de ceci ou de cela). Chaque rubrique devrait avoir une longueur limitée afin de ne pas être inondé de longueur de texte (ce que les universitaires savent très bien faire). Ça forcerait à ne garder que les éléments importants.
L’autre nouvelle majeure est que la visite sur site ne se fera plus (sauf cas particuliers) et la rencontre avec les évaluateurs se fera en visio. Le bilan carbone sera donc nettement amélioré, ce qui est un point positif. Cela permettra également une économie de temps et d’argent car ces visites sont très chronophages et nécessitent des déplacements et réservations d’hôtel. L’inconvénient c’est que ça déshumanise encore un peu plus le processus pour ne garder que le volet très « bureaucratique ». Cela prive le laboratoire de la « grand-messe » qui est une sorte d’apogée après les efforts de la construction du dossier. Nul besoin d’expliquer ici que des échanges directs sont parfois beaucoup plus efficaces que de la visio. Par ailleurs cela prive les évaluateurs des discussions de couloir dans lesquelles on apprend parfois (souvent ?) des choses intéressantes.
Pour résumer, j’ai l’impression que l’objectif de simplification et d’efficacité est raté …
Laisser un commentaire
Comments feed for this article