Note publique d'information : L'expertise par les pairs est la méthode d'évaluation la plus souvent utilisée dans
le monde scientifique, notamment dans le cadre de l'allocation des fonds de recherche.
De nombreuses critiques ont cependant été formulées concernant les biais de copinage,
les défauts de reproductibilité et l'incapacité de cette procédure à détecter les
meilleurs projets. Cette thèse est consacrée à l'étude des biais de l'évaluation,
en prenant l'exemple des appels d'offre «Programmes Hospitaliers de Recherche Clinique
» (PHRC). Dans un premier temps, à l'aide d'une étude qualitative, nous avons exploré
la perception des différentes parties prenantes impliquées dans l'expertise. Nous
avons ainsi souligné la présence potentielle de conflits d'intérêts, majoritairement
non financiers, au cours de l'évaluation, et décrit les différents mécanismes de régulation
mis en place. Plusieurs pistes d'amélioration, issues des entretiens réalisés et de
la revue de la littérature, ont été présentées. Nous avons ensuite exploré le fondement
du jugement des experts, et montré, d'une part, la présence de critères d'évaluation
communs à l'expertise, et d'autre part, l'hétérogénéité des pratiques des experts
au sein du même appel d'offre. Enfin, dans un troisième temps, nous avons exploré
la reproductibilité de l'expertise. Nous avons ainsi montré que le bon agrément des
experts était associé en analyse univariée avec l'acceptation et le devenir ultérieur
des projets, mais aussi avec la qualité des expertises réalisées. Ainsi, il nous semble
important d'étudier l'agrément des experts afin de comprendre les modes d'évaluation
des experts, d'évaluer leur qualité et d'améliorer la transparence de l'expertise.
Note publique d'information : Peer review is the most common method used in scientific evaluation, particularly
in grant assessment. However, many criticisms have been raised against this method,
among them: cronyism, lack of reliability and inability to detect the best projects.
This thesis focuses on grant peer review biases, using the example of French "Programmes
Hospitaliers de Recherche Clinique" (PHRCs). Firstly, we designed a qualitative study
to explore stakeholders' perception on grant evaluation. We emphasized the potential
presence of conflicts of interest, mostly non-financial, throughout the evaluation,
and described regulatory mechanisms in place. Then, we proposed several suggestions
of improvement based on our study and the review of the literature. Secondly, we explored
the basis of expert judgment in French PHRCs and several national and international
grant organizations. On the one hand, we demonstrated the presence of common evaluation
criteria in grant assessment, and on the other hand, we found heterogeneous practices
among reviewers, sometimes within the same grant. Thirdly, we explored the reproducibility
of grant reviewers. In univariate analyses, we found that good agreement between reviewers
was associated with proposal acceptance, subsequent proposal publication, and quality
of reviewers' reports. It seems important to study inter-reviewer agreement in order
to understand reviewers' methods of assessment, to assess grant peer review quality
and improve its transparency. l dips in performance. Therefore, a decrease in morbidity
and mortality criteria of mother and newborn are expected.