Chapitre 3. Les approches méthodologiques en RISP
p. 51-76
Texte intégral
Des approches différentes pour répondre aux questions de la RISP
1Il existe de nombreuses approches (designs) pour l’évaluation des interventions en santé des populations.
Figure 5. Les critères de choix de l’approche méthodologique.

2Cependant, il ne faut pas considérer ces approches comme constituant une simple « boîte à outils » dans laquelle piocher. Le choix du plan de recherche est un acte scientifique qui relève i) de la posture épistémologique (voir chapitre 4) ; ii) du contexte de l’évaluation et de la phase du processus d’intervention ; iii) de la question posée (voir chapitre 2) ; iv) de la nature de l’intervention évaluée et de son degré de complexité ; v) des aspects pratiques de l’évaluation (dont la disponibilité des données).
De la posture épistémologique
3De façon schématique, on pourrait distinguer deux visions épistémologiques de la causalité si l’on s’intéresse à l’évaluation de l’efficacité.
4La première est une vision linéaire (une même cause produit un même effet). Cette vision linéaire est à la source du paradigme expérimental qui est basé sur une approche contrefactuelle (il s’agit de déduire l’effet de l’intervention par comparaison à une situation dans laquelle l’intervention n’est pas présente). Ce paradigme suppose : i) une stabilité de la relation pour la mettre en évidence ; ii) que toutes choses soient égales par ailleurs (ce que permet la randomisation).
5Dans la seconde, plus systémique, on considère qu’une même cause peut produire des effets différents selon les conditions dans lesquelles elle est mobilisée. C’est sur ce principe que repose l’approche réaliste formalisée par Pawson et Tilley (1997) : « Les approches réalistes considèrent que les actions humaines et les interactions sociales sont au cœur même du changement. C’est à travers le fonctionnement de systèmes entiers de relations sociales que tout changement dans les comportements, les événements et les conditions sociales s’opère. Une exigence clé de l’évaluation réaliste est donc de prendre en compte les différentes couches de la réalité sociale qui composent et entourent les programmes. » C’est dans ce cadre que nous avons proposé la notion de système interventionnel qui intègre, au-delà des composantes interventionnelles, des paramètres contextuels préexistants qui pourraient être sous ou hors du contrôle des concepteurs et des personnes qui organisent l’intervention. Par conséquent, une évaluation doit supposer que i) la contribution de tous les composants de ce système interventionnel ainsi que l’effet de leur combinaison sont évalués ; ii) que les conclusions de l’étude sont basées sur le contexte ; iii) même si certaines des conclusions (c’est-à-dire les fonctions clés) peuvent être transférables à d’autres contextes (Cambon et Alla, 2021).
6Cette distinction n’est pas anodine, ces postures épistémologiques ancrent des cultures scientifiques depuis des décennies. Sont-elles irréconciliables pour autant ? Cela fait débat, comme illustré notamment par les vives réactions à la proposition de Bonell et ses collègues (2012) de réaliser des essais comparatifs par assignation aléatoire réalistes, combinant les deux postures dans un plan de recherche intégré (Marchal et al., 2013). Cependant, arriver à les intégrer dans une approche globale est justement un enjeu fort de l’approche multidisciplinaire en Risp.
Du contexte de l’évaluation et de la phase du processus d’innovation
7L’évaluation peut s’inscrire dans deux contextes. D’une part, dans un contexte d’innovation, avec une intervention créée de novo, éventuellement par les équipes de recherche. D’autre part, dans un contexte d’observation, où le chercheur va évaluer une intervention préexistante développée par des acteurs, parfois depuis longtemps.
8Dans un contexte d’innovation, le développement et l’évaluation d’une intervention comportent plusieurs phases qui peuvent s’étendre parfois sur plusieurs années. Schématiquement, on pourrait considérer que le processus d’innovation se compose de quatre grandes phases (voir chapitre précédent) :
le développement d’une intervention et de sa théorie ;
l’étude pilote de cette intervention et l’analyse de sa viabilité ;
son déploiement à plus grande échelle et l’évaluation de son efficacité (effectiveness) et des conditions d’efficacité (analyse des processus et des mécanismes) ;
sa généralisation/mise à l’échelle (et l’analyse des facteurs de transférabilité, des freins et des leviers au déploiement et à sa pérennité).
9À noter que ce processus par phase est théorique, voire simpliste. En pratique, les questions de recherche peuvent s’articuler à des phases différentes. Par exemple, la théorie d’intervention peut se construire, s’affiner, se valider tout au long de ce processus. Les plans de recherche les plus adaptés à chacune des phases sont différents. L’essai comparatif notamment peut être utilisé pour l’analyse de l’efficacité. Il ne trouve généralement pas sa place au cours des autres phases.
10Dans un contexte d’observation, où l’équipe de recherche évalue une intervention préexistante, la méthode expérimentale n’est généralement pas possible par nature, pour des raisons pratiques et d’acceptabilité ou pour des raisons éthiques (il peut être considéré comme non éthique de retirer à un groupe une intervention déjà diffusée qui fait l’objet d’un consensus professionnel dans la perspective de l’évaluer).
De la question posée
11La question de recherche est ce qui doit d’abord motiver le choix du plan de recherche. Par exemple, si le chercheur est intéressé par l’efficacité, une méthode contrefactuelle peut être adaptée. Une évaluation réaliste est aussi possible. S’il est intéressé par les mécanismes (dont les conditions d’efficacité), une évaluation basée sur la théorie serait davantage requise. Enfin, s’il est plutôt intéressé par la mise en œuvre, une étude de cas en situation de routine serait adaptée. Ces distinctions sont très schématiques et les designs peuvent être combinés (Oakley et al., 2006).
12La figure 6 situe les principaux plans de recherche utilisés pour évaluer les interventions en santé des populations en fonction de deux axes : i) la recherche d’une validité interne vs externe ; ii) la recherche centrée sur les résultats ou les processus et mécanismes.
13En ce qui concerne le concept de validité, il est important de noter que son appréhension est souvent radicalement différente selon les positions épistémologiques des équipes de recherche. La figure 6 utilise les concepts campbelliens généralement utilisés dans les recherches cliniques et épidémiologiques pour simplifier la présentation des plans de recherche. Mais en réalité, ces concepts font l’objet de nombreux débats, car les critères de scientificités sont nombreux et ne se limitent pas à la validité interne et externe. À la rigueur à des approches quantitatives suivant les quatre dimensions de validité interne, validité externe, fiabilité et objectivité ; les tenants des approches qualitatives ont proposé de s’orienter vers l’énoncé de principes de qualité au regard des quatre dimensions de crédibilité, transférabilité, imputabilité procédurale, confirmation (Regragui et al., 2018). Pour les personnes usant de méthodes qualitatives, les travaux de Laperrière (1997) sur ces critères de scientificité seront d’une aide indéniable.
14Dans la figure 6, nous utilisons donc les notions de validité interne et externe qui ont été formalisées par Donald Campbell (Campbell et Stanley, 1966). La validité interne est le reflet de la relation causale en situation expérimentale, la validité externe correspond au caractère généralisable des résultats obtenus en contexte expérimental à d’autres contextes et d’autres populations. Les deux notions doivent être vues comme les extrêmes d’un continuum qui évoluent en sens inverse. Autrement dit, dans une étude, plus la validité interne est forte, plus la validité externe est faible, et réciproquement. Par exemple, la condition expérimentale de l’essai comparatif par assignation aléatoire est considérée par certains comme le design offrant la plus forte validité interne (par sa capacité à démontrer une relation causale toutes choses égales par ailleurs), mais avec une validité externe faible, car les conditions et les populations incluses dans l’essai comparatif ne sont pas représentatives de la vie réelle. Inversement, les études observationnelles sont considérées comme à faible validité interne (un phénomène observé peut être lié à d’autres éléments que l’intervention, éléments qui ne sont pas contrôlés par le chercheur) et à forte validité externe, puisque par nature les études observationnelles observent le réel.
15Une étude peut être centrée sur les résultats ou les processus et mécanismes de l’intervention. Dans le premier cas, on cherche à démontrer que l’intervention produit tel ou tel résultat, sans se poser la question du comment (par exemple, de nombreux programmes évalués comme efficaces à l’étranger sont dupliqués en France sans qu’il y ait eu de réflexion préalable sur leur condition de transférabilité dans un contexte différent). Dans le deuxième cas, on cherche à aller au-delà du résultat pour comprendre comment il a été obtenu, chez qui, à quelles conditions. Ces analyses des processus et des mécanismes sont particulièrement importantes pour les interventions complexes comme le sont la plupart des interventions en santé des populations. Ceci est valable du point de vue de la recherche (pour expliquer ce qui a pu produire un résultat positif, ou inversement pour distinguer, en cas de résultat négatif ou inattendu, si ce dernier est lié à l’inefficacité de l’intervention per se ou aux conditions et modalités de sa mise en œuvre), comme de l’opérationnalité (si l’on veut transposer, pérenniser, généraliser une intervention, il est nécessaire de disposer de ces éléments de compréhension) (Craig et al., 2012b). Un essai comparatif peut être un outil envisageable pour répondre à une question d’efficacité. Une démarche de type évaluation réaliste sera plus pertinente si l’on s’intéresse aux mécanismes.
Figure 6. Plans de recherche les plus fréquemment utilisés en Risp et questions de recherche afférentes.

Source : adapté de Minary et al. (2019).
De la nature de l’intervention évaluée et de son degré de complexité
16La nature de l’intervention va influencer le choix du plan de recherche. En particulier, certaines interventions ne sont pas intégrables dans des processus expérimentaux. Par exemple, il n’est généralement pas possible d’attribuer de façon aléatoire un espace vert. Pour un tel objet, une évaluation ne peut être qu’observationnelle.
17D’autres cas de figure importants à prendre en compte sont les actions dont l’unité d’intervention n’est pas individualisable, mais collective, à l’exemple d’un changement de l’environnement, d’une campagne de communication en santé, d’une action de modification des pratiques des professionnels, etc. Dans ce cas, une sélection aléatoire individuelle n’a pas de sens (on ne peut pas sélectionner au sein d’une ville qui peut utiliser ou pas une piste cyclable ou qui peut voir ou ne pas voir une affiche). On privilégie dans ce cas des approches où les modalités de l’intervention comparée ne sont pas composées d’individus, mais de groupes d’individus (une ville, une école, une patientèle), on parle de cluster (grappe). La même problématique se pose pour les interventions individuelles avec effets collectifs possibles (on parle de contamination), à l’exemple de la vaccination (l’immunité d’une personne vaccinée peut protéger indirectement son entourage) ou de l’éducation à la santé (un changement de comportement peut se diffuser au sein d’un groupe social). Pour ces interventions se pose aussi la question d’utiliser une approche par grappe.
18La complexité de l’intervention évaluée est aussi un déterminant du choix de la méthode. La situation n’est pas binaire entre intervention simple ou complexe (encadré 8). La complexité dépend des dimensions qu’on lui donne – pour les interventions, de multiples composantes interagissent (Craig et al., 2012b) ; pour le contexte, il y a une interaction dynamique entre composantes interventionnelles et facteurs contextuels (Cambon et al., 2019) – ainsi, une intervention considérée comme simple avec certaines définitions peut être pensée comme complexe par d’autres.
Encadré 8. intervention simple ou complexe
L’acte vaccinal est une intervention simple, une campagne de vaccination est une intervention complexe si l’on prend en compte les aspects organisationnels et sociaux liés à l’acceptation vaccinale en population.
Une intervention complexe peut bénéficier d’une évaluation simple, selon la question posée. Par exemple, une politique urbaine visant à favoriser les mobilités douces est extrêmement complexe, mais peut être évaluée simplement par une mesure comparative concernant les comportements (activité physique) (Szreter, 2003 ; Moore et al., 2017).
Des aspects pratiques de l’évaluation
19Les plans de recherche proposés ont des contraintes différentes concernant le cadre juridique, les coûts, la faisabilité, l’accès aux données, la durée de mise en œuvre, l’acceptabilité sociale, etc. Ces éléments font aussi partie des critères de choix d’un plan de recherche. Le choix est ainsi parfois contraint par des contingences externes au-delà des nécessaires discussions avec les parties prenantes.
20Les plans de recherche sont aussi par nature plus ou moins facilitateurs d’un processus de recherche partenariale (voir chapitre 5) ou de transfert de connaissances des résultats de la recherche vers la pratique et la décision (voir chapitre 6). Ces éléments font aussi partie des critères de choix. Par exemple, les plans de recherche centrés sur les processus et les mécanismes ou mobilisant des outils de consensus (delphi, concept mapping) permettent d’impliquer plus facilement des parties prenantes dès la conduite de la recherche (voir chapitre 4).
Principaux plans de recherche utilisés
21Nous avons choisi de présenter les plans de recherche selon la question principale à laquelle ils répondent :
les approches contrefactuelles, expérimentales, quasi expérimentales et observationnelles généralement centrées sur les résultats ;
les approches plus globales, intégrant l’analyse des processus et des mécanismes et les évaluations fondées sur la théorie.
22Rappelons que les plans de recherche ne sont pas exclusifs les uns des autres. Ils peuvent en effet être combinés (évaluations de processus intégrés dans les essais comparatifs) ou utilisés de façon concomitante ou successive dans le processus d’innovation. Par exemple, une évaluation réaliste utilisée dans le cadre d’une étude pilote suivie d’un essai comparatif à visée d’évaluation des résultats. Ou inversement, un essai comparatif suivi d’une étude de cas permettant d’analyser les conditions d’efficacité, ou encore une évaluation fondée sur la théorie suivie d’une expérimentation naturelle conduite dans le cadre de la mise à l’échelle.
23Ces plans de recherche peuvent mobiliser des méthodes de recueil et d’analyse de données quantitatives, qualitatives ou mixtes (voir chapitre 4).
24Enfin, une partie de ces plans de recherche peut mobiliser le principe de l’étude de cas. Une étude de cas consiste en l’analyse approfondie d’un cas, c’est-à-dire d’une intervention spécifique. Elles sont très utilisées en sciences humaines et sociales pour des cas individuels (par exemple en psychologie) ou collectifs (par exemple en sociologie). En Risp, ce sont plutôt des cas populationnels où les interventions sont organisées qui sont utilisés, correspondant à l’unité d’intervention (un bassin de vie, une école, un établissement, etc.). La méthode de l’étude de cas permet notamment d’analyser une intervention dans son contexte pour répondre aux différentes questions de recherche (voir chapitre 2). Une étude de cas est une démarche scientifique qui peut mobiliser des approches quantitatives, qualitatives ou mixtes (voir chapitre 4). En Risp, l’étude peut reposer sur un cas unique (comme pour une étude pilote et de viabilité par exemple) ou sur une série de cas concomitants ou successifs (comme pour l’évaluation réaliste par exemple) selon l’approche des études de cas multiples (Yin et Ridde, 2012).
25Une partie des plans de recherche peut également mobiliser, de façon totale ou partielle, des modélisations (voir chapitre 4).
L’approche expérimentale par essai comparatif avec assignation aléatoire individuelle
26Pour l’évaluation des interventions en santé des populations, l’essai comparatif avec assignation aléatoire individuelle (randomized controlled trial en anglais) a été, et est encore, souvent présenté comme la meilleure méthode (gold standard). Cette représentation peut s’expliquer par la transposition à la santé publique des principes de la médecine fondée sur des preuves à la fin des années 1990 (Jenicek, 1997). Elle peut aussi se rattacher au courant des expérimentations sociales, prégnant dès les années 1960 en Amérique du Nord (Campbell et Stanley, 1966) et récemment remis sur le devant de la scène par les travaux de certains économistes du développement (Jatteau, 2021 ; Evans, 2021).
27L’essai comparatif est un plan de recherche expérimental basé sur le principe de la comparaison de résultats (de santé) entre un groupe participant à une intervention et un groupe de comparaison (control en anglais) sans intervention ou soumis à une autre intervention. L’assignation à l’un des deux groupes est aléatoire par tirage au sort individuel (c’est-à-dire des personnes une par une). Cette méthode est considérée par certains comme la référence pour évaluer l’efficacité des interventions, car l’assignation aléatoire permet d’équilibrer les caractéristiques (démographiques, sociales, etc.) des deux groupes. Ainsi, si une différence de résultat est observée, elle ne peut donc être attribuée qu’à l’intervention et à elle seule. Ce type d’étude serait le plus pertinent dans la démonstration de la causalité. Cependant, il y a pour cela des conditions (Bédécarrats et al., 2022). Il faut en particulier maintenir la comparabilité initiale conférée par l’assignation aléatoire, les comportements des participants à l’étude et leurs conditions de suivi par les chercheurs doivent être similaires, d’où la pratique du double insu (ni le participant ni le chercheur ne doivent savoir dans quel groupe est situé le participant). C’est pour respecter ce double insu qu’il y a utilisation de médicament placebo dans les essais médicamenteux.
28L’essai comparatif est un des nombreux plans de recherche utilisables pour l’évaluation de l’efficacité des interventions en santé des populations. Cette démarche ne doit pas, pour autant, être considérée comme la méthode de référence par assimilation aux essais thérapeutiques médicamenteux. En effet, appliquée au champ des interventions en santé des populations, cette démarche peut être critiquée sur trois angles, d’objet, de nature épistémologique et méthodologique.
L’objet. Un essai comparatif répond à la question de l’efficacité. Or, la question évaluative lors des Risp peut être toute autre (voir chapitre 2). Un essai n’est pas la meilleure méthode pour répondre aux questions de processus, de viabilité, d’acceptabilité, etc. De plus, toutes les interventions ne se prêtent pas à l’assignation aléatoire, par exemple il est difficile (voire impossible) d’attribuer de manière aléatoire une législation.
La nature épistémologique. Un essai comparatif répond à la question de l’efficacité d’une intervention « toutes choses égales par ailleurs ». Cette perspective suppose donc de « décontextualiser » le point de vue en se mettant dans une situation expérimentale qui vise à observer un effet « pur » de l’intervention, c’est-à-dire sans influence de facteurs externes. Or, si l’on considère le résultat d’une intervention comme le produit de l’interaction d’éléments interventionnels et d’éléments contextuels (voir chapitres précédents) (Cambon et al., 2019), quel est le sens d’une relation causale obtenue dans des conditions jamais observées en situation réelle ? (Zwarenstein et Treweek, 2009). Inversement, un résultat négatif obtenu dans le cadre d’un essai comparatif peut ne pas être dû à l’inefficacité per se de l’intervention, mais aux conditions expérimentales dans lesquelles l’intervention a été mise en œuvre. En d’autres termes, la conclusion d’un essai comparatif peut, soit ne pas être valide dans ce champ, soit être valide, mais peu pertinente.
La nature méthodologique. Appliqués au champ des interventions en santé des populations, les essais comparatifs peuvent être entachés de biais majeurs qui obèrent la validité de leurs résultats.
Biais des essais comparatifs avec assignation aléatoire appliqués à la Risp
29Les biais décrits dans ce paragraphe ne sont pas spécifiques à la Risp. Cependant, ils peuvent être si forts dans ce champ qu’ils questionnent le choix même d’un plan de recherche expérimental.
30Ces biais sont essentiellement liés à la nature des effets attendus qui relèvent généralement du comportement : comportement de ceux qui délivrent l’intervention ou de ceux qui la reçoivent ; comportement comme effet direct de l’intervention (en éducation à la santé par exemple) ou comme effet indirect (pour des actions visant à donner les conditions environnementales à un changement de comportement, par exemple l’installation de pistes cyclables). Un présupposé majeur de l’essai comparatif dans le champ clinique est que les effets biologiques observés chez les participants sont un reflet de ces effets en population générale. Ce présupposé a du sens en clinique. Par exemple, l’hypothèse que l’immunité proférée par une vaccination dans le cadre d’un essai comparatif n’est pas différente de l’immunité proférée par la même vaccination en population générale est plausible. A contrario, quand on s’adresse aux comportements humains lors des Risp, ce présupposé n’est pas tenable. En effet, le fait même de participer à un essai comparatif, comme les conditions dans lesquelles il est réalisé, peuvent être par eux-mêmes des déterminants du comportement ou associés à des déterminants du comportement (par exemple, un essai comparatif peut recruter des personnes plus attentives à leur santé). Ainsi, ce qui est observé dans l’essai comparatif peut être très éloigné de ce qui serait observé en conditions réelles. Pour faire un parallèle, les essais comparatifs sont en Risp ce que les études animales sont en recherche clinique. Ils peuvent contribuer à générer des hypothèses, mais ne suffisent généralement pas à tirer des conclusions opérationnelles.
31De façon schématique, on pourrait distinguer trois principaux types de biais des essais comparatifs en Risp (Tarquinio et al., 2015) : le biais de recrutement, les biais liés aux conditions expérimentales, les biais liés à l’absence d’insu.
Biais de recrutement
32Cette famille de biais est liée au fait que les sujets participant à l’intervention sont différents des sujets qui n’y participent pas. Ceci est particulièrement important lorsque l’effet causal d’une intervention peut varier selon les individus. Par exemple, dans les interventions de changement de comportement, la même dose d’intervention aura moins d’effet si le besoin des personnes est moins important (Victora et al., 2004). Parmi ces biais, le biais de volontariat est à souligner. Il est lié au fait que les facteurs induisant la participation du sujet à un essai comparatif ont également des facteurs contribuant au résultat (comme l’attention portée à sa santé, la littératie en santé, les facteurs socio-culturels et économiques).
Biais liés aux conditions expérimentales
33Les conditions expérimentales (professionnel spécialement formé, intervention cadrée par des procédures opératoires standards, etc.) sont spécifiques. Elles peuvent être des déterminants du comportement qui diffèrent de ceux de la vie réelle. En particulier, le suivi des participants à un essai (observations, questionnaires, etc.) peut conduire à des comportements particuliers de ces participants. On retrouve ici l’effet Hawthorne, bien décrit en psychologie où l’on a constaté que les participants avaient changé de comportements, car ils se savaient observés. De fait, le simple fait de répondre à un questionnaire sur ses comportements peut être un facteur d’influence du comportement (c’est d’ailleurs un outil interventionnel, identifié comme une technique de changement de comportement [Michie et al., 2013]). Ceci contribue à expliquer que même dans les groupes témoins sans intervention lors des essais comparatifs, les comportements sont différents de ceux en population générale.
34De plus, la standardisation des interventions, inhérente à la démarche expérimentale, est par nature opposée à la nécessaire adaptation des interventions complexes à leur contexte de mise en œuvre (Craig et al., 2013). Or, on sait que cette adaptation au contexte est un facteur majeur d’efficacité. Ainsi, le résultat négatif d’un essai comparatif peut ne pas être lié à l’inefficacité de la composante interventionnelle per se, mais au fait qu’il a été mis en œuvre d’une façon standardisée dans un contexte contraint, ce qui peut notamment limiter l’engagement des acteurs.
Biais liés à l’absence d’insu
35La connaissance de l’intervention à laquelle on participe et la perception de cette dernière peut influencer les réponses et les comportements des participants et le jugement de l’investigateur. C’est ce qui justifie le double insu (ou double aveugle).
36En particulier, il y a en Risp le risque de Resentful demoralization (biais de démoralisation). Il peut survenir chez les participants du groupe témoin quand le fait qu’ils pensent ne pas participer à une intervention souhaitable affecte négativement leur attitude et leur comportement, et par conséquent les résultats de l’essai comparatif.
37De même, lors de la comparaison de plusieurs interventions, l’une d’elles peut avoir la préférence de tel ou tel participant. Or, le résultat de l’évaluation peut dépendre de l’interaction entre les préférences et l’intervention affectée (c’est-à-dire que de meilleurs résultats sont obtenus par des personnes ayant une préférence pour l’intervention à laquelle ils sont affectés). Ce phénomène est observé dans tous les essais comparatifs pour lesquels l’aveugle n’est pas possible, comme c’est le cas en Risp, mais aussi pour certaines interventions cliniques non médicamenteuses. Par exemple, dans une comparaison entre une intervention brève et une kinésithérapie dans les cervicalgies, les résultats étaient diamétralement opposés selon les préférences des personnes : chez ceux qui avaient une préférence pour la kinésithérapie, cette dernière était plus efficace que l’intervention brève, et réciproquement (Moore et al., 2015). Ce biais est particulièrement important à prendre en compte, car les modalités de recrutement pour l’essai comparatif peuvent sélectionner des personnes avec des préférences et cela va influencer fortement les résultats dans un sens ou dans l’autre (par exemple, un essai comparatif voulant comparer une application santé à un suivi traditionnel n’aura pas les mêmes résultats – voire des résultats opposés – si les participants sont recrutés en ligne avec un incitatif à tester une nouvelle application, ou par leur médecin traitant). Il est aussi important à prendre en compte dans une logique de transfert des résultats à la vie réelle : quel est l’intérêt d’évaluer une intervention qui ne prend pas en compte les préférences, quand généralement, dans la vie réelle, les personnes choisissent l’intervention qui a leur préférence ? En outre, nous savons que les préférences d’une communauté peuvent aussi avoir une influence sur les résultats des individus qui participent à une intervention (Ouédraogo et al., 2019).
38Ces biais spécifiques de la Risp contribuent à expliquer le hiatus souvent observé entre l’efficacité des interventions en santé des populations mesurée lors des essais comparatifs et celle observée en situation réelle. Cela souligne les limites de l’approche expérimentale issue de la recherche clinique en Risp.
Autres approches contrefactuelles expérimentales
39Il s’agit ici d’approches expérimentales (intervention(s) de novo attribuée(s) aléatoirement), mais adaptées par rapport au classique modèle de l’essai comparatif avec assignation aléatoire individuelle pour prendre en compte les contraintes liées aux interventions en santé des populations.
40Ces adaptations visent à répondre à deux enjeux : permettre l’utilisation d’un plan de recherche expérimental (c’est-à-dire avec sélection aléatoire) pour des interventions ne se prêtant pas à la randomisation individuelle – il s’agit des essais comparatifs avec attribution aléatoire en grappe –, se placer dans une situation plus proche de la vie réelle (autrement dit, essayer de maximiser le rapport validité interne/validité externe) – il s’agit des essais comparatifs pragmatiques et des essais comparatifs avec prise en compte des préférences.
41Ces trois types d’essais comparatifs ne sont pas mutuellement exclusifs et se décomposent eux-mêmes en sous-types (par exemple les stepped wedge cluster randomized trials).
Essais comparatifs pragmatiques
42Schwartz et Lellouch (1967) ont proposé de distinguer les essais comparatifs « explicatifs », réalisés en conditions idéales, ayant pour objectif de confirmer une hypothèse, des essais comparatifs « pragmatiques », réalisés en conditions réelles, ayant pour objectif d’aider à la décision. Autrement dit, une intervention est évaluée en comparaison avec d’autres interventions en situation de routine (Patsopoulous, 2011 ; Ridde et Haddad, 2013). Rappelons qu’en anglais il y a deux mots pour « efficacité », pour distinguer l’efficacité obtenue en conditions réelles (effectiveness, dans le cadre d’essais pragmatiques) de l’efficacité obtenue en conditions expérimentales (efficacy, dans le cadre d’essais classiques) (Cochrane, 1972).
43Bien entendu, il n’y a pas de séparation binaire entre les deux types d’essais comparatifs, mais un continuum et plusieurs dimensions à prendre en compte (Thorpe et al., 2009). Plus que l’essai comparatif, c’est la démarche qui est qualifiée de plus ou moins pragmatique en fonction de la façon de la conduire (par exemple, faire agir les intervenants habituels est plus pragmatique que des intervenants spécialement recrutés dans le cadre de l’essai comparatif et spécifiquement formés ; inclure la population tout-venant est plus pragmatique que d’avoir des critères d’inclusions stricts sélectionnant des participants sur des critères médicaux ou sociaux, etc.).
44Pour prendre un exemple du continuum, voyons la nature des intervenants mobilisés dans le cadre de la recherche, du moins au plus pragmatique : i) des intervenants issus de l’équipe de recherche ; ii) des intervenants habituels sélectionnés selon des critères stricts (en matière de compétences professionnelles, etc.) ; iii) des intervenants habituels non sélectionnés spécialement formés avec un guide de bonnes pratiques à suivre dans le cadre de la recherche ; iv) des intervenants habituels dans le cadre de leurs pratiques habituelles. Cette démarche pragmatique est une exception dans le champ de la recherche clinique (moins d’un essai sur 100 000) (Zwarenstein et Treweek, 2009), mais est assez naturelle pour les interventions en santé des populations, qui généralement ne se conduisent pas dans des lieux de recherche, mais dans les milieux de vie et impliquent (ou devrait impliquer) les parties prenantes de ces milieux.
45Pour conduire au mieux une démarche pragmatique, il est important d’associer les parties prenantes à l’élaboration du protocole et à la conduite de l’essai comparatif. Cela permet d’avoir des résultats par nature plus « routinisables » et en mesure d’être mis à l’échelle.
46Si ces essais comparatifs sont plus rares, c’est qu’ils sont plus difficiles à conduire. En particulier, il est plus difficile d’objectiver un résultat en conditions pragmatiques, car la variabilité induite par la situation (plus grande hétérogénéité des personnes, plus de variabilité des pratiques des professionnels, diversité des contextes, etc.) génère un « bruit » rendant plus difficile l’observation du résultat propre de l’intervention. Les effectifs à inclure sont ainsi plus importants que pour les essais classiques et les essais par conséquent plus coûteux.
Essais comparatifs avec assignation aléatoire en grappes
47Dans ces essais, l’unité d’assignation de l’intervention dans la recherche n’est pas une personne comme dans l’essai comparatif classique individuel, mais un groupe (cluster ou grappe). Par exemple, l’unité d’assignation peut être une ville, une école, un hôpital, une patientèle, etc.
48Pour évaluer l’effet de l’aménagement des rythmes scolaires sur l’activité physique des élèves, l’assignation doit se faire par classe, école, ou ville, car l’aménagement concerne de facto la totalité des élèves scolarisés ensemble.
49Ces essais comparatifs ont des limites méthodologiques connues (biais de sélection, dilution de l’effet, effet grappe, déséquilibre des caractéristiques entre les grappes, absence d’aveugle, etc.) (Minary et al., 2019). De plus, ils posent des problèmes éthiques et réglementaires. En particulier, ils posent la question du consentement. Un des principes cardinaux de la recherche en santé est le consentement individuel des personnes qui s’y prêtent. Mais comment consentir quand l’intervention est collective et qu’on y est soumis dans son lieu de vie, de travail, de soins ? D’autres options ont été développées et sont en réflexion au niveau international (Weijer et al., 2012).
50Plusieurs variantes existent sur le plan méthodologique. Une de plus en plus utilisée en Risp est celle des essais comparatifs avec assignation aléatoire graduelle en grappe (stepped wedge) (Hemming et al., 2015). Pour ces essais, l’ensemble des groupes bénéficient de l’intervention à évaluer. Ce qui est assigné aléatoirement n’est pas l’intervention oui/non, mais l’ordre dans lequel les différents groupes vont recevoir l’intervention, ce qui permet de comparer les périodes avec intervention et sans intervention. Il y a deux grands avantages à ce type d’essais : i) tous les groupes bénéficiant de l’intervention, il est plus facile de recueillir l’adhésion des communautés (il est difficile par exemple dans un essai comparatif classique d’expliquer à une communauté éducative qu’ils ne bénéficieront pas de l’intervention innovante, car ils ont été affectés dans le groupe témoin) ; ii) sur le plan opérationnel, cela permet de mettre en œuvre l’intervention de façon progressive au fur et à mesure, et donc de lisser les besoins en personnel dans le temps. L’inconvénient majeur de ce type d’essais comparatifs est que ce plan de recherche allonge la durée totale d’étude en raison de cette mise en place progressive.
Essais comparatifs avec prise en compte des préférences
51Pour limiter les biais liés aux préférences des personnes pour l’une ou l’autre des interventions comparées, un certain nombre de plans de recherche ont été proposés (Torgerson et al., 1996).
52Les principaux sont (figure 7) :
le plan de recherche centré sur la préférence des personnes qui consiste à interroger les personnes sur leurs préférences et constituer deux paires de groupes et donc deux comparaisons : i) une comparaison parmi les « indifférents » qui reçoivent ou non l’intervention par assignation aléatoire ; ii) une comparaison parmi ceux ayant exprimé une préférence et affectés dans le groupe de préférence sans assignation aléatoire ;
le plan de recherche centré sur les préférences sélectionnées de manière aléatoire au sein duquel les préférences des patients sont enregistrées après que les participants ont donné leur consentement de la manière habituelle et avant l’assignation aléatoire. L’interaction entre ces préférences et les résultats sont ensuite analysés statistiquement ;
le plan de recherche avec la sélection aléatoire avant un consentement (ou schéma de Zelen) consiste à assigner aléatoirement les patients avant le consentement. Le consentement est demandé seulement à ceux qui sont affectés au groupe expérimental (et non pas dans le groupe témoin) et seuls ceux acceptant ce traitement sont inclus dans le groupe expérimental, les autres seront affectés au groupe témoin.
Figure 7. Les principaux plans de recherche avec prise en compte des préférences.

Groupes A et B = les deux bras comportant les interventions alternatives ; R= Randomisation.
Source : D. J. Torgerson et C. J. Torgerson (2008).
53Ces différents types d’essais comparatifs ont l’avantage de décrire les préférences, d’analyser leur impact et d’utiliser ces informations pour l’interprétation du résultat. Cette prise en compte des préférences est particulièrement intéressante dans une perspective pragmatique, car c’est un reflet de la réalité (dans la réalité, nos actes ne sont pas le fruit d’un tirage au sort, mais d’un choix ou d’une préférence même s’ils sont plus ou moins influencés).
Approches contrefactuelles quasi et non expérimentales centrées sur les résultats
54En préambule, soulignons que la terminologie n’est pas univoque et dépend des traditions scientifiques. Les études quasi expérimentales définissent généralement des essais comparatifs (études expérimentales pour lesquelles le chercheur a la maîtrise de tout ou partie de l’intervention) pour lesquels l’assignation de l’intervention n’est pas aléatoire. Les études observationnelles sont des études au sein desquelles le chercheur observe une intervention existante sur laquelle il n’intervient pas (par exemple la mise en place d’une nouvelle réglementation). Le terme d’expérimentation naturelle est parfois utilisé pour parler des études observationnelles, parfois des études quasi expérimentales, parfois des deux. Enfin, certains utilisent le terme d’études quasi expérimentales pour parler d’études observationnelles (de Vocht et al., 2021). Nous avons fait le choix de nommer « études quasi expérimentales » les essais comparatifs pour lesquels le chercheur à une influence (même partielle) sur l’exposition, et « études observationnelles » les essais sur lesquels il n’a pas d’influence.
Études quasi expérimentales
55Les études quasi expérimentales sont appelées ainsi, car elles ont un format hybride entre des essais comparatifs et des études observationnelles (Campbell et Stanley, 1966). Elles sont dites expérimentales, car une intervention est mise en place de novo afin d’être évaluée, et « quasi », car il n’y a pas d’assignation aléatoire. Les deux plans de recherche typiques dans ce cadre sont :
les « études avant/après » où l’on compare au sein d’une population une situation avant la mise en place de l’intervention et après ;
les « études ici/ailleurs » où l’on compare une situation entre le groupe bénéficiant de l’intervention et un autre groupe sans intervention (« ailleurs »).
56Il existe d’autres types d’études quasi expérimentales dérivées de ces deux plans de recherche. Par exemple combinant les deux (soit une mesure avant/après et une mesure ici/ailleurs dans le groupe d’intervention et le groupe témoin) ou dans un plan de recherche avec retrait de l’intervention et trois mesures (avant la mise en place, après la mise en place, après le retrait), etc. Les séries chronologiques sont un autre dérivé (encadré 9). Elles comportent une série de mesures avant la mise en place de l’intervention et une série après. L’analyse consistera à comparer les dynamiques d’évolution dans le temps avant et après la mise en place de l’intervention – à noter que les séries chronologiques sont aussi une méthode utilisée dans les études observationnelles (voir ci-après).
57Ces études quasi expérimentales sont intéressantes, souvent pour des raisons pratiques ou d’acceptabilité. Par exemple, si une commune est prête à financer une intervention nouvelle, cette intervention doit être mise en œuvre dans son territoire (elle ne pourrait pas financer l’intervention ailleurs), empêchant ainsi toute attribution aléatoire.
58Elles ont l’inconvénient d’avoir, selon certains, une validité interne plus faible que les essais comparatifs, car d’autres facteurs que la mise en place de l’intervention peuvent expliquer un résultat (évolution concomitante d’autres facteurs contextuels dans les plans de recherche avant/après par exemple, une intervention intercurrente, une modification législative, etc.). Il y a cependant de multiples manières de renforcer leur validité interne par des méthodes statistiques ou contextuelles.
Encadré 9. Des séries chronologiques pour évaluer l’efficacité d’une politique
La collecte de données empiriques originales est parfois très coûteuse et parfois impossible à réaliser quand une intervention a démarré avant qu’un dispositif de recherche soit mis en place. Il est ainsi possible de recourir à l’utilisation des données administratives de routine, dont on a évalué préalablement la qualité, pour évaluer une intervention au moyen de séries chronologiques interrompues (par l’intervention et contrôlées avec un groupe contrôle et des variables contextuelles). La figure 8 montre les effets de deux interventions (ligne pointillée 1 : subvention à 80 % du prix des accouchements dans les deux groupes ; ligne pointillée 2 : subvention à 100 % du prix uniquement dans le groupe des districts bleus) sur la proportion d’accouchements réalisées dans une formation sanitaire de quatre districts d’une même région. Des modèles statistiques permettent de mesurer l’ampleur et la durée de ces effets.
Figure 8. Évolution de la proportion mensuelle d’accouchements en établissement entre janvier 2004 et décembre 2014 (lignes d’observation et lignes ajustées).

Source : d’après Nguyen et al. (2018).
Études observationnelles (« expérimentations naturelles »)
59Dans les études dites observationnelles, le chercheur ne provoque pas une intervention, mais observe un existant. Ces études, parfois appelées expérimentations naturelles (Petticrew et al., 2005), ont l’avantage d’avoir une très grande validité externe puisqu’elles observent des résultats en conditions réelles et permettent d’évaluer des interventions déjà implantées. Le coût de ce type de recherche est généralement moindre, puisque le chercheur n’a pas à supporter le coût de l’intervention, contrairement aux essais et aux études quasi expérimentales.
60Elles ont, pour principal inconvénient, une validité interne plus faible. Si un effet est observé, il peut être lié à d’autres facteurs que l’intervention. Les raisons qui ont justifié la mise en place de l’intervention peuvent par exemple être un facteur contribuant au résultat, de même que d’autres interventions intercurrentes. Par exemple, en France, on a observé ces dernières années une baisse importante du nombre de fumeurs. Il est difficile de l’attribuer à une intervention en particulier, car la lutte contre le tabagisme a intégré de nombreux leviers mis en œuvre de façon concomitante depuis longtemps.
Les approches intégrant l’analyse des processus et des mécanismes
Les évaluations de processus intégrées dans les essais comparatifs
61Ce type d’essai comparatif aurait pu être inclus dans la première partie, car ils sont centrés sur les résultats, mais proposent une approche complémentaire en s’intéressant aux processus (Oakley et al., 2006). Ils visent ainsi à expliquer les résultats par l’appréhension des mécanismes d’action (quelles composantes interventionnelles ont contribué aux résultats et comment ?). Ils peuvent aussi contribuer à expliquer l’absence de résultats (liée à l’intervention elle-même ou à ses modalités de mise en œuvre). Il contribue enfin à expliquer les variations de résultats entre sites ou entre groupes sociaux.
62La principale limite de ces analyses intégrées à l’essai comparatif est que les processus en conditions expérimentales sont probablement différents du processus en conditions réelles et donc que l’observation n’est pas forcément reproductible.
Les évaluations basées sur la théorie
63Comme évoqué, les interventions et les éléments de contexte sont en réalité intriqués dans ce que l’on appelle le système interventionnel. Dans le cadre de ce système, la notion centrale est bien celle des mécanismes d’effet, devenant les véritables fonctions clés transférables (Cambon et Alla, 2019). Ces mécanismes sont le résultat de la combinaison de facteurs humains (connaissances, attitudes, représentations, compétences psychosociales et techniques, etc.) ou matériels au sein du système. Cette notion de mécanisme peut être définie comme la réaction d’un agent dans un contexte donné (Lacouture et al., 2015). Elle caractérise et ponctue le processus de changement (réaction d’un agent, processus cognitifs ou sociaux) engageant un résultat. Ces mécanismes peuvent être psychologiques (motivation, auto-efficacité, maîtrise de soi, compétences, etc.) dans une intervention comportementale ou sociaux (par exemple, valeurs partagées dans une communauté, perception du partage du pouvoir, etc.) dans une intervention socio-écologique.
64Il s’agit, dès lors, dans l’évaluation de comprendre comment fonctionne ce système : sur qui, comment et dans quelles conditions ce système est-il producteur d’effets ? Ainsi, les approches favorisant une analyse contributive des différents éléments (Mayne, 2001 ; 2010) du système à la production des résultats, comme les évaluations fondées sur la théorie (EFT) (Cambon et Alla, 2021 ; De Silva et al., 2014 ; Chen, 1990 ; Weiss, 1997), prennent tout leur sens. Il s’agit d’explorer le cheminement d’apparition d’un phénomène, par exemple l’effet de santé désiré, par l’exploration de la chaîne causale impliquée. En d’autres termes, au lieu de « l’intervention fonctionne-t-elle ? », la question de la Risp devient « étant donné le nombre de composantes qui influencent le résultat, comment chacune a-t-elle contribué de manière significative au résultat observé ? ». Pour comprendre comment chaque élément du système, par lui seul ou combiné, produit un résultat, il faut alors démêler le système interventionnel. Une solution consiste à caractériser cet enchevêtrement en explicitant et validant les hypothèses causales qu’il révèle. Il s’agit de comprendre le fonctionnement du système interventionnel (quelles sont les combinaisons de paramètres qui provoquent ces mécanismes ?) et les conditions de sa transférabilité (quels mécanismes sont à reproduire dans un autre contexte ?).
65Les évaluations peuvent être conduites seules (par exemple une évaluation réaliste), ou combinées avec un plan expérimental classique (Bonell et al., 2012). Les plus utilisées dans la recherche en santé sont l’évaluation réaliste (Pawson et Tilley, 1997) et la théorie du changement (De Silva et al., 2014 ; Chen, 1990).
66Dans la première, l’efficacité de l’intervention dépend des mécanismes sous-jacents en jeu dans un contexte donné. L’évaluation consiste à identifier les configurations contexte-mécanisme-effet (CME) qui expliquent comment (par quel mécanisme M) un phénomène (l’effet recherché ou non E) apparaît dans un contexte spécifique (C), incluant dans ce contexte les éléments interventionnels. Ces configurations sont appelées « théories de moyenne portée ». Leur récurrence est observée dans des études de cas successives.
67Dans la seconde, les composantes ou les ingrédients de l’intervention sont explicités et examinés séparément de ceux du contexte, afin d’étudier comment ils contribuent à produire des résultats. Comme pour les évaluations réalistes, l’hypothèse initiale (l’intervention en théorie) repose sur des hypothèses empiriques (c’est-à-dire issues d’évaluations antérieures) ou théoriques (c’est-à-dire issues de théories sociales ou psycho-sociales). Ce qui est validé (ou non) est la mesure dans laquelle la théorie explicative, y compris les paramètres de mise en œuvre, correspond aux observations. Dans les deux catégories, l’objectif est d’émettre des hypothèses sur des combinaisons de composantes en formulant une théorie basée sur des preuves scientifiques, sur l’expertise multidisciplinaire, ainsi que sur des investigations empiriques. Si la théorie est confirmée par les preuves empiriques, il est possible d’établir une inférence de causalité.
68Finalement, la partie la plus ardue de la démarche est de définir cette ou ces théorie(s) qui doi(ven)t impérativement s’appuyer sur un argumentaire scientifique spécifique. En effet, une théorie est un ensemble organisé de construits et de variables conçus, structurant notre observation, notre compréhension et notre explication du monde. Pour être utilisable, la théorie est censée expliquer comment un programme produit des effets (pourquoi et comment l’intervention fonctionne) en définissant un ensemble d’hypothèses explicites ou implicites. Dans l’approche du système interventionnel, cette théorie suppose d’intégrer les processus de mise en œuvre, les éléments contextuels, les liens entre les activités et les mécanismes qu’elles déclenchent, les liens entre les mécanismes et les éléments contextuels. Cette « théorie du système interventionnel » (Cambon et Alla, 2021) : i) est explicative, en considérant quel cheminement causal est censé atteindre l’objectif ; ii) émet des hypothèses sur les actions et les séquences de mise en œuvre spécifiques qui contribuent à ce cheminement ; et iii) considère que les éléments contextuels et leur influence existent et doivent être pris en compte. Elle est alors à la fois, comme expliqué dans le chapitre 2, théorie causale et modèle d’action.
69Cette approche de la théorie du système interventionnel n’est pas incompatible avec la théorie du changement ou l’évaluation réaliste. Par exemple, selon la théorie du changement, l’accent est mis sur les liens entre les composantes de l’intervention, la mise en œuvre et les résultats. Pour adopter la notion de système interventionnel, il suffit d’y intégrer les mécanismes d’effets et les éléments du contexte. Dans l’évaluation réaliste, les éléments contextuels et les mécanismes sont considérés comme des éléments centraux dans les théories de moyenne portée, pas les composantes interventionnelles (encadré 10).
Encadré 10. Illustration dans un projet
L’étude TC-REG vise à évaluer les conditions de succès de stratégies de transfert de connaissances en prévention menées au sein d’associations locales et d’agences régionales de santé (Affret et al., 2020 ; Cambon et al., 2017a). Dans l’étude TC-REG, les théories de moyenne portée finales définies à l’issue du recueil de données incluent :
– des facteurs externes, appelés CE (contexte externe) : par exemple, formation initiale des intervenants, intérêt pour la diffusion de programmes de transfert de connaissances, profil des dirigeants, soutien politique au sein des organisations, temps nécessaire pour étudier les données factuelles, taille des équipes ;
– des composantes interventionnelles, appelées CI (contexte interventionnel) : par exemple, accès à des données factuelles, formations, séminaires, activités de courtage de connaissances, etc. ;
– des mécanismes (M) déclenchés par la combinaison des deux : perception de l’utilité de l’usage des données probantes, motivation à prendre des décisions fondées sur des données probantes, auto-efficacité à analyser et à adapter les données probantes dans les pratiques, etc. ;
– des résultats (O) : l’utilisation des données probantes dans la pratique et la décision.
70Les essais réalistes sont des plans de recherche hybrides proposés par Bonell et ses collègues avec l’ambition de cumuler les avantages respectifs des deux approches expérimentales et réalistes (Bonell et al., 2012). Il s’agit, en intégrant l’évaluation réaliste au sein d’un plan de recherche expérimental, de s’assurer que l’évaluation affine et teste les hypothèses sur la façon dont le contexte interagit avec les mécanismes d’intervention pour générer des résultats. Ce plan de recherche hybride a été critiqué sur le plan épistémologique (voir l’introduction de ce chapitre), mais aussi opérationnel : peut-on au sein d’un essai aléatoire avoir un éventail de situations suffisamment hétérogènes pour construire et valider les CME ? (Marchal et al., 2012).
71Enfin, l’étude de cette théorie est importante dans l’ensemble du processus d’innovation, de l’étude pilote à la diffusion de l’intervention en passant par la conception de cette intervention et à l’évaluation des conditions de son efficacité. Dans l’étude Ocaprev (Aromatario et al., 2019), par exemple, l’approche fondée sur la théorie a permis de concevoir une application de santé fondée sur des preuves et des théories dans le cadre d’une étude pilote, avant élaboration d’une application et de son évaluation. Dans l’étude EE-TIS (Cambon et al., 2017b), l’essai contrôlé randomisé comprend une analyse de contribution évaluant une application de sevrage tabagique (Tabac Info Service). On se situe dans l’étape d’évaluation. En complément de la collecte de résultats, l’étude visait à comprendre comment chacune des activités proposées par l’application fonctionne pour arrêter de fumer grâce aux mécanismes déclenchés (l’auto-efficacité, la perception de l’utilité, la confiance dans l’application, etc.) et aux paramètres contextuels pouvant influencer l’arrêt du tabac (le statut tabagique du partenaire domestique, l’existence d’enfants, le soutien d’autres personnes pour arrêter de fumer, la famille et les événements sociaux ou professionnels, etc.).
72La validation de la théorie définie se fait grâce à un recueil multiple de données. Ce dernier peut être qualitatif, quantitatif ou mixte (Creswell, 2009). Il n’y a pas de règles spécifiques, le choix dépend du schéma d’étude ou de la volonté d’en combiner plusieurs. Par exemple, les résultats ou les objectifs de changement peuvent être recueillis par questionnaire ou par utilisation secondaire de données de santé comme pour toute autre étude. Les mécanismes et les conditions contextuelles quant à eux sont plutôt recueillis de manière qualitative par entretien (notamment pour les mécanismes) ou par observation (notamment pour les conditions contextuelles). Mais si une enquête qualitative primaire permet de repérer des éléments contextuels et des mécanismes qu’il reste à valider sur un large effectif, des méthodes mixtes peuvent être appliquées (Qual-Quan) ou encore des méthodes d’analyse comme la modélisation à équation structurelle (Beran et Violato, 2010) pour valider la théorie.
Conclusion
73Dans ce chapitre, il s’agissait de montrer l’éventail des approches susceptibles d’être mobilisées dans le cadre de la Risp. Le choix du plan de recherche le plus adapté est un processus rigoureux qui articule à la fois le positionnement épistémologique, la précision des questions de recherche investiguées, la faisabilité et le pragmatisme permettant de conduire la recherche dans les meilleures conditions tout en validant les hypothèses, et la volonté de produire des résultats utiles socialement. Ainsi, les plans de recherche se positionnent dans un continuum de gradation de ces différentes dimensions, leur combinaison présentant alors une bonne option pour répondre aux différentes exigences de la Risp (voir chapitre 1) : la conciliation de l’originalité et de l’utilité sociale, la considération du contexte comme un élément agissant sur le résultat, la dimension participative de la recherche (voir chapitre 5), la pluralité des questions, sans hiérarchie, et par conséquent la pluridisciplinarité, l’acceptation de toutes les méthodes.

Le texte seul est utilisable sous licence Creative Commons - Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International - CC BY-NC-ND 4.0. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
La recherche interventionnelle en santé des populations
Concepts, méthodes, applications
François Alla, Linda Cambon et Valéry Ridde
2024
Population health intervention research
Concepts, methods, applications
François Alla, Linda Cambon et Valéry Ridde
2023
Investigación de intervenciones en salud poblacional
Conceptos, métodos y aplicaciones
François Alla, Linda Cambon et Valéry Ridde
2024