Vous êtes sur la page 1sur 194

ÉPIDÉMIOLOGIE

OBJET
ET MÉTHODES

Mesli Farouk
Mustpha Bouziani

Main 2014

Service de Biostatistique
Épidémiologie clinique
Faculté de médecine d’Oran
3
ÉPIDÉMIOLOGIE : OBJET ET MÉTHODES

SOMMAIRE
Page
Préface 3

Épidémiologie : buts et pratiques 5


1ÈRE PARTIE Épidémiologie descriptive 14
Principales caractéristiques en épidémiologie descriptive 15
Indicateurs sanitaires 24
Les sources d’information en épidémiologie 37
Les enquêtes épidémiologiques transversales 45
ème
2 partie : L’épidémiologie analytique 49
Les enquêtes analytiques et causalité 51
Étude cas- témoins 55
Étude de cohorte 64
3ème partie : Les essais cliniques 72
Principe des essais cliniques 73
Les différents types d’essais cliniques 78
Les tests d’hypothèse et essais cliniques 111
4ème partie : Études évaluatives ou d’intervention 126
Généralités 115
Évaluation des méthodes Diagnostiques et de dépistage 128
Les études pronostiques 140
Les méta-analyses 151
5ème partie : Outils et méthodes en épidémiologie 151
Le protocole d’enquête 159
Le questionnaire 165
Les méthodes d’échantillonnage Aléatoires 170
Les biais dans les études Épidémiologiques 178
Le risque en épidémiologie : Mesures et associations 186
Lecture recommandée 191

4
PRÉAMBULE

L’épidémiologie et la biostatistique ont acquis de nos jours une place de choix au


sein des sciences médicales et sanitaires. En Algérie, l’Épidémiologie et la
Biostatistique ont été introduite par la « santé publique » durant le début des
années soixante dix grâce à la collaboration des services de santé avec l’OMS
autour des programmes de lutte contre les maladies infectieuses alors prévalentes
dans notre pays.
La création, au cours des années 1970, des services de médecine sociale (santé
communautaire ou de santé publique) et l’introduction dans le cursus de la
formation médicale d’un module de médecine sociale à permis de révéler aux
médecins ces « nouveaux outils ».
Face à la situation épidémiologique et à l’option santé publique engagée dans le
cadre de la politique de santé, l’Épidémiologie et la Biostatistique ont connu un
développement certain mais sont restées confinées au seul domaine de la santé
publique, notamment les maladies prévalentes à savoir les maladies infectieuses.
Vers la fin des années soixante dix, de nouveau besoins ont émergés notamment
ceux liés à une gestion rationnelle des programmes de santé sont apparus et mis en
évidence la nécessité d’élargir la formation en épidémiologie.
Durant les années 80, une nouvelle étape est amorcée. En effet, les Hospitalo-
universitaires devant réaliser des thèses de doctorat en sciences médicales, se
trouvent confrontés à des problèmes de méthodes ou d’analyse. La volonté de
« bien faire les choses » a entraîné les cliniciens à s’ouvrir sur les sciences non
cliniques et solliciter les Épidémiologistes.
Au départ, la sollicitation se limitait à la présentation ou à une analyse primaire des
données ; les Épidémiologistes pendant ce temps ont essayé de faire passer un
certains nombre de message notamment la nécessité des protocoles luttant ainsi
contre le « syndrome du questionnaire ».
Cette situation est liée au fait que durant sa formation, le médecin reçoit 45
heures d’enseignement de statistique durant l’année préparatoire (tronc commun
biomédical) alors que l’enseignement d’Épidémiologie est presque absent du cursus.
En effet une introduction à l’Épidémiologie est faite dans le module de santé
publique qui lui même a une durée de trois semaines.

5
Ainsi, l’idée de réaliser un cours d’initiation aux méthodes épidémiologique et
biostatistique est née. Les différentes réflexions engagées dans ce domaine ont
induit l’élaboration en 1992 d’un projet de recherche dont le but principal est
l’élaboration de méthodes didactiques d’apprentissage de l’Épidémiologie et de la
Biostatistique. Les enquêtes réalisées dans le cadre du projet avaient pour objectif
l’évaluation des connaissances et ont révélé que les professionnels soumis à
l’enquête n’ont aucune notion des principaux concepts de l’Épidémiologie et de la
biostatistique.
C’est ainsi que le CEBIO (cours d’épidémiologie et de biostatistique) est né en
partenariat avec l’unité 88 de l’INSERM France et est organisé chaque année
depuis 1994.
Ce cours a pour objet d’aider les professionnels de la santé à identifier la place de
l’épidémiologie et la statistique dans la résolution des problèmes qu’ils rencontrent
et de pouvoir initier les méthodes les plus simples.
Ainsi ce manuel se veut être une synthèse de l’ensemble des éditions du cours et un
soutien pédagogique adapté. L’objectif est de mettre à disposition des
professionnels de la santé, dans les pays en développement francophones un
ouvrage permettant de mener des études épidémiologiques descriptives en tenant
compte des problèmes rencontrés sur le terrain.
Il devra mettre en relief, les éléments indispensables à ces études en particulier :
- ceux liés au domaine du recueil des données, de leur validation
- des méthodes relatives à la construction de systèmes d’information tenant
compte des moyens disponibles, de leurs avantages et de leurs limites
- des méthodes de sondages liées aux conditions locales du fait de l’absence quasi
générale de base de sondage.
- des problèmes liés à la réalisation de questionnaire tenant compte des conditions
sociologiques de leur région.
- des difficultés à utiliser les indicateurs classiques de santé.
- et enfin d’approfondir les méthodes d’études transversales car ce sont les plus
utilisées dans nos pays.

Mesli M. Farouk
Faculté de Médecine Oran

6
ÉPIDÉMIOLOGIE

INTRODUCTION

Dans les sciences de la santé, les professionnels sont toujours amenés à


comprendre et à juger. Par juger, on entend la prise de décision sur la relation
causale, le diagnostic ou encore la prise de décision thérapeutique. La prise de
décision résulte de la connaissance des faits et des mécanismes sous jacents. En
fait, la prise de décision représente l’impact de la recherche médicale.
Dans les sciences sociales, les histoires causales sont “ modélisées ” (approche
théorique) et on voit jusqu’à quel point le modèle “ colle ” avec les faits connus. [
Wunsh, 1988]
Dans les sciences biomédicales, l’approche est différente. Elle part de l’observation
pour aboutir au “ modèle ”. On dit qu’elle est inductive.
La connaissance scientifique a accumulé plus par la “ raison et l’intuition ” que par
l’observation empirique. En effet, l’observation a elle seule, n’est pas scientifique si
elle n’entraîne pas une certaine prédiction obtenue par une certaine logique
inductive. Cependant la logique inductive n’est pas tout car, souvent, elle entraîne à
l’erreur. Par contre la logique déductive peut être complète. Pour cela, elle doit
être liée à son milieu naturel.
En effet, l’histoire de la maladie est dégagée par abstraction et généralisation à
partir de nombreux cas concrets. Ceci a pour conséquence de dégager le tableau de
la maladie avec ses formes communes, les formes cliniques, les complications. Pour
sa réalisation, on doit recueillir un maximum de données, ce qui permet de décrire
le tableau de la maladie et sa propagation.
Le fondement de la recherche causale est la mise en évidence de l’ordre temporel :
“ l’effet ne précède jamais la cause ”[Davis, 1985].
Ainsi, il importe en premier lieu de faire un bon recueil de données, une bonne
description des cas et de l’histoire de la maladie pour pouvoir établir des
hypothèses en vue de la recherche étiologique.
L’hypothèse est une proposition d’explication de la relation causale ou d’un
phénomène épidémiologique, admise provisoirement, avant d’être soumise aux
méthodes de contrôle ou de validation. L’hypothèse est bâtie soit par approche

5
inductive, soit par approche déductive. Elle est bâtie soit à partir de l’observation
(inductive) soit à partir de l’expérience (déductive). Dans le premier cas, la
recherche causale se fait à l’intérieure de l’étude par constatation d’une liaison
entre deux variables. Dans la seconde, on propose la même hypothèse et on réalise
une nouvelle étude dans le but de valider ou non l’hypothèse mais avec le soin de
contrôler tous les biais.
Ainsi, les études descriptives sont nécessaires pour l’établissement d’hypothèses.
Pour Buffon, “ la seule et vraie science est la connaissance des faits, l’esprit ne
peut y suppléer ”. Il s’agit d’abord d’observer, puis de décrire non pas l’histoire de
cas mais de l’histoire de la maladie.
Dans ce contexte, la méthode mathématique sert à confirmer ou rejeter certains
points équivoques. L’analyse statistique est d’un apport considérable dans la
recherche causale. Elle a pour but de s’assurer du degré de liaison entre l’effet et
la cause, auquel cas, quelle est la probabilité de cette liaison.
Ainsi, la biostatistique ne définit pas la cause, mais qu’il existe des critères du lien
causale formulable en terme de théorie de probabilité. L’analyse statistique ne
porte pas sur un cas mais sur des classes de faits ou variables. Elle suppose donc
que le travail de description soit déjà réalisé.
Ainsi l’on constate que l’hypothèse de causalité est générée par l’observation ou la
description fondée sur des études de population (générale, hospitalière....).
L’ensemble de ce qui précède, fait de l’Épidémiologie une science dont les
principales caractéristiques (Paolo V.) sont :
- La formulation et la vérification d’une hypothèse sur la base d’une observation
d’une population.
- Le raisonnement probabiliste.
- L’absence de référence à l’anatomie pathologie ou à d’autres données de nature
individuelle.
- La pratique d’une expérimentation préventive.

DÉFINITION ET DOMAINE DE L’ÉPIDÉMIOLOGIE

Il existe de nombreuses définitions de l'épidémiologie. Ceci témoigne de son


évolution. En effet, l'épidémiologie est passée du domaine des épidémies (Rumeau-
Rouquette), aux maladies non transmissibles et aux états intermédiaires entre
l'état de santé et la maladie. En même temps, son objet est passé de
6
l’Épidémiologie descriptive à la recherche étiologique et à l'évaluation (Jeniceck,
introduction par L. Massé).

Plusieurs définitions de l’épidémiologie ont été proposées :


W.H. Frost (19927) : " Sciences des maladies infectieuses en tant que
phénomène de masse (ou de groupe) consacrée à l'étude de leur histoire naturelle,
de leur propagation, dans le cadre d'une certaine philosophie..."

K.F. Maxcy (1951) : "Branche de la médecine, qui étudie les relations entre les
divers facteurs qui déterminent l'ampleur et la propagation dans la collectivité
humaine d'une maladie infectieuse ou d'un état physiologique défini..."

B. Mac Mahon et T.F. Pugh (1970) : " Étude de la distribution des maladies chez
l'homme et des facteurs qui en déterminent la fréquence..."

M. Jeniceck et R. Cléroux (1982) : " ... Un raisonnement et une méthode propres au


travail objectif en médecine et dans d'autres sciences de la santé, appliqués à la
description des phénomènes de santé, à l'explication de leur étiologie et à la
recherche des méthodes d'intervention les plus efficaces."

Last (1988): «The study of the distribution and determinants of health-related


states or events in specified population, and the application of this study to the
control of health problems."

Ainsi, l'épidémiologie étudie des domaines variés tels la maladie, la mortalité et le


handicap, mais aussi à des états intermédiaires entre la santé et la maladie et les
moyens d'améliorer la santé. L'unité d'étude de l'épidémiologie est la population,
mais non l'individu, qu'il s'agisse de la population générale, hospitalière, de
travailleurs ....
Les notions développées telles l'épidémiologie clinique, l'épidémiologie
psychiatrique, l'épidémiologie du risque professionnel, etc., relèvent plus du
domaine de l'épidémiologie que de la méthode (Rumeau-Rouquette).

7
BUTS ET PRATIQUES DE L'ÉPIDÉMIOLOGIE

L’épidémiologie comme toute sciences a pour but de contribuer à la mise en


évidence de la vérité scientifique à travers la représentation exacte des
phénomènes de santé notamment en veillant à la réduction et à l'élimination des
erreurs accidentelles et systématiques (biais) dans la présentation, le
traitement et l’analyse des données en vue de leur interprétation non biaisée.
L’épidémiologie doit permettre le raisonnement scientifique en renforçant les
critères du jugement en clinique et en santé communautaire.
Au plan pratique, l’épidémiologie a pour buts :
- de contribuer à mieux définir les maladies et contribuer à leur
classification.
- d’identifier l'ampleur des problèmes de santé et des maladies et décrire leurs
caractéristiques
- de contribuer à la mise en évidence des relations causales
- de contribuer à l’évaluation de l'efficacité des programmes de santé (prévention
primaire, traitement, soins, modification des comportements, réadaptation).
- de faire la surveillance épidémiologique, c'est-à-dire étudier l'évolution à long
terme des phénomènes de santé dans les conditions naturelles mouvantes.

Figure 1 : triple dimension de l’épidémiologie

8
LES ÉTUDES ÉPIDÉMIOLOGIQUES : CLASSIFICATION

L'évolution de l'épidémiologie impose une classification des études


épidémiologiques selon l'objet de l'étude. On peut distinguer globalement les
études épidémiologiques d'observations et les études épidémiologiques
d'interventions et/ou expérimentales.

Les études descriptives


Ce sont des études limitées à la description des phénomènes de santé. Ce sont des
études de constatation des faits dont l'objectif est d'élaborer une hypothèse de
recherche.
Les études descriptives non orientées vers la recherche sont des études de
surveillance dénommée la surveillance épidémiologique. Le deuxième groupe
d'études est constitué par les études analytiques.
Ces études ont pour point de départ une hypothèse et pour objectif de tester la
validité de cette hypothèse. La méthode consiste à tester la relation entre un état
de santé et certaines variables.
Cependant, la limite entre les deux types d'études n'est pas toujours évidente,
hormis pour la surveillance épidémiologique.
1.1- La surveillance épidémiologique :
Son objet n'est pas la connaissance du phénomène de santé. Dans ce cas la cause, le
risque et la maladie sont connus. La surveillance épidémiologique a ici pour but la
prévention individuelle.
Dans ce contexte, il s'agit d'une surveillance continue des individus exposés à un
risque particulier, où l'on recueillera l'ensemble des données aux facteurs de
risques et leurs effets éventuels.
L'apport de l'outil informatique est considérable ; des banques de données ont pu
être constituées telle EUROCAT (malformations congénitales),
EUROTRANSPLANT (banque pour repérage de donneurs d'organes), etc.
Au plan opérationnel, la surveillance épidémiologique a pour objectif :
L'identification des malades.
C'est l'exemple de surveillance des femmes enceintes, des enfants en milieu
scolaire, de la population au travail. C'est aussi la surveillance des malades qui ont
risque de développer un handicap, par la surveillance des soins.
Dans ce contexte, l'épidémiologie intervient pour :

9
- Définir les critères de diagnostic ou de dépistage des malades en veillant autant
que possible à la validation des méthodes de diagnostic.
- Contribuer à la mise en place de système d'information sanitaire.
Surveillance de la fréquence des maladies et de la mortalité.
Les principaux objectifs sont :
- La détermination des priorités : Elles sont déterminées sur la base de
l'observation continue des phénomènes de santé ou des facteurs de risque en
faisant des comparaisons dans le temps et l'espace des niveaux de morbidité et de
mortalité. Elles ont pour conséquence d'identifier les groupes de populations sur
lesquels va porter l'intervention sanitaire.
- La vigilance systématique : Elle a pour objet de détecter des modifications
rapides dans le temps et l'espace de la répartition des maladies et de la mortalité.

1 : 2 - Les études descriptives a visée de recherche.


Ces études ont pour objectifs de générer des hypothèses.
On distingue :
Les études comparatives (Ecological studies et/ou épidémiologie géographique).
Elles sont réalisées au début du travail épidémiologique. Ce sont des études qui ont
pour objectifs de tester la relation entre deux variables en comparant différentes
populations (géographiquement différentes) dans une même période ou la même
population à différentes périodes.
Le gros problème de ces études est lié aux biais de confusion notamment de type
socio-économique. De plus, il est très difficile d'en interpréter les résultats du fait
que les objectifs et les méthodes de ces différentes études à comparer ne sont
pas toujours les mêmes et que les données utilisées sont le plus souvent recueillies
en routine. Cependant, elles permettent de soupçonner de nouveaux facteurs de
risque du fait de la variabilité des caractéristiques des populations de l'étude.

Les études transversales.


Ce sont généralement des études de prévalence. Elles permettent aussi de
mesurer les facteurs de risque et l'effet. Elles sont indispensables à l'élaboration
d'hypothèse de recherche étiologique. Elles ne peuvent apporter de réponses à la
relation causale car il est pratiquement impossible dans ces études de vérifier le
facteur temporel de la relation causale. L'ordre temporel dans la relation causale
est fondamentale dans la recherche étiologique (l'effet ne précède jamais la
cause). Elles sont aussi appelées études à visée exploratoire.
10
Les études analytiques

Les études cas-témoins.


Ces études permettent d'analyser l'importance de l'exposition (facteur de risque)
dans deux groupes de population. Elles portent sur des faits recueillis à posteriori,
sur des groupes constitués par des cas (malades) et des témoins (non malades). Ce
genre d'études est d'exécution rapide et exige un choix rigoureux des témoins. On
calcul un indice comparable au risque relatif et qui est l'Odds-Ratio. Le problème
dans ce type d'étude est que les faits sont recueillis à posteriori, rendant difficile
la mise en évidence des expositions, surtout quand elles sont rares et/ou brèves et
lointaines. L'exemple le plus classique de ce type d'étude est la découverte de la
relation de la thalidomide et malformation congénitale (MELLIN et
KATZENSTEIN, 1962).
Les études prospectives ou études de cohortes.
Ces études permettent d'évaluer l'incidence, l'estimation du risque relatif et par
conséquent la force de l'association entre le facteur de risque et l'effet. Ces
études peuvent être prospectives et porteront sur le devenir d'un groupe réparti
en exposé et non exposé au facteur de risque étudié. Elles peuvent être
rétrospective et se base sur un indice qui est le ratio-standardisé de mortalité
(S.M.R.). Les études de cohorte sont indispensables lorsqu'il n'existe pas de
données sur un problème. Elles permettent d'obtenir des informations précises sur
l'exposition et la maladie, d'établir l'importance de l'association entre la cause et
l'effet.

Les études d'intervention


Les essais randomisés contrôlés
Ces études ont pour objet de tester l'efficacité d'un "traitement" dans deux
groupes appelés habituellement groupe traité et groupe contrôle et qui reçoivent un
traitement préventif ou un régime thérapeutique.... Les résultats sont comparés
dans les deux groupes ou plus. Ces études ont une méthodologie particulière qui est
très bien développée par D. Schwartz.
Les essais d'intervention
Ces études ont pour objet de tester l'efficacité d'une mesure de prévention
portant sur de large population. L'exemple de ce type d'étude est donné par les
essais de la vaccination notamment antipolio myélite. L'objectif est d'évaluer dans
une population les modifications apportées par une intervention sur une pathologie
11
se trouvant à l'état endémique, les sujets de l'étude sont sains au moment de
l'essai.

Les études d'évaluation


Ce sont des études visant à évaluer l'application d'un programme de santé. Elles
nécessitent la définition préalable à tout programme de critères / variables (indice
et indicateurs) sur lesquels va porter l'évaluation. Elles sont aussi appelées études
avant après. Elles sont en outre liées au cycle de la planification des programmes de
santé.

CLASSIFICATION DES ENQUÊTES ÉPIDÉMIOLOGIQUES

Une enquête épidémiologique est une observation organisée ; C’est une opération de
recherche et collecte d’information puis d’analyse statistique des données
recueillies en vue de résoudre une (des) question(s) de recherche bien définie(s)
Plusieurs classifications sont proposées :
Selon le temps
- enquêtes transversales
- enquêtes longitudinales
Selon les modalités de choix des sujets
- enquêtes exhaustives
- enquêtes par échantillonnage
Selon les objectifs
- enquêtes descriptives
- enquêtes analytiques
Selon la procédure
L’expérimentation ; dans ces enquêtes, l’attribution de l’exposition est contrôlée
par l’investigateur ; le plus souvent il faut une randomisation pour la répartition
entre les groupes. Ce sont des études prospectives : suivi des sujets. L’exemple en
est essais thérapeutiques. Les avantages sont qu’elles permettent l’imputation
causale et les limites sont celles liées aux choix des groupes d’étude et qu’elles
portent sur des études de population très spécifiques
L’observation : l’investigateur observe la réalité telle qu’elle se présente
spontanément à lui, éventuel tirage au sort (des sujets à observer).
Selon la finalité
A visée descriptive, étiologique, ou évaluative
12
Selon la chronologie
Transversale : étude portant sur les sujets présents au moment de l’enquête :
étude de prévalence.
Longitudinale (prospective) : étude d’une tendance évolutive suivi d’une cohorte
(ensemble de sujets choisis selon des critères définis et suivis dans une enquête
longitudinale).
Étude d’une incidence ou de la mortalité. Ex : suivi pendant 10 ans d’une cohorte
d’enfants nés une année définie pour évaluer leur croissance
Permanente : observation d’un phénomène pendant une durée «infinie» Ex : Registre
des cancers
Selon la finalité et la chronologie
Études descriptives : Transversales, description d’un problème de santé à un
moment donné.
Longitudinales : Observation d’une population sur une période
Transversales répétées : études de tendances
Études étiologiques : études de cohorte, le facteur d’exposition est connu avant
l’apparition de la maladie et le début de l’étude avant l’exposition. Ce sont le plus
souvent des études exposés-non exposés.
Études rétrospectives : cas-témoins : les expositions sont recherchées dans le
passé des sujets malades et non malades.
Les enquêtes transversales : c’est un recueil de l’exposition et de la maladie au
moment de l’enquête : le but est de formuler des hypothèses uniquement.
Selon le mode d’échantillonnage ou le mode de sélection
Exhaustive : Concernent toute la population : ex : statistiques de mortalité
Inconvénients : les investigations sont limitées ; la qualité de l’information est
parfois médiocre
Par sondage : l’échantillon est extrait par sondage de la population
Avantages : un cout moindre car effectif moindre, et une qualité meilleure avec
plus d’investigations
Inconvénients : ces enquêtes donnent des estimations (dont la précision est
fonction de la taille de l’échantillon) et nécessitent une bonne représentativité de
l’échantillon (risque de biais de sélection).

13
ÈRE
1 PARTIE

Épidémiologie
descriptive

14
PRINCIPALES CARACTÉRISTIQUES
EN ÉPIDÉMIOLOGIE DESCRIPTIVE

DÉFINITIONS

Épidémiologie descriptive : « … l’étude de la distribution […] des états ou des


événements liés à la santé… ».
Épidémiologie descriptive
La finalité des enquêtes descriptives est de rendre compte de la fréquence , de la
répartition géographique d'un phénomène de santé dans une population donnée.
Objectifs :
Étude de la fréquence et de la répartition des problèmes de Santé dans une
population définie
Étude des variations de fréquence selon :
• les caractéristiques des personnes (âge, sexe, profession)
• la répartition géographique
• les évolutions dans le temps
Élaboration d’hypothèses étiologiques.
Intérêts :
Décrire l’évolution des pathologies au cours du temps avec les statistiques
sanitaires (surveillance ou veille épidémiologique)󲐀Formuler des hypothèses
étiologiques pour des enquêtes analytiques et des recherches
biologiques󲐀Contribuer à la planification des services et des besoins de santé.
Les études descriptives se font par observation et permettent simplement de
constater une situation donnée. Elles répondent à des questions générales «quand,
ou, chez qui?». Il n’y a habituellement pas d’hypothèse initiale sur les relations
causales ; c’est une constatation des faits. Peut être génératrices d’hypothèses et
conduit à des études analytiques.
L’épidémiologie descriptive mesure les phénomènes de santé et permet donc de
répondre aux questions suivantes
Quoi ? Définition et fréquence du phénomène
Qui ? Caractéristiques de personne
Ou ? Caractéristiques de lieu

15
Quand ? Caractéristiques de temps.
D'une façon générale, l e s résultats s'expriment sous la forme :
- de fréquences brutes,
- ou mieux de fréquences spécifiques :
. Prévalence,
. Incidence,
. Taux de mortalité,
. Taux de létalité …
Ces résultats peuvent être ajustés sur certains critères démographiques : âge,
sexe, catégorie socio-professionnelle.
En fonction des résultats recherchés, les études descriptives se déclinent en :
• études de prévalence,
• études d'incidence,
• séries de cas.
On distingue deux types d’enquêtes descriptives : les enquêtes transversales et
les enquêtes longitudinales.
Les enquêtes transversales :
Enquête réalisée à une date fixée t ou sur une courte période. Elle permet d’évaluer
la Prévalence, par exemple : une étude de prévalence de l’asthme chez l’enfant
scolarisé. Les enquêtes dites transversales où les sondages permettent d’estimer à
un moment donné, dans une population donnée, la prévalence d’un état de santé ou
d’une exposition à un facteur .
Les enquêtes longitudinales
Surveillance continue de la population sur une période déterminée. Elle permet
d’évaluer l’incidence ou les taux de mortalité. Par exemple le Registre de population
sur les cancers…
Les outils utilisés par l'épidémiologie descriptive résident aussi dans :
• les statistiques de mortalité,
• les enregistrements permanents de morbidité (déclarations obligatoires,
Registre, ...),
• les études ponctuelles.

Typologie des études épidémiologiques descriptives


Selon la procédure : Observationnelle donc pas d’intervention du chercheur
Selon la finalité : Descriptive (pour une mesure de prévalence, incidence),

16
Selon la chronologie du recueil des données : Transversale ou Longitudinale (selon si
le recueil d’information à lieu lors d’un jour donné ou lors de visites successives
(suivi) ; Ou Rétrospective ou Prospective : recueil d’information dans le passé ou
lors d’un suivi dans le temps.
Selon la méthodologie : mono ou multicentrique, nationale ou internationale

Enquête transversale de prévalence


Les études de prévalence sont l'équivalent d'un bilan o u d'un instantané
photographique d'un facteur ou d'une maladie, dans une population donnée, à un
moment précis.
Ces études transversales, faciles à réaliser, permettent d 'évaluer l'importance
d'une maladie , de définir les groupes à risque e t d'orienter en conséquence les
programmes de Santé Publique (ex. : Diabète, SIDA…).
Les études de prévalence ne permettent pas l'établissement de séries temporelles
des événements. Ce sont les études d'incidence qui permettent de remplir cet
objectif.

CARACTÉRISTIQUES

Pour avoir de la valeur, les indicateurs de prévalence doivent être calculés sur
des populations définies dans l’espace et dans le temps (dénominateur) et pour le
numérateur, ils doivent concerner la totalité des cas présentant la pathologie
étudiée.
Les estimations de morbidité se heurtent au problème de l’exhaustivité.
il est très difficile d’identifier tous les cas d’une pathologie donnée, ceci aboutit à
une sous-estimation.
•Une enquête transversale est aussi caractérisée par son type de recrutement plus
que par le type d’informations recueillis ; c’est ainsi qu’elles sont largement utilisées
en épidémiologie des risques professionnels dans le domaine particuliers de la
recherche et de l’évaluation de marqueurs fonctionnels ou biologiques ; indicateurs
d’une atteinte infra clinique.

17
Figure 2 : schéma d’une enquête de prévalence

La prévalence : Traduit la probabilité globale qu’un individu de la population soit


malade au moment T. C’est un outil de planification sanitaire : prévoir les moyens de
prise en charge d’une maladie.

Principe
L’enquête de prévalence est réalisée « un jour donné » (période brève, pas de suivi
des patients), sur échantillon représentatif d’une population bien définie.
Le Recueil d’information : sur la présence M( prévalence) et sur des
caractéristiques autres (socio ‐ démographiques, exposition à différents facteurs)
Hypothèses d’association maladie ‐ tiers facteurs.

Les Études d'incidence


Les études d'incidence permettent de suivre une population sur une période donnée
durant laquelle on observe l'apparition d'une ou plusieurs maladies. Le taux
d'incidence permet d'évaluer l'évolution d'une maladie et l'impact de mesures
préventives. L'une des finalités des études d'incidence est la surveillance
épidémiologique. L'inconvénient de ce type d'étude est le suivi des individus, leur
durée et leur coût.

Séries de cas
Les études de séries de cas permettent l'observation détaillée d'un certain nombre
de patients mais ne permettent pas de généraliser les conclusions à l'ensemble
d'une population. Elles diffèrent en cela des études par échantillonnage. Elles

18
permettent par compte de "soupçonner" un facteur étiologique. Le nombre de cas
peut être très faible : l'influence de l'un des facteurs de risque du SIDA a été
suggérée par l'étude d'une série de 5 cas !

Études épidémiologiques descriptives ; Population


La sélection des sujets se fait par rapport à leur appartenance à une population
(indépendamment de leur statut vis à vis de l’exposition ou de la maladie). La
population d’étude doit être définie précisément : au plan géographique, sur les
caractéristiques individuelles ((âge, sexe, etc..)
Si population importante, un échantillonnage s’impose.
La population source est constituée par l’ensemble de la population à partir de
laquelle les sujets sont tirés au sort.
Le choix de la population est fait en fonction des objectifs de l’étude, des
possibilités d’accès à la population et de l’existence d’une base de sondage. Le choix
de la population source et la représentativité de l’échantillon sont les principaux
éléments qui conditionnent alors la qualité de l’étude.
Le problème de la représentativité et des biais de sélection liés au choix des bases
de sondage est parfois important.

Notion d’échantillonnage
La représentativité de l’échantillon par rapport à la population cible est
fondamentale.
L’échantillonnage est fait par tirage au sort (seule méthode qui peut « garantir » la
représentativité d’un échantillon), à partir d’une liste exhaustive de la population
cible. Certains problèmes peuvent surgir : liste est complète, problème des non
réponse (biais de sélection). Les non-réponses entraînent une erreur sur
l’estimation du paramètre étudié. L’erreur croît avec la proportion de non-
répondant. Si de plus les non-répondants ont des caractéristiques particulières le
sondage devient totalement biaisé.
Pour essayer de cerner ce dernier problème on peut faire une enquête
complémentaire sur les non-répondants pour chercher
Les raisons des non-réponses.
Les valeurs observées sur l’échantillon de sondage diffèrent des valeurs vraies
dans la population en raison des fluctuations d’échantillonnage.
Il est donc nécessaire de définir un intervalle de confiance autour de la valeur
observée, dans lequel on peut situer la valeur pour la population avec un risque
19
d’erreur acceptable (en général fixé à 5 %) que la vraie valeur se situe à l’extérieur
de l’intervalle.
Les indicateurs (prévalence, incidence,…) calculés sur ces échantillons sont des
estimations : ils doivent être toujours présentés avec leur intervalle de confiance
à 95%. IC‐95% : intervalle dans lequel la grandeur que l’on étudie a de fortes
chances (95%) de se situer au sein de la population dont est extrait l’échantillon.
L’intervalle de confiance indique la précision du sondage, il dépend de la variabilité
du facteur étudié (variance), et de l’effectif de l’échantillon.

Avantage des enquêtes de prévalence


–Facile à mettre en place, peu coûteuse, durée courte
–Estimation de la prévalence et permet de générer des hypothèses étiologiques : à
confirmer par des études analytiques ou expérimentales

Inconvénients :
–Image instantanée : pas d’estimation d’incidence
–Pas toujours bon indicateur de santé à l’inverse de l’incidence : une augmentation
de prévalence peut être due à une augmentation d’incidence ou à l’augmentation de
la durée de survie d’une maladie
–Pas de prise en compte de la chronologie : interprétation difficile des liens
observés entre maladie et expositions
–Observation des seuls cas du moment : possibilité de biais de sélection si le fait
d’être absent le jour de l’enquête est lié au phénomène étudié.

Les caractéristiques épidémiologiques de personne


Age
La caractéristique la plus importante et la plus fréquemment étudiée. Le fait est
que certaines maladies sont liées à l’âge et/ou ont des caractéristiques selon l’âge.
La fréquence, la gravité et le pronostic sont autant de sources de variations liées à
l’âge.
Le sexe
Il s’agit d’une source non négligeable de variation des paramètres étudiés. Il y a
des maladies liées au sexe (hémophilie), des maladies qui ont une prédilection selon
le sexe et d’autres qui sont exclusives d’un des deux sexes.
Le niveau socio-économique

20
Cette caractéristique a certainement une grande influence sur l’accessibilité aux
services de santé et sur l’état de santé des individus.
Les niveaux socio-économiques ont des modalités qui correspondent à des
classifications proposées par les organismes chargés de la planification et des
statistiques dans les pays.
Caractéristiques de lieu
L’analyse topographique des donnés dans une population a démontré de nombreux
cas, des variations d’une maladie selon le lieu. La relation entre la maladie et les
facteurs locaux peut être mise en évidence : résidence, lieu de naissance, lieu de
travail, district de l’école, unité hospitalière.
• Lieu de résidence vs l’endroit d’acquisition de la maladie / lieu où service prodigué
• Unités géographiques (district, commune, rue,).
On utilise parfois une notion unitaire appelée biotope, qui définit une zone
géographique, ses conditions climatiques (température et humidité) ; son sol, sa
végétation et sa faune ainsi que la population qui l’habite.
L’analyse géographique des cartes produites permet de nombreuses applications sur
le plan de la santé publique allant de la production de données administratives à la
génération d’hypothèses.

Les systèmes d’information géographiques peuvent aussi servir de soutien aux


études étiologiques en épidémiologie environnementale.
La race, le groupe ethnique et la culture
Il y a à considérer :
- les caractères biologiques héréditaires spécifiques des populations (exemple du
diabète)
- les comportements des populations, résultants de croyances, d’attitudes vis à vis
de la maladie, de l’état de santé etc.

Caractéristiques de temps
Plusieurs notions de temps sont utilisées en épidémiologie.
•Les phénomènes de masse apparaissent dans le temps et dans l’espace avec une
régularité variable. Une classification entre phénomènes périodiques et non
périodiques s’impose.
•On distingue ainsi :
-Le temps chronologique relié a l’âge chronologique des personnes étudiées.(le
tableau de la maladie est établit dans un groupe d’âge particulier)
21
-Le temps «zéro» qui représente le moment ou l’individu rentre dans le groupe
étudié.(ex des études de survie)
-Le temps épidémiologique qui est l’intervalle qui sépare l’apparition de la maladie du
retour à la normale.(pour la diphtérie, l’année épidémiologique commence en été ).
-La tendance séculaire d’une maladie peut varier d’une année à une autre
Tendances cycliques
Ce sont des variations saisonnières, annuelles etc.,
Elles permettent d’élaborer des hypothèses relatives au rôle des vecteurs, des
comportements de population.
Variations « instantanées » :
Épidémies : Le nombre de cas atteint brusquement un niveau élevé dans un groupe
de population, sur un territoire donné, pendant un temps déterminé, puis disparaît.
Ex : la grippe.
Endémies : infection présente de façon constante dans une population au cours du
temps.
Clusters : petit groupe.
Figure 3 : Démarche dans les enquêtes épidémiologiques

22
Autres caractéristiques dans les enquêtes épidémiologiques descriptives

La famille, le statut marital, l’ordre de naissance etc.


Habitat
Hygiène du milieu
Accès à l’eau potable
Statut nutritionnel, etc.…

Caractéristiques de lieu
Le lieu en terme géographique est important à considérer dans toutes les études
car le lieu d’habitat ou de travail est « chargé » d’une histoire, de caractères de
l’environnement en termes de polluants ou autres. Ces dernières ont vu se
développer toute une approche de ce que l’on appelle la pathologie géographique.
Ceci est utile aussi pour l’élaboration d’hypothèse de causalité en particuliers.

23
LES INDICATEURS SANITAIRES

L'Organisation Mondiale de la Santé (OMS) a définit la santé d'une population par


le biais de nombreux indicateurs de santé. Ces indicateurs permettent de décrire
l'état de santé d'une population mais aussi de suivre son évolution dans le temps et
de pouvoir comparer entre elles, après les avoir rendues comparables, plusieurs
populations.
En fait, les concepts d’indicateurs ont été utilisés au départ en économie, avec les
notions d’indicateurs sociaux qui étaient destinés à “ décrire et à mesurer les
résultats pour l’action à entreprendre ”.
L’appropriation du terme d’indicateur de santé par les professionnels de santé
(Francophones) s’est faite à partir des années 1970 dans la Revue d’épidémiologie
et de santé publique.
Les indicateurs sanitaires sont perçus comme des instruments de mesure de l’état
de santé des populations, et des moyens pour identifier la nature et l’ampleur des
problèmes de santé. Ils permettent également de mesurer l’activité, l’état et les
résultats du système de santé.
L’O.M.S. définit les indicateurs sanitaires (1981) comme “ des variables qui aident à
mesurer, directement ou indirectement, les changements dans la situation sanitaire
et à apprécier dans quelle mesure les objectifs et cibles d’un programme sont
atteints ”.
Le but des indicateurs de santé et décrire l’état de santé des individus dans une
communauté et d’évaluer la situation épidémiologique (épidémiologie descriptive)
d’une population. C’est donc un outil de la surveillance épidémiologique.
Dans ce chapitre nous définirons précisément les termes propres à l’épidémiologie
descriptive qui permettent
de décrire les principaux indicateurs, mais aussi de pouvoir l’état sanitaire de deux
communautés.

Classification des indicateurs de santé


On distingue essentiellement quatre groupes d’indicateurs :
- les indicateurs socio-démographiques,
- les indicateurs sanitaires (reposant essentiellement sur des études de mortalité
et de morbidité),
- les indicateurs d’utilisation des services de santé,
24
- les mesures d’activité et d’évaluation.

Les outils de mesure en épidémiologie descriptive


La mesure des indicateurs nécessite une définition rigoureuse à l’aide de critères
précis et de questionnaires standardisés. Différents indicateurs sont calculés à
partir de ces données :
- un ratio est le rapport d’un numérateur et d’un dénominateur de nature
différente. Il est statique et n’a pas d’unité : exemple sex-ratio (homme/femme),
- une proportion est le rapport d’un nombre de personnes atteintes d’un problème
de santé à l’effectif de la population correspondante. Elle est statique et sans
unité. C’est en général un pourcentage,
- un taux est le rapport du nombre de nouveaux cas d’un problème de santé apparu
pendant une période à la population moyenne pendant cette période. Il permet de
comparer les populations de taille différente. C’est une mesure des évolutions,
- un quotient est le rapport du nombre de personnes touchées par un problème de
santé dans une période à la population concernée au début de la période. Une
mesure de la probabilité de survenue du problème dans la population au cours de la
période.
Tableau 1 : Principaux indicateurs sanitaires

Indicateurs de mortalité :
Espérance de vie à la naissance et à différents âges
Taux de mortalité générale
Taux de mortalité par sous-groupes
Taux de mortalités standardisés sur l’âge
Indice de surmortalité masculine
Mortalité prématurée
Années potentielles de vie perdue
Mortalités évitables par cause
Indicateurs de morbidité :
Taux d’incidence
Taux de prévalence
Taux d’incapacité (espérance de vie sans capacité)
Taux de désavantages
Appréciation subjective de la santé

25
Les indicateurs de mesure de la morbidité

La morbidité
C’est un élément essentiel de la description épidémiologique de l’état de santé d’une
population. La morbidité dans une population est représentée par le nombre de
personnes malades ou le nombre de cas de maladies dans une population
déterminée, à un moment donné. On distingue plusieurs types de morbidité : selon
les modalités du recueil de l'information. En fonction de l'état "maladie" on
distingue :
- La morbidité diagnostiquée. C'est la morbidité mise en évidence par le diagnostic
médical et ayant nécessité le recours aux soins.
- La morbidité ressentie. C'est l'ensemble des troubles ou des affections ressenties
par les individus.
- La morbidité infraclinique. Elle inclut toutes les affections dont l'existence n'est
pas décelée faute de manifestations cliniques.
L'ensemble constitue la morbidité réelle. Elle comprend l'ensemble des affections,
connues ou non, ressenties ou non, diagnostiquée ou non.
La morbidité déclarée correspond dans les enquêtes à la morbidité que déclare un
individu. Elle est dépendante de la perception que l'individu a de sa santé, de
facteurs socio-économiques, culturels, ou psychologiques.

Il faut distinguer aussi deux grands types de mesure de la morbidité en fonction du


temps :

- la prévalence ou la morbidité prévalente : c'est le nombre de cas d'une maladie


donnée (ou le nombre de personnes atteintes de cette maladie), existant dans une
population à un moment donné. Il n'y a pas ici de distinction entre les anciens cas et
les nouveaux cas

- l’incidence ou la morbidité incidente : c'est le nombre de nouveaux cas d'une


maladie donnée (ou le nombre de personnes atteintes de cette maladie) dans une
population pendant une période déterminée.
La première est une mesure statique, figée, comme un cliché photographique. A un
instant donné, dans une population donnée, l'importance de la maladie est telle.
C'est la prévalence. L'incidence est dynamique, comme un film. Elle mesure la
vitesse d'apparition de la maladie au cours du temps.
26
Les deux mesures de morbidité sont nécessaires : la prévalence intéresse la Santé
Publique car elle permet d'évaluer les besoins de prise en charge médicale. C'est un
outil utile pour la planification des ressources sanitaires.
L'incidence intéresse la recherche étiologique en permettant des comparaisons, en
termes de vitesse d'apparition de la maladie, entre des groupes diversement
exposés aux facteurs étiologiques supposés.
Cas particulier d’une incidence dite cumulée : le taux d’attaque d’une maladie.
Le taux d’attaque représente : le nombre de malades/ population en observation au
début de la période étudiée. Son utilité est dans les maladies à courte durée : les
toxi-infections alimentaires collectives (T.I.A.C.).

Prévalence instantanée (P)


Définition :
La prévalence instantanée est définie par le nombre de cas de la maladie dans une
population rapporté au nombre de sujets à risque à cet instant.
Le terme prévalence est souvent entendu et utilisé en lieu et place du terme exact
qui est la proportion de prévalence. Ainsi on parlera "d'une prévalence instantanée
de 3 pour 10 000", alors que la formulation correcte serait "une proportion de
prévalence instantanée de 3 pour 10 000".

P=

C'est le type d'indicateur utilisé dans une enquête faite à un moment donné du
temps appelée enquête transversale. Il est clair que cet indicateur n'a d'intérêt
que ramené à l'effectif de la population. En effet dire qu'il y a 50 cas de
tuberculose dans une ville A et 200 cas dans une ville B ne permet en aucun cas
d'affirmer qu'il y a plus de tuberculose dans la ville B. En effet, il faut ramener à
un dénominateur commun : l'effectif de la population au moment de l'étude.
Remarque
La notion de prévalence intègre aussi deux dimensions différentes : d'une part la
durée de la maladie, car plus elle est longue, plus élevé sera le nombre de malade,
d'autre part la vitesse d'apparition de la maladie : plus elle est élevée, plus grande
sera la prévalence.

27
Taux d'incidence
Un taux d'incidence c'est le nombre de nouveaux cas d'une maladie apparus
pendant une durée donnée, rapporté au nombre de patients à risque pendant la
période considérée.

Il mesure la vitesse de production de nouveaux cas de maladie dans une population.


Comme on compte le nombre de nouveaux cas par unité de temps, la taille de la
population à risque de présenter la maladie doit intégrer la durée pendant laquelle
chaque sujet a été à risque d'être malade : c'est la notion de personne-temps (PT).
Ainsi le taux d'incidence correspond au nombre de nouveaux cas survenant pendant
une période donnée divisé par le nombre de personnes-temps à risque pendant
cette période.
Remarque :
Un taux d'incidence sur une période T n'est interprétable que si le risque de
survenue de l'évènement étudié est stable pendant T (stabilité du risque). Par
exemple un taux d'incidence de la grippe calculé sur une période allant de janvier à
aout va masquer le caractère saisonnier de la pathologie.
Il est souvent utile d'exprimer des taux d'incidences selon des modalités d'âge
(classes d'âge), de sexe (hommes/femmes), ou de catégories socioprofessionnelles.
Il s’agit de l'hypothèse d'homogénéité de la population quant au risque de survenue
de l'évènement.
On trouve parfois dans la littérature les termes densité d'incidence ou force de
morbidité pour parler du taux d'incidence.
Incidence instantanée
L'incidence instantanée est la probabilité qu'un sujet présente une maladie à un
instant donné t sachant qu'il était encore sain à l'instant précédent. La notion
"d'instant" peut être comprise comme un jour mais aussi être étendue dans un sens
plus large à une période de un mois ou d'un an.

Remarque : Si l'incidence instantanée est constante tout au long d'une durée D


d'exposition, le taux d'incidence sur D est alors égal à l'incidence instantanée.
28
Incidence cumulée (Ic)
La définition mathématique est simple : il s'agit de faire la somme sur une durée D
d'exposition de toutes les incidences instantanées survenues au cours de cette
durée.
Pour simplifier, on est souvent amené à supposer l'incidence instantanée constante
pendant la durée D.
Alors l'incidence cumulée (Ic) sur la durée D s'écrit :
Ic = (Taux d'incidence observé pendant D) x D
et si la population est grande et l'évènement rare (cas fréquent en épidémiologie
humaine) :

où D est la durée d'exposition et P0 le nombre de patients à risque au début de


l'étude.
Exemple
Sur 1 000 sujets suivis pendant 3 ans ; 5 tombent malades la 1ère année, 3 la
seconde et 2 la troisième. L'unité de temps choisie est l'année et sachant le
nombre de personnes temps (PT) est défini par : PT = [(P0+Pt)/2] x T.
Nombre de m = nombre de nouveaux cas = 5+3+2=10
PT = [(1 000+990)/2] x 3 = 2985
Le taux d'incidence annuel = 10/2985 = 0.00335 soit 3.35 malades par an pour 1000
Le taux d’incidence cumulée = 0.00335 x 3 = 0.0101 soit 10 malades/3 ans/1000.

Relation entre incidence et prévalence


La prévalence est fonction de la durée de la maladie : plus une maladie dure, plus on
risque de la rencontrer en faisant une enquête transversale à un moment donné.
La prévalence est aussi fonction de l'incidence de cette maladie : plus l'incidence
est élevée, plus on risque de rencontrer la maladie dans la population.
Dans ce cadre : Prévalence = Taux d'incidence x durée de la maladie.

29
Les indicateurs de mortalité
Il existe plusieurs méthodes pour mesurer la mortalité. L'effectif (ou le nombre)
de décès est l'indicateur de mortalité le plus simple. Les effectifs de décès
peuvent être analysés toutes causes confondues ou répartis par cause, pour une ou
plusieurs années, en fonction des variables enregistrées :
- socio-démographiques (sexe, âge, état matrimonial, catégorie socio-
professionnelle, nationalité...) ;
- géographiques (région, département et commune de domicile ou de décès).
Taux de mortalité brut (TMB)
Le taux brut de mortalité est un indice utilisé pour décrire la mortalité dans une
population en tenant compte de l'effectif de cette population.
C'est le rapport du nombre de décès d survenus pendant la période considérée, sur
l'effectif n de la population à risque de décès, pendant cette même période. Pour
éviter de manipuler des fractions décimales, le taux de mortalité est généralement
calculé pour 1.000, 10.000 ou 100.000 habitants.

Taux spécifiques de mortalité


La mortalité peut également être étudiée en fonction de différentes variables. Les
taux de mortalité calculés par sexe, âge, catégorie socio-professionnelle... sont
appelés «taux spécifiques».
Ils sont spécifiques soit de la population à risque (taux spécifique par âge, par
sexe...) soit d'un type particulier de mortalité (par cancer, par accident...) soit des
deux (taux de mortalité masculine par cancer du poumon...).
Le taux de mortalité spécifique par âge. Il s'agit de comptabiliser le nombre de
décès survenus dans un sous-groupe de la population d'âge fixé et de le rapporter à
l'effectif de ce sous-groupe.
Dans le cas de la mortalité périnatale, on comptabilise le nombre de décès

30
Figure 4 : Évolution du taux de mortalité infantile et
du taux de mortinatalité, 1970-2000, Algérie.

160
140
120
100
80
60
40
20
0
70

73

76

79

82

85

88

91

94

97

00
19

19

19

19

19

19

19

19

19

19

20
La mortalité maternelle :
Nombre de décès dus à l’accouchement et aux complications de la grossesse sur
10 000 ou 100 000 naissances vivantes.
La mortalité prénatale regroupe tous les décès survenus pendant la période
périnatale qui s'étend depuis la 22ème semaine de grossesse jusqu'au 8ème jour
révolu de la vie extra utérine que le nouveau né soit à terme ou prématuré.
On peut également définir la mortalité néonatale qui concerne la période néonatale.
Les différentes périodes en néonatologie sont illustrées par la figure 4.

Deux autres quotients de mortalité importants sont : la mortalité infantile et la


mortalité juvéno- infantile.
Ils concernent respectivement les décès comptabilisés pour les moins d'un an et
pour les moins de cinq ans.
Ces deux derniers quotients de mortalité sont considérés comme d'importants
indicateurs de l'état de santé d'une population.
En effet, encore élevés dans les pays en voie de développement, ces deux taux ont
connu depuis plusieurs décennies, une baisse importante dans les pays
industrialisés.

31
Figure 5 : Périodes natales et quotients de mortalité

Figure 6 : Évolution du taux de mortalité infantile et du taux de mortinatalité,


1990-2000, wilaya d’Oran.

Taux %°
50
45
40
35
30
25
20
1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000
TMI TMn années

32
Taux standardisés
Pour comparer globalement la mortalité dans des populations différentes, on ne
peut utiliser le taux brut de mortalité car il ne tient pas compte des différences de
structure d'âge de ces populations. Ainsi une région dont la population est âgée
peut avoir un taux brut de mortalité relativement élevé uniquement du fait de sa
structure d'âge.
Pour éliminer cet effet de l'âge, on utilise des taux standardisés.
La standardisation par l'âge est la plus usuelle, mais on peut également
standardiser par rapport à d'autres variables comme le sexe, la catégorie
socioprofessionnelle, etc.

Années potentielles de vie perdues (APVP)


L'indicateur des Années Potentielles de Vie Perdues (APVP) est de plus en plus
utilisé pour déterminer les priorités en Santé Publique.
Les APVP représentent le nombre d'années qu'un sujet mort prématurément, c'est
à dire avant un âge limite, n'a pas vécu. Le choix de l'âge limite dépend de
l'objectif fixé (65 70, 75 ou 80 ans).

La létalité
Il s'agit de la probabilité de décéder d'une maladie durant une période donnée
sachant qu'on a contracté la maladie pendant cette période. C'est donc une mesure
de la gravité de la maladie (M) étudiée.

Les indicateurs démographiques

L'espérance de vie à un âge donné représente le nombre moyen d'années qu'il


reste à vivre aux personnes ayant cet âge. L'espérance de vie à la naissance
représente l'âge moyen au décès des personnes nées une certaine année.

La pyramide des âges


Elle représente la distribution des effectifs de la population par classe d’âge et par
sexe. Son profil décrit le vieillissement de la population, la baisse de la natalité.

33
Figure 7 : Pyramide d’âge de la population estimée de la Wilaya d’Oran
Au 01/07/2002 – Source O NS/Oran

La structure par âge : l’âge est une variable étroitement liée à la survenue de
maladies.
Le sexe ratio : H/F peut montrer par exemple une surmortalité masculine.
La fécondité et la natalité :
- le taux brut de natalité, le rapport entre le nombre de naissances de l’année
divisé par la population au milieu de l’année ;
- le taux global de fécondité est le rapport du nombre de naissances sur le nombre
de femmes en âge de procréer. Les indicateurs socio-économiques

Les indicateurs de financement de la santé


Dépenses de santé par habitant
Dépenses de santé des ménages
Les indicateurs de l’offre de soins :
Personnel de santé : démographie et densité médicale (nombre de praticiens /1000
hb)
Les établissements de soins : nombre de lit hospitalier/ 1000 hub .
Les prestations sanitaires : indicateurs par rapport aux nombres de consultations,
aux hospitalisations, aux analyses.
Les moyens : indicateurs de fonctionnement des équipements

34
Les indicateurs de demande en soins :
L’accessibilité aux soins ;
L’inaccessibilité aux soins : demandes exprimées mais non satisfaites ;
La demande non exprimée ;
La consommation médicale (visites, médicaments, soins dentaires).

Les Indicateurs d’efficacité des soins :


Un programme de santé est évalué par :
Le rapport coût/avantage (résultats enregistrés) ;
Le rapport coût/bénéfice (bénéfices tirés) ;
Les soins hospitaliers sont évalués surtout par :
La durée d’hospitalisation par affection ;
Le taux de létalité ;
La proportion de décès.
Un Programme de vaccination est évalué par :
La proportion de vaccinations avec une garantie de qualité de l’acte,
Proportion de porteurs d’A.C. / population vaccinée,
Proportion de porteur d’AC / population cible,
Les activités de soins ambulatoires sont évalué par :
Proportion de malades examinés et guéris ;
Proportion de malades examinés et guéris / à l’ensemble de malades.
Indicateurs sanitaires particuliers :
Indicateurs de santé OMS :
% de la population ayant accès à l’eau potable ;
% de la population ayant accès à l’assainissement ;
% de la population ayant accès aux services de santé ;
% d’enfants complètement vaccinés ;
% taux d’utilisation de la SRO.
La Charge de morbidité : c’est le nombre d’années de vies perdues (décès, maladie
ou handicap) corrigé d’un facteur d’invalidité (AVCI). Cet indicateur tient compte
de l’âge auquel survient l’invalidité. La charge de morbidité est exprimée en millions
d’années de vie perdues corrigées du facteur d’invalidité.

35
Les indicateurs sur les habitudes de vie :
Habitudes alimentaires : proportion de malnutritions, d’obésité
Les indicateurs de comportement à risque pour la santé (tabagisme, alcoolisme...)

Conclusion
Le choix des indicateurs de santé dépend du type d'enquête réalisé. Le type
d'enquête retenu est une fonction des objectifs à atteindre et de la faisabilité de
l'étude. Le type d'enquête envisagé détermine le type d'indicateur à évaluer. Par
exemple : dans une étude transversale l'indicateur privilégié sera une prévalence,
dans une étude de cohorte, une incidence.
Il faut également s'enquérir des moyens nécessaires à développer pour que ces
indicateurs soient mesurables. Dans le cas de la morbidité c'est la définition de la
maladie qu'il faut bien préciser. Quels critères choisir pour la définir ? Quels
examens, avec quelle fiabilité, quelle reproductibilité ?
Il faut définir précisément le moment de la mesure des indicateurs de santé dans
le cadre de l'étude et dans l'histoire de la maladie.

36
LES SOURCES D’INFORMATION
EN ÉPIDÉMIOLOGIE

Les sources d’informations constituent une base de données importante pour


l’information la recherche clinique et épidémiologique. Elles sont indispensables
pour apprécier une situation sanitaire dans son aspect dynamique.

Les sources de données démographiques


Les services d’état civil
Il s’agit d’une source permanente qui concerne une grande partie des événements
démographiques : naissances, mariages, décès, ... En Algérie, les actes d’état civil
sont enregistrés au lieu où ils se déroulent à l’exception des décès qui sont
enregistrés au lieu de résidence.
Le recensement ; c’est une source ponctuelle et exhaustive qui permet de :
- déterminer la structure de la population afin de prévoir les besoins sociaux et
économiques d’un pays à savoir le nombre d’école, de centre de santé, de médecins,
de logements…
- mesurer l’ampleur des mouvements sociaux (exode rural, degré d’urbanisation).
Les enquêtes par sondage
Elles portent sur un échantillon de la population choisi selon des méthodes qui
garantissent au mieux la représentativité de l’ensemble de la population.
Elles ont pour objet d’étudier un phénomène particulier au sein d’une population
(ex : enquête Mortalité maternelle et infantile (MSP Alger 989).
Les Instituts de statistique :
L’Office national des statistiques (ONS)
INSEE en France (institut national de la statistique et des études économiques).
CNERU en Algérie (centre national d’études et de recherche en urbanisme).
ONS (office national des statistiques).

Les sources de données de santé


Les enregistrements hospitaliers
Le fichier de consultation et le dossier médical
-en tant que moyen de communication à l’intention du personnel de santé qui
assure les soins aux patients,

37
-en tant que source de données administratives pour la gestion hospitalière
et l’évaluation de la qualité des soins
-en tant qu’outil de recherche clinique et d’étude épidémiologique,

Les réseaux sentinelle de surveillance épidémiologique


A condition d’avoir une certaine représentativité, les données obtenues peuvent
être extrapolé à l’ensemble de la population
Les systèmes de notification obligatoire des maladies : (M.D.O.)
Ils fournissent les données concernant la morbidité avec au minimum des
informations sur le sexe, l’âge des patients ainsi que la date et le lieu de survenue
de l’affection

Les registres cliniques et épidémiologiques


Un registre de morbidité est une structure qui réalise l’enregistrement continu et
exhaustif des cas d’une pathologie donnée dans une région géographique donnée et
qui, à partir de cet enregistrement, effectue, seul ou en collaboration avec d’autres
équipes, des études visant à améliorer les connaissances concernant cette
pathologie. Il s’agit donc d’une structure originale associant une activité « de
routine » et une activité de recherche.
Le registre récolte de façon active ou passive des informations essentielles des cas
de maladie dans une région géographique bien limitée.
Objectifs des registres cliniques
Les données figurant dans un registre sont utilisées dans des buts très divers.
- Valider l’incidence de tous les cas dans une population bien définie au cours d’une
période de temps limitée.
- Fournir des estimations fiables et standardisées de la maladie par région, sexe ,
tranche d’âge , période au cours du temps, génération, et d’autres catégories de
comparaison intra - et inter - populations.
- Établir les chiffres d’incidence, de mortalité, de survie de la maladie par région
selon les caractéristiques épidémiologiques essentielles.
- Constituer une banque de données utiles pour les prestataires et les décideurs.
- Susciter et/ou conduire des études épidémiologiques visant à vérifier certaines
hypothèses étiologiques.
- Étudier dans le temps l’évolution de l’incidence, de la mortalité, de la survie en
parallèle avec les mutations socio-économiques et culturelles, les changements de

38
mode de vie, la transformation de l’environnement, l’augmentation de l’espérance de
vie, etc.…
- Permettre de planifier des études d’intervention dans le but est de rechercher si
la modification d’un facteur d’exposition (causal ou protecteur) peut modifier
l’incidence ou l’évolution clinique de la maladie.
- Estimer les coûts directs et indirects de la maladie pour l’individu et la société,
ainsi que les besoins de la collectivité en termes de traitement spécifique,
d’éducation et de prévention.
- Mieux reconnaître une maladie intéressant la société, et aider à éduquer les
personnels de santé ainsi que les patients atteints de ces maladies.

Concept de base
Le concept de base des registres consiste à répondre à des questions précises en
rapport avec la recherche étiologique ou les soucis en s’appuyant sur des bases de
données contenant des informations pertinentes sur tous les patients atteints
d’une maladie donnée dans une population bien définie.
Qualité d’enregistrement :
Le terme de registre, ainsi défini, ne peut en aucune façon s’appliquer à tout
enregistrement systématique de donnée (enregistrement de donnée hospitalière,
de facteurs d’exposition…).
Par conséquent les détails contenus dans un registre dépendant des objectifs de
recherche de la quantité et de la qualité des informations devant être recueillies et
de l’exhaustivité et de la représentativité souhaitée.

Rôle des registres cliniques


Les registres ont d ‘abord été crées à des fins de surveillance épidémiologiques.
Celle-ci est fondée sur :
- L’évolution chronique de la fréquence de la maladie étudiée, qu’il s’agisse de la
tendance séculaire ou générale, d’éventuelles tendances cycliques et des variations
accidentelles,
- Les comparaisons géographiques.
Les registres ont en outre été largement utilises dans la recherche étiologique en
étudiant les facteurs d’environnement qui se modifient de façon parallèle aux
modifications de l’incidence. Ils ont de plus servi de base notamment à des
enquêtes étiologiques classiques : enquêtes rétrospectives comparant par exemple,

39
des cancers de différentes localisations, ou des cancers à des témoins non
cancéreux.

Les registres peuvent fournir un instrument d’évaluation des mesures de prévention


et de soins. La tendance générale de l’incidence donne une idée de l’efficacité de la
prévention primaire, et la tendance de la Prévalence fournit une information, sans
doute approximative sur l’impact des thérapeutiques. Il est de plus possible de
greffer sur un registre, un suivi des cas permettant d’étudier le pronostic de la
maladie et de comparer les délais de survie compte tenu du degré d’extension et
des thérapeutiques. Un pas de plus est franchi avec l’instauration d’essais
randomisés portant sur des groupes de cas signalés au registre et subdivisés par
tirage au sort en groupe traité et groupe témoin.

La disponibilité des données des registres constituant un élément clé pour la mise
en place d'un programme de lutte contre les maladies. Ces données ont une valeur
immense ,non seulement pour la région ou le pays mais pour le monde entier.
En effet les données du registre fournissent la première indication fiable sur le
profil de la maladie en indiquant les taux d’incidence, les résultats thérapeutiques
et les taux de survie.
Priorités pour la mise en place des Registres
Le choix des pathologies susceptibles de faire l’objet de registre de morbidité
dépend de nombreux de facteurs, de nature très différentes, et dont on doit tenir
compte avant la mise en place d’un nouveau registre :
- Importance du problème en termes de morbidité et de coût social et
économique ;
- Diagnostic objectif aisé des nouveaux cas, quelque soit le système de santé.
- Problème de santé publique majeur.

Les cancers, le diabète, les anomalies congénitales et les maladies cardio-


vasculaires peuvent être considérés comme vérifiant suffisamment de conditions
pour que les expériences en cours qui ont été plus particulièrement développés dans
ces quatre domaines se poursuivent. Il n’est pas exclu que d’autres domaines
puissent bénéficier de cet outil avec les mêmes chances de succès.

40
Équipe du registre :
L’établissement d’un registre requiert la collaboration de nombreuses personnes qui
sont à la source des informations à réunir. Les actions doivent être menées dans le
cadre d’une recherche interdisciplinaire en collaboration avec des équipes et des
organismes de recherche et de lutte contre les maladies aussi bien au niveau
national qu’international.

Les Registres cliniques permettent d’atteindre plusieurs buts :


Établir des Publication périodiques sur les pathologies étudiées ;
Faire des Publications dans les revues spécialisées
Assurer la formation en épidémiologie du Cancer et méthodes d’enregistrement.
Confection des logiciels des Registres : CANREG 3.0, (système complet pour les
Registres), CONVERT (Conversion entre les différentes classifications ICD),
CHECK (Contrôle pour la validation dans Cancer Incidence in Five Continents).
Développer des activités de recherche.
Développer la législation des Registres.

Les systèmes d’informations sanitaires


En premier lieu, les informations nominatives sont indispensables, permettant
d’éviter les doubles enregistrements et de rapporter toutes les données qui
concernent un même individu. Elles comportent les données personnelles (noms,
prénoms, date et lieu de naissance), date de diagnostic, la base de diagnostic, le
suivi du malade, le décès, etc…
Outre, ces informations, chaque cas retenu fait l’objet d’un recueil de données
complémentaires (par exemple l’âge, le sexe, la profession, d’éventuelles,
informations sur les facteurs de risques ou sur les traitements, etc.). Un juste
milieu doit être gardé pour le recueil des données complémentaires : elles doivent
être facilement accessibles, ne pas surcharger l’enregistrement et permettre des
analyses qui ne se limitent pas au seul dénombrement des cas.

Recueil des données et vérifications :


Les données sont recueillies pour chaque nouveau cas de maladie sur une fiche
d’enquête descriptive, utilisant pour certaines variables un codage direct au
moment de l’enquête et un codage central pour d’autres. Le codage se fait
généralement selon la Classification Internationale des Maladies. La saisie et le

41
traitement des données sont faits généralement sur les Logiciels spécifiques. Par
exemple le logiciel CANREG pour les registres du Cancer.

Fonctionnement :
IL faut commencer par établir un organigramme de registre et définir les facteurs
d’inclusion et d’exclusion.

Confidentialité :
Le fonctionnement du registre demande une rigueur non seulement scientifique
mais aussi éthique. Les données nominatives indispensables pour le registre et qui
relèvent d’une maladie grave sont répertoriées sur des fiches spéciales qui ne
doivent en aucun cas être laissées à la portée d’un tiers. L’accès au registre est
strictement réservé au personnel de l’unité. L’accès aux données du disque dur n’est
disponible qu’à l’aide d’un code.

Population :
Le recrutement repose sur une zone géographique administrative bien limitée. Le
nombre de nouveau cas diagnostiqués parmi les résidents de la zone considérée
(numérateur) sera rapporté au nombre d’habitants de cette même zone au moment
du diagnostic (dénominateur). Il faut que ce nombre soit connu avec une bonne
précision. La bonne correspondance entre le numérateur et dénominateur n’est pas
toujours facile à assurer :
- En ce qui concerne le numérateur ; les nouveaux cas signalés dans la région
peuvent atteindre des sujets non résidents. Il est relativement facile de les
éliminer. Par contre certains résidents peuvent être traités et signalés en dehors
de la région et des systèmes doivent être mis au point pour les inclure.
- En ce qui concerne la population, il faut se souvenir que les recensements sont loin
d’être annuels et que l’on procède à des estimations annuelles de la population en
tenant compte des naissances, des décès et de certaines migrations. Ces
estimations ne sont faites que pour des unités géographiques relativement
importantes telles que les wilayas ou départements.
On utilise souvent le taux d’accroissement par rapport au dernier recensement
général de la population.
Pour le calcul des taux standardisés on a souvent recours à une population de
référence (Ex population Mondiale OMS) , pour rendre comparable deux
populations n’ayant pas la même structure d’âge.
42
La zone retenue doit :
- comporter un nombre suffisant d’habitants pour que les données statistiques
aient une validité acceptable compte tenu de l’incidence de la pathologie.
- être relativement stable en ce qui concerne la population.
- bénéficier d’une bonne couverture sanitaire.
Critères de qualité d’un Registre :
Rendement et contrôle des sources : exhaustivité, fiabilité.
Taux de confirmation biologique, histologique, radiologique etc..
Concordance inter-sources des informations.
Cohérence des données enregistrées :
Concordance entre données.
Vérification des situations peu courantes.
Acceptabilité des résultats : interprétabilité

Importance des registres dans le monde et en Algérie


Au cours de ces dernières années, l’OMS et plusieurs autres groupes de recherche
ont reconnu l’importance des registres fonctionnant à partir de la population,
comme outil essentiel de recherche en santé. Les registres sur les maladies
infectieuses puis les Registres du Cancer qui ont été les premiers à voir le jour,
puis ceux des maladies cardio-vasculaires (Projet MONICA-OMS), des
malformations congénitales (EUROCAT), et récemment du diabète insulino-
dépendant (type1) chez les jeunes moins de 15ans (EURO-Diab et DIAMOND-
OMS).
En Algérie, les Registres de Cancer de Sétif, Alger et d’Oran se sont mis en place.
Pour la diabète insulinodépendant (type1), Oran a mis en place un Registre de
Wilaya depuis 1979 pour la population cible de moins de 15 ans ,et il est devenu l’un
des 145 Centres Collaborateurs au projet DIAMOND-OMS , qui a pour but de
surveiller pendant 10 ans l’incidence du DID (1990-1999), ceci dans un but de
contribution à la compréhension étiopathologique de cette affection.
Cette expérience a été suivie plus tard par Constantine dans les années 1980.
Les registres sont souvent regroupés dans des Associations non gouvernementales
qui ont pour but la standardisation et l’échange de l’information :
Registres de Cancer :
L’AIRC (Association Internationale des Registres du Cancer, fondée en 1966,
regroupe 400 Registres de Cancer dans 108 pays répartis dans les 5 continents.

43
En Algérie, les Registres de cancer existent dans les Principaux Centres
Hospitaliers et Universitaires du pays. Par exemple, le Registre de Cancer de Sétif
a été en place depuis 1989.
Registre du Diabète : exemple le Registre du diabète insulino dépendent (DID) pour
les enfants d’Oran Oran, et le Registre du DID de Sétif.

Autres sources d’information en santé :


Ce sont tous les organismes susceptibles de fournir des informations sur la
situation sanitaire, elles peuvent être intra et extra-hospitalières :
- Médecins praticiens privés
- Cliniques privées.
- Centres de thérapeutique et de rééducation.
- Laboratoires et plateaux techniques.
- Services d’urgence.
- Caisses d’assurance.

Conclusion
L’information sanitaire constitue une source partiellement riche et utile pour
l’évaluation des besoins sanitaire de la population et des actions de prévention. Pour
lutter efficacement contre certaines maladies qui posent des problèmes de santé
publique majeurs, et qui pèsent lourdement sur l’économie du pays il est
indispensable de disposer de données fiables et précises. Aucune politique de santé
ne pourrait se passer de telles données.
Il ne suffit pas de dénombrer les cas d’une maladie et survie son évolution dans le
temps et dans l’espace, mais surtout expliquer et analyser une information fiable et
précise.

44
LES ENQUÊTES ÉPIDÉMIOLOGIQUES
TRANSVERSALES

Les enquêtes transversales portent sur des populations présentes à un moment


donné et recueillent des données de morbidité et d’exposition au moment de
l’enquête. Elles sont à visée essentiellement descriptives mais sont parfois à visée
étiologiques.
Lorsqu’elles sont à visée descriptives, elles ont pour objectif l’évaluation de la
fréquence des maladies et/ou des expositions et/ou d’autres phénomènes de santé.
Dans le cas où elles sont à visée étiologique, elles ont pour objet d’évaluer
l’exposition et/ou la morbidité chez les sujets exposés. Dans ce cas, les biais liés à
la relation temporelle entre l’exposition et l’apparition de la maladie et/ou de
l’effet sont à considérer avec beaucoup de soins.
Dans les enquêtes transversales, le recrutement des sujets est bien entendu
transversale, mais le recueil des données concerne aussi bien le moment de
l’enquête mais aussi et bien souvent, les évènements concernant le passé. C’est un
type d’étude qui est très fréquemment utilisé dans des populations circonscrite
comme en population de travail, où les données concernant les expositions sont
souvent disponibles.

Objectifs des enquêtes transversales


Les enquêtes transversales a visée descriptive ont pour objectif :
D’étudier la prévalence d’une maladie
De comparer des groupes contemporains
De comparer des périodes successives
D’étudier des liens entre exposition et maladie au moment de l’enquête
En général il est possible d’étudier la prévalence de certaines pathologies, à la fois
fréquentes et à caractère chronique ou récurrent
Mais les enquêtes transversales peuvent être répétées de façon à assurer une
vision plus longitudinale du phénomène.
Les enquêtes transversales à visée étiologique ont pour objectif de comparer la
fréquence d’une maladie entre un groupe exposé et un groupe non exposé, ou
d’étudier la fréquence d’une maladie selon différents niveaux d’exposition.

45
Dans ce cas, les expositions sont évaluées de façon rétrospective, afin de tenir
compte de la période d’incubation ou temps de latence (L’effet ne précède jamais la
cause).
L’objectif principal de ces enquêtes est d’élaborer des hypothèses de recherche
étiologique. Elles ne peuvent apporter de réponse à la relation causale. C’est pour
cela qu’elles sont aussi appelées enquêtes à visée exploratoire.
De grandes études de ce type ont été réalisées notamment en s’appuyant sur
l’évaluation et la comparaison des SMR ( standardised mortality ratio).

Types d’enquêtes
Enquête transversale unique (Cross Sectional Survey )
L’enquête transversale porte sur une population définie dans laquelle on recueille
des informations une seule fois pour chaque individu.
Enquêtes transversales répétées dans le temps
Les enquêtes transversales répétées dans le temps s’imposent dès que l’on souhaite
décrire l’évolution de la prévalence dans un objectif de surveillance ou de
recherche, et peuvent porter sur des populations entièrement ou partiellement
renouvelées.
Ces enquêtes ont pour but d’estimer la prévalence mais non l’incidence.

L’échantillonnage
Selon les objectifs de l’enquête, l’échantillonnage est effectué sur la population
générale ou sur des populations particulières (professionnelle, scolaire etc.).
Dans le cas ou l’enquête est à visée descriptive, la représentativité de l’échantillon
est indispensable. Par contre, dans le cas ou l’enquête est à visée étiologique, la
représentativité passe au second plan car il s’agit surtout de constituer des
groupes comparables.

Échantillonnage dans une optique descriptive :


Population source :
L’ensemble de la population à partir de laquelle les sujets de l’étude proviennent ou
sont tirés. Les sujets ainsi tirés constituent l’échantillon.
Population cible : Ensemble des sujets visés par l’étude
Une population dans laquelle la maladie est fréquente et dans laquelle beaucoup de
sujets possèdent certaines caractéristiques, ou sont exposés à des facteurs qui
pourraient être reliés, sur le plan causal, au problème de santé à l’étude.
46
Population exposée
Population exposée à un facteur donné qui peut être relié sur le plan étiologique, à
la maladie.
On parle de risque dû à l’exposition, sans tenir compte de l’aptitude des sujets à
contracter la maladie.
Population menacée et vulnérable : Population à la fois exposée (à un facteur donné)
et susceptibles à la maladie.
Population à risque élevé
Ensemble des personnes qui ont, par rapport au reste de la population, une chance
accrue de succomber à la maladie à la suite d’exposition unique, répétée ou
prolongée au(x) facteur(s) étiologique(s), pour des raisons héréditaires, des
propriétés endogènes ou des raisons encore inconnues.

Choix de la population source


Il est fonction des objectifs de l’étude et des possibilités d’accès à la population et
de l’existence de la base de sondage.
Dans ce cadre, il faut veiller à la représentativité mais aussi à éviter les biais de
sélection liés aux choix des bases de sondage (voir chapitre sur les sondages et les
biais) afin de parvenir à une estimation non biaisée des paramètres.

Constitution de l’échantillon
Les bases de sondage :
Elles doivent avoir la particularité d’être exhaustive et de fournir les mêmes
chances à tous les individus composant la population source d’être tirés. En outre,
elles doivent être constituées par l’ensemble des sujets présents au moment de
l’enquête.

Les bases de sondages sont nombreuses et multiples :


liste électorale
liste des ménages à partir du recensement
liste du personnel dans une entreprise
liste des écoliers
liste des quartiers et/ou districts, etc.

47
Taille de l’échantillon :
Elle doit être calculée en tenant compte des données ou de l’estimation de
paramètres d’enquêtes antérieures ou dans des régions voisines selon les méthodes
proposées dans les manuels de statistiques.
Les sujets devant participer à l’enquête doivent impérativement être tirés au sort
afin d’assurer la représentativité.
Les sujets absents au moment du passage des enquêteurs doivent repris car il se
peut que ces sujets ont « l’évènement » recherché. C’est d’ailleurs pour cela qu’il
faut définir la population comme l’ensemble des individus présents.

Cas des caractères qualitatifs :


n = ε 2pq/i2

Cas des caractères quantitatifs :


n = ε2σ2 / i2

Méthodes d’échantillonnage :
Elles sont nombreuses et dépendent de l’existence et de la nature de la base de
sondage. (Voir le chapitre)

Échantillonnage dans une enquête à visée étiologique

Population
La population de « choix » serait une population exposée et à prévalence élevée.
Dans ce type d’enquête, l’étude est réalisée sur une population répartie en deux
groupes, car ces types d’études sont comparatifs.
Le groupe d’étude :
Il est constitué par l’ensemble des individus ayant une expérience commune quand à
l’objet de l’étude. Par exemple, si l’objet de l’étude est d’établir une relation
probable entre une maladie et un facteur, le groupe d’étude serait constitué par les
individus qui sont exposés ou vivant dans des conditions d’exposition minimales.
Le groupe de référence ou témoin
Il est important de constituer un groupe de référence qui soit comparable au
groupe d’étude. Le groupe de référence peut être constitué soit à partir de la
population source soit à partir d’une autre population. Le groupe de référence peut

48
être constitué à partir des données de la population générale, dans le cas où les
paramètres à comparer sont d’ordre biologique par exemple.
Taille de l’échantillon :
La taille de l’échantillon est estimée de telle sorte que l’on doit avoir une puissance
maximale égale au moins à 80%. C’est la condition indispensable pour mener une
enquête comparative à visée étiologique.
Le calcul pratique du nombre de sujets nécessaire est réalisé de la manière
suivante :

n1 = (k + 1/ k) (z α/2 – Z1-β )2 / C2

¤ Comparaison de 2 moyennes
C = ∆ / √ σ pour la comparaison de deux moyennes

¤ Comparaison de deux proportions


C = 2 I Arcsin √P1 - Arcsin √P0 I

Conclusion
Les enquêtes transversales sont bien adaptées aux enquêtes descriptives.
Lorsqu’elles sont à visée étiologiques, il faut manipuler les résultats avec beaucoup
de prudence, car les biais sont nombreux.

49
2ème partie

L’épidémiologie
analytique

50
LES ENQUÊTES ANALYTIQUES
ET CAUSALITÉ

GÉNÉRALITÉS

L’épidémiologie étiologique (ou analytique) a pour objet de mettre en évidence et de


quantifier les relations entre des maladies et les facteurs susceptibles de leur
donner naissance. Il s’agit d’études d’observation, c’est-à-dire qu’on ne contrôle pas
l’exposition à un facteur donné (comme on peut le faire, par exemple, dans un essai
thérapeutique où c’est l’expérimentateur qui attribue, par tirage au sort,
l’exposition à laquelle sera soumise un sujet donné).
Par « exposition » on entend le fait, pour un sujet, d’être soumis à l’action d’un
facteur (une variable) donné.
Ainsi, on comparera, par exemple, la fréquence de survenue de la maladie étudiée
entre un groupe de sujets exposés et un groupe de sujets non-exposés.
Les facteurs identifiés par ces études comme liés significativement (au sens
statistique) à la survenue d’une maladie seront appelés des facteurs de risque : leur
présence est associée à une modification du risque de survenue de la maladie.
Au delà des statistiques concernant une pathologie dans une population donnée,
l’épidémiologie dispose donc d’outils permettant d’étudier l’étiologie ou les facteurs
de risque en relation avec la probabilité de développer une maladie. C’est le but de
l’épidémiologie analytique qui compare toujours des groupes en fonction de la
question posée.

Objet des études analytiques


L’épidémiologie étiologique (ou analytique) a pour objet de mettre en évidence et de
quantifier les relations entre des maladies et les facteurs susceptibles de leur
donner naissance.
Il s’agit d’études d’observation, c’est-à-dire qu’on ne contrôle pas l’exposition à un
facteur donné (comme on peut le faire, par exemple, dans un essai thérapeutique où
c’est l’expérimentateur qui attribue, par tirage au sort, l’exposition à laquelle sera
soumise un sujet donné).

51
Par « exposition » on entend le fait, pour un sujet, d’être soumis à l’action d’un
facteur (une variable) donné. Ainsi, on comparera, par exemple, la fréquence de
survenue de la maladie étudiée entre un groupe de sujets exposés et un groupe de
sujets non-exposés. Les facteurs identifiés par ces études comme liés
significativement (au sens statistique) à la survenue d’une maladie seront appelés
des facteurs de risque : leur présence est associée à une modification du risque de
survenue de la maladie. Au delà des statistiques concernant une pathologie dans
une population donnée, l’épidémiologie dispose donc d’outils permettant d’étudier
l’étiologie ou les facteurs de risque en relation avec la probabilité de développer
une maladie. C’est le but de l’épidémiologie analytique qui compare toujours des
groupes en fonction de la question posée.

Exemples modernes
Tabac et cancer bronchique
En 1950, Doll et Hill (G.B) ont comparé les habitudes tabagiques de 1300 cancéreux
des bronches et de 1300 témoins. Cette enquête rétrospective a montré que les
premiers fumaient beaucoup plus que les témoins.
En 1952, Hammond et Horn (U.S.A.) font une enquête prospective sur 1 000 000
personnes pendant 5 ans.
Ces enquêtes ont montré que l'effet cancérigène du tabac est d'autant plus grand
que la quantité de tabac est plus forte, que l'inhalation de la fumée est plus
importante et que le début de l'intoxication est plus précoce.
Nutrition et l’infarctus du myocarde
L'enquête de Framingham (banlieue de Boson) suit depuis 1950 les habitudes
nutritionnelles des personnes qui étaient alors âgées de 30 à 60 ans. L’enquête du
GREA (Groupe de Recherche sur l'Épidémiologie de l'Athérosclérose) étudie à
Paris, depuis 1967, 7400 fonctionnaires.
Les deux enquêtes ont donné des résultats comparables et ont mis en évidence,
cinq facteurs de risque de l’infarctus du myocarde : taux élevé du cholestérol,
hypertension artérielle, consommation de tabac, existence d'un diabète, présence
d'anomalie de l'ECG.

PRINCIPE DES ENQUÊTES ANALYTIQUES

Les études étiologiques cherchent à associer l’exposition à un facteur de risque et


sur la venue d'une maladie, la finalité étant de démontrer que le risque de
52
contracter la maladie est plus important chez les patients exposés que chez les
patients non exposés. A la différence des études descriptives, les études
étiologiques sont toujours comparatives.
La comparaison se fait entre sujets présentant le critère maladie/absence de
maladie croisé avec le critère exposé/non exposé.
Dans la mesure où le facteur exposé/non exposé n'est pas contrôlé, ces études
peuvent être considérées comme descriptives.
Sur le plan chronologique, ces études peuvent être : prospectives si
l'enregistrement du facteur de risque a lieu avant l'enregistrement de la maladie,
ou rétrospectives dans le cas contraire.
Le principe de base des enquêtes analytiques peut être schématisé ainsi : des
sujets de l'état initial (El) sont soumis à une manœuvre (M) qui entraîne le passage
à l'état secondaire (ES).
L'état initial des sujets qui participent à l'étude est très hétérogène. C'est cette
hétérogénéité qui est à l'origine des difficultés d'interprétation des données
recueillies.
La manœuvre est le facteur qui entraîne le passage de l'état initial à l'état
subséquent. Ce facteur peut être, par exemple, une exposition à un facteur donnée
ou l'administration d'un traitement ou tout simplement le déroulement du temps.

LA CAUSALITÉ EN ÉPIDÉMIOLOGIE

Il y a eu au cours des 30 dernières années une modification du concept de


causalité. Pendant longtemps ce concept se référait au principe du déterminisme
« absolu » basé sur le modèle de Koch. Le principe est que si l’agent est présent,
l’effet survient. Ce modèle a été abandonné au profit d’un déterminisme « relatif »
ou « modifié » car différentes causes peuvent produire le même effet et souvent
plusieurs causes doivent être réunies pour que l’effet survienne. La ou les causes
peuvent être présentes sans que l’effet survienne.
La causalité est le rapport entre un facteur causal (ou étiologique) et une maladie.
En médecine, une cause peut avoir plusieurs effets (ex : tabac) et une maladie peut
avoir plusieurs causes (ex : AVC).
L’action sur un facteur causal permet donc de diminuer la fréquence de la maladie.
L’étude de l’association entre un facteur et une maladie n’est qu’une étape de la
démonstration de la causalité.

53
Les biais liés à la relation temporelle entre l’exposition et l’apparition de la maladie
et/ou de l’effet sont à considérer avec beaucoup de soins dans les enquêtes
étiologiques.

Tableau 2 : Critères de causalité de Bradford-Hill et causalité en épidémiologie

Critères Résultats

Relation Ceci signifie qu’il ne s’agit pas d’une simple réponse mais que le
dose-réponse risque de développer une pathologie augmente avec la dose
Constance ou Il faut que les tendances des différentes études soient
concordance compatibles
Cohérence Il en est de même pour la cohérence des résultats
spécificité Ceci signifie que la pathologie peut-être attribuée au facteur
étudié, dans la mesure où les autres facteurs sont distribués
de façon égale dans les cas et dans les témoins
Puissance de La puissance de l’association ne dépend pas uniquement du
l’association niveau de significativité du test statistique mais aussi du
design de l’étude, c’est pour cette raison qu’il est parfois utile
d’avoir recours à des méta-analyses
Temporalité Le facteur temps peut avoir un impact considérable, en
fonction du mécanisme d’action et signifie que la durée
d’exposition doit être en cohérence avec le risque calculé

54
LES ÉTUDES CAS TÉMOINS

Les études analytiques sont des études d’observations se présentent comme un


examen sans intervention sur le patient, des relations possibles entre un ou
plusieurs facteurs de risque et la survenue d’un ou de plusieurs états pathologiques.
Les sujets sont sélectionnés dans le présent ou le passé en fonction de leur statut
vis-à-vis de la maladie et on cherche à déterminer le facteur de risque potentiel
qui, dans le présent ou le passé des sujets, diffère entre les cas et les témoins et
pourrait donc être impliqué dans la genèse de la maladie étudiée.
Ainsi, les études cas témoins sont des études qui nécessairement constituent un
échantillon en deux groupes, les cas qui sont les individus ou unité d’observation qui
sont atteints par la maladie et les témoins qui sont les sujets sains.
Au sein de l'arsenal épidémiologique, l'enquête de type cas-témoins (case-control
survey dans la terminologie anglo-saxonne) occupe une place importante.
C'est l'approche la plus couramment utilisée pour l'étude des facteurs de risque
des maladies. Elle est aussi très utilisée en pharmacovigilance.
En 1997, une recherche bibliographique sur la base de données MEDLINE révèle
qu'en moyenne 30 nouveaux articles sont référencés quotidiennement sous le mot
clé « étude cas-témoins ». Parmi ceux-ci, 5 (17 %) en moyenne sont référencés
conjointement sous le mot clé « maladie cardiovasculaire ».
L'étude cas-témoins compare un groupe de cas et un ou plusieurs groupes témoins
en ce qui concerne un ou plusieurs facteurs étiologiques.
Les sujets de l'étude sont déjà arrivés à l'état secondaire et sont interrogés, en
remontant dans le passé, pour déterminer leur exposition au facteur causal. C'est
pourquoi ces études sont également appelées rétrospectives.
Les cas sont les malades porteurs de la maladie étudiée.
Les témoins peuvent être également des sujets malades et le sont d'ailleurs
souvent. Cependant, en aucun cas, ils ne doivent avoir la maladie étudiée.
L'investigateur sélectionne ces groupes à partir de populations séparées de cas et
de témoins disponibles, c'est l'une des différences avec l'étude transversale qui
sélectionne les sujets à partir d'une population unique.

L'étude cas-témoins, contrairement à l'étude transversale, peut inclure de


nouveaux cas de maladie. Toutefois, les survenues de maladie dans une étude cas-
55
témoins ne sont pas ordinairement rattachées à une population unique et bien
définie.
Pour raisonner en termes de causalité, l'investigateur postule que les deux
populations d'origine des cas et témoins sont identiques.
Dans l'étude cas-témoins, la cible de l'étude est la manœuvre. On mesure parmi les
cas et parmi les témoins la fréquence relative d'exposition au facteur de risque
étudié.
La structure de l'étude peut être schématisée comme suit :
L’étude cas témoins est toujours analytique. Elle permet d'aborder simultanément
l'investigation de plusieurs facteurs étiologiques et éventuellement l'effet de leur
interaction.
Les études cas témoins conviennent pour tester les hypothèses étiologiques aussi
bien pour les maladies fréquentes que pour les maladies rares, mais surtout pour
ces dernières. Les études cas témoins sont de réalisation plus facile que les études
cohortes, elles sont plus courtes et moins onéreuses.
L'étude cas témoins possède deux caractéristiques qui limitent ses conclusions sur
le plan de la causalité. L'information concernant le facteur d'étude est obtenue
après la survenue de la maladie. Ainsi, la séquence temporelle, contrairement à
l'étude cohorte, n'est pas clairement perçue dans l'étude cas témoins.
Figure 8 : Structure d’une étude cas témoins

Temps présent ou passé Temps présent

Facteur de risque Population de patients

Présent Absent Échantillon de patients

Population de sujets sains


(> population de sujets
malades)

Présent Absent Échantillon de sujets sains

56
Tableau 3 : Mise en tableau et analyse des résultats

Maladie

Présente Absente

Exposition Oui a b
au facteur de risque
Non c d

a+c b+d

ÉLABORATION D’UNE ÉTUDE CAS TÉMOINS

Elle comprend les parties essentielles suivantes :


Sélection d’un échantillon d’une population de sujets malades
Sélection d’un échantillon de sujets sains ou témoins
La mesure des facteurs de risque suspectés

Sélection d’un échantillon d’une population de sujets malades (cas)


Il faut d’abord définir la maladie et les cas. Pour cela, il s’agit d’établir des critères
objectifs qui permettent d’aboutir à un diagnostic reproductible de la maladie.

Définition des cas


La définition retenue doit être simple et précise. Elle repose habituellement sur
des critères cliniques ou paracliniques (biologiques...) ainsi que sur des
caractéristiques personnelles, qui doivent être mesurables de façon objective et
standardisée. C’est une phase souvent difficile car les médecins doivent respecter
les critères retenus. La variabilité des critères et la subjectivité du clinicien
peuvent rendre l’homogénéité du diagnostic très aléatoire surtout dans une étude
multicentrique. Ainsi, il faut :
Établir la liste des critères diagnostics et définir pour chacun d’entre eux leur
sensibilité et leur spécificité.
Définir la combinaison de critères pour admettre le diagnostic
Tester la reproductibilité et l’exactitude des critères sur un échantillon
d’investigateurs participants à l’étude.
57
La sélection des cas doit ainsi respecter les critères d’inclusion établis pour
restreindre l’étude aux sujets qui sont potentiellement à risque. Ces critères
doivent s’appliquer de façon strictement égale aux cas et aux témoins. Il faut
savoir qu’un critère d’inclusion ne contient pas le critère d’exclusion.
- Les patients doivent avoir une probabilité raisonnable d’être atteints par la
maladie à cause du facteur de risque étudié, sous peine de voir l’association réelle
entre facteurs de risque et maladie diluée par des facteurs extérieurs.
Par exemple, l’étude de l’association entre thrombo-embolie et prise des
contraceptifs oraux devrait exclure – ou analyser séparément – les cas de thrombo-
embolie survenues après chirurgie Le facteur chirurgie pourrait être prédominant
et masquer si les cas après chirurgie sont trop nombreux, l’association réelle avec
la prise de contraceptifs.
- Il faut choisir entre cas prévalents et cas incidents pour lesquels la mesure de
l’exposition peut se faire sans risque de modification de celle-ci par le traitement
éventuel ou l’évolution de la maladie et sans risque de confusion entre l’exposition
suspectée et l’une des conséquences du processus pathologique.
- Les cas sont hospitaliers ; dans ce cas peut se poser la question de
représentativité des cas ce qui aura pour conséquence de gêner la généralisation
des résultats. Il est souhaitable de recruter les cas sont en population ce qui
permet d’éviter les biais de sélection, mais là se pose la question du recensement
des malades.

Sélection des témoins


Ils doivent être issus de la population d’où proviennent les cas et ce par souci de
comparabilité. Il faut toujours être très attentifs à l’origine des témoins. Le
groupe témoin est un groupe de référence qui permet de déterminer la fréquence
de base de l'exposition à un facteur de risque dans la population d'où sont issus les
cas. Ce groupe doit être aussi représentatif que possible des non-malades de la
population cible. La constitution du groupe témoin est un élément clé dans toute
enquête cas-témoins, en raison du risque de biais de sélection.

Origine des témoins :


* Les témoins sont recrutés parmi les patients hospitalisés pour une raison autre
que la maladie étudiée.
Cette méthode est fréquemment utilisée car les témoins sont disponibles, et
surtout ils sont soumis aux mêmes biais de recrutement que les cas. Ils offrent
58
l’avantage de diminuer les biais de mémorisation et également de ne pas avoir de
biais d’information car c’est le même enquêteur qui prend en charge les cas et les
témoins.
Cependant, ces témoins ne sont pas représentatifs de la population saine et il y a la
possibilité de biais de sélection possible (hôpital référentiel de soins).
* Les témoins sont choisis dans la population générale d’où proviennent les cas. Ils
assurent le niveau maximum de comparabilité entre cas et témoins du fait qu’ils
sont extraits par tirage au sort. Il peut cependant en résulter un biais de
l’exposition car les sujets n’ont souvent pas eu conscience de l’exposition. Cela
pourrait avoir également un impact sur leur motivation à participer à l’étude et
génère ainsi des biais d’information.
* Les témoins sont choisis parmi la famille, ou les amis ou les voisins des patients.
On peut dire que ce sont des bons témoins car ils partagent la même expérience
mais ceci entraîne des biais de sélection.

Choix du groupe témoin


Les sujets témoins devraient pouvoir devenir des cas s’ils développaient la maladie.
Les sujets témoins doivent avoir la même possibilité d’exposition aux facteurs de
risque que les cas.

Nombre de groupes témoins


L’utilisation de groupes témoins multiples peut permettre d’éviter les biais
provenant du choix d’un groupe témoin donné ce qui pourrait donner une meilleure
visibilité de l’association.

Nombre de témoins par cas


Lorsque le coût de l’obtention de l’information est comparable dans les deux
groupes et que le nombre de cas et de témoins est suffisamment important, le
meilleur rapport est 1/1.
Si le nombre de cas inclus est faible, il faut par conséquent augmenter le nombre
de témoins par cas. Dans ce cas on augmente puissance de l’étude en ayant
conscience que l’accroissement de la puissance devient faible lorsque l’on dépasse 4
témoins par cas (voir figure).

59
Figure 9 : Nombre de témoins par cas et puissance de l’étude

Puissance (1 – β)

1 2 3 4 5 6 7 8

Témoins par cas

Échantillonnage dans une étude cas témoins

L’échantillonnage doit assurer la représentativité des cas et témoins (population


d’origine). Il faut surtout que leur sélection ne doit pas être influencée par leur
exposition au facteur de risque étudié.
Le nombre de sujets inclus ainsi que le ratio cas/témoins conditionnent la
puissance de nombre de sujets inclus ainsi l'enquête, qui estime la probabilité de
mettre en évidence une association lorsqu'elle existe. On admet classiquement
qu'elle ne doit pas être inférieure à 80 %.
C'est pourquoi le nombre de sujets nécessaire doit être calculé avant
d'entreprendre l'enquête, en fonction des hypothèses initiales concernant la
fréquence d'exposition chez les témoins et l'odds ratio attendu.
Si la maladie étudiée est rare, la fréquence d'exposition dans la population
(lorsqu'elle est connue) est une bonne estimation a priori de la fréquence
d'exposition chez les témoins.
À défaut d'effectuer les calculs exacts, on se réfèrera utilement aux tables
publiées ou aux sites internet de calcul du nombre de sujets nécessaires.

Mesure des expositions


Dans une enquête cas-témoins, le recueil des données est rétrospectif. La mesure
des expositions passées doit être précise et objective, et doit comporter lorsque
cela est possible le dosage de marqueurs biologiques. Les données recueillies
doivent inclure les informations relatives aux facteurs de confusion potentiels qui
ont été identifiés avant le début de l'enquête.

60
Analyse des résultats
L'analyse des données se décompose classiquement en deux étapes : l'analyse
univariée puis l'analyse multivariée.
L'analyse univariée consiste à estimer les odds ratio « bruts » mesurant
séparément la force des associations entre la maladie et chacun des facteurs
d'exposition, sans ajustement sur les facteurs de confusion potentiels.
Les résultats sont toujours estimés à un risque d'erreur près, représenté par le
degré de signification p, qui permet classiquement de conclure lorsqu'il est
inférieur à 5 % (p < 0,05).
En pratique, l'association est statistiquement significative lorsque l'intervalle de
confiance à 95 % de l'odds ratio n'inclut pas la valeur 1.
Ainsi par exemple, un odds ratio égal à 3,0 avec un intervalle de confiance (2,1-4,4)
indique une association statistiquement significative, avec un risque trois fois plus
élevé de survenue de la maladie chez les sujets exposés par rapport aux sujets non
exposés.

Présentation des données


Les cotes d’exposition :
– La cote d’exposition chez les cas : a/c
– La cote d’exposition chez les témoins : b/d

Le rapport des cotes = Odds ratio (OR) : permet d’évaluer la liaison entre
l’exposition et la maladie

L’OR est un nombre sans unité entre 0 et l’infini


– OR nul : 1
– Plus OR est éloigné de 1 : plus l’association entre la maladie et la présence du
facteur étudié est forte.

61
L’OR est calculé sur un échantillon (fluctuation d’échantillonnage), donc on doit
calculer son intervalle de confiance à 95%.

Figure 10 : Interprétation d’un odds ratio

Interprétation des résultats


Une liaison statistique entre un facteur et une maladie n'est pas suffisante pour
affirmer la causalité. La mise en évidence d'une association statistiquement
significative entre un facteur d'exposition et une maladie ne permet pas, par elle-
même, de conclure à l'existence d'une relation causale. L'imputabilité causale dans
une enquête d'observation, c'est-à-dire la démonstration de la relation causale
entre exposition et maladie, repose en pratique sur un ensemble de critères,
internes et externes à l'étude, dont aucun n'est nécessaire ni suffisant pour
affirmer le lien de causalité.
Ce résultat peut être lié à une erreur aléatoire d'échantillonnage (en réalité, la
relation entre le facteur et la maladie n'existe pas) Il peut s'agir d'une association
indirecte, l'action du facteur étudié s'effectuant par l'intermédiaire d'un autre.
Ce résultat peut être lié à une erreur systématique (biais) qui fausse l’association
entre le facteur de risque et la maladie.
L'association peut être liée à un facteur de confusion lié à la fois à la maladie
considérée et au facteur étudié.

62
Avantage des études cas témoin :
– Bien adaptée pour étudier les maladies rares
– Étude courte, coût faible
– Rapidité d’exécution
– Échantillon de taille modérée.

Inconvénients :
– Les études cas témoin ne sont adaptées pour étudier :
• les expositions rares
• plusieurs maladies
• La séquence temporelle exposition/maladie
– Pas de calcul de taux d’incidence :
L’OR peut être biaisé si la prévalence de la maladie est élevée.

63
LES ÉTUDES DE COHORTE

GÉNÉRALITÉS

Une étude de cohorte est une étude au cours de laquelle on compare la morbidité
(ou la mortalité) observée dans un ou plusieurs groupes d’individus (cohorte),
indemnes de la maladie à l’origine, exposés ou non à un facteur de risque soupçonné
d’être à l’origine de la maladie.
L’apparition éventuelle, au cours du temps, de la maladie étudiée est traquée chez
chaque individu de la cohorte.
La cohorte peut être définie comme un ou plusieurs groupes de sujets suivis au
cours du temps et définis à p a r tir de caractéristiques personnelles communes :
sexe, milieu ou origine géographique, milieu professionnel,…
La cohorte peut être également prise au sens démographique du terme : «ensemble
d’individus ayant vécu un évènement semblable pendant la même période de temps».

Quelques exemples de cohortes

La cohorte « Framingham », démarrée en 1948, étudiait prospectivement 5 209


habitants d’une petite ville du Massachusetts (États‐Unis), suivis en 1971 d’une
seconde génération, et plus récemment d’une troisième génération, avec un recueil
extensif des données de santé, environnementales et comportementales, destinées
en particulier à établir un lien entre génétique et risque cardiovasculaire.
Cette cohorte a largement contribué à la mise en évidence des facteurs de risque
cardiovasculaire, en décrivant notamment dès 1960 les effets de la cigarette sur la
survenue de maladie cardiovasculaire.
La cohorte « National Child Development Study » (NCDS) a également été
développée dans les années 50 et portait sur le devenir de 17 500 enfants nés en
Grande Bretagne. Cette cohorte a notamment permis d’identifier des facteurs de
risque de mortalité infantile qui ont abouti à une meilleure prise en charge de la
période périnatale et infantile.
A titre d’exemple, cette cohorte a été une des premières à identifier les effets
néfastes du tabagisme de la femme enceinte et de l’accouchement au domicile.
64
La cohorte « Nurses’s health study » (NHS) incluait initialement 121 700
infirmières âgées de 30 à 55 ans. Cette cohorte avait notamment pour objectif
d’identifier l’impact des facteurs hormonaux sur le risque de cancer du sein.
A titre d’exemple, cette étude rapportait en 1995 que la combinaison d’œstrogènes
et de progestatifs augmentait le risque de survenue de cancer du sein.

Principe d'une étude de cohorte

Le principe d'une étude de cohorte consiste à suivre dans le temps une population
définie (la cohorte), et à enregistrer les pathologies survenant dans cette
population.
L'étude de cohorte représente le type de protocole épidémiologique le plus proche
de celui de l'approche expérimentale. Cette séquence temporelle de la cause vers
l'effet fait que l'on parle aussi d'enquête prospective ou longitudinale. Son rôle est
de déterminer les facteurs de risque associés à la survenue d'une pathologie et de
quantifier ces associations.
Avec l'étude cas-témoins, elle est à classer parmi les études épidémiologiques dites
analytiques, c'est-à-dire qu'on leur reconnaît la capacité à vérifier une relation de
causalité entre un facteur d'exposition et une pathologie
Une étude cohorte implique : soit une cohorte fixe, soit une population dynamique
pour laquelle la période de suivi de chaque individu est connue ou supposée par
l'investigateur.

Les différents types d’études de cohorte


L’étude de cohorte peut être prospective, historique ou une étude exposé/non
exposé. Dans une étude cohorte, il est possible d'envisager plusieurs facteurs à la
fois. A partir d'une population générale, des groupes d'exposition à des facteurs
différents peuvent être constitués.
L'étude de Framingham a permis d'étudier la relation entre plusieurs facteurs de
risque comme la cholestérolémie, la tension artérielle, le poids et le tabagisme, et
les cardiopathies ischémiques. Dans une étude cohorte, la survenue éventuelle de
plusieurs maladies, en rapport avec le facteur de risque défini, peut être étudiée.
Un facteur F est un facteur de risque pour une Maladie M si l’exposition au facteur
F modifie la probabilité d’apparition de la maladie M (incidence).
L'étude cohorte présente un avantage méthodologique important sur les autres
types d'études en matière de causalité.
65
En cas de liaison entre le facteur étudié et la maladie, on peut vérifier que le
facteur de risque a précédé la maladie. Un critère majeur de causalité est que la
cause précède l'effet.

Effectifs nécessaires
L’unité statistique des études de cohorte est la personne temps.
Le calcul des effectifs nécessaires est réalisé non pas sur la base du nombre de
sujets mais sur celle du nombre de personnes temps (années, mois, semaines, jours,
…) générés par les sujets constituant la cohorte. Il dépend des paramètres suivants
:
– Risque α fixé (généralement 5% bilatéral) et puissance fixée (1‐β, généralement
≥80%),
– Incidence de la maladie chez les non exposés,
– Importance de la taille d’effet attendu (exposés vs non exposés).
La personne- temps : unité statistique de l'étude de cohorte
Au sein d'une cohorte, tous les individus ne vont pas avoir la même durée de suivi.
Pour prendre en compte ces différences de durée (ainsi que des différences d'âge
ou de période), le suivi de chaque individu va être décomposé en personnes-temps.
L'unité de temps est généralement l'année et on parle de personnes-années. La
somme des personnes-années de tous les individus suivis détermine la taille de la
cohorte.
L'information sur le facteur d'étude doit alors être collectée à partir d'un très
grand nombre de sujets pour obtenir un nombre suffisant de cas.

Critères d’inclusion
Ce sont les sujets non atteints par la maladie étudiée à l’inclusion, les sujets pour
lesquels on dispose d’une information précise sur l’exposition, et enfin les sujets
pour lesquels un long suivi est possible.

Mesure de l’exposition
Un des principaux atouts des études de cohorte est la mesure précise de
l’exposition (on évite le biais de mémorisation des études cas témoin). Le recueil de
l’exposition doit être :
• Précis, intensité sur plusieurs niveaux d’exposition

66
• Objectif : mesuré avec un outil validé et fiable (questionnaire, appareil de mesure,
interrogatoire, examen clinique, examens biologiques, explorations fonctionnelles,
prélèvements…
• Daté : durée, et changements.

Estimation du risque : référence interne et référence externe

Pour l'estimation du risque dans une cohorte, deux schémas peuvent être envisagés
pour le choix du groupe de comparaison (ou groupe de référence).
Le risque dans un groupe exposé peut être estimé par rapport à un groupe de
référence interne à la cohorte, généralement un groupe non exposé au facteur
d'exposition considéré.
Cette démarche présente l'avantage de fonder les analyses par rapport à un groupe
non exposé répondant aux mêmes critères d'inclusion que les sujets exposés. Elle
aboutit à l'estimation directe du risque relatif.
Elle peut introduire un biais lorsque le groupe de référence est de faible taille ou
lorsqu'il diffère des individus exposés par d'autres facteurs que l'exposition (par
exemple personnels administratifs différents des autres travailleurs dans une
cohorte professionnelle).
Une autre approche est de déterminer le risque dans chaque groupe par rapport à
une référence externe à la cohorte (le plus souvent la population nationale).
Dans ce cas, la mesure du risque repose sur la comparaison du nombre de cas
observés dans la cohorte (O) avec le nombre de cas calculé dans la cohorte, dit
nombre de cas attendus (A).
Ce dernier est obtenu en appliquant les taux de la population de référence à la
structure de la cohorte, par classe d'âge et par année calendaire. Le rapport O/A
est appelé rapport standardisé de mortalité (SMR) ou d'incidence (SIR)

Critères d’inclusion
Pour éviter les biais de sélection, les critères d’inclusion doive n t être
extrêmement rigoureux :
- L’exposition au risque doit être définie avec précision de même que la durée et
l’intensité d’exposition.
- L’intensité d’exposition doit être variable si l’on veut établir une relation dose-
effet.

67
- L’information concernant le statut vital doit être accessible pendant toute la
durée du suivi : seront ainsi exclus de la cohorte les sujets les plus difficiles à
suivre, en évitant cependant d’exclure des sujets pour lesquels le risque est connu
comme, par exemple, les travailleurs temporaires dans l’industrie nucléaire.

Qualité du suivi de la cohorte


Une fois la cohorte définie, il faut s'efforcer de tracer le devenir de chacun des
individus de la cohorte jusqu'à son décès (ou au diagnostic de la maladie) ou jusqu'à
une date « butoir » de fin de suivi dite date de point.
Les individus dont le statut vital, c'est-à-dire l'état vivant ou décédé (malade), n'a
pas pu être connu jusqu'à la date de point sont dits « perdus de vue ». Chaque
individu contribue donc à la taille de la cohorte jusqu'à sa date de sortie de l'étude
(décès, perte de vue ou date de point).

Figure 11 : suivi d’un groupe d suivi dans une étude de cohorte.

La qualité de l'étude sera principalement évaluée par le pourcentage d'individus


perdus de vue.
Le pourcentage de perdus de vue limite la puissance de l'étude, mais surtout il peut
entraîner un biais dans le cas où les individus perdus de vue sont différents du
reste de la cohorte du point de vue du facteur d'exposition étudié, ou si la perte de
vue est liée à la pathologie étudiée.
Une comparaison des caractéristiques initiales du groupe perdu de vue avec celles
du reste de la cohorte doit impérativement être effectuée au moment de l'analyse
finale pour évaluer la possibilité de survenue d'un tel biais.

68
L’analyse des résultats
Présentation des résultats pour une cohorte fixe avec un temps de participation
identique pour chaque sujet (avec groupe de référence interne).

Groupe Nouveaux Non malade Total


cas
Exposés a b a+b
Non exposés c d c+d

Risque relatif
L’analyse des études de cohorte consiste essentiellement à comparer le taux
d’incidence de la maladie observé chez les sujets exposés au facteur de risque (ou
supposé comme tel) (T 1) à celui observé chez les sujets non exposés (T 0).
Le rapport de ces deux taux étant le risque relatif associé à l’exposition :
T1
RR = ------
T0
La valeur du risque relatif RR permet de dire que le risque de présenter la maladie
est RR plus important chez les sujets exposés que chez les sujets non exposés.
Si RR >1, le facteur augmente le risque d’être atteint de la maladie,
Si RR <1, le facteur est dit «protecteur» et diminue le risque d’être atteint de la
maladie.
Le calcul de l’intervalle de confiance du risque relatif permet d’indiquer la précision
de la mesure et de tester sa significativité. Si cet intervalle de confiance ne
comprend pas la valeur 1, on conclut alors que l’association entre le facteur de
risque et la maladie est statistiquement significative.

Autres mesures de l’effet de l’exposition :


Différence de Risque : il correspond à l’incidence du risque chez les exposés,
moins l’incidence du risque chez non exposés.
DR = Incidence E - Incidence non-E

69
Interprétation : « Le fait d’être exposé ajoute … % de risque d’être atteint par
rapport au risque de chez les non exposés».

Fraction étiologique du risque chez les exposés


FER = 1 – (1/ RR) en %
Interprétation : C’est la proportion parmi les exposés de décès qui sont
attribuables au facteur d’exposition».
Fraction attribuable du risque en population
Le risque attribuable à un facteur est la proportion des cas que l’on pourrait éviter
en supprimant ce facteur, lorsqu’il est causal. Par exemple, le risque de cancers du
poumon attribuable au tabac est de l’ordre de 90 % (si on supprimait par magie le
tabac, environ 10 % des cancers des bronches surviendraient encore, car ils sont
dus à d’autres facteurs).
Dans une population où une proportion f des sujets est exposée à un facteur F
augmentant le risque de maladie, le risque attribuable au facteur, vaut :

Interprétation : « FRA mesure la proportion de cas de maladie que l'on peut


attribuer au facteur de risque dans l'ensemble de la population ».

Les méthodes statistiques de survie


Quand il faut tenir compte des délais ou temps de participation différents des
individus et/ou de sujets censurés, on construit des courbes de survie (usuellement
par la méthode de Kaplan-Meier) qui indiquent par un graphique en marches
d’escalier la probabilité de survenue de l’événement en fonction du temps.
La courbe de survie du groupe non exposé est alors comparée à celle(s) du (ou des)
groupe(s) exposé(s) et la signification statistique est testée par le test du logrank.
Le test du logrank est un test non paramétrique (qui ne fait pas d’hypothèse sur la
distribution de la variable étudiée) adapté à la comparaison des variables
censurées.
Le modèle multivarié
Des modélisations mathématiques peuvent être utilisées pour réaliser une analyse
multivariée, c’est-à-dire estimer la force de l’association entre l’événement étudié
Y (dit variable dépendante ou variable à expliquer) et le facteur d’exposition (X1)

70
en tenant compte simultanément d’autres variables dites explicatives (X2, X3,…
Xn).
L’analyse multivariée permet aussi de réaliser des ajustements sur d’autres
variables, et en particulier sur des facteurs de confusion (qui peuvent intervenir
dans la relation entre l’évènement et le facteur d’exposition), ou de tester des
interactions.

Principaux biais dans les enquêtes de cohorte


Il s’agit surtout de biais de sélection : perdus de vue, absences pendant l’enquête,
répartition non aléatoire, le choix des non-exposés, une différence entre les
exposés et les non-exposés sur des caractéristiques (autres que l’exposition) qui
influencent la survenue de la maladie et un mode de suivi différent entre les 2
groupes. On retrouve aussi des biais de confusion et des erreurs statistiques
(tests multiples, effectifs insuffisants…).

Conclusion
Les difficultés méthodologiques propres aux études de cohorte doivent être
soulignées avant l’élaboration du protocole d’enquêtes. Elles exigent l’inclusion d’un
grand nombre de sujet à dès la phase initiale.
Ces études ne conviennent pas à l’étude des maladies rares. Par ailleurs, elles sont
longues et très couteuses et sont soumises à l’existence de biais de classification
ou de biais liés aux facteurs de confusion.
Les études de cohorte sont fréquemment exposées à la présence éventuelle de
biais liée à la perte de suivi des sujets inclus.
On doit souligner enfin que la structure à retenir pour une étude de cohorte
dépend des objectifs de cette étude. De ce point de vue, aucun type d'étude n'est
supérieur à un autre. Mais l'étude cohorte analytique est la structure la plus
appropriée pour établir des relations causales entre les variables.

71
3ème partie

Les essais cliniques

72
LES ESSAIS CLINIQUES

PRINCIPE

L’essai clinique est une investigation menée sur des sujets humains en vue de
découvrir ou de vérifier les effets cliniques et pharmacologiques d'un produit de
recherche ou d'autres effets pharmacodynamiques liés à ce produit. Il permet
aussi d'identifier toute réaction indésirable à un produit de recherche, d'étudier la
façon dont un produit de recherche est absorbé, distribué, métabolisé et excrété
afin d'en évaluer la sécurité ou l'efficacité.
L’essai thérapeutique permet également de déterminer le rapport bénéfice/risque
d’un traitement ou d’un produit à l’étude. Sa durée est variable (7 à 12 ans) et le
cout du projet peut être très élevé.
On estime que parmi 1000 molécules étudiées, une seule, en moyenne est retenue
pour une application médicale.
Comme tous les traitements existants, chaque nouveau traitement peut comporter
à la fois des avantages et des inconvénients.
Il est indispensable, avant de l’intégrer dans la pratique courante, de démontrer
que ce nouveau traitement est bien sans danger pour le malade et qu’il est
supérieur aux traitements qui existent déjà et servent de référence.
Les essais cliniques de médicaments ont comme objectifs essentiels d’établir ou
vérifier, selon le cas, les données pharmacodynamiques (dont le mécanisme d'action
du médicament), thérapeutiques (efficacité et effets indésirables) et
pharmacocinétiques (modalités de l'absorption, de la distribution, du métabolisme
et de l'excrétion des substances actives).
Un essai clinique de médicament est aussi un genre particulier d’étude de cohorte,
où les conditions d’études sont spécifiées par le chercheur, dans le but d’établir
des comparaisons impartiales. Il est évident que les essais cliniques sont plus
contrôlés et mieux dirigés que les études de cohortes (on peut parler d’étude
expérimentale ou d’intervention).
Les résultats des essais thérapeutiques prennent une place de plus en plus
importante dans la médecine actuelle. Ils permettent de répondre de façon fiable
aux questions thérapeutiques se posant dans la prise en charge des malades. Ils

73
permettent de valider les soins proposés aux patients et donnent les preuves de
leur efficacité.
L’essai thérapeutique permet aussi de répondre à un impératif éthique de l’exercice
médical qui est de proposer au patient le meilleur traitement en fonction des
données acquises de la science.
De ce fait l’essai thérapeutique est un outil, mis à la disposition des praticiens pour
faire progresser leur pratique thérapeutique. Il est donc nécessaire, pour tout
médecin, qui veut rester maître de ses choix thérapeutiques, de connaître la
démarche nécessaire à leur mise en pratique. Les essais apportent aussi le
substratum rationnel des recommandations de pratiques en leur donnant des
fondements basés sur des critères scientifiques.
Essai explicatif – essai pragmatique
L’objectif des essais explicatifs est seulement d’enrichir nos connaissances
fondamentales, ce sont des essais thérapeutiques entrepris pour tester des
hypothèses cognitives sans finalité thérapeutique directe.
Ce sont, par exemple, des essais réalisés pour connaître les mécanismes d’actions
des traitements, avant d’envisager leur utilisation en thérapeutique ou pour
expliquer a posteriori leur efficacité. Les essais pragmatiques (« pragmatic trial »)
sont focalisés sur des objectifs thérapeutiques, ils sont réalisés sur un grand
nombre de patients.

Les principes méthodologiques d’un essai clinique


Pour mettre en évidence de façon fiable (sans biais) l’effet d’un traitement en
cancérologie, un essai doit être :
Prospectif : les données sont recueillies spécialement pour répondre à la question
posée dans l’essai.
Comparatif : l’effet du traitement est déterminé par rapport à un groupe contrôle
qui prend en compte les facteurs de confusion.
Randomisé : la randomisation (allocation aléatoire des traitements) produit des
groupes de patients initialement comparables en moyenne, soumis de la même
manière aux facteurs de confusion et qui ne diffèreront que par le traitement qui
leur sera appliqué dans l’essai. De ce fait une différence observée à la fin
proviendra du traitement étudié.
En double aveugle : afin d’assurer que les groupes comparés sont suivis de la même
façon et qu’ils ne différeront durant le suivi que par les traitements appliqués.

74
Sans donnée manquante et analysé en intention de traiter : le devenir de chaque
patient inclus dans l’essai est pris en considération dans l’analyse et les patients ne
doivent pas être changés de groupe.

DÉVELOPPEMENT EN CLINIQUE D’UN MÉDICAMENT

Le développement clinique d’un médicament jusqu’à l’Autorisation de Mise sur le


Marché (ATM) vise à apporter la preuve de son efficacité et à évaluer son rapport
bénéfice/risque.
Les phases de développement clinique sont réalisées sur un nombre de sujets
(quelques centaines à quelques milliers). La pharmacovigilance permet de recenser
les effets indésirables rares une fois le médicament mis sur le marché. Entre le
moment où une substance chimique nait dans un laboratoire et le moment où le
médicament peut être délivré à un patient, s'écoule une longue période. Deux
étapes se succèdent : une étape pré clinique et une étape clinique.
L’étape pré clinique
Les études menées en laboratoire et sur l'animal (" le cobaye ") ont pour but
d'étudier l'efficacité du produit sur la cellule et la toxicité aigue sur l'animal.
L’étape préclinique (études précliniques) comprend trois axes de recherche :
• Un screening (l’identification, la sélection et l’optimisation de la nouvelle
molécule ;
• Une étude pharmacologie expérimentale (Propriété physico-chimiques, essais
d’efficacité sur des systèmes inertes, des cellules et des animaux) ;
• L’étude toxicologique (mutagénèse, tératologie,, toxicité des organes
cibles…).
Ainsi est constitué par le laboratoire un "dossier pré clinique" soumis à l'Autorité
du Médicament qui doit établir la validité et le sérieux du dossier. Lorsque le
dossier est validé, la molécule peut alors être testée sur l'homme.

L’étape clinique
C'est la période d'étude chez l'homme et celle à laquelle nous nous intéressons.
Chez l'homme, l’évaluation d’un nouveau médicament comporte classiquement 4
phases cliniques.

Essai clinique de phase I : Administration à des volontaires sains (sauf pour des
thérapeutiques tels que les anticancéreux) pour étudier : la tolérance (fixer les
75
limites de la toxicité) et les réactions chez l’homme (dose minimale active, cinétique
du médicament, biodisponibilité....).

Essai clinique de phase II : Administration à des malades pour une première


évaluation de l’efficacité pharmacologique : propriétés thérapeutiques, efficacité,
relation dose-effet (effets en fonction des posologies), posologie optimale et mode
d’administration optimal (rythme et durée).

Essai clinique de phase III : Essai comparatif pour étudier les propriétés du
traitement par rapport à ceux déjà existants (traitement de référence), ou à un
placébo (dénué d’activité pharmacologique). L’essai comparatif doit apporter la
preuve de l’efficacité du traitement et/ou de sa supériorité par rapport au
traitement de référence (imputation causale).
L’essai doit permettre l’imputation causale : c’est bien le nouveau traitement qui a
entrainé l'amélioration (c’est le jugement de causalité), et avec le minimum d’erreur
sur les valeurs observées, cette supériorité observée n’est-elle pas due au hasard
seulement (jugement de signification).
A cette phase, il y a attribution ou non de l'Autorisation de Mise sur le Marché
(AMM), par rapport à l’efficacité et par rapport au bénéfice-risque acceptable.

Essai clinique de phase IV : Pour de nombreux médicaments, et en particulier


pour des produits complexes nouveaux, la surveillance ne s’arrête pas au stade de la
fabrication ; elle doit se prolonger par un suivi étroit des malades et la collecte
d’autres données scientifiques. Cet aspect de la surveillance des médicaments est
appelé pharmacovigilance. Après mise sur le marché, il est donc nécessaire de
détecter d’éventuels effets indésirables rares ou tardifs (déclaration des effets
adverses par les médecins) et possibilité de modifier l’AMM. Elle repose souvent
sur les déclarations des effets adverses par les médecins.

Il faut souligner que pour chaque étape de recherche clinique, la méthodologie


doit être adaptée, avec un protocole où l’on doit veiller au respect de la
règlementation sur les essais cliniques.

76
Tableau 4 : Étapes de développement des essais thérapeutiques chez l’homme

Phase I Phase II Phase III Phase IV


Recherche de Recherche d’activité Essai comparatif Nouvelle
toxicité Recherche de doses thérapeutique indication - -
Pharmacocinétique
Modélisation,
Interactions
Pharmacogénétique.
Administration Administration Comparaison d’1 ou Pharmaco
unique répétée 2 posologies épidémiologi
Doses répétées versus placébo ou e
produit de Pharmacovigi
référence lance
Faible taille Faible taille Grands Étude physio
d'échantillon d'échantillon échantillons pharmacologi
Durée brève Durée brève Durée longue que -
Volontaire sain II a et IIb Malades Pharmaco
(VS) Centre spécialisé Mono ou économie
Centre Étude sans bénéfice multicentrique
spécialisé direct
Étude sans
bénéfice
direct.
Premières Définition des Preuve
administrations propriétés du d’efficacité et/ou
à l'homme produit, Validation de supériorité du
des critères produit
intermédiaires Vérification
statistique de
l’hypothèse.

77
LES DIFFÉRENTS TYPES D'ESSAIS CLINIQUES

La caractéristique essentielle de tous les essais cliniques en phase III, réside dans
la comparaison qui est faite entre un groupe traité ou exposé et un groupe témoin.
La comparaison permet de faire la part, dans l’évolution de la maladie de ce qui
revient à l’intervention pharmacologique par rapport aux facteurs non spécifiques.
Et pour que la différence observée puisse être attribuée au traitement (jugement
de causalité), les groupes ne doivent pas être différents par rapport au traitement
reçu.
Les essais randomisés reposent sur le principe de la randomisation, qui permet
d’éviter les biais de sélection (erreur systématique). Ils sont définis à travers de
nombreux critères.

1) Selon l'objectif
Comparaison d'effet de deux ou plusieurs produits.
Définir une courbe effet/dose ;
Décrire l’action pharmacocinétique ;
Étudier l’interaction d’un ou plusieurs …

2) Selon qu’il ya ou non un groupe contrôle


Essai thérapeutique simple (non contrôlé)
Il est pratiqué dans des conditions particulières : maladie parfaitement définie,
absence de traitement spécifique antérieur. Il ne comporte pas de groupe témoin.
Exemple : utilisation de la streptomycine dans la méningite tuberculeuse qui est
maladie mortelle, quelques guérisons ont suffi à prouver l’efficacité du traitement.
Ce type d’essai thérapeutique se pratique de moins en moins.
Les études non comparatives sont des études de faisabilité, en cancérologie,
notamment, elles permettent de rejeter rapidement un traitement dont l’efficacité
parait trop faible pour étre évalué dans essai randomisé , plus long et couteux.
Ces études permettent également d’analyser la pharmacocinétique des nouvelles
molécules (doses, métabolisme...).
Essais thérapeutiques contrôlés (essais comparatifs)
Ils constituent la phase III de l’étude d’un nouveau médicament, ou porte sur
d’autres thérapeutiques comme la chirurgie, la radiothérapie, etc. Il a pour principe
de comparer deux ou plusieurs traitements. Pour cela on compare les résultats

78
obtenus dans deux groupes de sujets, l’un recevant une thérapeutique A, l’autre une
thérapeutique B. L’un est dit groupe traité, l’autre est dit groupe témoin.

3) Selon qu’il y est bénéfice ou pas pour le patient


On distingue l’étude sans bénéfice direct pour le sujet (l'objet de l'étude est,
stricto sensu, le médicament) et les études avec bénéfice direct pour le sujet (le
sujet inclus dans un essai a une probabilité d'en tirer un avantage thérapeutique).

4) Selon le lieu d'expérimentation


L’inclusion d’un nombre suffisant de patients est une difficulté fréquente dans la
réalisation des essais cliniques et thérapeutiques. Aujourd'hui la plupart des essais
visent à montrer la supériorité d'un nouveau médicament par rapport à l'existant
(médicament de référence) et se déroulent en multicentrique (impliquant plusieurs
sites), mais avec des procédures centralisées de randomisation.

5) Selon les plans expérimentaux


Le plan expérimental est le mode de comparaison que l’on va adopter pour l’essai.
• Plan expérimental en groupes parallèles
Le plan expérimental le plus simple comporte la comparaison de deux groupes
parallèles. Les malades sont inclus durant la même période dans l’un des deux
groupes et le suivi s’effectue dans les mêmes conditions.
• Les essais croisés ou en cross over
Les patients constituent leurs propres témoins ; ils reçoivent le nouveau traitement
et le référentiel en la matière de façon aléatoire.
• Les plans expérimentaux factoriels
Ces essais en plans factoriels permettent de tester simultanément l’effet de
plusieurs médicaments et de leur association.

6) Selon la finalité de l’essai.


• Les essais de supériorité où on essaye de montrer une différence,
l'hypothèse nulle est “absence de différence”. L’efficacité du traitement E est elle
supérieure à celle du traitement C ? C peut être un placébo ou un contrôle actif. En
cas d'échec on ne peut pas conclure à l'équivalence des traitements.
• Les essais d’équivalence
Ils ont pour but de montrer l’équivalence entre deux traitements, habituellement
deux molécules de la même classe thérapeutique, une nouvelle substance en
79
développement et une ancienne considérée comme la meilleure actuellement. La
méthodologie usuelle basée sur un test statistique visant à tester l’hypothèse nulle
d’absence de différence et qui aboutit à ne pas rejeter cette hypothèse ne permet
en aucune manière de conclure à l’équivalence.
• Les essais de non- infériorité
Les essais de non-infériorité sont des cas particuliers d’essais d’équivalence, qui ne
s’intéressent qu’à un seul côté de la différence (version unilatérale du test
d’équivalence).

DIFFÉRENTS TYPES D’ESSAIS COMPARATIFS

Les essais comparatifs sont des essais qui visent à comparer des traitements
différents administrés à autant de groupes de patients que de traitements afin
d’établir la supériorité d’un de ces traitements. Il s’agit de montrer si pour une
affection donnée l’un d’eux, le traitement nouveau A, l’emporte sur le traitement de
référence B. Le groupe des patients recevant A est le groupe traité, le groupe
recevant B le groupe contrôle ou groupe témoin (qui n’est nullement synonyme de
groupe non traité).
En recherche clinique, le groupe contrôle permet d’avoir une référence à la
stratégie testée. Il permet d’établir que les différences observées dans la
présentation ou l’évolution (clinique ou biologique) de la maladie ne sont dues qu’aux
traitements et pas à des facteurs liés aux patients ou des facteurs
environnementaux, facteurs qui pourraient eux-mêmes moduler le cours de la
maladie
En d’autres termes, la comparaison à un groupe contrôle permet d’affirmer que
l’unique source de variation de la réponse thérapeutique entre deux groupes de
malades réside dans la nature du traitement qui leur est administré.

Essai en groupes parallèles


L’essai en deux groupes parallèles, appelé aussi en bras parallèles (« parallel
groups » ou « parallel arms »), est l’archétype de l’essai thérapeutique. Dés leur
inclusion, les patients sont répartis par tirage au sort en un groupe A et un groupe
B qui évoluent simultanément dans le temps.
Le tirage au sort doit assurer que le même nombre de patients figure dans le
groupe A et dans le groupe B. A l’issue de la période de l’essai, les résultats obtenus
dans le groupe A sont comparés au résultat dans le groupe B. Si l’essai est en
80
double insu, l’aveugle sur les traitements doit être maintenu pendant toute la durée
de l’essai. L’inclusion des patients peut être précédée par une période de wash out
s’ils étaient antérieurement traités.

Figure 12 : Schéma d’un essai en deux groupes parallèles

R : randomisation

La comparaison de type historique


Le principe des essais thérapeutiques avec contrôles historiques consiste à
administrer un traitement expérimental à un groupe de nouveaux malades et à
comparer les résultats à ceux d'un groupe de sujets ayant reçu un autre traitement
auparavant.
Ce procédé est principalement utilisé en cancérologie, l'argument essentiel étant la
diminution du nombre de sujets nécessaire. Si au lieu de traiter les malades par les
traitements A et B de façon randomisée, on attribue B à tous les sujets pour les
comparer à un groupe antérieur ayant reçu A, on diminue évidemment l'effectif
nécessaire et on aboutit plus rapidement à une conclusion.
Le biais est que l’évolution de la maladie est modulée par des facteurs
environnementaux qui pouvaient être présents antérieurement mais qui se sont
modifiés (cas des pathologies environnementales, de la tuberculose…).

81
Figure 13 : l’essai clinique comparatif, schéma général

L’essai clinique non contrôlé


Dans un essai non contrôlé, le médecin administre un nouveau médicament à un ou
plusieurs patients. Il observe ensuite les modifications induites par le traitement.
Sur la base de son expérience clinique, il affirme qu’elles sont plus ou moins
importantes que ce qu’il avait constaté antérieurement chez le même type de
malade, sans ou avec un autre traitement.
Éventuellement, il les exprime en pourcentage et précise sur quels symptômes
particuliers elles portent.
A l’évidence, les phénomènes observés ne dépendent pas seulement de l’intervention
thérapeutique mais également de facteurs confondants tels l’évolution propre de la
maladie, l’intervention du médecin, l’effet placébo, etc.

Essai croisé ou en cross over


Dans l’essai croisé, le patient est son propre témoin. Cela signifie que les patients
vont être successivement inclus dans le groupe traité puis dans le groupe contrôle
ou vice versa, l’ordre de la comparaison étant aléatoire et déterminé par tirage au
sort.

82
Figure 14 : L’essai croisé (« cross-over »), les deux groupes reçoivent
successivement les deux interventions
temps

Première période Seconde période

Patients 1,3,6 Placebo Placebo

Patients 2,4,5 Traitement actif Traitement actif

Par rapport à l’essai en groupes parallèles, l’essai croisé permet de diviser par 2 le
nombre de patients à inclure. Naturellement les deux phases d’administration des
médicaments doivent être entrecoupées d’une période de lavage, une fenêtre
thérapeutique (« washing out ») pour permettre aux effets traitement administré
en premier de disparaitre.
L’avantage de ce plan d’expérience est d’assurer une forte comparabilité des
groupes contrôle et traité, étant donné que ce sont les mêmes patients que l’on
retrouve dans ces deux groupes

Le plan expérimental factoriel


Le plan factoriel (« factorial design ») est un plan d’expérience qui répond à deux
questions différentes avec le même essai. Il permet un gain de temps et une
« économie en patients ». Pour atteindre correctement son but, il est nécessaire
que les traitements n’interagissent pas entre eux.
Le plan factoriel est donc l’utilisation des mêmes patients pour effectuer
simultanément deux comparaisons. La première comparaison est celle du
traitement A à son placébo, et la seconde celle du traitement B à son placébo.
Les patients de l’essai seront randomisés une première fois entre A et son placébo.
Puis une seconde fois, sans tenir compte de la nature du premier traitement reçu,
entre B et son placébo.
Ces deux randomisations simultanées créent en fait quatre groupes de patients) :
• ¼ des patients recevront le traitement A et le traitement B
• ¼ des patients recevront le traitement A et le placébo du traitement B
• ¼ des patients recevront le placébo du traitement A et le traitement B
• ¼ des patients recevront le placébo de A et le placébo de B.
83
Ce plan permet de comparer chacune des interventions expérimentales avec le
témoin, de comparer les interventions expérimentales entre elles, et d’étudier les
interactions possibles entre les deux interventions (c’est-à-dire, de comparer la
somme des effets de A et B donnés séparément avec les effets de la combinaison).

Tableau 5 : Répartition des patients dans un essai en plan factoriel 2 / 2

Traitement B Placebo B

Traitement A Traitement A Vs Traitement A Vs


traitement B placebo de B
Placebo de A Placebo d’A Vs Placebo d’A Vs
traitement B placebo de B

S’il n’y a pas d’interaction entre les interventions, le plan factoriel aura une
puissance statistique plus importante qu'un essai traditionnel comparant plusieurs
types d’intervention. Ce plan permet d’étudier deux interventions dans le même
essai, sans augmenter le nombre de grappes. L’inconvénient est qu’il est souvent
très difficile de garantir qu’il n’y aura pas d’interaction, et par conséquent
l’interprétation des résultats peut être difficile.
Ces essais sont également plus difficiles à concevoir, à mettre en œuvre et à
analyser.
L’analyse statistique des résultats dans un plan factoriel se fait en deux étapes. La
première étape est la recherche d’une interaction. En l’absence d’interaction,
l’effet des traitements est recherché en ajustant sur l’autre traitement.

84
AUTRES TYPES D’ESSAIS CLINIQUES

Essais de bioéquivalence
La démonstration de l’équivalence thérapeutique nécessite en principe la conduite
d’essais cliniques coûteux impliquant de nombreux patients. Quand l’équivalence ne
concerne que deux formes galéniques différentes, ou une molécule générique à
comparer au traitement traditionnel, on peut éventuellement se contenter d’une
démonstration de leur biodisponibilité. Si la dose du principe actif qui atteint la
circulation sous forme inchangée, est identique, les deux médications sont dites bio
équivalentes.
Si on démontre la bioéquivalence d’une nouvelle forme thérapeutique par rapport à
une forme pharmaceutique de référence dont les effets thérapeutiques et
indésirables ont été documentés selon la méthodologie des essais cliniques
classiques, on admet que cela peut constituer une démonstration indirecte de
l’équivalence thérapeutique des deux formulations
Les essais de bioéquivalence sont donc des essais dans lesquels les deux substances
ou formes à comparer sont administrées à des sujets, généralement des volontaires
sains, dans le but d’étudier leurs concentrations plasmatiques en fonction du temps.
Les paramètres comparés sont surtout la concentration plasmatique maximale
(Cmax) et le délai entre l'absorption et la survenue de la concentration maximale
(Tmax).

Essais préventifs et études épidémiologiques d’intervention


Deux approches sont possibles pour étudier l’efficacité d’un nouveau vaccin, ou de
tout autre agent protecteur, destiné à prévenir la survenue d’une maladie. La
première, idéale, est de réaliser un essai clinique, dit essai préventif, comparant la
survenue de la maladie dans deux groupes de sujets, vaccinés ou non.
L'efficacité relative d’un vaccin est le rapport entre les risques de survenue de la
maladie chez les sujets non protégés R0 et les protégés R1. La fraction prévenue
chez les protégés, ou efficacité vaccinale, mesure la proportion de cas de
l'affection qui ont pu être évités par l'action du vaccin,

Les essais séquentiels ou essais progressifs


Ce sont des essais cliniques contrôlés permettant l'analyse des résultats au fur et
à mesure de leur disponibilité. Le nombre de sujets nécessaire n'est pas fixé à
l'avance comme dans une analyse classique. La méthode consiste à faire le point
85
pour chaque nouveau résultat comptabilisé de façon à permettre l'arrêt de l'essai
dès que la différence est significative en faveur d'un des traitements comparés.
L'analyse séquentielle est basée sur un théorème appelé test séquentiel du rapport
des probabilités ou théorème de Wald, appliqué aux essais cliniques, avec deux
types principaux, selon que l'on ne fixe pas (test ouvert) ou que l'on fixe (test
fermé) un nombre maximal de sujets à ne pas dépasser.

Essais adaptatifs
Le terme d’essais adaptatifs regroupe des essais cliniques contrôlés dans lesquels
l'attribution des traitements entre deux groupes de sujets est fonction des
résultats déjà obtenus. Leur objectif est de donner le traitement qui se révèlera
progressivement le meilleur à un plus grand nombre de malades. La répartition sera
donc délibérément biaisée en fonction de la thérapeutique la plus efficace dans un
but éthique.

LA PRÉPARATION DE L’ESSAI CLINIQUE

En recherche clinique, une étude vise à résoudre un problème médical. Le premier


pas dans la construction d’un essai (notre propos restera centré sur la réalisation
d’un essai clinique et thérapeutique) est d’expliciter le problème auquel on veut
donner une solution.
On choisit, en fonction de ses pôles d’intérêt, les secteurs de la médecine où l’on
souhaite développer une recherche (en cardiologie, infectiologie, cancérologie,
psychiatrie, ...) et il faut impérativement tenir compte du développement des
sciences dans ces domaines, pour ne pas concevoir une étude d’emblée obsolète
dont les résultats sont d’ores et déjà publiés.
Les connaissances scientifiques dans les domaines : chimique, pharmaceutique,
technologique, pharmacologique, biologique, toxicologique sur le principe actif et
(ou) la forme pharmaceutique concernée doivent être disponibles et évaluées.
L'ensemble des connaissances recueillies chez l'homme doit être pris en
considération, avant la mise en place de tout nouvel essai clinique. Ces
connaissances sont dénommées pré requis.

Les grandes lignes de la démarche


L’intégration des résultats des essais cliniques à la pratique médicale nécessite :

86
• d’identifier les nouveaux essais thérapeutiques (dans le cadre d’une veille
scientifique) ou de rechercher les essais correspondant à une question
thérapeutique ;
• de faire la synthèse des résultats disponibles concernant la question
d’intérêt
• de vérifier le niveau de démonstration d’un résultat : le bénéfice clinique est
il formellement démontré par les essais disponibles ou seulement suggéré ?
• de déterminer sa pertinence clinique (le bénéfice est il médicalement
intéressant et extrapolable aux patients vus en pratique)
• de déterminer la place exacte du nouveau traitement dans l’arsenal
thérapeutique
• d’intégrer les données factuelles au cas par cas dans la décision
thérapeutique au moment de l’acte de soins en tenant compte des aspects humains,
sociologiques, psychologiques et autres.

Avant de débuter une étude de recherche clinique, il est indispensable de s’assurer


que le projet en vue n’a pas déjà été réalisé par d’autres investigateurs ce qui le
rendrait d’emblée obsolète. Un essai bien conçu repose essentiellement sur un
protocole judicieusement étudié, bien structuré et complet.

La problématique de recherche
Dans les essais cliniques, la problématique de recherche avec ses questionnements,
permet de définir en termes précis la nature du problème à résoudre, par rapport à
des nécessites thérapeutiques nouvelles ou des contraintes vitales et en tenant
compte des problèmes d’éthique.

Formulation d’une problématique


La problématique se limite aux aspects de la situation générale ayant trait au
problème posé et aux interventions à réaliser. Elle établit le diagnostic de la
situation, une analyse du besoin à satisfaire et une définition en termes plus précis
de la nature du problème à résoudre. Elle est toujours précédée d’une étude de la
situation générale ayant trait au problème et aux mesures qui ont été prises jusque
là pour le résoudre.
La formulation de la problématique, trois attitudes :
• explicative : le nouvel agent thérapeutique est-il actif, il s’agit de mettre au
point un médicament qui n’existe pas,
87
• pragmatique : on vérifie qu’un traitement A est meilleur qu’un traitement B, il
s’agit d’une comparaison entre deux types de traitements,
• mixte qui associe les attitudes 1 et 2 : comme par exemple dans
l’amélioration d’un traitement classique.
Une problématique de recherche doit être clairement définie. Elle permet de
répondre aux questions suivantes : qui a besoin de cette recherche, à qui est-elle
destinée, pourquoi le choix du thème. Une problématique est formulée aussi par
manque de connaissance sur le thème, par rapport à un impact de santé publique ou
bien il s’agit d’une demande exprimée. La problématique est donc une étape
essentielle, elle est en rapport avec l’expérience de chacun et de sa motivation à
contribuer à résoudre les questions d’intérêt commun. Elle doit être complétée par
l’identification des principaux éléments qui ont conduit à poser le problème et à
prendre la décision d'élaborer le projet de recherche destiné à le résoudre.
La formulation d’un problème ressemble à celle de l’hypothèse de recherche, avec
cette différence que cette dernière prend une forme affirmative, tandis que le
problème prend une forme interrogative.

Formulation d’une problématique, exemples


En milieu hospitalier, il est indispensable de disposer d’antipyrétiques rapidement
efficaces, faciles d’emploi et sans risques d’effets secondaires graves. Les
indications antipyrétiques de deux produits souvent utilisés en Algérie : le
Prodafalgan et l’Acétylsalicylate de lysine (l’ASL) sont biens connus. Compte tenu
des risques ulcérogènes et hémorragique de l’ASL qui reste un traitement de
premier choix dans les états d’hyper pyrexies graves, l’usage en milieu hospitalier
du Prodafalgan (le Paracétamol) pourrait-il apporter un plus grand bénéfice au
patient. A ce titre un essai thérapeutique portant sur 46 patients a été réalisé à
l’hôpital de Blida et a permis de comparer l’efficacité antipyrétique de ces deux
produits.
Réf. A.Alia : comparaison de l’effet antipyrétique en milieu hospitalier de
l’Acétylsalicylate de lysine et du Prodafalgon – Mémoire de CES en Biostatistique
Faculté de médecine - Oran 2000.

L’hypothèse de recherche
La formulation de l’hypothèse doit être impérativement élaborée en rapport avec
les données scientifiques qui la justifie. Elle doit être rédigée dans des termes
simples et sans ambigüités (une terminologie précisée par le travail documentaire).
88
Le schéma classique est de définir une première hypothèse qui correspond à ce que
l'on veut démontrer, le plus souvent il s'agit d'une hypothèse d'inégalité, le
nouveau traitement est meilleur que le traitement de référence, les traitements
sont différents.
Cette première hypothèse est l'hypothèse alternative notée H1 . La seconde
hypothèse est le complément de la première, c'est celle que l'on veut rejeter, il
s'agit le plus souvent d'une hypothèse d'égalité, le nouveau traitement est plus
mauvais ou égal au traitement de référence, les traitements sont équivalents. Cette
seconde hypothèse est l'hypothèse nulle notée H0.
La rédaction de l’hypothèse peut être donc de type directionnel, on donne le sens
de la relation que l’on présuppose ou que l’on veut confirmer (exemple, intérêt ou
limites d’une technique de dépistage systématique ou d’un protocole thérapeutique
ou de type non directionnel), ou de type non directionnel, on prédit une différence
entre deux stratégies, mais on n’indique pas dans quelle direction elle ne se fait
pas.

Objectifs dans les essais cliniques


Étape fondamentale du protocole, l’objectif d’une étude se définit comme l’énoncé
précis et succinct de la problématique ou des questions posées. La définition et la
clarification des objectifs à tous les niveaux permettent à tous les acteurs d’avoir
la même compréhension des résultats à atteindre et de se mettre d’accord là-
dessus. Ils doivent être exprimés de façon explicite et compréhensible.
Contrairement à l’objectif (un résultat que l’on veut atteindre), le but constitue
plus globalement l’impact recherché d’une enquête (amélioration des connaissances,
introduction d’un nouveau médicament sur le marché…)
Les objectifs définissent en termes spécifiques les actions prévues dans le cadre
d’un projet à accomplir avec les ressources et le programme d’activités qui lui sont
attribués et dans les délais impartis. La préparation de l’essai clinique doit
permettre de distinguer les objectifs suivants :
- l’étude des modalités d'absorption, de distribution, étude du métabolisme et de
l'excrétion des substances actives pharmacocinétiques,
- vérifier, selon le cas, certaines données du mécanisme d'action du médicament
pharmacodynamique,
- étude de l'efficacité et des effets indésirables.
L’objectif à atteindre peut être global et/ou spécifique.

89
L’objectif global est ce vers quoi les efforts déployés au titre du projet ainsi que
ceux des autres projets complémentaires ou du même secteur tendent, il est
généralement de type qualitatif.
Les objectifs spécifiques sont plus clairement définis et dans la mesure du possible
exprimés qualitativement et quantitativement. Ils doivent permettre la définition
des actions à mener, ainsi que des apports nécessaires aussi bien que des résultats
à produire.
L’objectif spécifique doit donc être explicite, clairement énoncé, indépendant et
objectivement vérifiable. Ils doivent être clairement définis et en nombre limité. Il
en découle l’importance de la définition précise des objectifs.
Dans les essais thérapeutiques, et pour être parfaitement défini, l’objectif doit
préciser : le traitement testé, le traitement contrôle (placébo ou traitement actif),
s'il s'agit d'une recherche de supériorité ou d'équivalence, le critère de jugement
principal (et le moment de sa mesure), les patients concernés : maladie et
éventuellement caractéristiques particulières.

LES MÉTHODES DANS LES ESSAIS THÉRAPEUTIQUES

La description du type d'étude


Elle consiste à préciser s’il s’agit d’un essai contrôlé ou non, randomisé ou non,
aveugle ou non, uni ou multicentrique...
Le choix du type d’enquête dépend des objectifs à atteindre, des conditions de
réalisation de l’enquête (Moyens, rapidité…), des groupes comparatifs, des aspects
éthiques…
Les types d’étude (termes standards) peuvent être mono centrique ou
multicentrique, étude contrôlée (au moins un groupe témoin sera utilisé), étude
randomisée ou non, étude ouverte ou en simple ou double insu, étude prospective ou
rétrospective, étude en groupes parallèles ou croisée…

La description de la population d’étude


Les patients à inclure dans l’essai doivent justifier, on s’en doute, l’administration
des traitements étudiés. En recherche clinique, Il est essentiel que la variabilité
dans la réponse thérapeutique reflète la différence des traitements administrés
mais pas des facteurs inhérents aux patients (variabilité inter et intra-individuelle
de la réponse thérapeutique) ou des facteurs environnementaux. Il est donc
important de constituer un « pool » homogène de patients afin qu’on puisse
90
procéder ensuite à la répartition des traitements entre le groupe traité et le
groupe contrôle.

Choix des sujets


Il est important pour l’utilisation des résultats futurs de l’essai que la population
sur laquelle l’étude va porter, soit définie avec précision. Population cible est celle à
laquelle on voudrait généraliser les Résultats, la population source est celle qu’on va
réellement étudier. Le choix des sujets se fait en tenant compte de plusieurs
facteurs : acceptabilité, faisabilité, représentativité…

Définition de la maladie étudiée


Elle doit reposer sur des critères cliniques, biologiques et ou histologiques précis et
l’on doit choisir les formes cliniques à étudier. . On choisit les formes cliniques de
l’affection sur lesquelles portera l’essai (aigues, chroniques).

Définition des malades


Pour définir les sujets bons pour l’essai, on détermine les points suivants :
- Les caractéristiques générales des patients (âge, sexe …) ;
- Les possibilités des malades à accepter indifféremment tel ou tel
traitement (ex. malades non opérables) ;
- Les malades qui doivent pouvoir être suivis.

Sélection et recrutement des sujets


La sélection des sujets bons pour l’essai doit permettre de recruter dans des
groupes homogènes, des sujets représentatifs, pouvant objectiver des réponses.
Cela en tenant compte des impératifs d’éthique, et en obéissant à des critères de
sélection décrits dans le protocole.

Le recrutement des sujets


- A partir d’une pratique médicale ;
- Origine non médicale (employés) ;
- Des sources non éthiques (prisonniers) ;
- Éliminer les biais de sélection.

Les populations souvent utilisées


- Les patients hospitalisés ;
91
- Les groupes professionnels ;
- Des catégories particulières de sujets, et des clientèles.

Critères d’inclusion et de non inclusion


L’homogénéité des patients retenus dans un essai est garantie par la définition de
critères d’inclusion et d’exclusion (ou de non inclusion).
Les critères d’inclusion permettent d’inclure des patients qui satisfont à la
définition de la maladie et chez qui on veut étudier le médicament ou la stratégie
en développement.
La définition de critères d’exclusion permet d’écarter de l’essai des patients chez
qui l’administration des traitements comporte un risque théorique ou pratique
(données précliniques), ou dont l’état physique serait une source trop importante de
variabilité (insuffisants rénaux ou hépatiques, âges extrêmes).
Les patients étudiés doivent répondre donc à un certain nombre de critère, d'une
part à des critères d'inclusion (liste de caractéristiques des patients), d'autre
part à des critères de non- inclusion (caractéristiques cliniques ou biologiques
contre-indiquant l’inclusion). Les non inclusions concernent les contre-indications à
l’un ou l’autre des traitements (par exemple : insuffisances hépatiques ou rénales...).
La définition de critères d’exclusion permet d’écarter de l’essai des patients chez
qui l’administration des traitements comporte un risque théorique ou pratique
(données pré cliniques), ou dont l’état physique serait une source trop importante
de variabilité (insuffisants rénaux ou hépatiques, âges extrêmes).

Les critères d’inclusion


On précise la nature des patients à inclure en fonction de la pathologie étudiée :
hypertendus, insuffisants cardiaques, schizophrènes, diabétiques etc. Ces critères
indiquent aussi les limites d’âge et le genre des patients à inclure. Ils peuvent
préciser les modalités thérapeutiques admises ; ex : patients non antérieurement
traités.

Les critères d’exclusion : Ils se déduisent des critères d’inclusion, soit en


fonction de la pathologie étudiée, des limites d’âge, soit en fonction des modalités
thérapeutiques admises.
On peut exclure également les pathologies associées et les patients incapables de
suivre régulièrement un traitement

92
La définition des patients à inclure et à exclure doit être suffisamment précise
pour qu’au final soit constitué un groupe homogène de patients qui sera scindé via le
tirage au sort en un groupe de patients traités et un groupe contrôle. L'ensemble
forme les critères d'éligibilité qui visent à inclure un groupe homogène de malades,
les plus sains possibles en dehors de la maladie.
Les patients doivent être capables de recevoir indifféremment l'un ou l'autre des
traitements tirés au sort (critère d’ambivalence).

Définition des traitements


La définition des thérapeutiques doit être précise en tenant compte des
différentes situations qui peuvent se présenter. Les traitements comparés sont
attribués par tirage au sort, soit pour la comparaison de deux produits ou modes de
traitements connus, soit pour étudier l’efficacité d’un nouveau produit par rapport
à un placébo, ou un produit de référence, dont l’activité est déjà prouvée, ou bien à
l’abstention thérapeutique.
Dans les schémas thérapeutiques, on précise :
- Les doses qui doivent être fixes (adaptées aux caractéristiques des
malades) ou variables, en fonction de l’évolution de la maladie selon des règles
fixées au départ.
- La durée totale du traitement (pour pouvoir préciser les échecs)
- Les fréquences d’administration
- Les voies et formes d’administration
- Les conditions d’administration : à l’aveugle (le malade ignore son traitement)
en double aveugle (le médecin et le malade ignorent le type de traitement, avec un
accès au code en cas d’urgence) pour éliminer les phénomènes subjectifs dans les
résultats.

Le placébo
Le placébo est définit comme un traitement inactif (sur le plan pharmacologique). Il
est administré à la place d’un traitement actif à un malade ignorant cette
substitution. On utilise un placébo en l’occurrence, quand il n’existe pas de
traitement de référence.
L’effet placébo est une réalité bien connue de la médecine. La notion d’effet
placébo renvoie aux phénomènes de suggestion qui peuvent prendre place dans
l’interprétation des effets des traitements et dont l’importance ne peut être sous-
estimée dans l’évolution des maladies.
93
Attribution du traitement
Le seul moyen d’obtenir 2 groupes de malades aussi semblables que possible est,
pour chaque patient inclus, d’attribuer le traitement par tirage au sort ou
randomisation (après inclusion du patient). L’attribution des traitements se fait
obligatoirement par allocation aléatoire, dont on précise les modalités et le moment
par rapport au début de l’intervention. Il peut s’agir d’une allocation aléatoire de
l’ordre des expériences (étude cognitive), de l’ordre des traitements (essai croisé),
des traitements (essai en groupes parallèles). Chaque patient (quelles que soient
ses caractéristiques) a la même probabilité de recevoir un traitement que l’autre.
En pratique, on utilise une liste de randomisation (programme informatique ou
tables de nombre au hasard). La randomisation peut être centralisée (une seule
liste), par bloc (on équilibre les inclusions entre les 2 bras à comparer), stratifiée
(en fonction d’un facteur pronostique), ou enfin pour tester l’hypothèse dans des
sous-groupes, avec une liste de randomisation par strate.
Traitements associés
Les traitements associés doivent être prévus pour les éventuels cas secondaires,
les complications, ainsi que pour les affections intercurrentes.
Traitements intermédiaires : ce sont des traitements à adopter dans le période
intermédiaire de la maladie.

Les procédures d'insu (aveugle)


Pour respecter la neutralité dans les essais cliniques, on préconise le recours à des
essais dont l’affectation des patients inclus dans l’étude ou la nature de
l'exposition d'un sujet à un médicament donné soient ignorées par les patients et
mieux encore par les chercheurs eux même. Ce sont des procédures qui permettent
d’éviter différents biais possibles dans les essais comparatifs. Il est recommandé
d'organiser l'essai en prévoyant que la réalité soit maintenue secrète.
On distingue pour cela quatre niveaux :
- La répartition des patients : le responsable de cette opération d’affectation
des sujets doit ignorer la nature du traitement qui sera administré à chaque
groupe. La répartition aléatoire peut être effectuée en utilisant la table des
nombres au hasard.
- Les malades ne doivent pas connaitre le type de traitement auquel ils vont
être soumis.
- Les praticiens impliqués dans l’étude ne doivent pas connaitre la nature du
médicament administré aux patients.
94
- Les chercheurs chargés de l’analyse des données, ne doivent pas connaitre
les groupes de traitement, pour assurer une neutralité des résultats.
Cette méthode est utilisée principalement dans les études d’effets de
médicaments.
On parle d’essai en simple aveugle ou simple insu lorsque les patients ne savent pas
quel traitement ils reçoivent, dans l’essai en double aveugle ou double insu, le
traitement n’est connu ni par le malade ni par le médecin qui procède à l’évaluation
des résultats.
Les études en double insu sont méthodologiquement les plus satisfaisantes.
On évite en plus des aspects de subjectivité liés au patient ceux, pas moins
importants, qui sont le fait du médecin.
Rappelons qu’il y a beaucoup de situations ou l’insu ne peut être maintenu :
comparaison d’une intervention chirurgicale à un traitement médicamenteux, d’une
radiothérapie à une chimiothérapie.
La clause d’ambivalence est une condition indispensable à la conduite d’un essai
clinique ; chaque malade ou témoin entrant dans l’essai doit pouvoir recevoir
indifféremment l’un ou l’autre des deux traitements.

Les critères de jugement ou d évaluation


Les critères de jugement sont indispensables pour définir de façon complète le
résultat d’une thérapeutique. Un critère de jugement (ou critère d’évaluation) est
l’évènement ou la situation supposée être le résultat de l’influence du facteur
étudié (décès, maladie, inconfort insatisfaction…).
Pourquoi les critères de jugement ? Pour juger de l’évolution de la maladie, avoir
une méthode objective de mesure et pour disposer d’un protocole de surveillance
des résultats.
Dans les essais thérapeutiques, le critère de jugement principal est le critère qui
va servir à la mise en évidence de l’efficacité du traitement étudié. Il est unique
afin de permettre le contrôle du risque de conclure à tort à l’efficacité (erreur
statistique alpha).
Le critère d’évaluation est choisi par le concepteur de l’étude en fonction de la
pathologie concernée et des traitements étudiés. Il est préférable, chaque fois
que possible, de choisir un critère d’évaluation quantitatif dont l’expression est un
nombre : pression artérielle, fréquence cardiaque, durée d’un effort, distance de
marche, taille d’une tumeur, etc. plutôt qu’un critère qualitatif souvent plus
subjectif : guéri, amélioré, stable, etc.
95
On définit un critère de jugement principal et des critères secondaires. Le choix
des critères est fondamental, les résultats de l'étude dépendent de la pertinence
de ces critères.
Critère principal : la réponse à la question posée impose de définir un critère de
jugement privilégié qui permet de déterminer le nombre de sujets inclus dans
l’étude, c’est le critère principal.
Le critère principal de jugement, plus exactement sa variabilité, permet de
calculer le nombre de patients à inclure dans un essai, et c'est lui qui pèsera sur la
conclusion de l'essai.
Le critère d’évaluation principal évite l’écueil des analyses statistiques en sous-
groupes (plusieurs critères = plusieurs analyses) qui sont méthodologiquement
critiquables car augmentent la probabilité de montrer une différence par simple
hasard.
Après avoir déterminé quel serait le critère d’évaluation principal dans l’étude
envisagée, il est possible de définir des critères d’évaluation secondaires qui
apporteront des informations supplémentaires mais n’influeront pas au même niveau
les conclusions de l’étude.
Dans les essais thérapeutiques, les critères secondaires peuvent être :
- des critères documentaires utilisés pour documenter les bénéfices
secondaires du traitement (par exemple, si le critère principal est la mortalité
totale, le traitement peut aussi réduire la fréquence des évènements non mortels,
ou augmenter la qualité de vie),
- Critères complémentaires utilisés pour documenter le mécanisme d’action
de l’effet obtenu (par exemple, les causes spécifiques de mortalité afin d’expliquer
comment est obtenue une réduction de mortalité totale),
- Critères intermédiaires (documentent plutôt les mécanismes d’actions du
traitement, il s’agit le plus souvent de paramètres biologiques ou physiologiques),
- Critère de substitution : dans les essais de phase II, un critère de
substitution doit permettre de conclure plus vite et/ou avec moins de sujets que si
l'on avait utilisé le critère principal.
- Critères correspondant à des effets délétères du traitement,
- Critère composite : un critère qui prend en considération simultanément
plusieurs événements cliniques.
Exemple : dans une étude où l’objectif est la comparaison de l’effet
antihypertenseur de A à celui de B (un médicament de référence), le critère
d’évaluation principal est logiquement la mesure de la PA., les critères secondaires
96
peuvent être la mesure de l’effet de A sur la qualité de la vie de l’hypertendu ou
l’évolution de certains paramètres biochimiques après traitement.
Des critères subjectifs sont utilisés dans les études sur l’amélioration ou la
régression d’un symptôme subjectif tel que la douleur, la qualité de vie…Dans tous
ces cas, on définit la méthode de mesure en utilisant des échelles ou des méthodes
préalablement validées. Les types de critère de jugement dans les enquêtes
analytiques peuvent être : l’apparition d’une maladie, le décès, une réponse à un
traitement (biologique, radiologique ou clinique…), une rémission, une récidive, la
qualité de vie…
Exemples de critères de jugement d’une chimiothérapie palliative pour une
tumeur solide :
La réponse complète : c’est la disparition de toute image tumorale sur un examen
morphologique utilisé (échographie, scanographie, résonance magnétique nucléaire,
etc.), confirmée à 4 semaines d’intervalle.
Réponse partielle : c’est la diminution d’au moins 50% de la somme des deux plus
grands diamètres de l’image tumorale sur les examens morphologiques, confirmée à
4 semaines d’intervalle.
Stabilisation : la tumeur a diminué de moins de 50 % ou n’a pas augmenté de 25 %.
Progression : la tumeur a augment de plus de 25 % ou sont apparues des lésions
nouvelles qui n’avaient pas été décelées lors des examens morphologiques
précédents.

Qualités d’un critère de jugement


S’agissant d’une mesure, le critère d’évaluation doit remplir certaines exigences
essentielles.
Des qualités intrinsèques de la mesure (exactitude et précision), l’exactitude se
mesure par rapport à un étalon ou une technique de référence.
Le critère doit être reproductible, sensible et spécifique par rapport à la
pathologie ou au phénomène étudié. La reproductibilité d’une méthode de mesure
est sa capacité à fournir la même valeur chez un même sujet dans les mêmes
conditions de mesure mais à des temps différents. La reproductibilité-variabilité
d’une mesure s’exprime soit par l’écart type (ET), qui peut être calculé, soit par le
coefficient de variation (CV = ET x 100 / moyenne).
Le critère d'évaluation (ou critère de jugement principal) doit avoir aussi un intérêt
clinique. C'est-à-dire qu'il doit directement représenter l'objectif principal. Un
critère de jugement doit remplir enfin des conditions d’acceptabilité, de
97
faisabilité, et de rendement et économique. L’idéal est de pouvoir répondre au
problème posé avec un seul critère, celui qui mesure le mieux l’effet attendu du
traitement. Si pour obtenir la mesure du critère de jugement choisi, de longs délais
sont nécessaires, on peut le remplacer par un autre critère dont la mesure est
disponible plus rapidement. Ainsi on définit un critère de jugement principale et/ou
à défaut un critère de substitution.

Qualités de la mesure des critères d’évaluation


La réalisation d’un essai clinique comporte la mise en œuvre de très nombreuses
mesures portant sur les sujets, avant même leur inclusion (critères de sélection),
puis pendant toute la durée de l’essai (bilan d’entrée, examens de surveillance puis
critères de jugement). Différents types de variables utilisées sont utilisées :
- Des variables objectives : elles peuvent être qualitatives (présence ou absence de
pathologie, vivant/décédé), semi quantitative (stades de gravité d’une maladie,
coloration d’un test) et enfin quantitatives (variables biologiques, variables
anthropométriques).
- Des variables subjectives : elles permettent l’appréciation de phénomènes
mesurables et non mesurables. Dans ce cas, la mesure s’effectue à l’aide d’une série
d’items complémentaires constituant ce que l’on appelle une échelle de mesure, dont
la classification aboutit à l’établissement d’un score.

Exemple: dans le cas l’évaluation de la douleur ou des paramètres psychologiques, on


a recours à des outils qui permettent de transformer l’appréciation qualitative du
critère de jugement en une valeur quantitative.
Pour quantifier la douleur, symptôme hautement subjectif, on utilise une échelle
visuelle analogique (EVA).

Un critère de jugement subjectif ne sera choisi que s’il répond exactement à la


question posée ou s’il n’existe pas d’autres critères objectifs.
Rappelons qu’il est indispensable que le critère de jugement soit mesuré de la même
façon dans les deux groupes.

La pertinence du critère de jugement peut être remise en cause si le critère


reflète seulement un mécanisme biologique ou pharmacologique non directement lié
à l’objectif thérapeutique (critère intermédiaire).

98
Le nombre de sujets nécessaires
Dans une enquête épidémiologique, la précision concernant la variable étudiée
devient minime à partir d'un certain effectif minimum de l’échantillon : c'est le
nombre de sujets nécessaires. Un nombre de sujets adapté à la taille de l’effet à
mettre en évidence garantit à un essai une puissance suffisante. Donc, le nombre
de patients à inclure dans un essai clinique n’est pas fixé arbitrairement. Dans les
essais thérapeutiques, le nombre de sujets nécessaires est une fonction de 4
composantes :
- La réponse vis à vis du traitement de référence ;
- le bénéfice attendu du nouveau traitement ;
- le niveau de signification ;
- et la puissance de l’étude.
De manière générale, ce nombre est d’autant plus important que la différence que
l’on veut déceler entre les deux produits est petite, que la dispersion des résultats
est grande et que les risques d’erreur choisis sont faibles. Le nombre de sujets
nécessaire est calculé à partir du critère de jugement principal en fonction des
données de la littérature ou de résultats préliminaires (étude pilote...). Le calcul du
nombre de sujets à inclure permet de garantir la puissance nécessaire pour
conclure.
Le nombre de sujets nécessaires est calculé aussi avec des risques d'erreur
consentis : le risque de première espèce, généralement à 5 % (conclure à tort à
une différence) et le risque de deuxième espèce de 5 à 20 % (conclure à tort à
l’absence de différence).
Le nombre de sujets nécessaires est calculé enfin en fonction d'hypothèses,
notamment sur la différence minimale cliniquement " intéressante " ou " raisonnable
" que l'on veut pouvoir montrer, si elle existe.
Cette différence correspond au gain espéré par l'emploi du nouveau médicament. Il
dépend aussi de la variabilité du critère. Lorsque le critère principal de jugement
s’exprime en pourcentage, il faut estimer le % attendu dans les deux groupes.
Lorsque le critère principal de jugement s’exprime en moyenne, il faut estimer la
moyenne et l’écart-type attendus dans les deux groupes.
Dans le cas d’un essai d’équivalence, c’est la valeur de la différence consentie entre
l’efficacité des 2 traitements qui conditionne le nombre de sujet.
Le développement mathématique permettant d’obtenir les formules de calcul de
l’effectif est donné par des logiciels que l’on trouve maintenant sur Internet.

99
A titre d’exemple, pour un essai thérapeutique entre deux traitements utilisant un
critère quantitatif et un test bilatéral exige par groupe, n calculé selon la formule :

Avec zk, la valeur d’une variable normale réduite correspondant à une fonction de
répartition de (1 – k/2).

Attribution des traitements entre les groupes : le tirage au sort


Pour la, population incluse dans l’étude, le tirage au sort de chaque patient est le
moyen qui donne les meilleures garanties de similitude des groupes de malades. Pour
permettre une conclusion valide, l'attribution des traitements dans un essai
thérapeutique doit éviter deux biais, dits de sélection et de répartition.
Dans le but d'éviter ces biais, les différentes méthodes d'attribution des
traitements font intervenir le hasard à un degré plus ou moins important, la
randomisation.
La randomisation complète consiste à donner les traitements aux sujets de façon
totalement aléatoire. Le tirage au sort est donc une garantie absolue contre le biais
de sélection.
Techniquement, la randomisation d'un patient dans un essai clinique doit toujours
avoir lieu le plus tard possible, une fois que toutes les clauses d'éligibilité du sujet
ont été examinées et son consentement éventuel ayant été obtenu au préalable.
La randomisation est réalisée par des générateurs physiques de nombres
aléatoires, des programmes informatiques générant des nombres pseudo-aléatoires
ou en consultant des tables.
Pour obtenir des groupes d'effectifs égaux, différentes variantes de la
randomisation complète ont été développées, parmi lesquelles la randomisation par
bloc qui est sûrement la méthode la plus utilisée. Elle consiste à diviser le nombre
total prévu de patients en sous-groupes appelés blocs formés séquentiellement
selon l'ordre d'entrée des sujets dans l'essai.
Le principe de la randomisation stratifiée ou stratification a priori est de diviser
l'effectif total de sujets en sous-groupes selon les facteurs pronostiques et
d'attribuer les traitements de façon aléatoire dans chaque strate ainsi réalisée,
habituellement par la technique de randomisation par bloc.
La minimisation est un procédé d'attribution des traitements en fonction d'un
certain nombre de variables qualitatives, en vue d'obtenir une répartition
équilibrée de celles-ci entre les groupes thérapeutiques.
100
Le recueil des données
On doit insister sur les modalités de recueil des données. En effet, dans un
questionnaire par exemple, la qualité de l’information recueillie dépend de la
manière de poser les questions. On compare les avantages et les inconvénients
entre plusieurs méthodes (questionnaire par interview ou questionnaire auto-
administré). Pour les paramètres de mesure, on utilise des Instruments déjà mis au
point et validés (référence à la littérature).
Dans le recueil des données de mesure, la fiabilité d'un instrument de mesure
consiste à obtenir les mêmes résultats par des mesures répétées par des
personnes et des instruments différents, à des endroits et des moments
différents. La fiabilité dépend de la qualité de l’outil d'observation, mais également
de ses conditions d'application et de la formation des sujets qui recueillent
l'information (variabilité inter et intra-enquêteur). Sur le plan clinique, la fiabilité
des symptômes peut être établie en montrant qu'ils sont décrits de la même
manière selon les différents observateurs dans des conditions différentes.
Exactitude et reproductibilité
Deux qualités qui sont indispensables à un questionnaire, l'exactitude, le
questionnaire exact est obtenu en comparant les résultats obtenus par son propre
questionnaire à ceux d'un questionnaire de référence teste l’exactitude ; et la
reproductibilité qui est obtenue en testant le questionnaire pendant une période
donnée (pré-test) et en l'appliquant à différents moments. La reproductibilité est
testée si la concordance entre les réponses est élevée et si l'information
recherchée n'a pas changé. Pour la démarche, on doit identifier les personnes
chargées de remplir les fiches initiales, les résultats du suivi des patients. On doit
prévoir un codage, la saisie des données…
On peut utiliser plusieurs sources d'information :
- Des archives (dossiers médicaux...),
- Des interviews directes ou téléphoniques,
- L’auto questionnaire, échelle de mesure,
- Des Questionnaires validés.
L'identification et l'enregistrement des sujets sur le recueil des données seront
uniquement effectués par numéro, par les initiales du patient et par les numéros de
centre et d'étude. C’est le respect de la confidentialité des données.
Le cahier d’observation
C’est un document écrit de recueil standardisé des données :

101
Dans les essais thérapeutiques, on utilise un cahier d’observation par patient inclus.
Le cahier d’observation ne comprend que les données de l’essai et pas les données
de soin des patients Un cahier d’observation doit être identifié par une date et un
n° de version. Il est établi avant le début du recrutement et rempli par les
investigateurs ou leurs représentants autorisés. Il est conservé pendant 15 ans par
investigateur et promoteur. Le contrôle qualité (monitoring) est sous la
responsabilité du promoteur et les autorités en santé.
Déroulement et suivi de l’étude
Au cours du déroulement de l’étude, il s’agit de préciser et de déterminer la
répartition des taches selon un calendrier précis. Le suivi de l’étude se fera par des
visites régulières qui feront l'objet d'un rapport de visite faisant état de
l'avancement de l'étude et d'éventuelles difficultés rencontrées. Dans la
description du déroulement de l’étude, on précise les éléments suivants :
- la liste des Centres et composition des équipes ;
- la randomisation (modalités pratiques) ;
- l’organisation du recueil des informations ;
- La formation des enquêteurs surtout si l’étude est multi centrique ;
- On défini qui doit remplir les fiches initiales, qui récupère les données
manquantes (examen de laboratoire, etc.…) ;
- On précise comment doivent être organisés les rendez-vous pour le suivi des
sujets, le suivi des dossiers de l’étude, les relances…
- On identifie le nombre de cas inclus ;
- On effectue la surveillance des évènements indésirables ;
- On recherche les écarts au protocole ;
- On prévoie le codage, la saisie et le traitement statistique des données.
Échéancier
À partir d’une simulation simple, l’investigateur projette dans le temps la durée de
l’étude. Cet exercice permet, de concrétiser la coordination des différentes
activités liées à la réalisation de l’étude, de juger de la faisabilité de l’étude dans le
temps et d’estimer les coûts aux fins budgétaires.
Consentement libre et éclairé
Obligatoire, le consentement libre et éclairé des patients inclus dans l’étude est
information écrite et signée préalable sur le déroulement de l’étude (droit du sujet,
législation et anonymat). Le patient peut retirer son consentement à tout moment
de l’étude sans justification et sans encourir aucune responsabilité ni aucun
préjudice de ce fait
102
ANALYSE DES RÉSULTATS

Objet de l’analyse dans les différentes phases (médicaments) :


Phase I : Analyse de la toxicité (détermination d’une dose acceptable). Un petit
effectif (n < 30). Sont inclus les patients en échec thérapeutique ou des volontaires
sains.
Phase II : Analyse de l’efficacité (critères cliniques intermédiaires voire «
biologiques »), un effectif moyen (n = 30-50) et des patients sélectionnés
Phase III : Analyse comparative de l’efficacité et des effets secondaires. C’est
une comparaison à un traitement de référence ou à un placebo. Un effectif élevé,
une randomisation et des patients sélectionnés.
Phase IV : évaluation des effets secondaires en situation réelle d’utilisation après
la mise sur le marché. Effectif très élevé.

Objectifs de l'analyse : phase III


Il s’agit de répondre à la question de l'essai (le critère de jugement principal) et
d’acquérir des connaissances sur les critères de jugement secondaires et sur les
variables supplémentaires.
Préalablement à l'analyse statistique, les données concernant les patients devront
être contrôlées afin de déterminer leur validité pour l'analyse statistique. Les
patients exclus seront classés soit en patient inclus avec intention de traiter, soit
en patients véritablement exclus de l'étude d'après les pièces justificatives.
L'exclusion de tout patient ou observation doit être décidée par l'investigateur.
Aucun sujet exclu ne pourra être ré-inclus.
Les raisons concernant la non compliance au protocole devront être relevées dans le
cahier d'observation si elles sont connues.
Une fois l’étude terminée et que l’on dispose de l’ensemble des résultats pour le
nombre de malades prévu, on effectue une statistique intermédiaire pour décrire la
population réellement incluse dans l’essai et rechercher les écarts au protocole :
sujets inclus à tort, sorties d’étude (perdus de vue).
Le taux de perdus de vue reflète la qualité de l'essai. Les groupes sont comparés en
fonction des critères de jugement de l'efficacité avec des tests statistiques
appropriés.

103
Le moment d’analyse

Analyse en fin d’essai :


Elle intervient une fois que tous les sujets sont inclus (nombre de sujets
nécessaires), et quand le critère de jugement est recueilli chez tous les sujets. Il
est indispensable que l'analyse porte sur des données aussi complètes et aussi
correctes que possible.
L’analyse thérapeutique finale est effectuée quand tout le nombre d’évènements
nécessaires sera atteint. Deux approches : l’ analyse en intention de traiter et
l’analyse per protocole.
L’analyse en intention de traiter (ITT)
Ce type d’analyse permet d’estimer l'efficacité pratique du traitement, en
comparant les groupes tels qu’ils ont « été randomisés, sur toutes les données
disponibles, même s’il a eu modification du traitement. L’importance de l'analyse en
intention de traiter dépend du schéma (supériorité / non infériorité), de la
fréquence des modifications de traitement, et de l’approche explicative /
pragmatique.
L’analyse per protocole (PP)
Cette méthode d’analyse compare les groupes tels qu’ils ont été randomisés, sur
toutes les données disponibles, chez patients sans modification du traitement. Les
sujets ayant arrêté le traitement en cours d’essai ou ayant reçu un autre
traitement sont exclus de l’analyse per-protocole
L’Analyse intermédiaire
C’est une analyse réalisée avant la fin de l'essai. Elle permet d’obtenir des résultats
plus précocement et de prendre rapidement les décisions qui s'imposent. La
décision de faire une ou plusieurs analyses intermédiaires doit être planifiée dans
le protocole sur des arguments justifiés. Ces analyses ne concernent généralement
que des essais de longue durée, des pathologies graves ou des médicaments
toxiques.
L’analyse séquentielle
Au cours d’un essai, si l’analyse intermédiaire montre qu’un nouveau traitement est
extrêmement efficace ou extrêmement inefficace, l’analyse séquentielle permet
éventuellement de le détecter avant que tout le collectif de patients prévu dans
l’étude n’ait eu à subir le traitement.

104
Cette adaptation dans les essais cliniques, après une analyse intermédiaire des
données, permet d’interrompre prématurément un essai si l’efficacité du
traitement est estimée soit très élevée, soit très faible.
L’analyse séquentielle a été développée par Wald : un résultat observé après chaque
observation permet de prendre une décision quant à l’inclusion du prochain patient.
L’analyse séquentielle répond aux impératifs éthiques et économiques. Si l’on
détecte plus tôt un bénéfice du traitement, afin d'éviter de traiter des patients
par un placebo alors que les données amassées sont suffisantes pour conclure à
l'efficacité du traitement étudié, on effectue un arrêt de l’essai pour efficacité.
Si on contraire, on détecte un éventuel effet délétère du traitement, afin de
limiter le nombre de patients exposés au risque, on décide d’un arrêt pour
toxicité.
On distingue aussi l’arrêt d’une étude pour futilité ou pour désintéressement.
L’analyse intermédiaire a des inconvénients : les risques de résultats prématurés
qui ne seront pas confirmés dans le temps. Dans l’analyse intermédiaire, il est
important aussi d’ajuster les analyses pour ne pas augmenter l’inflation du risque de
première espèce (alpha).
Les analyses en sous-groupes (« by sub-groups analysis »)
Ce type d’analyse est fréquemment réalisée en complément de l’analyse principale
d’un essai thérapeutique Une analyse en sous-groupes consiste à subdiviser la
population d’un essai thérapeutique en deux ou plusieurs sous-groupes et à étudier
l’efficacité du traitement dans chacun de ces sous-groupes. Le but est de
rechercher une interaction entre l’effet du traitement et une ou plusieurs
variables (cf. infra).
Par exemple, une analyse en sous-groupes suivant le sexe revient à mesurer
séparément l’effet du traitement chez les hommes et chez les femmes. Une
analyse suivant l’âge entraîne souvent la division de la population en plusieurs sous-
groupes et en autant d’estimations de l’effet du traitement. Le but des analyses en
sous-groupes serait de rechercher ceux dans lesquels le traitement serait le plus
efficace et surtout ceux dans lesquels il serait inefficace.

105
L’analyse statistique

Démarche
1. Choix du critère principal.
En cancérologie, dans les essais de phase III, on distingue trois grandes catégories
de critères (résultats) : un pourcentage (par exemple, la réponse clinique), une
moyenne (par exemple, un dosage biologique) ou un risque relatif (par exemple, la
survenue d’un événement, comme le décès, au cours du temps).
2. Déterminer les résultats attendus pour le groupe de référence : par exemple, s’il
y a suffisamment de données dans la littérature pour penser que le traitement de
référence donne un taux de réponses objectives de 40 % ou bien que le taux de
survie à 3 ans est de 70 %.
3. La différence recherchée qui correspond à la plus petite différence
suffisamment importante et cliniquement pertinente pour avoir un impact sur la
pratique courante. Par exemple, une amélioration absolue de 15 % du taux de
réponses objectives (passer de 40 à 55 %) ou une amélioration absolue de 10 % du
taux de survie à 3 ans (passer de 70 à 80 %) serait cliniquement suffisamment
importante pour considérer que le nouveau traitement est prometteur.
4. Le choix des risques : les risques (α) et (β) sont souvent fixées au départ avec α
= 5 % et β = 10 à 20%, qui correspond à une puissance (1 - β) d’au moins 90 %. Le
choix de α est peu discutable et on le fixe habituellement à 5 %. Le choix de β (5,
10, 15 ou 20 %) est principalement lié à la faisabilité de l’essai en termes de nombre
total de patients, alors que le choix de sa valeur détermine le niveau du risque qu’on
est prêt à prendre pour passer à côté d’une différence significative lorsqu’elle est
réelle.
5. Formulation de l’hypothèse : On formule une hypothèse nulle HO : le traitement
A = le traitement, en considérant une hypothèse alternative H1 qui peut être
unilatérale (traitement A > au traitement B) ou bilatérale (traitement A est ≠ du
traitement B).
Dans un essai où on pose la question de la supériorité du nouveau traitement par
rapport au traitement de référence, on pose comme hypothèse nulle à tester
l’hypothèse initiale que les traitements sont équivalents, jusqu’à la preuve du
contraire. Ce sont les données qui vont fournir les preuves en faveur ou non de
l’hypothèse alternative, c’est-à-dire que les traitements sont différents.

106
6. Choix du test statistique : Le test statistique, permet de calculer la probabilité
d’observer une différence au moins aussi importante que celle que l’on a obtenue :
avec un degré de signification " p ".
Si cette probabilité σ est inférieure à un seuil classiquement fixé à σ = 5% (0,05),
on conclu que les deux groupes diffèrent.
En admettant ce risque d’erreur, on se trompera dans 5% des cas en déclarant une
différence alors qu’il n’y en a pas.

Figure15 : Test statistique : interprétation

Une différence significative DS n’implique pas nécessairement un intérêt clinique.


La valeur p ne renseigne pas sur la force de l’association entre, par exemple,
l’exposition à un facteur et une maladie (cette information est donnée par le risque
relatif, l’Odds ratio, …).
La signification statistique ne peut pas être confondue avec la pertinence clinique
(intérêt pour le patient dans la pratique).
Le choix d'un test ou de l'utilisation d'un modèle statistique repose sur certains
critères, tels que :
• Le type de facteur que l'on cherche à expliquer (qualitatif ou quantitatif) ;
• Le type des facteurs explicatifs
• Si les séries à comparer sont appariées (par exemple, mesures avant et après
traitement chez le même sujet) ou indépendantes ;
• Si l'on a affaire à des données censurées (études de survie, études de la récidive
d'une pathologie,…) ;
• Si l'analyse est univariée (un facteur à expliquer par un facteur explicatif) ou
multivariée (un facteur à expliquer par plusieurs facteurs explicatifs) ;
• La taille des échantillons à comparer.

107
Il est souvent impossible de conclure, la DNS ne prouve pas qu'il n'y a pas d'effet

Figure 16 – Signification d’une différence non significative.

L ’essai a été insuffisamment


. puissant pour mettre en évidence la
Différence différence qui existe pourtant
Différencenonnon
statistiquement
statistiquement
significative
significative
Le traitement est sans efficacité

Cas des perdus de vue


Connaitre le pourcentage de perdus de vue dans une étude est important. Cela
donne des indications sur la tolérance des traitements testés ou l’acceptabilité des
mesures d’évaluation de leurs effets. A ce propos, on doit déterminer dans quelle
catégorie doit on ranger les perdus de vue : guéris ou pas, répondeurs ou non dans
l’analyse en intention de traiter, on adopte une stratégie volontairement
pénalisante, celle de considérer les perdus de vue comme des échecs du traitement
et ils sont comptabilisés au chapitre des non-répondeurs ou non-guéris.
S’il y a de nombreux perdus de vue dans le groupe des patients traités par le
médicament étudié, ils seront considérés comme autant d’échecs ce qui peut à
l’évidence modifier le résultat final.
La comparaison des résultats porte donc sur tous les malades inclus, y compris les
sujets ayant abandonné le traitement pour intolérance, les refus de poursuivre le
traitement, les décès, et les modifications du traitement par le médecin. Dans
l’analyse « per protocole » , on analyse uniquement des patients traités en pleine
conformité avec le protocole (exclusion des inclus à tort, des patients non
observant, …).

Mesure de l’efficacité d’un traitement. : Indices d’efficacité


L’efficacité d’un traitement est étudiée différemment pour les critères binaires et
pour les critères continus.
Pour les critères binaires, l’efficacité d’un traitement est calculée par différents
types de risques :
Le risque absolu (incidence du critère de jugement)
Le Risque Relatif, c'est-à-dire le risque sous traitement étudié divisé par le risque
sans traitement contrôle.
108
La réduction relative du risque : RRR. Il équivaut à 1 – RR x 100. Exemple : si RRR =
1 – 0,53 = 0,47, le traitement étudié entraîne une réduction relative de risque de
décès de 47% par rapport au traitement contrôle.
La réduction absolue des risques
Le NNT (« Number needed to treat ») : qui est le nombre moyen de sujets qu’il est
nécessaire de traiter pour éviter un évènement, c’est l’inverse de la différence des
risques. NNT = 1/ RAR.
Il est interprété comme le nombre moyen de sujets à traiter pour éviter ou induire
(selon signe - ou +) un événement.
Exemple : NNT = 1 / - 0,07 = - 14. Cela veut dire qu’il faut traiter en moyenne 14
patients pendant la période de suivi de l’essai pour éviter (signe -) 1décès.
Pour les critères continus, on utilise une analyse univariée et ou une analyse
multivariée.
L’analyse univariée : pour les facteurs qualitatifs (stade tumoral par exemple) le
test de choix est le X, pour les facteurs quantitatifs, c’est la comparaison de
moyenne et l’analyse de variance qui sont les plus appropriés.
La recherche de l’association entre deux facteurs quantitatifs nécessite un test de
coefficient de corrélation ou une régression linéaire simple.
L’analyse multivariée : si le facteur à expliquer est quantitatif et le facteur
explicatif est quantitatif ou qualitatif, on utilise une régression linéaire multiple,
pour les facteurs qualitatifs, c’est la une régression logistique.
Les courbes de survie permettent d’étudier les données censurées.

Conclusion

En recherche clinique, l’essai comparatif comprenant un groupe contrôle un tirage


au sort des traitements et un double insu est le garant d’une méthodologie correcte
et permet de conclure à l’existence d’une différence entre les traitements.
La précision et la qualité des données seront surveillées tout au cours de l’essai et
une période de nettoyage de la base de données sera requise avant le début de
toute analyse thérapeutique.
Les analyses peuvent être conduites en se faisant aider par les procédures
standardisées d’un logiciel statistique (SAS, SPSS…).
Le choix des tests statistiques est prévu a priori, mais pourra être ajusté après
exploration des données si leur distribution ne correspond pas aux attentes
109
initiales. La conclusion de l’essai a d’autant plus de poids que la différence est
significative et concorde avec des hypothèses explicatives. Par ailleurs, la valeur
d’un essai thérapeutique dépend autant de la qualité du suivi des malades et des
données recueillies que de la stratégie de départ. Rappelons enfin qu’une analyse
statistique peut toujours être refaite, des données manquantes peuvent parfois
être récupérées mais un mauvais protocole est irrécupérable.

110
LES TESTS D’HYPOTHÈSE
ET ESSAIS CLINIQUES

Concepts

La méthodologie statistique mise en œuvre dans les études comparatives est


fondée sur la théorie des tests statistiques. Le principe général est de construire
des hypothèses à priori exclusives, de disposer d'outils permettant de calculer le
risque d'erreur associé à la conclusion en faveur d'une hypothèse particulière, et
de fournir une règle de décision.
Un test d'hypothèse en statistique est utilisé donc comme une règle de décision
entre deux hypothèses. Son application dans les essais thérapeutiques consiste à
définir une première hypothèse qui correspond à ce que l'on veut démontrer, le plus
souvent, il s'agit d'une hypothèse d'inégalité : le nouveau traitement est meilleur
que le traitement de référence, les traitements sont différents. Cette première
hypothèse est l'hypothèse alternative notée aussi H1.
La seconde hypothèse est le complément de la première, c'est celle que l'on veut
rejeter, il s'agit le plus souvent d'une hypothèse d'égalité, le nouveau traitement
est plus mauvais ou égal au traitement de référence, les traitements sont
équivalents. Cette seconde hypothèse est l'hypothèse nulle notée H0.
L’objectif primaire d’un essai clinique est de répondre à une question formulée de
manière précise, mais qui passe nécessairement par la réalisation d’un test
d’hypothèse.
Un test d’hypothèse a pour objectif de tester une hypothèse nulle Ho, si Ho n’est
pas retenue, on propose une hypothèse alternative H1.
Un test d’hypothèse a toujours pour objectif de tester une hypothèse nulle Ho
contre une hypothèse alternative H1 .
Par exemple, dans un essai clinique dans lequel on veut comparer un taux de réponse
Pa et Pb, obtenus respectivement par l’administration des traitements A et B :

L’hypothèse nulle Ho consiste à admettre que Pa = Pb


L’hypothèse alternative : H1 : Pa ≠ Pb

111
Sur la base des observations et des raisonnements probabilistes, on peut conclure à
l’acceptation de l’hypothèse nulle Ho ou son rejet. Le rejet de Ho peut se faire à
bon escient, c’est à dire quand elle est fausse, mais aussi quand elle est vraie (une
décision erronée).
Les risques d'erreur
Ce sont les risques (les probabilités) de conclure à tort en faveur de chacune des
hypothèses.
On parle de l’erreur de type I, ou erreurα, ou erreur de première espèce,
lorsqu’on rejette l’hypothèse nulle à mauvais escient, c’est à dire quand elle est
vraie, et de l’erreur de type II ou de l’erreur β ou de l’erreur de deuxième
espèce, quand on accepte l’hypothèse nulle à mauvais escient, c’est dire quand elle
est fausse.
Le risque de première espèce est la probabilité de rejeter l'hypothèse H0 (et
donc d'accepter l'hypothèse alternative H1), alors que H0 est vraie. Cette notion
constitue la pierre de touche des tests statistiques. La valeur seuil de 
communément admise en médecine pour rejeter entre H0 est de 5%.
Le risque ß correspond à la probabilité d'accepter l'hypothèse nulle H0, alors que
H1 est vraie. La valeur 1 – β est appelée puissance du test.

Les fluctuations aléatoires


La nature aléatoire des phénomènes étudiés fait qu'un paramètre étudié de façon
répétée sur la même population avec des échantillons différents fournira à chaque
fois un résultat différent. Ceci représente la notion de fluctuation
d'échantillonnage.
Cette fluctuation d'échantillonnage est d'autant plus faible que la taille de
l'échantillon est importante, mais elle existe toujours.
La survenue d’un événement clinique chez un patient est en partie imprévisible et
s’apparente à un phénomène aléatoire. Pour un patient donné, il est impossible de
prévoir avec certitude la survenue ou non de l’événement
Si l’on surveille plusieurs groupes de sujets ayant tous la même probabilité de
développer un événement X (20% par exemple), les différents pourcentages
observés chez ces sujets vont fluctuer autour de cette valeur.
Ces fluctuations autour de 20 % observées entre différents échantillons et dues
entièrement au hasard sont appelées fluctuations aléatoires d’échantillonnage.

112
Tableau 6 : Types d'erreurs et tests d'hypothèses

Réalité
Décision H0 vraie H1 vraie
(il n'existe pas (il existe une
de différence) différence)
Rejet H0 Α : risque erreur 1 - β
(conclusion =différence) 1ière espèce Puissance du test

Non rejet H0 1 – α risque erreur β


(conclusion = pas ou 2ème espèce.
de différence

Dans un essai thérapeutique, les fluctuations aléatoires sont susceptibles de


conduire à des conclusions erronées à partir de l’observation. L’observation fait
conclure à l’existence d’une différence qui, en réalité, n’existe pas.
L’erreur alpha est de conclure à l’efficacité d’un traitement qui, en fait, est
inefficace. À l’opposé, les fluctuations aléatoires peuvent aussi faire disparaître
une différence qui existe pourtant. L’observation conduit à conclure, à tort, à
l’absence de différence. L’erreur statistique bêta fait courir le risque de ne pas
mettre en évidence l’efficacité d’un traitement.

Figure 17 : La relation entre les deux risques d’erreur dans les résultats d’un test
obtenus chez des sujets sains et des malades.

113
Principe de l’inférence

Un test d'hypothèse sous-entend une inférence, c'est à dire un raisonnement par


lequel on admet une proposition en vertu de sa liaison avec d'autres propositions
déjà tenues pour vraies. Du résultat d'une expérience réalisée sur un échantillon
représentatif issu d'une population source, on cherche à en déduire que les
résultats ainsi observés sont «applicables» à une population plus large dite
population cible.
Il est nécessaire de définir les conditions dans lesquelles le ou les tests
statistiques seront employés. Ceci impose de définir a priori les hypothèses
testées, et les risques  et ß consentis. On se donne ensuite une valeur
(cliniquement pertinente) de la différence attendue, pour calculer le nombre
d'observations nécessaire qu'il faudra étudier.
Figure 18 : Principe général de l'inférence en statistique.

Le test statistique

Rappelons qu’un test statistique recherche s’il existe une réelle différence entre 2
ou plusieurs séries et que son principe est d'étudier les fluctuations
d'échantillonnage de la différence entre deux groupes par exemple (par exemple la
différence des moyennes), sous l'hypothèse nulle H0.

114
Par ailleurs, l'inférence statistique consiste à situer la différence calculée sur les
données réelles dans cette distribution d'échantillonnage. Une valeur seuil définit
une zone de non rejet et une zone de rejet de H0. Cette valeur seuil est
déterminée par le risque.
Devant une différence observée, le test statistique permet de calculer la
probabilité que l’on aurait d’observer ce résultat si en réalité il n’y avait pas de
différence entre les deux groupes. Cette probabilité est appelée p. On remarque
donc d’un test statistique est aussi un moyen de contrôler le risque d’erreur alpha.
Il ne prend pas directement en compte le risque d’erreur bêta.

Degré de signification d’un test statistique


Nous avons vu comment conclure à un test en comparant le résultat de la
statistique avec la valeur seuil, déterminée par α et la loi de la statistique lorsque
l’hypothèse nulle est vraie. Le résultat de cette procédure (rejet de H0 ou
acceptation de H0) s’exprime avec un risque d’erreur α fixé a priori et
arbitrairement. Il existe une autre approche qui permet de quantifier la crédibilité
de H0 au vue des données observées. Elle repose sur le calcul du degré de
signification, noté p, qui est la probabilité d’observer une différence au moins
aussi importante que celle observée, sous l’hypothèse nulle :

La valeur de « p »
On appelle communément p, la probabilité d'obtenir entre deux traitements par
exemple, une différence d'effet au moins aussi grande que celle qui a été observée,
en supposant la différence nulle (H0).
Autrement dit cette valeur exprime la probabilité que la différence observée entre
un groupe contrôle et un groupe traité soit due au hasard. Elle est comprise entre 0
et 1.
Plus elle se rapproche de 0 et plus elle est significative car le risque d’erreur est
plus faible. Un p < 0.05 est généralement exigé (moins de 5% de risque d’erreur).
Lorsque p est inférieur ou égal au risque de première espèce consenti (
), on
rejette l'hypothèse H0 et l'hypothèse H1 est acceptée. L'effet des deux
traitements comparés diffère donc significativement (p< 0,05).
Les conclusions que l'on obtient par le test statistique ne sont pas symétriques, en
effet si la différence observée sur l'échantillon est dans la zone de rejet, H0 est
rejetée et donc H1 acceptée, en revanche si la différence observée est dans la
zone de non rejet de H0, on ne peut conclure au rejet de H1
115
Signification de « p»
Le « p » correspond donc à la probabilité que la différence observée soit due au
hasard, en l’absence d’effet du traitement (ou probabilité a posteriori du risque α).
Elle permet ainsi une quantification du risque de faire une erreur de première
espèce si l’on décidait de conclure à l’existence d’une différence entre les deux
groupes. Classiquement, il est convenu que le risque acceptable d’erreur alpha est
de 5%.
Figure 19 : Distribution de la différence de deux séries sous Ho et H1

Ainsi, devant une différence observée, on conclura à l’existence d’une réelle


différence seulement si le risque de se tromper (pris en faisant cette conclusion)
est inférieur à 5%, c’est-à-dire, si la valeur de p donnée par le test est inférieure
au seuil de 5%. Lorsque p ≤ 5%, la différence est dite « statistiquement
significative », quand p > 5%, la différence n’est pas « statistiquement
significative ».
Exemple : La différence des moyennes de 2 traitements n’est pas statistiquement
significative avec p=0.05. Cela signifie qu’on a 5% de chance de conclure à tord qu’il
y a une différence, alors qu’il n’y en a pas.

Une différence non significative n’est pas synonyme d’absence d’effet. La


comparaison est peut-être insuffisamment puissante pour mettre en évidence la
différence qui existe.
En effet l'absence de différence significative peut être liée à un manque de
puissance du test. En particulier si la variance est faible. Sachant que le paramètre
116
essentiel qui rentre dans la détermination de la variance est la taille de
l'échantillon, et c'est le seul qui est contrôlable par l'expérimentateur.

L’absence de preuve n’est pas la preuve de l’absence.


Un résultat statistiquement significatif signifie seulement que le risque d’erreur
alpha est faible.
Figure 20 : Test statistique : interprétation

Tableau 6 : Résultats de la comparaison de deux antihypertenseurs : A et B chez


des hypertendus (données « démographiques » à l’issue d’une randomisation).

Paramètres Groupe A Groupe B p


n = 30 n = 30
Age 56 ± 5 ans 55 ± 3 ans ns
Hommes 19 18 ns
Poids 78 ± 4 kg 80 ± 3 kg ns
Ancienneté de 10 ± 5 ans 17 ± 8ans 0,06
l’HTA
Pression 160/95 ± 10/5 164/96 ± 12/4 ns
artérielle
Etc.
* NS signifie non significatif ; une valeur de p<0,05 signifie qu’il y a une différence
significative entre les valeurs comparées.

117
Dans cet exemple, l’inégalité de répartition des patients en fonction de l’ancienneté
de l’HTA ne constitue pas une entrave grave à l’analyse des résultats de l’essai. Il
n’en sera sans doute pas de même si les chiffres de PA étaient différents à
l’admission.
Dans un essai thérapeutique, les résultats obtenus à l’issue de l’étude sont
comparés entre les groupes (comparaison inter- groupe) par le test statistique
adapté.
La comparaison ne doit jamais être menée dans les groupes (comparaison intra-
groupe) ce qui reviendrait à réaliser une analyse avant traitement-après
traitement, dont on stigmatise les limites.

Un seuil de risque α de 5% est-il acceptable ?


Classiquement le seuil de la signification statistique est fixé à 5%. Une autre valeur
plus contraignante peut être utilisée, en particulier 1%. Dans certains cas, un risque
de 5% n’est pas totalement négligeable.
Par exemple, supposons qu’il existe environ 400 spécialités différentes dans la
pharmacopée et que chacune n’a été évaluée que par un seul essai thérapeutique.
Avec un risque alpha de 5%, 20 de ces produits seraient présents à tort dans notre
arsenal thérapeutique.
Avec un vaccin qui est très largement diffusé par exemple, prendre un risque de
conclure à tort à son efficacité de 5% est trop important. Un risque de 1% serait le
bienvenu.
Par contre, avec une maladie très rare pour laquelle aucun traitement efficace n’est
encore disponible, consentir un risque alpha de 10% est peut être envisageable.
Il est donc difficile de définir des normes pour le choix du seuil de la signification
statistique.
Il s’agit d’un choix de valeur. L’important est de se souvenir de la signification de ce
choix et du fait que la valeur habituelle de 5% est arbitraire et qu’elle n’est pas
immuable

Puissance d'un test


Il faut souligner que les tests ne sont pas faits pour « démontrer » H0 mais pour «
rejeter » H0. L’aptitude d’un test à rejeter H0 alors qu’elle est fausse constitue la
puissance du test. La puissance d’un test est fonction de la nature de H1, elle
augmente avec la taille de l'échantillon, à valeur de α constante. La puissance d’un
test diminue lorsque α diminue.
118
La puissance d’un test équivaut à , c’est à dire la probabilité de ne pas rejeter
l'hypothèse alternative quand elle est vraie, est choisie selon le type d'essai
réalisé, généralement de 80 % ou plus. Ne pas mettre en évidence un effet dans un
échantillon ne signifie pas qu'aucun effet n'existe en réalité.
Pour cela, tout essai thérapeutique doit faire état du calcul préalable du nombre de
patients nécessaire et de la puissance de l'essai. C'est un des critères de bonne
pratique méthodologique.
Rappelons que la puissance statistique d'un essai clinique est son aptitude (en
termes de probabilité) d'obtenir un résultat statistiquement significatif si le
traitement est réellement efficace.

La puissance statistique d'un essai utilisant par exemple un critère de jugement


binaire dépend de plusieurs paramètres : la taille de l'effet à mettre en évidence,
le nombre de sujets, le risque de base (risque sans traitement) et le risque
d'erreur statistique alpha consenti. La taille de l'effet à mettre en évidence est le
paramètre qui conditionne en premier la puissance d'un essai.
Plus l'effet du traitement est faible, plus il "faut de la puissance" statistique pour
le mettre en évidence. Un même essai sera d'autant moins puissant que l'effet qu'il
recherche est petit.
Le nombre de sujet à inclure dans un essai est fonction de 4 composantes : la
réponse vis à vis du traitement de référence, le bénéfice attendu du nouveau
traitement, le niveau de signification et la puissance.

Test unilatéral ou bilatéral


Chaque test statistique a une distribution que l'on peut diviser en deux parties : la
partie d'acceptation et l’autre pour le rejet. Ces régions sont généralement
fonction du caractère uni- ou bilatéral du test.
Si la valeur de la statistique se trouve dans la région d'acceptation, l'hypothèse
nulle n'est pas rejetée. Le test est considéré comme non significatif.
A l'inverse, si la valeur de la statistique se trouve dans la région de rejet,
l'hypothèse nulle est rejetée. Le test est considéré comme significatif.
Dans les essais thérapeutiques, il est important de préciser dans quel sens on
recherche une différence entre deux thérapeutiques. Si on cherche à savoir si un
traitement B est supérieur à A ou non, c’est une comparaison unilatérale.

119
Figure 21 : Zone d'acceptation et zone de rejet pour une distribution normale avec
un risque de première espèce de 0.05, sous l'hypothèse nulle H0.
Figure 6 a : Test bilatéral

Figure 6 b :
Test unilatéral

Dans le cas où l’on cherche à savoir si B est différent de A ou non, sans idée à
priori sur le sens de la différence, il s’agit d’une comparaison bilatérale.
Le plus souvent, l'hypothèse nulle H0 correspond à l'égalité des effets des
traitements et l'hypothèse alternative H1 correspond à l'inégalité des effets.
Il est donc important de déterminer (dans le protocole de recherche) avant de
faire un test statistique, quelle est l'hypothèse nulle et quelle est l'hypothèse
alternative, et de choisir si le test est effectué en situation unilatérale ou
bilatérale. Un test unilatéral est plus puissant qu'un test bilatéral.

Choix d'un test statistique


Décider du choix du test le plus approprié aux hypothèses testées est un aspect
central des statistiques. Chaque type de test statistique a une distribution de
probabilité. On dispose actuellement de nombreux tests statistiques différents qui
peuvent être utilisés pour arriver à une décision concernant une hypothèse. Le
choix doit se faire sur des bases rationnelles pour tester l’hypothèse émise au
départ. Il est très important de considérer la nature des données (observations
qualitatives ou quantitatives) que l'on va tester, pour pouvoir utiliser des calculs
nécessaires.

120
Certains tests supposent une loi (distribution) théorique sous-jacente avec des
paramètres. Ce sont les tests paramétriques. D'autres tests n'imposent aucune
hypothèse de distribution. On les nomme tests non- paramétriques. Suivant que l’on
compare une valeur calculée (comme par exemple une moyenne, une proportion) à
une valeur théorique, ou que l’on compare deux ou plusieurs valeurs calculées entre
elles, on parle de test de conformité ou d'homogénéité. On utilise le même
vocabulaire pour comparer la ou les distributions calculées. Dans ce cas, il faut
aussi déterminer la valeur que le test doit atteindre pour être considéré comme
significatif.
Figure 22 : Types de variables servant à distinguer les individus d’une population

Les étapes d’un test statistique


Pour réaliser un test d'hypothèse, il y a un enchainement strict d'actions à
effectuer. Cela commence par la formulation de l'hypothèse dans le domaine
considéré (médical, économique, social...) et sa traduction en événements
probabilistes liés à H0. On doit ensuite considérer la statistique d'écart (la loi
théorique de la différence) et choisir un seuil (alpha) de décision. On doit ensuite
calculer la valeur de la statistique d'écart pour nos valeurs puis comparer à la
valeur théorique de la statistique d'écart pour le seuil choisi et en déduire si on
refuse H0 ou non. Enfin, le calcul (ou la lecture) de la "p-value" associé au
dépassement de la valeur de la statistique d'écart permet de conclure de façon
fine sur le fait que la différence est significative ou non.
Principales étapes
1 Choisir le type de test et vérifier les conditions de son utilisation.
2 Définir la statistique correspondante.
121
3 Choix des hypothèses à tester : choix d’une hypothèse nulle H0 ;
4. Fixer une règle (choix du risque α, habituellement 5 %) pour décider
l’acceptation ou le rejet de H0 ;
5. Vérification des conditions d’application : taille des échantillons et autres
conditions spécifiées ;
6. Calcul de la statistique appropriée ;
7. Décision en comparant la valeur de la statistique calculée au seuil de signification
correspondant au risque α choisi ;
8. Calcul du degré de signification du test.
9. Conclure sur la population.

Notion d’intervalle de confiance

En règle générale, on estime la valeur réelle d’un paramètre dans une population à
partir de l’observation d’un échantillon. Le calcul d’une moyenne ou d’une proportion
par exemple à partir d’un échantillon n’est donc une estimation de la valeur vraie.
Or la valeur vraie de la générale est inaccessible à l’expérience.
L’intervalle de confiance est donc une fourchette de valeurs contenant la valeur
réelle du paramètre considéré avec une probabilité donnée. On l’exprime en % ou en
déviations standards.
L’intervalle [a, b] est centré sur la valeur numérique estimée du paramètre inconnu
et contient la valeur vraie avec un probabilité α fixée a priori. Cette probabilité
permet de s’adapter aux exigences de l’application.
Dans de nombreuses études, l'objectif n'est pas de tester une hypothèse
particulière sur un paramètre mais d'estimer un paramètre. C'est par exemple
l'estimation d'une moyenne ou d'un Odds ratio et leurs intervalles de confiance
respectifs.
L'intervalle de confiance est défini comme un ensemble de valeurs autour de
l'estimation d'un paramètre (une moyenne, une proportion, un risque relatif…) qui
ont une probabilité fixée à l'avance de contenir la valeur du paramètre que l'on
cherche à estimer.
Une estimation par intervalle de confiance sera d’autant meilleure que l’intervalle
sera petit pour un coefficient de confiance grand.
Cet intervalle de confiance peut être calculé pour toutes les valeurs citées. Une
valeur de 95 % est souvent choisie pour l’IC, 95 % de chances que la valeur réelle
soit bien dans la fourchette des valeurs données.
122
L’iintervalle de confiance d’un OR par exemple est la "fourchette" à l’intérieur de
laquelle la vraie valeur de OR a 95% de chances de se trouver. Un intervalle de
confiance à 95 % signifie que, si l’enquête ou l’étude est reproduite 100 fois dans la
même population avec des échantillons différents, dans 95 des cas la valeur
trouvée se situera dans l’intervalle de confiance donné.

Figure 23 : Signification des bornes d’un intervalle de confiance


Réduction relative = -20%, IC95%= (-35%;-5%)

Au mieux, la vraie réduction Au pire, la vraie réduction


relative est de -35% ce qui relative est de –5% ce
correspond à un effet correspond à effet très faible
conséquent.

Le résultat observé dans l'essai donne une réduction


relative de -20%. Cette valeur n'est qu'une estimation
de la vraie efficacité du traitement, qui peut être en
réalité plus petite ou plus importante.

Trois facteurs font varier l’amplitude de l’IC :


Le risque d’erreur accepté : plus il diminue, plus l’IC sera large.
La variabilité des mesures : si les valeurs sont très variables, l’IC sera plus large.
La taille de l’échantillon : plus il est grand, plus l’IC à 95 % est étroit, donc plus
précis.

Puissance et intervalle de confiance


La largeur de l'intervalle de confiance reflète la puissance statistique de l'essai :
plus la puissance statistique est élevée, plus l'intervalle de confiance est étroit.

123
Ainsi, à vrai risque relatif et à risque de base constant, la largeur de l'intervalle de
confiance dépend du nombre de sujets : plus l'effectif est important, plus
l'intervalle de confiance est étroit.
La précision de l'estimation de l'effet traitement est inversement proportionnelle
à la largeur de l'intervalle de confiance.
Donc plus la taille d'un essai est importante, plus il estime avec précision l'effet
traitement.
Avec le risque relatif, un résultat est statistiquement significatif à partir du
moment où l'intervalle de confiance ne contient pas la valeur 1 (marquant l'absence
d'effet).
Ainsi pour qu'un résultat soit statistiquement significatif, la largeur de l'intervalle
de confiance doit donc être d'autant plus petite que le risque relatif est proche de
1.
Comme la largeur de l'intervalle de confiance est directement liée au nombre de
patients, il devient clair qu'un plus grand effectif est nécessaire pour mettre en
évidence un petit effet qu'un effet plus important.

Interprétation d’un intervalle de confiance


Soit θ le paramètre inconnu (une moyenne ou une proportion) d’une population que
l’on cherche à estimer. On dira qu’il y a α.100 chances sur cent de se tromper en
disant que θ appartient à l’intervalle.
On dira qu’il y a (1 - α).100 chances sur cent de ne pas se tromper en disant que θ
appartient à l’intervalle. Si un échantillon est de grande taille, une différence peut
être statistiquement significative, même si elle est petite.
Ce sera l’intervalle de confiance qui qualifiera l'amplitude de cette différence. Le
rôle joué par les effectifs est facilement appréciable avec les intervalles de
confiance.
Ce n'est pas toujours le cas avec un test d'hypothèse. Certaines revues privilégient
actuellement la présentation des résultats sous la forme d'intervalles de confiance.
Il faut distinguer aussi :
L’intervalle de variation : un intervalle qui concerne une variable aléatoire étudiée,
l’intervalle de pari, qui concerne la loi connue d’un paramètre (moyenne, proportion,
…) et l’Intervalle de confiance qui concerne l’estimation d’un paramètre inconnu à
partir d’observations tirées d’un échantillon.

124
Conclusion
L'utilisation des statistiques est facilitée par le développement de l'informatique
et de logiciels conviviaux. Toutefois, une connaissance précise des principes
statistiques reste essentielle pour une utilisation appropriée de celles-ci, que ce
soit comme auteur ou comme lecteur d'un article scientifique.
Si la connaissance exacte des formules de calcul n'est plus nécessaire (plusieurs
logiciels peuvent le faire), une connaissance appropriée des conditions d'utilisation
des tests statistiques est impérative. Il faut souligner que la consultation d'un
biostatisticien est souvent salutaire et qu'elle est d'autant plus fructueuse que
celle-ci est prévue tôt dans l'histoire d'un protocole et que les concepts généraux
sont déjà acquis.

125
ème
4 partie

ÉTUDES ÉVALUATIVES
OU D’INTERVENTION

126
GÉNÉRALITÉS

Les études d évaluation ou d’intervention ont pour objet d’étudier les effets des
interventions préventives ou curatives dans le domaine de la santé. Les
interventions en santé publique se définissent comme des actions visant à améliorer
l’état de santé d’un groupe (prévention primaire, secondaire ou tertiaire).
L’épidémiologie évaluative a recours idéalement à des enquêtes de type quasi
expérimental (à rapprocher des méthodes mises en œuvre en recherche clinique), à
défaut à des études de type « avant-après » ou « ici-ailleurs » qui comparent un
groupe ayant bénéficié de l’intervention et un autre qui n’en a pas bénéficié.
Les enquêtes d’évaluation diagnostique / Évaluation d’une méthode de dépistage
Ce sont des enquêtes qui estiment les qualités diagnostiques d’un test diagnostique
ou son impact pour le malade. L’évaluation métrologique d’un test détermine sa
précision, sa reproductibilité, son acceptabilité, son coût. On détermine également
les indices de Sensibilité et de spécificité.
Enquêtes d’évaluation des facteurs pronostiques / prédictifs.
Selon la chronologie de l’enquête, on distingue les enquêtes prospectives et les
enquêtes rétrospectives
1) Les enquêtes rétrospectives : lorsque l’enquête est conduite, l’événement
recherché s’est déjà produit. On recherche donc l’information dans le « passé »
soit en interrogeant les sujets (anamnèse) soit à partir de document comme un
dossier clinique.
2) Les enquêtes prospectives : lorsqu’on met en place l’enquête l’événement ne s’est
pas encore produit. C’est la surveillance de la population qui permet
l’enregistrement des événements.
Ce que l’on cherche à évaluer
Dans une évaluation thérapeutique, (dans le chapitre précédent) : l’efficacité et la
tolérance d’un traitement médical, d’une technique chirurgicale, d’une association
thérapeutique… Dans une évaluation diagnostique : un symptôme, un signe clinique,
un examen complémentaire (biologique, radiologique, immunologique…)… Dans une
évaluation pronostique : l’influence de l’âge, du sexe, des signes cliniques, des
résultats biologiques, de l’environnement… Dans les enquêtes d’évaluation, les
données doivent être suffisamment claires, et précises : les valeurs limites d’un
examen considéré comme normales et, à contrario, comme anormales ou
pathologiques doivent indiquées.
127
ÉVALUATION DES MÉTHODES
DIAGNOSTIQUES ET DE DÉPISTAGE

Généralités
Une étude diagnostique peut être motivée par les éléments qui concernent soit la
recherche soit la mise en évidence de tests diagnostiques nouveaux et efficaces.
Pour le médecin, les méthodes diagnostiques lui permettant de classer, en fonction
des mesures effectuées, les résultats en “ positif ” ou “ négatif ”, et les personnes
en “ normales” ou “ malades ”.
Une étude diagnostique peut être justifiée par diverses attitudes, en particulier
devant une incertitude diagnostique éventuelle liée à l'imperfection des tests
existants (par exemple une problématique spécifique actuelle est posée par la
Maladie d’Alzheimer, dont le seul diagnostic de certitude et de référence est
l’autopsie et le diagnostic anatomopathologique. La mise en évidence de tests
neuropsychologiques pour le diagnostic de cette maladie sera d’un apport certain),
soit l’apparition d’un nouveau test diagnostique dont on veut décrire l'intérêt, ou
que l'on se propose d'étudier, cela correspond à l'hypothèse de recherche.
L’évaluation des méthodes de diagnostiques et de dépistage repose sur deux
méthodes :
La validité interne d’un test :
C’est la capacité d’évaluer correctement l’état de santé d’un sujet. La validité
interne d’un test évalue la qualité de l’instrument de mesure Cette capacité est
mesurée par la sensibilité, la spécificité, les valeurs prédictives, la concordance ou
l’efficience :
La validité externe d’un test ou reproductibilité : C’est la capacité d’obtenir un
même résultat quand on répète un examen chez la même personne dans des
circonstances exactement les mêmes. La reproductibilité peut être déterminée
pour un ou plusieurs observateurs.

ÉVALUATION D'UN NOUVEAU TEST

Évaluer un nouveau test revient à se poser plusieurs types de questions


successivement. La première est de savoir si le nouveau test proposé mesure bien
ce qu'il est censé mesuré. C'est une question qui concerne la validité de la mesure

128
envisagée en terme de qualité technique c'est la qualité métrologique de la mesure.
On évalue la fiabilité du test en termes d'exactitude et de précision.
L'évaluation d'un nouveau test (clinique, biologique, d'imagerie,...) consiste à
apprécier l'information qu'il apporte sur la connaissance de la maladie explorée.
Elle repose sur l'interprétation d'indices qui caractérisent cet apport
informationnel. Lorsque l'on dispose d'un nouveau test, il faut valider l'information
qu'il apporte. L'efficacité de ce nouveau test est généralement évaluée par rapport
à un test dit de référence.
On évalue également sa reproductibilité. C'est la capacité d'un test à donner un
résultat identique quand il est répété. Un test exact précis avec une
reproductibilité médiocre peut entraîner des résultats qui peuvent différer
largement de la valeur correcte, même si la moyenne des résultats avoisine la vraie
valeur.
La reproductibilité peut être affectée par des fluctuations entre observateurs
(différents individus ou laboratoires) ou par des fluctuations pour un même
observateur (variation intra-observateur).
La seconde concerne l'information qu'apporte le test, quel renseignement est-il
capable de véhiculer en clinique ? En effet, tout nouveau test, techniquement
réalisable, n'est pas forcément cliniquement nécessaire.
La troisième est de type décisionnel. Cet examen apporte-t-il un élément novateur
en termes de décision médicale qu'elle soit diagnostique, thérapeutique ou
pronostique ? Quelle est sa place dans la stratégie décisionnelle ?
La quatrième concerne le malade pour lequel on réalise ce nouveau test. La
réalisation du test améliore-t-il sa santé ? C'est le concept d'utilité au sens de
l'organisation mondiale de la santé.
La cinquième enfin, ce nouveau test améliore-t-il la santé de la population ? C'est le
concept d'efficacité appliquée en Santé Publique.

L’évaluation d’un test diagnostic comporte deux situations :


- Un test dont la réponse est binaire, il aboutit à une réponse de type "oui"/"non"
ou "positif"/"négatif" ou "présence"/"absence" : présence de sang dans les urines
oui/non, sérologie HIV positive/négative, bacille acido-alcoolo résistant au tubage
gastrique présent/absent.
- Un test dont la réponse est quantitative, dans ce cas la valeur du résultat du
test est représentée par une variable continue dont les valeurs s'échelonnent sur

129
toute une gamme de possibilité. Dans ce cadre le problème qui se pose est de savoir
au delà ou en deçà de quelle valeur le résultat du test est-il pathologique.
Par exemple, au delà de quelle valeur de créatininémie un patient présente-t-il une
insuffisance rénale au-dessous de quelle valeur d'hémoglobinémie un homme/une
femme sont-ils considérés comme anémiques ?

Méthode d’évaluation d'un test diagnostique

Avant de comparer l'apport d'un nouveau test par rapport à un examen de


référence, ou si on s'intéresser à la comparaison de deux ou plusieurs nouveaux
test, il faut mettre en place un protocole d'étude qui définira précisément les
suivants :
- les objectifs attendus de l'étude,
- la définition des sujets bons pour l'essai,
- la définition non ambiguë des examens à comparer
- la définition de la maladie de référence,
-la méthode d'attribution des examens (randomisation, ordre de prescription),
-le critère de jugement (sensibilité, spécificité ou valeurs prédictives) et le calcul
du nombre de sujets nécessaires.

Objectif principal
Il découle de l’hypothèse formulée, il est unique et conditionne la réalisation de
l’étude. Exemple : déterminer les valeurs intrinsèques (sensibilité et spécificité) du
test X pour le diagnostic de la maladie Z, ou déterminer les capacités
discriminantes (rapport de vraisemblance positif ou négatif…) du test X pour le
diagnostique de la maladie Z dans la population PP.

Objectifs secondaires
Ils peuvent être multiples, mais sont conditionnés par le mode de réalisation de
l’étude : l’objectif principal est prioritaire.

Plan d'évaluation d'un nouveau test diagnostique


Lorsque l'on dispose d'un nouveau test, il faut valider l'information qu'il apporte.
L'efficacité de ce nouveau test est généralement évaluée par rapport à un test dit
de référence. Le test de référence est considéré comme apte à distinguer les
sujets malades des sujets non malades notés respectivement M+ et M-. Dans une
130
population, on tire au hasard des individus auxquels on applique simultanément les
deux tests, le test dit de référence et le nouveau test.

Les résultats du nouveau test seront notés T+ et T- référant respectivement à un


résultat positif ou négatif. Les résultats des deux tests permettent d'établir le
tableau suivant à 4 cases (tableau 1).
On distingue 4 types de sujets :
a : les vrais positifs qui sont positifs pour le nouveau test et malades.
b : les faux positifs qui sont positifs pour le nouveau test et non-malades.
c : les faux négatifs qui sont négatifs pour le nouveau test et malades.
d : les vrais négatifs qui sont négatifs pour le nouveau test et non-malades.

Les effectifs des vrais positifs, faux positifs, faux négatifs et vrais négatifs sont
notés respectivement a, b, c, d. L'effectif total est noté N.
On appelle prévalence de la maladie (PM) le rapport des effectifs des sujets
malades sur l'effectif total. Elle est définie par la proportion de sujets atteints
dans la population étudiée à un instant donné.

Tableau 7 : Plan d'évaluation d'un nouveau test diagnostique

Test de référence
Nouveau Malades (M+) Non-malades (M-)
test
Positif (T+) Vrais positifs Faux positifs (b)
(a)
Négatif (T-) Faux négatifs Vrais négatifs (d)
(c)

La taille de l'échantillon.
Le calcul de la taille de l’échantillon doit être adapté à la question posée. L'exposé
du calcul de la taille de l'échantillon pour une étude de la validité diagnostique doit
faire apparaître :
- les valeurs espérées de la sensibilité et la spécificité pour considérer que le test
évalué sera valide ;
131
- le niveau de précision espéré autour de ces estimations de la sensibilité et de la
spécificité
- les niveaux de risques statistiques que les auteurs étaient prêts à prendre (« …
avec des risques α et β fixés à …).

Schéma d’étude
La comparaison entre un outil de référence et l'outil à évaluer peut se faire de
plusieurs manières.
-quand le seul outil diagnostique de référence est le suivi, le schéma d'étude est
similaire à une étude de cohorte ; des individus ayant des résultats positifs ou
négatifs, selon l'outil à évaluer, sont sélectionnés puis suivis jusqu'à ce que le
diagnostic définitif puisse être posé.
- quand un outil diagnostique de référence autre que le suivi est disponible, le
schéma d'étude est similaire à celui d'une étude cas- témoins ; des individus
malades et non malades sont sélectionnés selon l'outil de référence, puis l'outil à
évaluer est appliqué.
- si on compare des résultats de l'outil évalué avec ceux d'un outil diagnostique de
référence, l’outil de référence doit être un test de diagnostic définitif : biopsie,
chirurgie, autopsie, suivi à long terme ou tout autre référence acceptée.

Mesure de la performance d’un test diagnostique : Cas d'un test à réponse


binaire
On définit la sensibilité (Se) et la spécificité (Sp) d'un nouveau test par rapport à
un test de référence. Dans la plupart des situations, le médecin est surtout
intéressé à savoir si le test identifie correctement tous les patients qui ont la
maladie. La caractéristique correspondante du test est la sensibilité qui est
définie comme la capacité du test à correctement identifier les individus qui ont la
maladie.
La sensibilité est le rapport du nombre de patients qui ont un test positif et ont la
maladie (vrais positifs = VP) sur le nombre total de patients qui ont la maladie.
La sensibilité est une proportion et peut donc prendre des valeurs de 0,0 ou 0%
(aucun malade n'est correctement identifié) à 1,0 ou 100% (tous les malades sont
correctement identifiés, il n'y a aucun faux négatif (FN)).

132
La sensibilité est la proportion des vrais positifs parmi les sujets malades.

Identification des non- malades


Un test qui serait 100% sensible aurait la capacité d’identifier tous les patients qui
ont la maladie, mais ne serait parfait que s'il identifiait correctement aussi tous les
patients qui n'ont pas la maladie.
Cette capacité est la spécificité, qui est définie comme la capacité du test à
correctement identifier les individus qui n'ont pas la maladie.
En pratique, la spécificité est le rapport du nombre de patients qui ont un test
négatif et n'ont pas la maladie (les vrais négatifs = VN) sur le nombre total de
patients qui n'ont pas la maladie.
La spécificité est une proportion et peut donc prendre aussi des valeurs de 0,0 ou
0% (aucun non-malade n'est correctement identifié) à 1,0 ou 100% (tous les non-
malades sont correctement identifiés ; il n'y a aucun faux positif (FP).
La spécificité est la proportion des vrais négatifs parmi les sujets non-
malades.

Exemple : Dans le diagnostic de l'infection par le VIH par la méthode ELISA, on


applique le test chez 162 patients porteurs asymptomatiques du VIH dont le
diagnostic a déjà été confirmé par un bilan virologique plus complet.
Tableau 8 : Exemple : Résultats du test ELISA chez un groupe de patients VIH
positif
Nouveau test VIH VIH Total
présent absent
ELISA positif 157 4 161
ELISA négatif 5 1996 2001
Total 162 2000 2162
Se = 157 / 162 = 0,97 ou 97%
Sp = 1996 / 2000 = 0,998 ou 99,8%.
A partir de l’exemple suivant, on remarque que les résultats du test étudié montre
que qu’il s’agit d'un test sensible et spécifique.

133
La spécificité et la sensibilité sont indissociables de la maladie qu'ils explorent. Ils
n'ont de sens que par rapport à une maladie donnée. La positivité de la recherche
d'une protéinurie par bandelette par exemple est sensible dans le cadre d'une
néphropathie glomérulaire mais pas dans un autre type de néphropathie. Ces deux
indices peuvent être aussi exprimés simplement en termes de probabilités
conditionnelles.
La sensibilité correspond à la probabilité d'avoir un résultat positif au nouveau test
dans la population malade. Elle caractérise la capacité du test à détecter les sujets
présentant la maladie (M+).
La spécificité correspond à la probabilité d'avoir un résultat négatif au nouveau
test dans la population non-malade (M-) ; elle caractérise la capacité du test à ne
détecter que les sujets présentant la maladie.
Les intervalles de confiance à 95% de ces pourcentages peuvent être calculés. Ces
intervalles de confiance sont :
pour la sensibilité :

où £ = 1.96.

pour la spécificité :

Mesure de la performance d’une stratégie diagnostique


Cherchons à estimer les chances d'avoir par le nouveau test un jugement correct
de l'existence ou non de la maladie. C'est la valeur prédictive de l'examen. Cette
valeur prédictive dépend des caractères propres du test mais aussi de la
prévalence de la maladie étudiée. En d’autre terme, d’autres questions
diagnostiques importantes se posent au praticien : quelle proportion des patients
ayant un test positif correspond à des vrais malades ?
Quelle proportion des patients ayant un test négatif correspond à des sujets
indemnes de la maladie ? Ces informations sont données par les valeurs prédictives
des résultats du test.
La mesure de la performance d’une stratégie diagnostique est effectuée par la
valeur prédictive positive et par la valeur prédictive négative.
La valeur prédictive positive (VPP) d'un nouveau test est définie comme la
proportion de vrais positifs sur l'ensemble des sujets positifs au nouveau test.
La valeur prédictive négative (VPN), est la proportion de vrais négatifs sur
l'ensemble des sujets négatifs au nouveau test.
134
Les valeurs prédictives sont comprises entre 0 et 1.
La valeur prédictive positive (VPP) : C’est la probabilité d’être malade lorsque le
résultat est positif. Une stratégie diagnostique ayant une VPP de 100% signifie que
tous les résultats positifs correspondent à des malades (aucun FP).
La valeur prédictive négative (VPN) : C’est la probabilité d’être indemne de la
maladie quand le test est négatif. Une stratégie diagnostique ayant une VPN de
100% signifie que tous les résultats négatifs correspondent à des non malades
(aucun FN).
Tableau 9 : les valeurs prédictives d’une stratégie diagnostique
Test de référence

Nouveau test Malades (M+) Non-malades (M-)


Positif (T+) Vrais Positifs Faux Positifs (b)
(a)
Négatif (T-) Faux Vrais Négatifs (d)
Négatifs (c)

VPP = VP / VP + FP

VPN = VN / VN + FN

Détermination d'un seuil de positivité : cas d'une réponse quantitative


Si les résultats d’un test diagnostique s'expriment sous forme de résultats
quantitatifs, on peut choisir entre deux options : soit calculer la sensibilité et la
spécificité pour tous les seuils possibles, soit fixer un seuil de positivité et
justifier le choix de ce seuil.
Le meilleur compromis entre spécificité et sensibilité d’un test c’est de définir la
valeur optimale du seuil de positivité d’un test, c’est-à-dire le choix du seuil
déterminant le normal et le pathologique ou l’état de malade ou non malade.
Le choix de la valeur seuil aura une influence sur le taux de faux positifs et faux
négatifs.
Selon le seuil choisi, il y aura plus ou moins de valeurs normales chez les patients
malades ou de valeurs pathologiques chez les patients sains. Le seuil idéal est donc

135
celui qui permet de séparer totalement tous les positifs des négatifs sans faux
positifs ni faux négatifs.

Figure 24 : Choix du seuil de positivité d’un test quantitatif : situation idéale

Le choix d'un seuil de positivité, dans le cas de tests quantitatifs, permet de


définir la valeur à partir de laquelle un résultat sera considéré comme positif (ex.
dosage biologique).
- Si les conséquences d'une erreur de diagnostic par défaut (FN) sont graves et si
les tests de confirmation de la présence de la maladie sont peu chers et peu
dangereux, on choisira un seuil bas (ex. dépistage de la phénylcétonurie chez le
nouveau-né, dépistage de séropositifs au VIH chez des toxicomanes). On
augmentera ainsi le nombre de VP, mais également celui des FP.
- Au contraire, le seuil sera placé plus haut si l'on cherche surtout à éliminer le
diagnostic et si les conséquences d'un FP sont graves ou coûteuses (dépistage de
séropositifs au VIH dans les centres de transfusion sanguine). On augmentera
ainsi le nombre de VN, mais également celui des FN.
Choix du seuil de positivité
Dans le cas d’un test parfait, la distribution des résultats chez les malades et les
non malades est totalement distincte, les valeurs observées chez les malades ne
sont jamais observées chez les non malades et vice versa.
Dans cette situation, le seuil de positivité correspond exactement au point
d’intersection des deux distributions et le test a une sensibilité et une spécificité
de 100%.

136
Figure 25 : Choix du seuil : exemple pour un test de glycémie

1 g/l
Limite de la glycémie au-delà de laquelle on dit que le test est positif

Pour la définition thérapeutique d’une maladie, on choisi comme seuil le point delà
duquel on a démontré que les traitements spécifiques font plus de bien que de mal.
Cela évite de qualifier des sujets comme étant malades s'ils ne doivent pas être
traités.

Les courbes ROC


Les Courbes ROC (Receiver Operating Characteristic ou Courbe caractéristique de
la performance d'un test). Le but est de choisir le seuil diagnostique d’un test en
recherchant le meilleur rapport entre sensibilité et spécificité, pour différentes
valeurs du seuil de discrimination. Le terme de courbe ROC peut être envisagé
comme une "courbe de caractéristiques d'efficacité".
Pour fixer un seuil : on applique le test et on calcule la Se et la Sp pour chaque
seuil, pour obtenir une liste de couples Se-Sp. L’objectif des courbes ROC est donc
de déterminer la valeur seuil optimale.

Figure 26 : Courbe ROC pour deux tests A et B

137
L’applicabilité et l’utilité clinique d’un test diagnostique
Le test doit pouvoir apporter une information utile pour la décision diagnostique et
thérapeutique du médecin. Par ailleurs, il doit pouvoir résulter du diagnostic ainsi
réalisé et de ses conséquences une amélioration de l'état de santé des individus
(utilité pour le patient). Ces utilités sont recherchées par des études
complémentaires, postérieures aux études étudiant fiabilité et validité,
comparatives des deux stratégies diagnostiques incluant ou non le test.

LES TESTS DE DÉPISTAGE

Le dépistage est l'identification dans une population a priori en bonne santé, de


sujets présentant soit une maladie inapparente, soit un risque élevé d'une maladie
donnée, en vue d'examens complémentaires ou de mesures de prévention. Les tests
de dépistage doivent permettre de faire le partage entre les personnes
apparemment en bonne santé mais qui sont probablement exemptes. Ils n’ont pas
pour objet de poser un diagnostic Il est différent du diagnostic dans lequel les
examens sont réalisés sur indications, symptômes, ou test de dépistage positif, en
vue d'un traitement. Le dépistage va "transformer" des personnes se croyant bien
portantes en malades. Il faut donc être tout à fait sûr que ses avantages
surpassent ses inconvénients. Un test est-il acceptable par la population,
reproductible, quels seront son coût et sa difficulté de réalisation, apportera-t-il
un bénéfice si un traitement plus précoce est entrepris.
Tableau 10 : Les principales formes de dépistage

Formes de dépistage Cibles


Simple Une maladie
Plusieurs maladies
Multiple
Plusieurs méthodes et/ou plusieurs étapes
Multiphasique
A Chaque fois qu’une personne se présente dans un
Opportuniste service de santé
Systématique Population entière
Sélectif Population à risque élevé
Recherche de la maladie à son stade initial
Précoce ou primaire
Recherche des cas développés et non retenus
Tardif
(oubliés) dans la population
Répété et continu Faisant partie de la surveillance épidémiologique

138
Évaluation de l'utilité d'un programme de dépistage

Maladie appropriée, grave ; avec une phase préclinique longue ; fréquente dans la
population-cible ; disponibilité d'un traitement efficace, et ce d'autant plus que le
traitement est appliqué plus précocement ; conséquences économiques ;

Stratégie appropriée :
Validité du dépistage : bonne spécificité et bonne sensibilité (éventuellement en
ajustant les seuils ou en combinant des tests) ;
Possibilité d'améliorer les valeurs prédictives en ciblant des populations à
prévalence plus ou moins élevée ; fiabilité du dépistage : les problèmes de
reproductibilité et de précision du test risquent d'être beaucoup plus importants
"sur le terrain".
Structure appropriée :
Tenir compte de l'accessibilité aux services de prévention ou de soins ;
Tenir compte de la charge accrue de travail que le dépistage va représenter pour le
système de soins (ressources matérielles et compétences nécessaires) :
Tenir compte du coût de ces activités supplémentaires dans l'évaluation de celui du
programme de dépistage ;
Vérifier l'acceptabilité du programme, les procédures diagnostiques initiales, les
procédures de confirmation et la thérapeutique proposée ; elle doit être vérifiée
auprès de toutes les personnes visées par le programme, y compris les
professionnels de santé ; tenir compte des risques liés aux différentes étapes, des
coûts associés, et des questions d'éthique.
Tableau 11 : test de dépistage et test diagnostique

Test de dépistage Test diagnostique


Appliqué aux personnes apparemment Appliqué aux personnes
en bonne santé. montrant des troubles définis.
Pratiqué sur les groupes de Essentiellement sur l’individu.
population. Plus précis.
Moins précis. Plus cher.
Moins cher. Constitue la base du
Ne constitue pas la base de diagnostic.
traitement.

139
LES ÉTUDES PRONOSTIQUES

Principe
Contrairement aux études étiologiques dont l’objectif est l’étude de l’apparition
d’un phénomène de santé, les études pronostiques sont menées pour répondre à un
objectif concernant l’évolution d’un phénomène de santé.
Elles portent sur des sujets porteurs d’une affection précise, dont on veut
connaître le devenir ou le pronostic : guérison, rechute, survenue d’une
complication, décès…
Les études pronostiques ont pour but de mettre en évidence et de quantifier
l'effet de certaines caractéristiques individuelles, appelées facteurs pronostiques,
sur l'évolution d'une maladie
Le pronostic concerne le jugement que porte un médecin, après le diagnostic, sur la
durée, le déroulement et l'issue d'une maladie. Les études pronostiques portent sur
des sujets porteurs d’une affection précise, dont on veut connaître le devenir ou le
pronostic : guérison, rechute, survenue d’une complication, décès…
Par exemple, au cours d’une pathologie cancéreuse, l’étude pronostique porte sur la
survenue d’une rémission ou d’une guérison ou d’un décès.
Un pronostic peut être un contexte pathologique ou clinique : une issue clinique
(décès, complication…), ou bien des facteurs prédictifs de l’issue clinique dans le
contexte pathologique considéré.
Un facteur pronostique est un facteur qui influence l’évolution d’une maladie et qui
entraîne plus rapidement une complication ou un décès. C’est une variable liée au
critère de jugement, une variable expliquée.
Un facteur pronostique est aussi une caractéristique du patient qui prédit la
survenue ultérieure d'un événement : la survie, la réponse au traitement, la
toxicité…
L'analyse du pronostic en médecine a connu un développement important ces
dernières années lié à l'émergence de nouvelles modalités d'analyse statistique
fondées sur la théorie des probabilités et sur les modèles d'analyse de la survie.
Cette analyse consiste à rechercher une association entre un ou plusieurs facteurs
et le devenir d'une maladie. Ces facteurs sont appelés facteurs pronostiques. Leur
utilité est croissante dans les processus de décision médicale pour améliorer les
décisions thérapeutiques et également dans les procédures d'ajustement
140
employées dans l'analyse des essais thérapeutiques. Outre l'intérêt de l'analyse
pronostique dans la décision médicale, un autre domaine d'application est celui des
essais thérapeutiques.
Tableau 12 : facteurs de risque et facteurs pronostiques dans l’infarctus du
myocarde

Facteurs de risque Facteurs (mauvais) pronostics

Les études pronostiques sont le plus souvent réalisées en constituant des cohortes
de patients atteints d’une maladie qui sont suivis dans le temps pour la survenue
d’événements évolutifs, selon le principe des études de cohorte. Plus rarement, il
s’agit d’études cas-témoins.
Les études pronostiques peuvent être :
- prospective : la période de recrutement et le suivi sont prospectifs dans le
temps. ;
- ou rétrospective : inclusion de sujets selon des critères définis dans le passé
(sur dossiers).
Les études pronostiques sont des études où le facteur temporel est important.
Elles permettent de suivre dans le temps le devenir des patients en liaison avec les
facteurs ; de fait, elles décrivent l’évolution complète de la maladie chez tous les
patients ; il reste que ces études sont plus simples à mener si le pronostic est à
court terme.
Ces études nécessitent souvent un suivi prolongé. La principale particularité lors de
l’analyse de ce type d’étude provient de l’existence de données censurées.
Les données censurées sont des données des sujets chez lesquels l’évènement n’est
pas encore survenue au moment de la fin de l’étude et que l’on désigne par les
exclus vivants et les sujets pour lesquels on ne dispose plus d’information : les sujet
perdus de vue.

141
Quand l’étude pronostique est descriptive, elle étudie le délai de survenue d’un
événement ; elle a pour objectif d’estimer la survie des patients.
Lorsque l’étude est comparative, elle permet de rechercher les facteurs
pronostiques ou prédictifs de survenue d’un événement.

Le protocole d'une étude pronostique


Comme pour une évaluation diagnostique ou thérapeutique, toute étude pronostique
doit reposer sur un protocole d'analyse précis et détaillé, dont les différents
éléments doivent concerner :
- l'objectif de l'étude ;
- la définition des sujets étudiés ;
- la définition du critère de jugement de l'évolution ;
- les facteurs pronostiques étudiés (critères de jugement) ;
- les modalités du suivi ;
- le type d'analyse retenu en fonction du facteur étudié, du critère de jugement de
l'évolution et de l'effet attendu.

Objectifs
Comme pour les études étiologiques, l’objectif principal d’une étude pronostique
peut être :
- descriptif (répartition spatio-temporelle des phénomènes de santé et leurs
déterminants), par exemple : quelle est la survie des femmes atteintes d’un cancer
du sein ?
- explicatif (recherche d’un lien entre un facteur et un phénomène de santé)
cherchant à mettre en évidence un ou des facteurs pronostiques en déterminant
quels sont les facteurs qui influent sur la survenue d’un événement : l’âge, le sexe,
le stade de la tumeur, la technique opératoire…
Les objectifs secondaires peuvent être multiples et dépendent du type de cohorte
mise en place.

Méthodes
Les études pronostiques sont des études où le facteur temporel est important.
Elles permettent de suivre dans le temps le devenir des patients en liaison avec les
facteurs. De fait, elles décrivent l’évolution complète de la maladie chez tous les
patients.

142
Paramètres à définir
Dans une étude de cohorte on doit préciser le type d’étude (prospective,
rétrospective, étude rétrospective sur données prospectivement recueillies), les
variables dont on veut étudier la valeur pronostique, les critères d’éligibilité de la
population et surtout le critère de jugement. La principale particularité lors de
l’analyse de ce type d’étude provient de l’existence de données censurées.
Dans une étude pronostique descriptive, on étudie le délai de survenue d’un
événement ; l’objectif est d’estimer la survie des patients.
Dans une étude comparative, on recherche et on analyse les facteurs pronostiques
ou prédictifs de survenue d’un événement dans deux groupes. Le plan expérimental
d’une étude pronostique peut être une étude de cohorte prospective, un essai
clinique (bras témoin), une étude cas témoin, ou une étude rétrospective

Le plan expérimental
Le plan expérimental doit être adapté au type d’étude. En effet, une étude
pronostique peut être élaboré sous forme d’une étude de cohorte prospective, un
essai clinique (bras témoin), une étude cas témoin, ou une étude rétrospective. Pour
mesurer l’association entre un facteur et une évolution, d’autres méthodes sont
possibles. Si l’on ne prend pas en compte le délai de survenue de l’évolution, on peut
utiliser les méthodes classiques d’étude d’un événement binaire : calcul de risques
relatifs et/ou d’Odds-ratio complétés si besoin par des analyses multi variées
utilisant des modèles de régression logistique (voir chapitre enquêtes analytiques).
L’étude des facteurs de risque de survenue de la maladie devient simplement dans
ce cas l’étude des facteurs de risque de survenue d’une évolution (= facteurs
pronostiques). Si l’on n’étudie que le délai de survenue d’une évolution présente dans
100% des cas, on peut utiliser les méthodes d’étude de variables quantitatives :
comparaison de moyennes, régression linéaire.

Population d’étude
La population qui est l'objet de l'étude doit être parfaitement définie. Les
conditions d'inclusion de sujets dans la cohorte étudiée doivent être définies
préalablement en termes d'âge, de sexe, de critères diagnostiques de la maladie
étudiée...
Comme pour les autres types d’étude, il faut minimiser les biais de sélection pour
obtenir un échantillon représentatif de la population à laquelle on souhaite
généraliser les résultats. En particulier il faut contrôler la comparabilité des sujets
143
inclus vis à vis de la maladie. Pour une étude descriptive, il faut s’assurer que les
participants inclus ne sont pas en meilleure santé que les non-participants (par
exemple, « healthy worker effect »1) et que leur suivi débute au même stade de la
maladie.
Pour comparer l’évolution d’une maladie, les patients inclus dans les groupes
comparés doivent être identifiés à des stades comparables, sous peine de fausser
les résultats obtenus.
La taille de l’échantillon (nombre de sujets nécessaire) doit-être définie a priori
avant le début de l’étude pour s’assurer une puissance statistique suffisante
permettant de répondre à l’objectif principal fixé. Pour une étude de cohorte
cherchant à identifier un facteur pronostique, l’effectif inclus doit être d’autant
plus grand que le nombre de facteurs pronostiques connus est grand et que le taux
attendus d’événement est faible.
Le nombre de sujets à inclure doit prendre en compte le risque de perdus de vue
afin d’obtenir un nombre suffisant de patient lors de l’analyse.

Les critères de jugement


Les études pronostiques sont souvent comparatives car un critère de jugement
objectif et précis comme le décès qui se prête bien aux comparaisons dans les
domaines de la recherche thérapeutique et épidémiologique. Parmi les différents
critères de jugement utilisés pour évaluer le pronostic d’une maladie, le meilleur
sera toujours le plus précis et objectif.
Le critère de jugement est représenté par le résultat de l'évolution ou statut
évolutif. Il peut être exprimé par une variable dichotomique du type,
vivant/décédé, récidive/absence de récidive, complication/absence de complication.
Il peut aussi être représenté par une variable quantitative comme une durée (une
survie). La durée peut-être interrompue par un décès, une récidive ou une
complication. Les méthodes d'analyse de type survie sont utilisées lorsque le
critère de jugement est une durée d'évolution.
D’autres méthodes sont possibles, notamment dans les études de cohortes
prospectives. Celle-ci mesurent les risques relatifs et/ou Odds ratio, complétés si
besoin par des analyses multi variées utilisant des modèles de régression logistique.

Les différents critères de jugement utilisés pour évaluer le pronostic d’une maladie
doivent être précis. C’est ainsi que la mesure de la survie globale est toujours prise
en compte.
144
Il faut recourir le moins possible aux critères de jugement secondaire et ou de
substitution. Dans ce cas, il faut que le critère de jugement introduise le moins de
biais possible et choisir donc celui qui mesure de manière la plus objective possible
le facteur pronostic.
Par exemple, la mesure de la survie sans récidive peut introduire un plus grand
risque de biais que la mesure de la survie globale, en effet, un diagnostic d’une
récidive sur des arguments radiologiques peut introduire une part de variabilité liée
à l’observateur.
Pour limiter l’impact de cette variabilité, particulièrement lorsque l’étude est
comparative, l’observateur ne doit pas connaître le groupe du patient
(interprétation en aveugle).
La date d’une récidive sera également moins précise que celle d’un décès car elle
peut dépendre de la périodicité du suivi des patients.
L’identification de facteurs pronostiques non modifiables (âge, sexe, etc.) apporte
des connaissances pour estimer le pronostic d’un patient donné. Elle peut néanmoins
être moins utile que l’identification de facteurs modifiables (tabagisme,
sédentarité, etc.) qui va potentiellement permettre de modifier la prise en charge
médicale.

La nature d'un facteur pronostique


Un facteur pronostique peut être de nature qualitative ou quantitative. Un facteur
qualitatif peut présenter 2 ou plusieurs classes. Dans le cas dichotomique à 2
classes il s'agit d'une variable comme le sexe (masculin ou féminin) ou d'une
variable en tout ou rien comme la présence ou l'absence d'une maladie. Un facteur
quantitatif est représenté par une variable continue comme la glycémie, la
créatininémie. Il faut rappeler que la relation entre le critère de jugement de
l'évolution et un facteur pronostique peut être modifiée aussi par un facteur de
confusion qui est un facteur lié à la fois au critère de jugement et au facteur
pronostique.

Déroulement d’une étude pronostique


Il s’agit des différentes étapes de l’étude.
Visite de sélection : elle intervient après la vérification des critères d’inclusion et
d’exclusion des patients. A la fin de cette visite, le consentement écrit du patient
est obtenu.

145
Organisation du suivi : les patients seront suivis aux temps prédéfinis, avec un
tableau récapitulatif des différents examens qui seront réalisés durant le suivi.
Variables relevées : les caractéristiques mesurées au cours d'une étude
pronostique peuvent être de nature très différente : démographique, clinique,
biologique, histologique, génétique, etc. Le recueil des données sera effectué à
l'aide de cahiers d'observation standardisés qui comprendront les caractéristiques
des patients, des facteurs d’exposition, de la pathologie étudiée et les données du
suivi.

Analyse des facteurs pronostiques

Dans les études pronostiques, l’analyse prend en compte l’information disponible


pour chaque individu jusqu’à la fin de sa participation. Les stratégies d'analyse sont
guidées par la nature du critère de jugement de l'évolution de la maladie et du ou
des facteurs analysés. L’analyse concerne surtout les variables pronostiques (ou
variables explicatives au plan statistique) ; ce sont des variables liées au critère de
jugement, le critère de jugement est appelé dans ce cas variable expliquée.
L’analyse évalue donc la relation entre un événement (décès ou complication) et la
présence d’un ou plusieurs facteurs suspectés être des facteurs pronostiques.
En termes statistiques, une étude pronostique se résume le plus souvent à la
construction d'un modèle de régression de Cox, dans la mesure où le critère
mesurant l'évolution de la maladie (le critère de jugement) est bien souvent le délai
d'apparition d'un événement (le décès, la récidive, etc.) qui peut être censuré.
La mesure de l'association entre un facteur pronostique potentiel et le statut
évolutif d'une maladie
Cette mesure est fonction de la nature qualitative ou quantitative du ou des
facteurs étudiés et du critère adopté pour apprécier l'évolution de la maladie.
L'évolution de la maladie peut être appréciée par un critère dichotomique du type
présence ou absence d'un événement, vivant/décédé, récidive/pas de récidive,
complication/pas de complication.
L'analyse statistique fait appel à des techniques souvent complexes, selon la nature
du critère de jugement de l'évolution de la maladie :
- Pour un seul facteur pronostique représenté par une variable qualitative en 2
classes, on utilise le test de Chi2 ;
- Pour un facteur pronostique en 2 classes avec une variable d'ajustement, on
utilise le test de Mantel Hanzel.
146
- Pour un facteur pronostique à plus de 2 modalités ou de plusieurs facteurs
qualitatifs et/ou quantitatifs, on utilise alors un modèle particulier ; le modèle de
régression logistique.

En pratique, l’analyse des études pronostiques s’appuie aussi sur le calcul de délais
de survie et la construction de courbes de survie qui sont des représentations
graphiques d’un taux de survie dans le temps et leur comparaison est testée
statistiquement par le test de Logrank.
Dans les analyses de survie, le choix de la date d’origine de la survie et la prise en
compte des sujets censurés doivent être clairement définis, car ils conditionnent
les résultats sur les taux de survie et la médiane de survie.
La notion de survie qui s’applique au décès a été étendue à tout autre événement
qualitatif binaire (p.ex. apparition d’une métastase dans le cancer).
Les variables pronostiques sont appelées aussi variables explicatives au plan
statistique ; ce sont des variables liées au critère de jugement, le critère de
jugement est appelé dans ce cas variable expliquée.

L’analyse univariée : un seul facteur pronostique est étudié pour un ou plusieurs


critères de l'analyse : la guérison, la rechute, la durée de survie, ou de toxicité…
Cette première étape de l’analyse consiste à déterminer si chacune des covariables
étudiées précédemment est pronostique.
Les tests statistiques utilisés sont le test de student, le test de Kaplan Meier
(courbe de survie), le test du Logrank (pour la comparaison des courbes de survie).

Dans l’analyse multivariée, plusieurs facteurs pronostiques sont analysés en même


temps, soit pour un même critère d'analyse, ou pour plusieurs critères de l'analyse.
Le principe de l’analyse multivariée est d'exclure les covariables « moins
importantes » afin de ne retenir dans le modèle qu'un petit nombre de covariables
« importantes ».
Cette analyse doit aboutir à une combinaison de covariables qui auront toutes une
valeur pronostique (toutes significatives) lorsqu'elles seront prises simultanément.

L’analyse de la courbe de survie peut être réalisée par différentes méthodes :


- La méthode de Kaplan Meyer est une méthode d’analyse de survie qui permet de
décrire la courbe de survie dans un échantillon donné et de comparer les courbes
de différents échantillons à l’aide du test du Logrank.
147
- Le modèle de Cox permet d’analyser la courbe de survie en fonction du risque
instantané d’un échantillon, et en fonction d’une ou plusieurs variables prédictives.
Le risque instantané est le risque observé entre un temps t et t + dt. L’indice
d’effet d’une variable prédictive donné par le modèle de Cox, c’est le « Hazard
Ratio », ou rapport des risques instantanés de maladie.

L’estimation du « hazard ratio »


Si on postule que la proportion (ratio) du risque que survienne l’événement étudié
dans les groupes d’étude est constante dans le temps et similaire dans tous les
groupes, cela signifie que l’effet d’une variable est constant quelle que soit la
durée. La probabilité d’un résultat est appelée « hasard » et le « rapport des
hasards » (hazard ratio) est la relation (rapport) entre risques observés dans le
groupe avec les covariables et le groupe sans covariables. Il est égal au risque
relatif d’un critère à chaque moment.
Pour chacune des variables étudiées, on obtient une estimation du risque relatif
ajusté (hazard ratio) de survenue du décès en présence de la variable, et de son
intervalle de confiance.
Le hazard ratio représente le risque relatif instantané (à chaque moment) de décès
ajusté sur l’ensemble des variables explicatives étudiées.
Dans un essai comparatif, le hazard ratio (HR) est le rapport des risques
instantanés d’événements entre le bras A (bras expérimental) et le bras B (bras
contrôle)
risque de décès dans A
HR =
risque de décès dans B

Par exemple, dans un essai de mortalité versus placebo, un hazard ratio de 0,5
signifie que, sous traitement, le risque instantané de décès est seulement la moitié
du risque (instantané) sans traitement. En d’autres termes, chaque jour les patients
sont exposés à un risque de décès dans la journée réduit de moitié.

Hazard ratio : interprétation dans les essais thérapeutiques


HR > 1 alors le risque sous A est supérieur à celui sous B : effet nocif de A
HR = 1 alors le risque sous A est similaire à celui sous B : pas d’effet de A
HR < 1 alors le risque sous A est inférieur à celui sous B : effet bénéfique de A

148
Exemple : pour HR = 0.71, il y a une réduction de 29% du risque instantané de décès
à tous les temps t, ou bien quelque soit le temps t, on a 29% de risque en moins de
décéder. Le Hazard ratio mesure l’effet « moyen » du traitement sur tout le suivi,
il doit donc être présenté avec son intervalle de confiance.

Autres types d’analyses

Analyse de la gravité des effets indésirables


Ils sont étudiés par rapport à la gravité de la maladie, et par rapport aux
événements évolutifs évités par le traitement.

Analyse du rapport bénéfice / risque des autres options thérapeutiques.

Construction d'un score pronostique


Dans beaucoup de cas, un bon facteur pronostique n'a pas obligatoirement un seuil
de signification élevé mais explique une grande part de la variabilité du critère de
jugement entre les différents individus.
Pour mesurer la puissance prédictive d'un modèle, on peut par exemple calculer
pour chaque sujet ses scores de covariables, puis tracer les courbes de survie
correspondant à ce score découpé en classes.

Conclusion

Les études pronostiques ont pour but de mettre en évidence et de quantifier


l'effet de certaines caractéristiques individuelles sur l'évolution d'une maladie.
L'analyse pronostique devient de plus en plus un instrument important pour établir
les stratégies thérapeutiques en médecine. Les modèles de survie développés ces
dernières années apportent un support conceptuel et analytique essentiel pour ce
type d'analyse.
En termes statistiques, une étude pronostique se résume le plus souvent à la
construction d'un modèle de régression de Cox, dans la mesure où le critère
mesurant l'évolution de la maladie (le critère de jugement) est bien souvent le délai
d'apparition d'un événement (le décès, la récidive, etc.) qui peut être censuré.

149
LES META-ANALYSES

Définition
Dans les sciences du vivant en général et en médecine en particulier, les progrès de
la connaissance procèdent d'une série d’expérimentations. Cependant, les
fluctuations d'échantillonnage et la variation des conditions d'expérimentation
engendrent une variabilité dans les résultats, pouvant aboutir dans certains cas à
des résultats contradictoires.
Comment prendre en compte l'ensemble de ces résultats pour en tirer une
conclusion unique ?
C'est pour répondre à cette interrogation que les chercheurs en psychologie et en
sciences de l'éducation ont initié la méta-analyse au début des années soixante dix.
La méthode sera perfectionnée plus tard dans la recherche clinique et dans les
essais thérapeutiques en particulier.
On appelle méta- analyse, l'analyse simultanée d’un ensemble d'études s’intéressant
à la même question de recherche dans le but d'obtenir des informations qu'aucune
de ces études prises isolément ne pourrait fournir.
La méta-analyse ou "analyse des analyses" est définie aussi un ensemble de
techniques permettant l'analyse statistique, selon une méthodologie appropriée,
d'un grand nombre de données provenant de plusieurs analyses, afin d'en tirer une
synthèse qualitative, quantitative et reproductible (Glass 1976).
C’est une démarche, plus qu’une simple technique, qui a pour but de combiner les
résultats de plusieurs essais thérapeutiques, pour en faire une synthèse
reproductible et quantifiée.
Cette synthèse produit un gain de puissance statistique dans la recherche de
l’effet d’un traitement, une précision optimale dans l’estimation de la taille de
l’effet et permet en cas de résultats apparemment discordants.
C’est donc une synthèse qui se déroule en suivant une méthodologie rigoureuse et
qui a pour but d'assurer l'impartialité de la synthèse et sa reproductibilité. Elle
implique une recherche exhaustive de tous les essais publiés et non publiés. Elle est
quantifiée, car elle se base sur des calculs statistiques permettant une estimation
précise de la taille de l'effet (un traitement par exemple). Ainsi l’utilisation des
anticoagulants dans le post-infarctus a fait l’objet des premières méta-analyses
importantes (1983).

150
Intérêts d’une méta-analyse
La méta-analyse s'avère particulièrement utile lorsque les résultats des études,
prises séparément, semblent contradictoires ou lorsque l'on veut étudier des
événements relativement rares tels que les effets indésirables.
La méta-analyse permet en effet, par une augmentation de puissance, de conclure
là où les essais ne concluent pas du fait de petits effectifs, de faibles différences
entre les traitements ou encore de la fréquence limitée des événements étudiés.

Figure 28 : Multiplication de l’information scientifique

Une méta- analyse a plusieurs objectifs :


- Confirmer et affirmer une information déjà obtenue dans les études originales ;
- Découvrir les biais, les lacunes et les anomalies ;
- Rechercher des informations additionnelles ;
- et formuler des hypothèses nouvelles.
Pour répondre à ces objectifs la méta-analyse va suivre les grands principes
suivants :
– analyse portant sur toute l’information disponible obtenue par une recherche
exhaustive de tous les essais du domaine, pour être le plus objectif possible,
– réalisation suivant une méthode, matérialisée par un protocole strict établi a
priori, pour éviter l’arbitraire de choix influencés par les résultats,
– utilisation de techniques statistiques afin de prendre en compte la nature
probabiliste des résultats des essais.

151
Les étapes d'une méta-analyse
La réalisation d'une méta-analyse est généralement calquée sur celle d'un essai
thérapeutique. Le protocole doit s’articuler autour des étapes suivantes :
Définition de l'objectif ;
Revue de littérature ;
Sélection des essais ;
Extraction des données ;
Choix de la variable à analyser ;
Choix de la technique statistique ;
Interprétation et présentation des résultats.
Définition de l'objectif
Dans le protocole, l'objectif de la méta-analyse doit être clairement défini, les
hypothèses précisées et les procédures de chaque étape décrites.
Revue de littérature
La recherche des essais à inclure dans la méta-analyse est une étape capitale qui
peut être soumise à certains biais. Le recensement des essais réalisés doit être le
plus exhaustif possible afin d'éviter un biais lié à la sélection d'un sous-ensemble
d'essais dont les résultats seraient différents de ceux de l'ensemble des essais
existants, en raison notamment de la non publication d'essais "négatifs".
En effet, les essais publiés, donc les plus facilement accessibles sont en général
des essais "positifs" ou présentant un intérêt scientifique majeur.
La recherche des essais réalisés doit s'appuyer sur :
- les banques de données bibliographiques,
- les références bibliographiques d'articles de revues générales,
- les ouvrages de résumés de communications à des congrès,
- les minutes de conférences,
- les contacts directs avec les
- Investigateurs et les promoteurs.
Sélection des essais
Après la collecte de l'ensemble des études concernant le problème à résoudre, il
faut sélectionner les essais à inclure dans la méta-analyse. Les essais seront
classés en fonction de critères d'inclusion et d'exclusion préalablement définis.
Le premier critère de choix est naturellement l'existence de l'événement étudié.
La qualité des études, leur homogénéité sont des critères de sélection également
très importants.

152
En effet, la médiocre qualité de certaines études peut induire un résultat erroné,
dans la mesure où il existe indubitablement une corrélation entre la qualité
méthodologique d'un essai et le fait que son résultat soit positif ou négatif. Par
ailleurs, une discordance entre la méthodologie des essais et l'objectif de la méta-
analyse (exemple : durée de suivi très différente) peut être préjudiciable.
Inversement, le processus de sélection peut introduire un biais dans la mesure où la
sélection peut être influencée par les résultats observés.
La sélection doit donc toujours être réalisée à l’aveugle.
Extraction des données
Par ordre décroissant d'intérêt, on peut classer les données utilisées en méta-
analyse en 3 catégories :
1) Les données individuelles : elles permettent de répondre à beaucoup de
questions, mais impliquent la fourniture des fichiers par les expérimentateurs.
2) Les résumés par sous groupes : les données sont moins détaillées que les données
individuelles et entraînent par conséquent une utilisation plus restreinte. C'est un
succédané de la méta-analyse réalisée sur des données individuelles.
3) Les résumés tirés de publications : les informations sont trop restreintes. Ces
résumés conservent les biais introduits dans l'analyse. L'absence des données
nécessaires implique de contacter les investigateurs. On a donc les contraintes
liées aux données individuelles sans en avoir les avantages.
Choix de la variable à analyser
Pour des raisons techniques et d'accessibilité aux données sources, les variables
faisant l'objet d'une méta-analyse sont surtout des variables binaires de type
succès/échec et des variables continues traitées selon la méthode dite d'"effect
size" ou taille de l'effet. La taille de l'effet est la différence entre la moyenne
dans le groupe traité et celle dans le groupe contrôle, divisée par une mesure de la
variabilité des mesures individuelles. L'avantage de la taille de l'effet est de
permettre de mélanger des essais pour lesquels la technique de mesure voire
l'unité de mesure sont différentes.
Choix de la technique statistique
Le principe de la méta-analyse est de séparer l'information totale apportée par
l'ensemble des données en 2 parties : une partie commune qui traduit l'effet
commun des essais de la thérapeutique testée et une partie spécifique à chaque
essai traduisant les multiples différences d'un essai à l'autre. Diverses techniques
permettent d'effectuer cette séparation, mais de façon différente : ce sont les
modèles d'effets.
153
Méthodes statistiques
Toutes les méthodes statistiques employées pour analyser les données des essais
cliniques et des études épidémiologiques peuvent être utilisées.
La préférence sera donnée aux outils qui tiennent compte de la spécificité de
chaque étude : analyse de variance étendue par le modèle linéaire, régression
multiple pour les variables quantitatives ; régression logistique ou modèle de Cox
pour les variables binaires ; techniques non paramétriques.
Visualiser les résultats d'une méta-analyse : la représentation graphique
habituelle
Les principaux résultats d’une méta analyse sont représentés graphiquement
(Forest plot). Le choix de l'échelle de l'axe des abscisses peut être linéaire (cas
habituel d'une mesure d'effet d'une variable continue) ou logarithmique (cas
habituel d'une mesure d'effet d'une variable discrète à travers un OR ou un RR) et
doit être dicté par la lisibilité de la figure. L’utilisation des Odds ratio trouve une
bonne application des méta-analyses.

Figure 29 : représentation graphique de la valeur des Odds ratio de 4 essais


thérapeutique inclus dans une méta analyse (valeur de l’événement et IC)

Dans cet exemple fictif, on remarque qu’il y a plus d’événements dans les groupes
traités que dans les groupes témoins. Cela démontre une homogénéité relative, mais
il n’ ya pas de différence significative, aussi bien dans chacune des études que dans
la méta analyse (tous les IC englobent la valeur 1).

154
Figure 30 : Représentation classique des résultats d'une méta-analyse

Le risque de fausse significativité liée aux comparaisons multiples, a fait suggérer


de représenter, pour chaque étude, l'intervalle de confiance à 99 % (en surajoutant
éventuellement les marques de l'IC95 %) et, uniquement pour la ligne
correspondant à l'effet commun, l'intervalle de confiance à 95 %.
Dans le dernier exemple, l'axe des abscisses correspond au critère quantitatif
étudié et l'axe des ordonnées correspond aux différentes études et à leur effet
commun estimé.
Chacune des études correspond à une ligne horizontale du graphique, comprenant un
symbole au niveau de la valeur moyenne du critère, et un segment de droite de part
et d'autre de ce symbole, figurant l'intervalle de confiance, pris souvent à 95%,
idéalement à 99 %. Ici les deux sont indiqués.
La taille du symbole représentant l'effet peut être choisi proportionnellement à la
taille de l'étude, attirant ainsi le regard sur les études de plus grande puissance.
Une ligne supplémentaire correspond à l'estimation de l'effet commun, associée à
l'intervalle de confiance en général à 95 %, qui ne peut qu'être plus petit que les
intervalles de confiance des études ayant contribué à cette estimation.
A chaque ligne du graphe peuvent être portés en regard l'intitulé et les effectifs
de l'étude, donnant ainsi une vue synthétique de l'ensemble des informations
utilisées.
La ligne verticale en pointillés à l'aplomb de l'abscisse correspondant à l'absence
d'effet (0 ou 1 selon le choix du critère) permet d'en déduire la significativité pour
155
chacune des études et pour l'effet commun, selon que l'intervalle de confiance
coupe ou ne coupe pas cette ligne.
Interprétation et présentation des résultats
Les résultats des essais sont concordants, on parle d’homogénéité.
On parle d’hétérogénéité, quand au moins un essai est en contradiction avec les
autres et que la taille de l’effet obtenu est différente d’un essai à l’autre. Il existe
plusieurs types d'hétérogénéité.
- L'hétérogénéité clinique entre les essais. Par exemple, un essai peut n'inclure que
des cancers du rectum de stade B, alors qu'un autre n'inclura que des cancers plus
graves, de stade C. Certains traitements peuvent également différer entre deux
essais, en termes de dose ou encore de durée d'administration.
• L'hétérogénéité statistique.
C'est le cas par exemple, quand les différences d'efficacité entre les traitements
varient d'un essai à l'autre de façon plus importante qu'une simple fluctuation due
à l'échantillonnage. Cette hétérogénéité peut être mesurée et testée.
Pour chacun des essais concernés, on recommande les graphiques (Forest plot) des
Odds ratio et leur intervalle de confiance. Il faut considérer le test
d'hétérogénéité comme un test de cohérence interne des résultats. Dans les
modèles de régression, la méta régression (une modélisation de la taille de l’effet
en fonction d’une ou plusieurs covariables) permet d’évaluer si certaines covariables
(une ou plusieurs caractéristiques de l’essai) peuvent expliquer tout ou une partie
de l’hétérogénéité de l’effet traitement retrouvé entre les études.
Figure 31 : Type de graphique d’homogénéité et d’hétérogénéité

Figure 31 a :
Homogénéité

Figure 32 b :
Hétérogénéité

156
Analyse de la sensibilité
Dans une méta-analyse, l'analyse de la sensibilité permet de vérifier la cohérence
et la robustesse des résultats par :
- La représentation graphique des résultats de la méta- analyse en prenant en
compte la qualité des essais (regroupement successif des essais de bonne, puis de
moins bonne qualité) ;
- L'utilisation de plusieurs critères de jugement dans une même méta-analyse ;
- Le calcul du nombre d'essais à ajouter à une méta-analyse donnée pour en
modifier les résultats.

Conclusion
Une méta analyse répond donc à une série de questions clés, en évaluant le respect
des démarches méthodologiques et en répondant à deux types de questions : le
résultat de la Meta analyse est-il méthodologiquement valide (validité interne),
c'est à dire est-il à l'abri de biais, et si les résultats de la Meta analyse sont
cliniquement pertinents.
La méta-analyse possède le niveau de preuve le plus élevé si la synthèse porte sur
des études de bonne qualité méthodologique dont les résultats sont homogènes.
Les difficultés de la méta-analyse résident dans le choix d'une question pertinente
et dans la disponibilité des essais permettant de répondre à cette question. Le
succès d'une méta-analyse tient à sa capacité à résumer un grand nombre d'études.
La réalisation d'essais de meilleure qualité et la constitution de registres d'essais
auront pour conséquence une diminution des biais associés à toute revue exhaustive
d'essais randomisés.

157
5ème partie

Outils et méthodes
En épidémiologie

158
LE PROTOCOLE D’ENQUÊTE

Définition et présentation
Le protocole d’une enquête épidémiologique est le document qui décrit la méthode
de l’étude proposée, de la justification aux objectifs, de l’hypothèse aux
contraintes méthodologiques, et qui définit ses conditions de réalisation et son
déroulement Le protocole doit conduire à une description exacte du phénomène
étudié.
Aussi, il faut veiller à faire attention aux erreurs (biais), aux erreurs
d’interprétation, à la puissance de l’étude et aux contraintes matérielles.
La rédaction du protocole comporte 4 étapes importantes :
- La qualité de l’information acquise et présentée en termes de justification
de l’étude.
- La formulation du problème à résoudre en termes d’hypothèse, d’objectifs
de travail et de méthodes.
- Du contrôle de la validité des données recueillies
- Du plan d’analyse établi et de la présentation des tests statistiques choisis.

Les documents doivent pouvoir disposer de propositions capables de prouver que le


projet est prioritaire, réalisable, rentable et qu’il est en accord avec les
programmes de recherche. Le protocole doit avoir un bon plan (design,
architecture) et une étude et une analyse Biostatistique rigoureuse.
Toute étude doit respecter les critères suivants :
Le problème doit être clairement identifié
Dans le cas d’étude analytique, l’hypothèse doit être clairement formulée.
Le sujet de l’étude doit être documenté.
Le protocole et son design doivent être clairement formulés avant de débuter
l’enquête.
Toutes les variables à étudier doivent être clairement définies selon des critères
opérationnels.
La collecte des données doit être effectuée de la façon la plus objective possible
en évitant les biais, afin d’obtenir des données de qualité.
L’évaluation quantitative des données doit être adéquate.
Le protocole permet d’examiner d’un œil critique et objectif ses propres idées.
159
Un protocole d'étude est une succession d'étapes dans un ordre défini :
Problématique, intérêt du sujet,
Recherche documentaire,
Définition des objectifs,
Choix de la population,
Choix de la méthode,
Élaboration du plan d', analyse
Conception du questionnaire,
Élaboration du plan de sondage,
Évaluation du budget,
Collecte des données,
Exploitation des données,
Rédaction du compte-rendu,
Communication des résultats,
Utilisation des résultats.

La question de recherche :
Toute la démarche de recherche repose sur la question de recherche, elle
est à la base du projet :
Quel sujet ?
Déjà publié ?
Quels effets ?
Quelles interventions ?
Une différence ou une association ?
Quelle population ?
La question ?
Réponse anticipée ?
Importance ?
Il faut connaître l’état des recherches sur la question, s’informer sur les
méthodes utilisées par ailleurs, identifier les difficultés d’ordre
méthodologique et formuler une hypothèse de recherche ou la question à
résoudre.

160
Tableau 13 : des questions de recherche, le cheminement

Un état de santé qui se dégrade Le constat


Nous voulons faire quelques choses, mais
Le désir
quoi ?
Précisons d’abord :
Quelle est exactement la situation ?
Qui cela concerne t-il ? De quoi s’agit-il ?
Qu’est ce qui déjà fait ?
Sur quoi doit-on s’appuyer répondre à
Étude du milieu observations
ces questions ?
pêche
Informations : qui les détient ?
aux observations
Comment les obtenir ? Avec qui travailler ?
Voici la situation, mais il y’a des
Nécessité d’enquêtes
Points flous
Objectifs de l’enquête Formulation de la problématique

Recherche documentaire
La documentation est riche et variée. Il faut souvent s’orienter vers une méta
analyse.
Remarques :
–Insister sur le caractère actuel, nouveau voire inédit de l’information recueillie
–But de la recherche décrite dans le document ?
–Caractéristiques de la population étudiée ?
–Méthodes et instruments de recueil utilisés ?
–Quel protocole et quelle analyse ont été utilisés ?
–Interprétation des résultats et conclusions formulées
Problématique
Une problématique de recherche regroupe l’ensemble des questionnements qui sont
à l’origine du thème de recherche ou d’une hypothèse de travail à vérifier. C’est une
étape essentielle et qui est en rapport avec l’expérience de chacun et sa motivation
à contribuer à résoudre les questions d’intérêt commun. Elle met en évidence
l’intérêt du sujet et sa justification, ce qui permet d’aboutir à définition des
objectifs.

161
C’est une partie limitée aux aspects de la situation générale ayant trait au problème
posé et aux interventions à réaliser. Elle permet d’établir le diagnostic de la
situation, d’analyser le besoin à satisfaire et de définir en termes plus précis la
nature du problème à résoudre.
Elle donne une grande place à la bibliographie complète.
Quelques questions :
Quels sont les éléments qui ont conduit à poser le problème et à prendre la décision
d’élaborer un projet destiné à le résoudre ?
Quelle est la situation générale et de quelle manière le problème évolue-t-il ?
Se développera t-il rapidement si rien n’est fait pour le résoudre ?
Quelles mesures ont été prises jusque-là pour résoudre le problème et quels en ont
été les résultats ?
A t’on évalué les activités précédentes et si oui, quelles en ont été les conclusions ?
L’hypothèse de recherche :
Elle constitue une affirmation plausible, pas trop incertaine, présentant un lien
entre deux ou plusieurs variables dépendantes A et indépendantes B.
Elle n’est pas un résumé ou la somme des données concernant la question traitée,
elle est une affirmation permettant d’aller à la recherche de solutions meilleures.
C’est un aboutissement logique de toute démarche d’investigation.
Définir les termes
Il s’agit d’un travail essentiel d’une recherche, il faut s’entendre sur les termes
utilisés, bien clarifier les définitions, bien traduire le cas échéant selon la langue
utilisée par la population.
Buts et objectifs :
C’est une étape fondamentale. Que veut-on faire exactement. : Attention aux
objectifs ambitieux !
La définition et la clarification des objectifs à tout le niveau – national, sectoriel
etc. – permettent à tous les acteurs d’avoir la même compréhension des résultats à
atteindre et de se mettre d’accord là-dessus.
Ils doivent être exprimés de façon explicite et compréhensible.
L’objectif global est ce vers quoi les efforts déployés au titre du projet ainsi que
ceux des autres projets complémentaires ou du même secteur tendent.
Le projet seul ne permet pas d’atteindre cet objectif global dont la réalisation
dépendra d’autres facteurs extérieurs. (Politique, économiques, socioculturels,
environnementaux, institutionnel etc.).
Par exemple :
162
- Contribution pour la réduction de la mortalité infantile
– projet pour identifier les causes majeures de la mortalité infantile
L’objectif global est plutôt qualitatif.
Les objectifs spécifiques doivent être clairement définis et dans la mesure du
possible exprimés qualitativement et quantitativement. Ils doivent permettre la
définition des actions à mener ainsi que des apports nécessaires aussi bien que des
résultats à produire.
Les actions menées et les apports doivent produire des résultats observables,
concrets et tangibles dans la mesure du possible.
L’objectif spécifique doit être explicite, clairement énoncé, indépendant et
objectivement vérifiable.
L’énoncé d’un objectif comprend :
Un verbe qui définit l’action (analyser, évaluer…)
Une précision sur la population concernée
Exemple : Évaluer la couverture vaccinale au BCG des enfants scolarisés du
primaire, dans le secteur sanitaire de N. en 2003.
Le choix du type d’enquête
C’est un choix qui dépend : de la problématique de recherche, des objectifs à
atteindre, des conditions de réalisation de l’enquête.
Enquêtes descriptives
Enquête de prévalence : enquête transversale
Enquête de surveillance épidémiologique chronologique :
Enquête transversale répétée
Enquêtes étiologiques
Enquêtes d’intervention ou d’évaluation
La méthode d’échantillonnage
Étape essentielle du choix de la population à étudier ou types de population d’étude
Tenir compte de l’acceptabilité, de la faisabilité, et de la représentativité
Le choix peut se faire sur des bases géographiques ou professionnelles par exemple
Les modalités d’échantillonnage (sondages) :
Les méthodes empiriques
Les méthodes aléatoires (ou randomisée dans les essais cliniques)
Les méthodes mixtes
On détermine la base de sondage et la méthode de tirage au sort
On calcule le nombre de sujets nécessaires
Le plan d’analyse
163
C’est une étape d’identification des variables à étudier au cours d’une enquête
descriptive.
Objets et buts du plan d’analyse :
Identifier les variables ou les paramètres à étudier
Faire un tri à plat des variables (regroupements)
Identifier les différents croisements de variables
Identifier les différents tests statistiques à utiliser
Le questionnaire ou le recueil des données
Le questionnaire (à élaborer après le plan d’analyse) comprend l’ensemble des
questions destinées à recueillir les renseignements ou les informations souhaitées
pour une enquête.
Un questionnaire comprend :
Une identification du sujet
Des questions portant sur l’étude
Le corps du questionnaire qui comprend toutes les questions relative au sujet de
recherche, dans l’ordre, elles peuvent être ouvertes, fermées ou semi fermées.
Le questionnaire comporte également des instructions destinées à l’enquêteur
La description du déroulement
On précise :
La durée de l’enquête
Les différentes étapes de l’enquête
Les différentes étapes de l’enquête
La description des méthodes d’investigation, on décrit : les outils et les méthodes
de mesures.

La pré enquête
Il s’agit de tester sur le terrain la réalisation de l’enquête.

Autres éléments du protocole


Les méthodes d’exploitation des données
L’étude de la validité des données
La recherche des biais
Les tests statistiques à appliquer
La valorisation des résultats (Communications, Publication).

164
LE QUESTIONNAIRE
DANS UNE ENQUÊTE ÉPIDÉMIOLOGIQUE

Un questionnaire est le recueil des données d’une enquête, il doit répondre à des
objectifs préalablement élaborés. Le questionnaire doit susciter l'intérêt/désir
de répondre aux questions de la manière la plus exacte, il doit être adapté aux
objectifs, précis et clairs, être applicable avec uniformité. Il permet de
minimiser les erreurs des répondants.
Le questionnaire doit permettre : d’améliorer l’accessibilité à l’information, de
renforcer le caractère qualitatif de l’information (rigueur), d’assurer la
comparabilité (standardisation et codification), de transformer les informations en
variables. Il doit avoir également un bon enchaînement.
Un questionnaire doit transformer des notions et des concepts en éléments
opératoires (variables) qui autorisent des classements :
• Une mise en ordre des variables qualitatives ordonnées
• Une mise en catégories des variables qualitatives nominales
• Une mise en catégorie numérique.

La mise au point d'un bon questionnaire se fait en plusieurs paliers :


1) Les variables doivent être reprises dans le questionnaire de telle sorte qu'on
puisse les retrouver et les analyser sans difficulté ? Alors il faudra procéder à
un test de contrôle pour vérifier si les questions nous donnent les informations
requises.
2) Arrêter les principales sections du questionnaire.
Rédiger dans chaque section les questions permettant d'obtenir l'information
recherchée et vérifier que chacune des questions, répondra aux objectifs.
Vérifier que chaque question, soit claire simple, courte et raisonnable
(compréhensible par groupe questionné).
3) S'assurer de l'ordre logique des questions

Principales qualités d’un questionnaire


:
Exactitude et reproductibilité
Deux qualités sont indispensables à un questionnaire et son exactitude et sa
reproductibilité.
165
En comparant les résultats obtenus par son propre questionnaire à ceux d'un
questionnaire de référence, permet de tester l'exactitude de votre
questionnaire
La reproductibilité
En le testant pendant une période donnée (pré-test) et en l'appliquant à
quelque temps de distance (pre-test). La concordance entre les réponses -
élevée et l'information recherchée n'a pas changé, ceci teste la
reproductibilité.
Validité et Fiabilité des outils de mesure utilisée dans l’enquête
Le défaut de la validité :
Ne comprend pas la question. • Ne connaît pas la réponse. 0 Ne se souvient pas. 0
Souhaite ne pas répondre.
Pour les données subjectives, on utilisera des instruments déjà mis au point et
validés (référence à la littérature).
La fiabilité des instruments d'étude
Des mesures répétées, par des personnes et des instruments différents, à des
endroits et des moments différents donnent des résultats similaires.
Pour les questions d’ordre clinique, la fiabilité des symptômes peut être établie
en montrant qu'ils sont décrits de la même manière selon les différents
observateurs dans des conditions différentes.
La fiabilité des questions dépend de la qualité des outils d'observation mais
également des conditions d'application et de la formation des enquêteurs qui
recueillent l'information.
Qualité de données recueillies :
On distingue plusieurs critères de qualité :
La pertinence ou adéquation de l'information par rapport aux objectifs
poursuivis.
L'exactitude ou correspondance entre la valeur connue (l'information) et la
valeur vraie
L'exactitude dépend en fait de 2 aspects, à savoir l'absence de biais et la
précision.

166
Types de questions utilisées dans le questionnaire

Selon la manière de poser des questions, il y a lieu de distinguer deux possibilités


• Les questions ouvertes
• Les questions fermées
• Les questions semi fermées
Toutes ces questions peuvent être auto-administrées ou avec entretien d'un
investigateur.
:
Les questions ouvertes
Elles permettent de donner librement les réponses • on ne suggère pas de
réponses à la personne interrogée. Exemple ; Comment décrivez-vous votre
douleur ?
Elle est utilisée lorsqu'on cherche à définir l'étendue de ce qui est ressenti
par le patient. Le codage implique une réduction de l'information, une fois
recueillie.
Les questions fermées
Elles donnent une liste d'options de réponses possibles parmi lesquelles la
personne interrogée doit choisir au moins une réponse.
• Faire une liste d'options exhaustive.
• Présenter une liste d'options s'excluant mutuellement.
• Limiter autant que possible le nombre d'options
Exemple -Quel est votre état civil ? Célibataire : l, Marié(e) 2, Séparé(e) 3,
Divorcé(e) 4, Veuf (ve) 5.
Elle impose une réponse univoque et sans ambiguïté, avec un faible risque
d'erreur.
Les questions semi fermées
Les questions semi fermées composées de questions fermées associés à une
autre réponse « à préciser ». Lorsque l'objectif de la question est de produire
une information qualitative (variable nominale) il faut choisir la forme ouverte
et forme fermée.

Le choix de l’ordre des questions -


L'ordre logique facilite le travail de l'enquêteur et permet un dépouillement
aisé des questions et améliore les conditions d'application de l'interview ; ceci
permet d'assurer la validité des données recueillies.

167
Définition opérationnelle des questions
Pour les questions fermées, les modalités de réponses sont
- Mutuellement exclusive
- Exhaustive
La conception de questions filtres aboutit à la création de sous-groupes.
Exemple • Avez-vous été déjà vacciné ? Si Oui contre quel type de vaccin ?

Définition opérationnelle des variables


Les méthodes d’analyse diffèrent selon le type de variables : variables
qualitatives (études de fréquence), variables quantitatives (études de
variation, comme les échelles d'intervalles et les échelles de ratio ...)
On peut conserver les variables quantitatives soit les catégoriser en classes
ou variables qualitatives.
Qualités des questions

Claires et sans Simples et Accessibles Précise Non directives


ambiguïté courtes

Le Codage et codification
L'utilisation d'un système de conversion des réponses en chiffres plus
facilement utilisables à des fins d'analyse statistiques est souhaitable.
Lorsque qu'il s'agit d'une question fermée, les réponses sont proposées et
codées préalablement.
Pour les questions ouvertes, on doit regrouper les réponses attribuer un code à
chaque groupe.
La codification consiste à assigner un nombre ou un symbole pour représenter
une réponse. Le codage est fonction de la question de recherche et de l'analyse
statistique prévue.
Principes généraux
- Chaque réponse doit être représentée par un code distinct : exemple • Gl pour
groupe 1 et G2 pour groupe 2…
- Adopter une règle pour codifier les valeurs manquantes et la déclarer dans le
logiciel comme manquante. Exemples 9, 99, 999
- Enregistrer l'information avec le plus de détails possibles : exemple pour l'âge
donner la date de naissance et enregistrer l'âge exact.
Pour les variables quantitatives, donner des instructions pour l'unité de mesure.
168
Types de codification
Codification numérique
Exemple : sexe homme = 1, femme= 2 ce sont des réponses sont numériques.
Codification alphanumérique ou par chaîne de caractères : exemple Oui =O,
Non=N
Codification des dates : elles sont introduites comme telles. L'utilisation d'un
système de conversion des réponses en chiffres plus facilement utilisables à
des fins d'analyse statistiques.

Validation du questionnaire : le Pré-test


C’est une enquête à petite échelle dans laquelle on teste le questionnaire, le temps
qu’il faut pour le remplir, les questions qui sont difficiles à poser, les questions
incohérentes, la lisibilité du questionnaire et l'insuffisance de place laissée pour
répondre aux questions font partie des problèmes rencontrés. Le pré-test peut
aussi amener des corrections dans la forme ou le contenu du questionnaire :
- Vocabulaire accessible, clair, utilisant un langage courant et spécifique du
domaine.
- Pertinence des questions, posées correctement, lisiblement…

169
LES MÉTHODES D’ÉCHANTILLONNAGE
ALÉATOIRES

Dans une enquête épidémiologique, le choix des sujets d’étude ou d’un échantillon
représentatif à partir de la population générale nécessite nécessairement
l’utilisation systématique d’une méthode de sondage aléatoire.

Principes généraux
Un sondage aléatoire est une méthode des probabilités qui est définie par le fait
que tous les sujets qui constituent une même population mère, doivent avoir la
même probabilité de faire partie de échantillon. Sur le plan technique, les sondages
aléatoires reposent sur le principe du tirage au sort d’un certain nombre de sujets
qui pourront être considérés comme représentatifs de la population-mère. Les
tirages au sort devront s’effectuer de manière anonyme.
Dans la méthode de sondage aléatoire la représentativité de l’échantillon est une
règle fondamentale.
Malgré le strict respect du tirage au sort, on envisage cependant dans les sondages
aléatoires la possibilité de faire des erreurs et de constituer un échantillon non
représentatif.
Il s’agit de l’erreur d’échantillonnage ou du risque consenti. Ce risque est fixé avant
la constitution de échantillon et dépend de sa taille : plus échantillon est grand, plus
le risque consenti est faible et plus la précision du sondage sera bonne.
Cette technique permet d’utiliser les lois de probabilité dans l’exploitation des
données et de généraliser les résultats obtenus sur échantillon à l’ensemble de la
population.
En effet dans l’interprétation des résultats enregistrés sur un échantillon aléatoire
et compte tenu du risque d’erreur consenti, les valeurs réelles des résultats
obtenus dans échantillon, fluctuent en fait dans un certain intervalle (intervalle de
confiance), soit autour de la moyenne, soit autour du pourcentage observé dans cet
échantillon. En Médecine, le risque consenti maximum généralement admis est de 5
%. Différentes méthodes sont utilisées pour constituer un échantillon aléatoire :
- le sondage aléatoire simple
- le sondage systématique
- le sondage aléatoire à plusieurs degrés
170
- le sondage aléatoire en grappes
- le sondage aléatoire stratifié

Les différents types de sondages

Le Sondage aléatoire simple (ou sondage élémentaire)


Le sondage aléatoire simple consiste à effectuer un tirage au sort simple dans la
population pour constituer un échantillon, en accordant à chacune des unités de la
population, la même probabilité d’appartenir à l’échantillon. La constitution d'un
échantillon selon cette méthode suppose que toutes les unités de la population-
mère (appelée base de sondage) soient connues. La base de sondage représente
généralement la liste exhaustive de toutes les unités, sans omission ni répétition.
Le taux de sondage est constitué par le rapport entre l’effectif de l’échantillon et
celui de la population totale.
Exemples de bases de sondage :
-la liste des ménages représentatifs de la population générale qui est fournie
par l’Office national des Statistiques
-les listes électorales au niveau des Communes
-les fichiers d’adresses privées
Technique de sondage aléatoire
Les unités de la base de sondage sont numérotées de 1 à n puis on effectue sur ces
unités un seul tirage au sort (sondage à un degré). Pour plus de commodité dans le
tirage au sort on utilise la table des nombres au hasard.
Exemple : Si l'on désire tirer au sort 100 individus dans une population de 2000
unités, on attribue un numéro de 1 à 2000 aux sujets constituant la population. A
partir de la table des nombres au hasard, on tire au sort un chiffre sur une colonne
ou sur une ligne et l’on prend tous les chiffres successifs pour atteindre le nombre
d’unités, soit 100 numéros, en utilisant un cheminement horizontal, vertical ou
oblique sur la table. Les sujets dont les numéros sont ceux issus du tirage forment
l’échantillon qui sera représentatif des 2000 sujets.
La méthode de sondage systématique
Bien que cette méthode de sondage soit aléatoire, elle se différencie du sondage
aléatoire simple par la technique utilisée. En effet ce type de sondage ne suppose
pas la numérotation préalable des unités statistique, mais seulement un point de
départ tiré au sort qui est appelé base de progression. L’échantillon est composé de

171
n individus obtenus en prenant systématiquement un individu sur 5 ou sur 10, ou
tout autre pas de sondage sur la population mère.
Exemple
Pour prélever un échantillon sur une population de 327 unités par exemple, avec une
progression de 15 en 15, on prend un nombre aléatoire compris entre 1 et 15 par
exemple : 6 L’échantillon comprendra les unités de rang de 15 en 15 en commençant
par : 6 puis (6 + 15) : 21, puis (21 + 15) : 51, ... 305 - 321. Le nombre d’unités de
l’échantillon sera égal à 22.
Le sondage aléatoire à plusieurs degrés
C'est une méthode qui permet d’obtenir un échantillon en utilisant plusieurs tirages
au sort successifs (ne dépassant pas trois). Dans un sondage à deux degrés on peut
obtenir par un premier tirage au sort, par exemple les districts des quartiers à
étudier (ce sont les unités primaires) puis par un second tirage au sort à l’intérieur
des districts recueillis, on obtient l’échantillon de ménages.
Dans un sondage à trois degrés, on effectue un premier tirage au sort des
communes à l’intérieur desquelles on tire un échantillon de districts, le troisième
tirage concernera les ménages. Sur le plan pratique, le sondage à plusieurs degrés
permet de mieux concentrer l’enquête sur le terrain et de diminuer par conséquent
les déplacements des enquêteurs. Pour réduire les biais, (ou les erreurs
systématiques), l’enquête doit porter autant que possible sur l’ensemble des
ménages tirés au sort.
Les sondages en grappes
Dans les régions ou les populations vivent en majorité dans des zones éparses,
l’échantillonnage aléatoire simple permettra de constituer un échantillon très
dispersé et difficilement accessible. Afin de contourner cette difficulté, on
préconise un cas particulier de sondage à plusieurs degrés, dans lequel les unités,
composant la base de sondage sont regroupées en grappes : comme par exemple un
ménage ou un foyer.
Les sondages en grappe consistent donc à sélectionner au hasard un échantillon de
grappes et d’effectuer un tirage au sort des différentes grappes qui constituent la
population Sur le terrain, on doit mener l’enquête auprès de tous les individus qui
composent les grappes tirées au sort.
Les sondages stratifiés
La stratification consiste à subdiviser, pour les besoins de l’enquête, une population
en groupes homogènes selon les modalités d'un caractère : comme par exemple : le
sexe, les groupes d’âge, les groupes socioprofessionnels...C’est un moyen de rendre
172
plus représentatif un échantillon aléatoire en particulier lorsque les unités
statistiques (individus, ou grappes) sont peu nombreuses et dispersées.
La stratification par âge par exemple consiste à répartir la population d’étude en
strates ou groupes d’âge.
La stratification par secteur d’habitat peut être effectuée par répartition de la
population d’étude en strates ou groupes de populations : rurales, semi-rurales ou
urbaines.
La stratification constitue un moyen pour accroître la précision du sondage. Le gain
de précision dû à la stratification est d'autant plus grand, qu'il existe une liaison
plus forte entre le critère servant à la stratification (l’âge par ex.) et la variable
étudiée.
Sur le plan statistique, il est possible de calculer des paramètres comme la
moyenne ou la variance par strate. A l’intérieur de chaque strate, la variance est
sensiblement inférieure à la variance totale de la population. Ce qui augmente la
précision pour une même taille d'échantillon.
En pratique deux méthodes de stratification sont utilisées :
La stratification à priori
La stratification à posteriori
La stratification à priori :
Dans une enquête de fécondité, le nombre moyen d’enfants par femme est
corrélé avec le secteur d’habitat. Dans ce cas une stratification à priori est
réalisée en prenant comme critère de stratification le secteur d’habitat : rural ou
urbain par exemple.
La stratification à posteriori
Ce type de stratification est utilisé dans deux situations : dans le cas où la base de
sondage ne contient pas de variable permettant la stratification à priori, et si la
variable ayant servi à la stratification à priori semble être mal corrélée aux
variables recherchées

Le choix des méthodes


Plusieurs éléments déterminent le choix d’une méthode de sondage, en particulier
l’existence et la qualité de la base de sondage et la dispersion des unités. En
général au lieu d’accroître exagérément la taille des enchantions, les statisticiens
utilisent plutôt des méthodes de sondages permettant, à coût égal d’augmenter la
précision des résultats.

173
Au cours des enquêtes de grandes envergures, avec une grande dispersion des
unités, il est recommandé de combiner plusieurs méthodes de sondage suivant les
cas. L’échantillonnage en grappe ou par stratification peut simultanément intervenir
dans une procédure de tirage simple ou à plusieurs degrés.
Les sondages en grappe sont très souvent utilisés dans les enquêtes à grande
échelle, en raison des commodités qu'ils présentent sur le terrain. C’est une
méthode souvent utilisée dans les enquêtes d’estimation du taux de couverture
vaccinale du Programme élargi de vaccination (PEV).
C’est un schéma d’échantillonnage économique et pratique. Les unités étant
groupées au sein de grappes, les enquêteurs seront peu dispersés, par ailleurs, il
n’est pas nécessaire d’avoir une liste de toute la population, mais seulement une
base de sondage constituée de grappes sélectionnées.
Cependant l’économie de moyens entraîne pour ce type de sondage une diminution
de la précision des estimations. Par exemple, dans un ensemble de grappes, on peut
observer une situation d’homogénéité vis à vis d’un phénomène particulier. Ainsi une
grappe de ménages habitant un même quartier pauvre par exemple peut adopter un
comportement identique en matière de dépenses de consommation. Par contre si la
grappe concerne un certain nombre de ménages tirés au sort sur plusieurs
quartiers, les résultats seront plus précis.
Ce problème de précision appelé effet de grappes est généralement corrigé par une
augmentation (un dédoublement) du nombre de sujets nécessaires.

Précision des sondages


Les fluctuations d’échantillonnage
Pour l’élaboration d’un échantillon, le processus de tirage au sort s'accompagne
toujours d'une incertitude sur la précision des résultats, car la composition de
l'échantillon peut être différente de celle de la population du fait du hasard, c'est
la fluctuation de l'échantillonnage.
Exemple : dans une population : P = 50 % de sujets de sexe M, dans un échantillon P°
issu de P : P° = P + ou - un écart : e
La précision d’un sondage se mesure par la probabilité que l’écart entre la valeur
vraie (P) et la valeur estimée (P°) demeure inférieure à une grandeur donnée. En
pratique, on remarque que si une méthode de sondage a une certaine précision pour
l’ensemble de la population, elle a une précision bien plus faible pour un échantillon
de cette population.

174
Précision d’une estimation et celle de sa variation
Du fait de l'incertitude liée aux fluctuations d'échantillonnage, il est impossible de
déterminer avec certitude la valeur exacte d'une variable qualitative (fréquence)
ou quantitative (moyenne) au sein de la population. Pour cela on procède à son
estimation soit partir d'un échantillon soit par comparaison entre groupes de
sujets.
Il est possible de préciser l’estimation de cette variable en calculant la probabilité
pour que la variable exacte se trouve comprise dans un certain intervalle appelé :
Intervalle de confiance.
Exemple : pour un intervalle de confiance : I = 2 %, et P égal à 25 %, nous avons P° =
25 % + ou - 2 %. L'intervalle de confiance de P est compris entre 23% et 27%.
La précision de l’estimation
Plus l'intervalle de confiance est étroit, plus l’estimation sera précise. Il est
possible de faire varier cet intervalle et donc de préciser l'estimation d'une
variable
- soit en admettant un risque d’erreur
- soit en augmentant l'effectif de l échantillon
Dans l'exemple précédent, en admettant un risque d'erreur de 5 % (risque
consentiα), on peut dire avec P° = 25 % que la véritable valeur de P dans la
population a 95 % de chance d’être comprise entre 23 et 27 %.
Si l’on prend un risque d’erreur plus faible, l’intervalle de confiance augmente pour
mieux préciser P, comme par exemple, dans les estimations de fréquence d’une
maladie rare
En pratique, une meilleure précision nécessite un échantillon à effectif plus élevé.

La taille de l’échantillon
Dans une enquête épidémiologique, plus l'effectif de l’échantillon est élevé, plus
l'intervalle de confiance de la variable étudiée sera réduit (nul dans un
recensement exhaustif).
L’augmentation de la précision concernant la variable étudiée devient minime à
partir d'un certain effectif minimum de l’échantillon, c'est le nombre de sujets
nécessaires.
Méthodes de calcul du nombre de sujets nécessaires
• Cas des variables qualitatives :

175
On se fixe une précision à l’avance à travers l’intervalle de confiance. Si la précision
de l’estimation est désignée par : i et le nombre de sujets nécessaires par : n, pour
un risque d’erreur consenti α de 5 % :

pq (1,96)² pq
i = 1,96 Soit n =
n i²
On remarque que la taille de la population n’intervient pas dans la formule de calcul
du nombre de sujets nécessaires. Il n’est donc pas nécessaire de prendre
davantage de sujets dans échantillon pour une population importante.
Ainsi il est possible de déterminer le nombre de sujets nécessaires pour un sondage
à condition :
- de fixer : i et α (précision désirée et risque consenti)
- de connaître : p (valeurs approximatives de la variable)

Exemple : On veut étudier la fréquence d’une maladie : m dans une population Si une
enquête faite par ailleurs a montré que la fréquence de m est de l’ordre de 10 %, et
si la précision désirée i = 2 %, pour un risque consenti de 5%, n peut être obtenu en
utilisant la formule suivante :

(1,96)² x 0,1 x 0,9


n= ------------------------------ = 1800 sujets
(0,02)²

Cas des variables quantitatives


Pour l’étude des variables quantitatives (le poids, la taille), le nombre de sujets
nécessaire peut être calculé en précisant la différence attendue en ce qui concerne
la fréquence de la variable étudiée.
Si σ constitue l’écart-type de la variable qui doit être connu à priori ou bien
déterminé par un sondage préalable sur un petit échantillon, le nombre de sujets
nécessaire peut être calculé :
(1,96)² x σ²
n = ----- --------------

176
Redressement du sondage
Parmi les problèmes pratiques que l'on rencontre au cours des enquêtes auprès d'un
échantillon, le plus important est celui des « non répondants ». Les non-réponses
dont le nombre peut être plus ou moins élevé introduisent un biais dans l'analyse
des résultats, car ces non-répondants peuvent être différents par rapport au
caractère étudié (de vrais malades absents d’une entreprise par exemple) et
peuvent fausser totalement les résultats de l’enquête. Les motifs de non-réponses
sont nombreux, il s'agit surtout :
- d'une absence du domicile (travail, déménagement...)
- d'un refus de répondre
- d'une incapacité de répondre ou autres ...
Exemple : dans une étude sur un problème de santé lié à l’âge les résultats sont
biaisés si les non répondants sont surtout des sujets âgés.
Techniques de corrections des non-réponses
- On récupère ultérieurement les résultats chez les non-répondants par une
enquête complémentaire
- On effectue une pondération des résultats en supposant que les non-répondants
se comportent exactement comme les sujets ayant répondu
- On enquête des sujets semblables figurant sur une liste préétablie pour
remplacer les non-répondants.

Conclusion
L’élaboration d’un échantillon parfaitement représentatif est une tache difficile,
sinon impossible, mais l’on doit se rapprocher au maximum, en utilisant la méthode
de sondage la mieux appropriées, la plus pratique, et la moins coûteuse. Par ailleurs
il est essentiel de veiller aux erreurs et aux biais aux différents moments du
sondage, en particulier : dans la détermination des unités de échantillon et dans le
recueil des informations auprès des sujets enquêtés (problème des non-réponses).
Il est nécessaire également de veiller à la conservation de la représentativité de
l’échantillon au cours du temps et tout au long de l’enquête (sujets perdus de vue).
Il faut noter enfin que la recherche d’un optimum de Précision en matière
d’échantillonnage dépend des objectifs à atteindre, de la fiabilité des données
recueillies et de la précision des résultats escomptés.

177
LES BIAIS DANS LES ÉTUDES
ÉPIDÉMIOLOGIQUES

Lorsqu'on élabore un protocole de recherche dans une étude épidémiologique, et


tout au long de sa réalisation et de son analyse, il est nécessaire de prendre en
considération les facteurs susceptibles d'entraîner des conclusions erronées. Car
l'association entre un facteur de risque et une maladie dans une étude
épidémiologique peut être due au hasard ou à une erreur systématique (un biais).
Le biais est considéré comme une variété particulière d'erreur ; c'est une erreur
systématique. Il est défini comme une distorsion de l'estimation de la mesure d'une
association entre l'exposition à un facteur de risque et la survenue d'une maladie.
L’effet peut être une surestimation ou une sous-estimation de la force de
l'association, voir un défaut d'appréciation du sens de l'association.
Un biais résulte d'une erreur systématique dans la sélection des sujets d'une étude
(biais de sélection) ou dans le recueil d'informations concernant les sujets
sélectionnés (biais d'informations).
Les biais sont en général évitables au moment de la conception d'un protocole et il
importe donc de prévoir le rôle qu'ils pourraient jouer. On peut distinguer deux
grandes catégories de biais :
Les biais que l'on peut éviter au moment de la conception du protocole, mais aussi
de prendre en compte au cours de l'analyse : Ce sont les biais de confusion.
Les biais que l'on peut éviter lors de la conception du protocole et la mise en place
de l'étude, mais qui ne peuvent pas être contrôlés lors de l’analyse : ce sont les
biais de sélection et les biais d'informations.

Biais de sélection : ou biais d’échantillonnage


Les biais de sélection sont des erreurs qui sont induites par une sélection
préférentielle des sujets à enquêter ou des populations à comparer.
L’introduction de biais de sélection dans une étude posera un sérieux problème dans
l'interprétation des résultats de l'étude.

Principales sources de biais de sélection :


- les erreurs sur le choix des groupes à comparer dans tous les types d'enquêtes,
- les erreurs dans le choix du mode d'échantillonnage dans les enquêtes cas-
témoins ou dans les études transversales,
178
- le biais de Bergson dans les études cas-témoins lorsque les cas et les témoins
sont issus d'une population hospitalière non représentative de la population
générale. Ce type de biais résulte de la probabilité différente d'être admis à
l'hôpital chez les cas et chez les témoins. Ceci se produit notamment lorsque les
cas exposés sont plus facilement admis dans l'hôpital où se déroule l'étude que les
témoins.
Par exemple si l'on recherche une association entre l'exposition à un facteur de
risque et la survenue d'un cancer dans un service hospitalier hautement spécialisé
en cancérologie, on risque de sélectionner les cas les plus sévères, les plus
atypiques, ou provenant d'une population sélectionnée. Il se pose alors le choix,
dans ce même hôpital, de témoins qui risquent de ne pas provenir de la même
catégorie de population.
- les sujets perdus de vue dans les études de cohortes et les sujets qui ne
répondent pas aux demandes des enquêteurs, répétées au fil du temps, et
indispensables au suivi d'une cohorte. Ces biais sont introduits lorsque le refus de
participer à l'enquête ou l'abandon en cours d'enquête est lié au facteur
d'exposition ou à la maladie étudiée. Les non répondants ou les perdus de vue
peuvent comprendre des individus moins soucieux de leur santé, donc probablement
plus exposé à certains facteurs de risque que l'on peut vouloir étudier, tel que le
tabac, l'alcool, la vitesse, etc. Ils peuvent au contraire être moins susceptibles
d'être affectés par certaines maladies (sujets jeunes, actifs, mobiles). Il peut
s'agir aussi d'individus qui ne peuvent collaborer à l'enquête pour des raisons de
santé notamment celles que l'on veut étudier (cancer, cardiopathie).
Dans ce contexte, si le taux de non-réponse est diffèrent chez les cas et chez les
témoins ou si le taux de perdus de vue au cours du suivi est diffèrent.
- la survie sélective dans les enquêtes cas-témoins ou dans les études
transversales. La survie sélective concerne les profils différentiels de mortalité
des cas et des témoins qui pourraient être à tort ignorés dans une étude
rétrospective ou dans une étude transversale,
- les biais de détection dans les études cas-témoins, quand la procédure
d'identification de la maladie varie avec l'exposition. Un exemple est illustré par la
relation entre le cancer de l'endomètre et l'utilisation des œstrogènes. Ceux-ci
peuvent entraîner des ménométrorragies qui poussent les femmes à consulter et
augmenter ainsi la possibilité de diagnostiquer un cancer de l'endomètre chez les
sujets exposés par rapport aux non-exposées.

179
Prévention des biais de sélection
La prévention des biais de sélection doit être envisagée au moment de la conception
du protocole de l'étude, car on ne peut en général plus contrôler cette catégorie de
biais au moment de l'analyse, c'est à dire lorsque les sujets de l'étude ont été
recrutés.
Les biais de sélection affectent surtout les études rétrospectives (cohorte ou cas
témoins). Pour les éviter, il faut s'assurer que les groupes de sujet sont choisis de
façon comparable, c'est à dire que les cas et les témoins proviennent du même
« univers »et que les sujets exposés et non exposés ont autant de chance d'entrer
dans le groupe des cas.
Critères simples de prévention des biais de sélection selon les types d’enquêtes :
Dans une étude cas témoins, sélectionner les cas et les témoins sans connaître leur
statut vis à vis de l'exposition aux facteurs étudiés ;
Dans une étude de cohorte rétrospective, choisir les sujets exposés et non
exposées sans connaître leur statut vis à vis de la maladie étudiée ;
Quelque soit le type d'étude, il faut utiliser une définition précise, nette et
uniforme de la maladie, basée sur des critères diagnostiques objectifs. Il faut
également recruter tous les cas ou les sujets exposés dans un univers bien défini et
choisir les témoins ou les sujets non exposées au hasard dans ce même univers.

Les biais d'information


Ils relèvent d'une différence systématique dans la façon dont on a recueilli
(mesuré) l’information concernant l'exposition chez les cas et chez les témoins ou
la maladie chez les exposés et les non exposés. Ces biais d'information résultent
d'un instrument d'observation défectueux. Dans une étude cas témoins les biais
d'informations surviennent le plus souvent quand l’information sur l'exposition des
cas et/ou des témoins est inexacte car elle a été recueillie ou mémorisée
différemment dans les deux groupes étudiés.
Les informations incorrectes qui ont été recueillies lors de la réalisation de l'étude
peuvent conduire … surestimer la relation étudiée si, par exemple, les cas se
souviennent mieux de leurs antécédents que les témoins ou au contraire à une sous -
estimation dans l'éventualité inverse.

Principaux biais d'informations :


Les biais de mémorisation

180
Ils surviennent lorsque cas et témoins se souviennent avec une acuité différente de
leur exposition au facteur de risque étudié.
Par exemple, une mère dont l'enfant est né avec une malformation (groupe de cas)
se souviendra plus facilement de tout événement survenu lors de sa grossesse et
pouvant expliquer cette malformation, qu'une mère qui a donné naissance à un
enfant en parfaite santé (groupe des témoins). On pourra alors observer une
relation biaisée (surestimée) entre ce type de malformation et tel événement
(prise de médicaments, etc.) survenu pendant la grossesse.
Les biais de mesure : exemples
- l'utilisation d'appareils de mesure défectueux ou improprement réglés qui
conduisent à des erreurs systématiques de classification,
- des critères diagnostiques impropres pour définir la maladie,
- des omissions ou des imprécisions sur des données enregistrées dans le passé,
Les biais de surveillance et de diagnostic :
Ils peuvent survenir lorsque le facteur de risque étudié influence directement la
détection de la maladie. Par exemple, dans une enquête cas témoins, on veut
comparer les antécédents de traumatisme accidentel (facteur de risque) chez des
cas de spondylarthrite ankylosante (S.A.) et dans un groupe témoin issu de la
population générale.
En raison de la surveillance médicale étroite qu'entraîne un traumatisme, la
probabilité de détection d'une S.A. est plus élevée chez un individu qui a subit un
traumatisme que chez un sujet sans antécédent de ce type. En conséquence, même
en l'absence d'association réelle entre traumatisme et S.A., on pourrait observer
plus fréquemment un antécédent de traumatisme chez les cas que chez les témoins.
Un tel résultat serait dû à un biais de sélection.
Ce type de biais de sélection risque surtout de survenir dans les études qui
concernent les maladies longtemps asymptomatiques ou susceptibles d'échapper à
des examens médicaux de routine. Les cas ont alors d'avantage de chance d'être
diagnostiqués dans une population mieux suivie sur le plan médical que les témoins.
Les biais liés à la qualité des données disponibles :
Supposons que l'on souhaite déterminer s'il existe une association entre certaines
infections gynécologiques et certains dispositifs intra-utérins (DIU). On décide
d'étudier les données disponibles dans un service spécialisé de gynécologie,
concernant les femmes admises pour infection annexielle (cas). Les témoins sont
sélectionnés parmi les femmes admises dans un service de chirurgie plastique dont
on va également étudier les dossiers.
181
La fréquence et la qualité des informations disponibles quant à la présence d'un
DIU seront probablement plus grandes dans les dossiers du service de gynécologie
que dans ceux du service de chirurgie plastique.
Pour cette raison, le risque d'infection annexielle associé à la présence d'un DIU
sera vraisemblablement surestimé.

Les biais liés à l'enquêteur


La façon dont un enquêteur administre un questionnaire est susceptible d'induire un
biais s'il procède différemment selon qu'il interroge un cas ou un témoin sur leur
exposition, un sujet exposé ou un sujet non exposé sur l'apparition éventuelle d'une
maladie. Supposons que l'on mène une enquête sur une épidémie d'intoxication
alimentaire et que l'on soupçonne un facteur alimentaire bien particulier, on risque
(inconsciemment) d'interroger de façon plus approfondie les personnes malades que
les témoins bien portants.

Les biais de mensonge et omission volontaire


Ce sont des biais que l'on risque de rencontrer dans les études qui concernent des
facteurs liés à la vie intime des individus. Ces derniers peuvent délibérément
induire en erreur l'enquêteur en fournissant des réponses fausses à certaines
questions. Supposons, par exemple, que l'on réalise une enquête sur les facteurs de
risque d'une maladie sexuellement transmissible dont la transmission s'effectue
avant tout par l'intermédiaire de prostituées. Si les cas ont davantage tendance
que les témoins à nier tout contact avec la prostitution, on risque ainsi de
méconnaître l'association, pourtant réelle, entre le contact avec des prostituées et
la survenue de cette maladie.

Prévention des biais d'information


L'investigateur essaie de choisir des instruments d'observation les plus fiables
possibles. Il doit affiner le questionnaire, choisir et former correctement les
enquêteurs, définir un cadre rigoureux d'observation.
Recommandations :
- Lorsqu'on fait appel à la mémoire pour les expositions anciennes ou chargées
d'affectivité chez les malades, il convient de choisir un groupe témoin présentant
une maladie d'un niveau de gravité analogue.
Si on étudie par exemple la relation entre la prise de certains médicaments
pendants la grossesse et le fait d'avoir un enfant avec une anomalie neurologique,
182
on peut choisir comme témoins des mères qui ont accouchés d'enfants atteints
d'autres anomalies congénitales d'étiologie connue (Trisomie 21, Mucoviscidose) au
lieu de prendre comme témoins des mères d'enfants normaux.
- Pour garantir l'objectivité des interrogatoires, on doit toujours utiliser le même
questionnaire standardisé, ne contenant que des questions fermées et conçu de
telle façon que les questions pertinentes soient mêlées à des questions plus
anodines et que les questions « sensibles » ne figurent pas au début.
- Pour minimiser le risque de biais lié à la qualité des données, on peut chercher à
vérifier les informations obtenues auprès de plusieurs sources différentes
(interrogatoires directs des sujets, dossiers médicaux, registres, etc.).

Les biais de confusion

Un biais de confusion se définit comme une distorsion de la mesure d'association


entre une maladie et un facteur d'exposition introduite par une tierce variable
appelée facteur de confusion.
Un facteur de confusion est un facteur associé aussi bien à la maladie étudiée
qu'au facteur de risque recherché ou mesuré. Au cours des enquêtes étiologiques,
ces facteurs perturbent souvent la mesure et la précision de la relation entre un
risque ou un facteur d'exposition et une maladie.
L'âge est un facteur de confusion fréquemment rencontré, par exemple, dans
l'étude portant sur les relations du tabagisme et du cancer du poumon. On
remarque que le cancer du poumon est lié aussi bien au facteur tabac qu'au facteur
âge car quand on fume beaucoup pendant plusieurs années (vieillissement), on est
exposé au cancer du poumon, aussi bien par le facteur âge que par le tabagisme.

183
Figure 27 : 1 Le facteur de
confusion

EXPOSITION MALADIE
(Consommation de café (Cardiopathie)

FACTEUR DE CONFUSION
(Ex. Tabagisme)

Exemple : dans une étude cas-témoins portant sur l'association entre l'usage de
contraceptifs et l'apparition de l'infarctus du myocarde chez un groupe de
patientes montre que le calcul du risque relatif est de 1,7 alors qu'après avoir
éliminé le facteur âge dans la même enquête et pour les mêmes patientes, le risque
relatif est de 4.
Donc le fait que les utilisatrices de contraceptifs oraux soient plus jeunes que les
non-utilisatrices, entraîne un biais avec une sous-estimation importante du risque
relatif dans les conclusions de l'enquête.

Ainsi pour mieux déterminer la relation entre un facteur de risque et une maladie,
il est possible de neutraliser les principaux facteurs de confusion au moment de
l'élaboration de l'échantillon et aussi au niveau de l'analyse des résultats.

Prévention des biais de confusion

Sur le plan méthodologique, quelques procédés sont utilisés pour neutraliser les
facteurs de confusion.
Le tirage au sort :
Dans le cadre des essais thérapeutiques, la méthode utilisée pour contrôler les
facteurs de confusion est le tirage au sort (ou randomisation).
Dans les essais cliniques, les sujets sont repartis au hasard entre deux groupes
parfaitement comparables, dans le groupe des exposés et dans les non exposés.
La sélection de la population d'étude :
Dans ce cas, il s'agit de restreindre les groupes d'études à certaines catégories
particulières de la population, quand le sexe des personnes enquêtées est
susceptible d'être un facteur de confusion, on peut décider de mener l'enquête que
184
chez les hommes, ou chez les femmes séparément. Si l'âge est un facteur de
confusion, on peut se limiter à l'étude de tranche d'âge (par exemple de 40 à 50
ans).
L’appariement des données :
Cette méthode consiste à grouper les sujets par paire de telle façon que ceux d'un
même groupe possèdent les mêmes facteurs de confusion (âge, sexe). Il s'agit
d'équilibrer la distribution du facteur de confusion entre les groupes d'études
exposées et non exposés (cohorte) ou malade et non malade (cas-témoins).
La standardisation :
Cette technique utilisée pendant l'analyse des résultats permet de calculer un taux
de malades ajustés (standardisés), et de calculer un risque relatif ajusté.

185
LE RISQUE EN ÉPIDÉMIOLOGIE :
MESURES ET ASSOCIATIONS

Le risque en épidémiologie est la probabilité de survenue d’un événement (décès,


maladie) à un moment donné ou pendant un intervalle de temps. Cette probabilité
n’est pas la même pour tous les individus d’une population ; en effet le risque peut
varier en fonction de certaines caractéristiques individuelles, comme le sexe, l’âge,
certains facteurs socio-économiques ou certains paramètres biologiques ; ce sont
ces facteurs qu’on appelle facteurs de risque.
Le risque est une notion chiffrée dont il importe de préciser comment on l'a
mesurée. Il faut pour cela déterminer :
À partir de combien de cigarettes par jour est-on considéré comme fumeur ?
Au bout de combien d'années de consommation a-t-on doublé son risque ?

Définition du risque en épidémiologie


Le risque est la probabilité qu’un événement non désiré survienne dans une
population déterminée. L’événement peut être la mortalité, morbidité, incapacité,
etc.
Nombre d’événements survenus
Le risque s’exprime sous forme de taux :
Population concernée

Un facteur de risque est une variable liée statistiquement à l’événement étudié.


Cependant, ce n’est pas parce qu’un facteur est statistiquement lié à l’événement
étudié qu’il en est la cause.
En effet, un facteur pour être causal vis-à-vis d’une maladie n’a pas obligatoirement
besoin d’être présent d’une manière nécessaire ni même suffisante.
Exemple
Dans les cardiopathies ischémiques, des causes multiples ont été mises en évidence
; plus le nombre de facteurs étiologiques est important, plus le risque est élevé ;
mais la maladie peut apparaître en l’absence d’un ou plusieurs de ces facteurs.
Autrement dit, un sujet qui fume avec une hyper cholestérolémie et une
hypertension artérielle, a un risque plus élevé qu’un individu présentant seulement
un de ces facteurs. Néanmoins, il est possible qu’une cardiopathie ischémique

186
survienne chez un individu qui ne fume pas. De même des fumeurs ne seront jamais
atteints.
Mesures d’association
L’étude des mesures d’association permet de répondre à deux questions :
- d’une part l’existence d’une liaison entre le facteur de risque (E) et la maladie
(M)
- d’autre part à la quantification de la force du lien entre (E) et (M).

Tableau 14 : Situations possibles

Malade Non malade Total


E exposé- exposé- non
malade (P1 malade (P0)
Non E non exposé – non exposé -
malade non malade
Total

Soit P1 le risque de maladie chez les sujets exposés au facteur de risque, et P0 le


risque de maladie des sujets non exposés.
Plusieurs méthodes sont utilisées pour quantifier l’association entre la maladie et le
facteur de risque.

Le risque relatif
C’est un rapport entre le risque de survenue de la maladie dans le groupe des non
exposés et dans le groupe des exposés. Le terme de risque relatif exprime la
comparaison entre taux de survenue d'un événement dans deux groupes qui ne
diffèrent que par l'exposition au facteur étudié. .
Le risque relatif est le rapport du risque observé chez les sujets exposés, au risque
chez les non exposés
Risque chez les exposés (P1)
Risque relatif (RR) = -----------------------
Risque chez les non exposés (P0)
Exemple
Si dans un groupe de mille personnes exposées à un facteur donné, on observe 130
cas de cancers en 1 an, soit 130 %o (ou 13 % ou 0,13) au lieu des 13 %o de la

187
population générale, on dira que le risque relatif dans ce groupe exposé est de :
0,13 / 0,013 = 10 (on ne trouve que rarement dans la réalité des RR aussi élevés).
Si le RR est égal à 1, cela signifie que l'exposition ne modifie pas le taux de
survenue de l'événement. Il y a deux explications possibles :
Si le RR est significativement plus petit que 1, cela signifie que l'exposition au
facteur réduit la probabilité de survenue de l'événement.
On parle de facteur protecteur.

L'odds ratio
Pour évaluer un RR on compare deux échantillons qui sont tous les deux
représentatifs d'une population (ici les fumeurs et les non-fumeurs). Des
échantillons correctement sélectionnés permettent d'étendre les résultats
obtenus à la population générale. Mais quand on compare un groupe de malades à un
groupe de sujets sains, on n'a pas le droit d'exprimer le RR de la même façon, car
on a choisi arbitrairement les sujets atteints et ceux qui ne l'étaient pas. Aucun
d'entre eux n'est représentatif de la population générale.
Sélectionnés parce qu'ils avaient, ou n'avaient pas la maladie étudiée, ils ne sont
représentatifs que d'eux-mêmes.
On ne peut calculer à partir de cette comparaison, qu'une valeur approchée du
risque relatif, appelée l'odds ratio (OR, assimilé à un risque relatif approché).

OR = P1/ (1-P1) / P0 / (1-P0)

L’odds ratio est aussi le rapport des côtes d’exposition chez les malades et les non
malades, PE1 et PE0 pouvant être estimés dans une enquête cas-témoin (malades et
non malades de l’échantillon étant représentatifs des malades et non malades de la
population).
En choisissant l’expression convenable de l’OR, on voit que l’Ords ratio peut être
estimé dans tous les types d’enquêtes.
L’OR est beaucoup plus souvent étudié que le RR car il est beaucoup plus simple à
mesurer.

Le risque attribuable
Le risque relatif et l’odds ratio mesurent l’intensité du lien entre le facteur de
risque et la maladie au niveau individuel, mais n’indiquent pas l’importance du

188
facteur de risque au niveau de la population, c’est à dire le nombre de cas de
maladie dans la population qui peuvent être imputés au facteur de risque.
Ce rôle est rempli par le risque attribuable, qui vise à mesurer la proportion de
malades attribuable à l’exposition étudiée. Si PE représente fréquence de
l’exposition dans l’ensemble de la population :
PE (RR -1)

RA =
PE (RR -1) + 1

Le risque attribuable dépend donc à la fois de la valeur du risque relatif et de la


fréquence de l’exposition dans la population.

La fraction étiologique
La fraction étiologique du risque est la proportion de cas dus à l’exposition parmi
les sujets exposés. Pour son calcul on prend l’expression du risque attribuable
appliquée à une population où 100% des sujets sont exposés. (PE = 1).
RR - 1
FE = RR

La fraction étiologique fournit ainsi directement la proportion de cas dus au


facteur dans un groupe de sujets exposés au facteur.

Tableau 14 : Présentation des données pour le calcul du risque : Cas d’une enquête
de cohorte

non
malades total
malades

Exposés a b N1

non exposés c d N0

Total M1 M0 N

Calcul direct des taux d’incidence :


Exposés : R1 = a / N1
Non-exposés : R0 = c / N0 = risque de base

189
Risque relatif
C’est le rapport de l'incidence de la maladie chez les exposés sur l'incidence chez
les non-exposés : RR = R1 / R0 = (a / N1) / (c / N0). Si, par exemple, un RR est égal
à 3, cela signifie que les sujets exposés ont 3 fois plus de risque de développer la
maladie étudiée que les non-exposés.
Pour tester si l'association entre le facteur de risque et la maladie est
significative, un test statistique doit être réalisé : il s'agira le plus souvent du test
du Chi-2 de Mantel-Haenzel.
Si la valeur obtenue est supérieure à celle lue dans la table du Chi-2 (au risque
classiquement retenu de 5%, avec 1 degré de liberté (ddl), on peut en conclure que
l'association est significative (qu'elle n'est pas due au hasard), c'est-à-dire que le
RR est significativement différent de 1.
Enfin, il est préférable de calculer l'intervalle de confiance du RR (notamment en
raison du fait que le test ci-dessus ne donne aucune information sur la force de
l'association mise en évidence et sur le sens de cette association).

Différence de risque
C’est le risque en excès associé à l'exposition au facteur étudié :
DR = R1 - R0

190
LECTURE RECOMMANDÉE

Adnane O., Statistiques : cours et exercices OPU, 1990, Alger


ANDRS Agence Nationale pour le Développement de la Recherche en Santé Le
PNRS, 1997 (Programme national de recherche en santé)
Baumann M, Deschamps JP, Pechevis M, Tursz A. Projets de recherche et mémoires
en santé publique et communautaire. Guide pratique. Paris : CIE, Nancy : École de
santé publique, 1991 :159 p.
Belkaïd Rezgui, R., Graba, M.K., Hani, M.T., Bouguermouh, A., Salamon, R., 1993 :
« Système de surveillance épidémiologique de l’infection HIV en Algérie », R.E.M.,
Vol IV, n° 1.
Benhabyles, N., 1995 : « Surveillance épidémiologique des maladies transmissibles »,
ALGERIE, R..E.M., Vol VI, n° 12, p. 90-94.
Bennett AE., Ritchie K. Questionnaire in medicine A guide of their design and use
Oxford Oxford University Press 1975
Bernard P.M, Lapointe C. Mesures statistiques en épidémiologie Presse de
l’Université du Québec – 1987
Bouderda Z. Épidémiologie du DID de l’enfant de moins de 15 ans dans la Wilaya de
Constantine (1985-1989). Journal Algérien de Médecine, 1992, 2 (4) : 289-95.
Bouvenot Gilles, Vray Muriel Essais cliniques – Théorie, pratique et critique
Collection statistique en biologie et en médecine, Flammarion Medecine Sciences,
1996
Colton T.: Statistic in medecine Little, Brown and Company – Boston –1987 third
Edition
Cucherat M., Boissel JP, Leizorovicz A. Méta-analyse des essais thérapeutiques
Paris : Masson, 1997
Dab, W., 1993 : La décision en santé publique, surveillance épidémiologique,
urgences et crises, ENSP Rennes, p. 47-67.
Dabis F., Drucker J., Moren A., Épidémiologie d’intervention Edition Arnette SA -
Paris 1992, 589 pages
Desenclos, J-C., Morinière, B., 1991 : « les CDC d’Atlanta », La Revue du praticien –
Médecine générale, Tome 5, n° 140, p. 1397-1402.
Dossier documentaire .Introduction à la documentation et à la communication en
santé publique. Université Henry Poincaré Nancy 1, Faculté de Médecine, Ecole de
Santé Publique,
191
Dougadous M., La mesure : initiation du clinicien au langage statistique et
méthodologique
Ed Frison Roche Paris 1996
Eseve J., Benhamou E., Raymond L.Méthodes statistiques en épidémiologie
descriptive INSERM, Paris 1993.
Expansion médicale française, 1996
Fagord R.H., Starssen J.A., Thijs L., Advantages and disadvantages of the meta
analysis approach. J Hypertension, 1996 ; 14 (S2) :S9-S13
Falissard B., Comprendre et utiliser les statistiques dans les sciences de la vie
Fieschi M., Initiation aux statistiques en médecine Médiprint, 1982, Marseille.
Fletcher R.H., Fletcher S.W., Wagner E.H... Épidémiologie clinique . Éditions Pradel
– Paris – 1996
Genier B. Décision médicale Analyse et stratégie de la décision dans la pratique
médicale Edition Masson, Paris 1989 230 pages
Goldberg, M., Dab, W., Chaperon, J., Fuhrer, R., Grémy, F., 1979 : « Indicateurs de
santé et « sanométrie » : les aspects conceptuels des recherches récentes sur la
mesure de l’état de santé d’une population », Revue d’épidémiologie et de Santé
publique, Tome 27, pp. 51-68, 133-152.
Green A., Gale EA. Patterson CC. Incidence of Childhood insulino-dependent
diabetes mellitus: the Eurodiab Ace Study. Lancet 1992; 339 (8798):905-9
Griffith, G. W., 1976: « Cancer surveillance with particular reference to the uses
of mortality data », International journal of epidemiology, Vol. 5, n° 1, p. 69-76.
Guenot C, Goupil M., S’informer, se documenter. Guide des sources de données en
santé publique. Rennes : ENSP Éditeurs, 1990 :183 p.
Haïat R, Leroy G., Les grands essais thérapeutiques en clinique cardio vasculaire
Hamdi Cherif M., Sekfali N., Colleman MP. (1991) : Incidence du cancer dans la
wilaya de Sétif – Algérie. Bull. Cancer (1991) 78, 155-167.
Hamdi Cherif M., Sekfali N., Colleman MP., Données d’incidence du cancer dans la
Wilaya de Sétif, 1998-1989 et 1986-1989. Cancer Incidence in five continents c15,
vol VI, N° 120, CIRC Lyon 1992.
Herxeimer A. et All, Thérapeutic trials and society.Consumers' Association, London
1986, 25 pages
Huber C., Abrégé de statistique Masson, 1992, Paris.
Javau C., L’enquête par questionnaire. Ed. Université de Bruxelles Les Éditions
d’Organisation Paris Xème Edition 1991

192
Jenicek M., Méta-analyse en médecine : évaluation et synthèse de l’information
clinique et épidémiologique. Paris :Maloine, 1987 :152 p.
Landrivon G, Delahaye F. La recherche clinique. De l’idée à la publication. Paris :
Masson, 1995 :267
Langmuir, A. D., 1963: « The surveillance of communicable diseases of national
importance », New England Journal of Medicine, Vol. 268, p. 182-192.
Laplanche A. Com-Nougué C., Flamant R., Méthodes statistiques appliquées à la
recherche clinique, Médecine – Sciences – Flammarion. Paris 1993
Laporte RE., Tajima N., Akerbolm HR., et al. Geographical differences in the risk of
IDDM: the importance of registries. Diabètes Care 1985 ; 8 (Suppl. 1) : 101-7.
Lazar P., Élément de probabilité et statistique, Flammarion, 1994, Paris
Le Floch J.P., Perlemuter L., Essai thérapeutique et études cliniques, éd. MASSON.
Lecoutre J.P., Statistique : exercices corrigés avec rappels de cours, Masson, 1990,
Paris.
M. Jenicek. , R. Cléroux, Épidémiologie Clinique Clinimétrie, Edisem – 1983. Masson,
Paris 1998
Matillon Y., Durieux P., L’évaluation médicale – Du concept à la pratique.
Médecine-Sciences – Flammarion 1994
Oussoukine A. L’éthique biomédicale, Edition Dar El Gharb
Parkin DM. 1989) : Cancer occurrence in Developping Countries, CIRC, Publication
Scientifique N° 75. Centre International de Recherche sur le Cancer – Lyon.
Pignon J.P., Poynard T., La méta-analyse des essais thérapeutiques. Principes,
méthode et lecture critique. Rev Prat 1993 ; 43 :2383-6
Rewers M. : Les registres du diabète : méthodologie, p203-14, in Le Diabète en
Europe, Papoz L., Williams R., Fuller J. Éditions INSERM, 1994.
Rumeau-Rouquette C., Blondel B., Kaminski M., Bréart G., Épidémiologie – Méthodes
et pratique, Flammarion Médecine –Sciences Paris 1993
Sackett D.L., Haynes R.B., Guyatt G.H., Tugwell P... Clinical Epidemiology. A basic
science for clinical medicine, Second Edition – USA – 1996
Sacks, J. J., Stroup, D. F., Will, M. L., Harris, E. L., Israel, E., 1988 : « A nurse-
associated epidemics of cardiac arrests in an intensive care unit », Journal of
American Medical Association, Vol. 259, p. 689-695.
Schwartz D., Flammant R., Lellouch J., L’essai thérapeutique chez l’homme,
Collection statistique en biologie et en médecine, Flammarion Medecine Sciences
Schwartz D., Méthodes statistiques à l’usage des médecins et des biologistes,
Flammarion, 1995, Paris
193
Singly F., L’enquête et ses méthodes : le questionnaire, Paris Nathan Université
1992
Slutkin, G., Chin, J., Tarantola, D., Mann, J., 1988 : « Méthode de surveillance des
tendances de l’infection à VIH dans les groupes de population au moyen d’un réseau
sentinelle », WHO/GPA/DIR/88.8.
Tacker, S. B., 1992 : « Les principes et la pratique de la surveillance en santé
publique », Santé publique, Vol. 4, p. 43-49.
Valleron A.Jacques, Exercices programmés de statistiques à l’usage des médecins
et biologistes, Flammarion, 1995, Paris
WHO MONICA The princiapl investigator of the MONICA project. Project:
Geographic variation in mortality from cardiovascular diseases-baseline data on
selected population characteristics and cardio-vascular mortality. World Health
Statistics quarterly, 40(2) : 171-84, 1987.
WHO Organisation Mondiale de la Santé, Institut National de la Santé et de la
Recherche Médicale (1980). Classification Internationale des Maladies – Oncologie
(CIM-O)
WHO 3ème Séminaire-atelier de formation des formateurs en surveillance des
maladies transmissibles et préparation aux épidémies, RABAT, 7 au 17 mai 1997,
Document ronéoté.
WHO, Mise à jour, décembre 1987, Programme élargi de vaccination, « La
surveillance des maladies : des informations pour agir »

194

Vous aimerez peut-être aussi