Académique Documents
Professionnel Documents
Culture Documents
OBJET
ET MÉTHODES
Mesli Farouk
Mustpha Bouziani
Main 2014
Service de Biostatistique
Épidémiologie clinique
Faculté de médecine d’Oran
3
ÉPIDÉMIOLOGIE : OBJET ET MÉTHODES
SOMMAIRE
Page
Préface 3
4
PRÉAMBULE
5
Ainsi, l’idée de réaliser un cours d’initiation aux méthodes épidémiologique et
biostatistique est née. Les différentes réflexions engagées dans ce domaine ont
induit l’élaboration en 1992 d’un projet de recherche dont le but principal est
l’élaboration de méthodes didactiques d’apprentissage de l’Épidémiologie et de la
Biostatistique. Les enquêtes réalisées dans le cadre du projet avaient pour objectif
l’évaluation des connaissances et ont révélé que les professionnels soumis à
l’enquête n’ont aucune notion des principaux concepts de l’Épidémiologie et de la
biostatistique.
C’est ainsi que le CEBIO (cours d’épidémiologie et de biostatistique) est né en
partenariat avec l’unité 88 de l’INSERM France et est organisé chaque année
depuis 1994.
Ce cours a pour objet d’aider les professionnels de la santé à identifier la place de
l’épidémiologie et la statistique dans la résolution des problèmes qu’ils rencontrent
et de pouvoir initier les méthodes les plus simples.
Ainsi ce manuel se veut être une synthèse de l’ensemble des éditions du cours et un
soutien pédagogique adapté. L’objectif est de mettre à disposition des
professionnels de la santé, dans les pays en développement francophones un
ouvrage permettant de mener des études épidémiologiques descriptives en tenant
compte des problèmes rencontrés sur le terrain.
Il devra mettre en relief, les éléments indispensables à ces études en particulier :
- ceux liés au domaine du recueil des données, de leur validation
- des méthodes relatives à la construction de systèmes d’information tenant
compte des moyens disponibles, de leurs avantages et de leurs limites
- des méthodes de sondages liées aux conditions locales du fait de l’absence quasi
générale de base de sondage.
- des problèmes liés à la réalisation de questionnaire tenant compte des conditions
sociologiques de leur région.
- des difficultés à utiliser les indicateurs classiques de santé.
- et enfin d’approfondir les méthodes d’études transversales car ce sont les plus
utilisées dans nos pays.
Mesli M. Farouk
Faculté de Médecine Oran
6
ÉPIDÉMIOLOGIE
INTRODUCTION
5
inductive, soit par approche déductive. Elle est bâtie soit à partir de l’observation
(inductive) soit à partir de l’expérience (déductive). Dans le premier cas, la
recherche causale se fait à l’intérieure de l’étude par constatation d’une liaison
entre deux variables. Dans la seconde, on propose la même hypothèse et on réalise
une nouvelle étude dans le but de valider ou non l’hypothèse mais avec le soin de
contrôler tous les biais.
Ainsi, les études descriptives sont nécessaires pour l’établissement d’hypothèses.
Pour Buffon, “ la seule et vraie science est la connaissance des faits, l’esprit ne
peut y suppléer ”. Il s’agit d’abord d’observer, puis de décrire non pas l’histoire de
cas mais de l’histoire de la maladie.
Dans ce contexte, la méthode mathématique sert à confirmer ou rejeter certains
points équivoques. L’analyse statistique est d’un apport considérable dans la
recherche causale. Elle a pour but de s’assurer du degré de liaison entre l’effet et
la cause, auquel cas, quelle est la probabilité de cette liaison.
Ainsi, la biostatistique ne définit pas la cause, mais qu’il existe des critères du lien
causale formulable en terme de théorie de probabilité. L’analyse statistique ne
porte pas sur un cas mais sur des classes de faits ou variables. Elle suppose donc
que le travail de description soit déjà réalisé.
Ainsi l’on constate que l’hypothèse de causalité est générée par l’observation ou la
description fondée sur des études de population (générale, hospitalière....).
L’ensemble de ce qui précède, fait de l’Épidémiologie une science dont les
principales caractéristiques (Paolo V.) sont :
- La formulation et la vérification d’une hypothèse sur la base d’une observation
d’une population.
- Le raisonnement probabiliste.
- L’absence de référence à l’anatomie pathologie ou à d’autres données de nature
individuelle.
- La pratique d’une expérimentation préventive.
K.F. Maxcy (1951) : "Branche de la médecine, qui étudie les relations entre les
divers facteurs qui déterminent l'ampleur et la propagation dans la collectivité
humaine d'une maladie infectieuse ou d'un état physiologique défini..."
B. Mac Mahon et T.F. Pugh (1970) : " Étude de la distribution des maladies chez
l'homme et des facteurs qui en déterminent la fréquence..."
7
BUTS ET PRATIQUES DE L'ÉPIDÉMIOLOGIE
8
LES ÉTUDES ÉPIDÉMIOLOGIQUES : CLASSIFICATION
9
- Définir les critères de diagnostic ou de dépistage des malades en veillant autant
que possible à la validation des méthodes de diagnostic.
- Contribuer à la mise en place de système d'information sanitaire.
Surveillance de la fréquence des maladies et de la mortalité.
Les principaux objectifs sont :
- La détermination des priorités : Elles sont déterminées sur la base de
l'observation continue des phénomènes de santé ou des facteurs de risque en
faisant des comparaisons dans le temps et l'espace des niveaux de morbidité et de
mortalité. Elles ont pour conséquence d'identifier les groupes de populations sur
lesquels va porter l'intervention sanitaire.
- La vigilance systématique : Elle a pour objet de détecter des modifications
rapides dans le temps et l'espace de la répartition des maladies et de la mortalité.
Une enquête épidémiologique est une observation organisée ; C’est une opération de
recherche et collecte d’information puis d’analyse statistique des données
recueillies en vue de résoudre une (des) question(s) de recherche bien définie(s)
Plusieurs classifications sont proposées :
Selon le temps
- enquêtes transversales
- enquêtes longitudinales
Selon les modalités de choix des sujets
- enquêtes exhaustives
- enquêtes par échantillonnage
Selon les objectifs
- enquêtes descriptives
- enquêtes analytiques
Selon la procédure
L’expérimentation ; dans ces enquêtes, l’attribution de l’exposition est contrôlée
par l’investigateur ; le plus souvent il faut une randomisation pour la répartition
entre les groupes. Ce sont des études prospectives : suivi des sujets. L’exemple en
est essais thérapeutiques. Les avantages sont qu’elles permettent l’imputation
causale et les limites sont celles liées aux choix des groupes d’étude et qu’elles
portent sur des études de population très spécifiques
L’observation : l’investigateur observe la réalité telle qu’elle se présente
spontanément à lui, éventuel tirage au sort (des sujets à observer).
Selon la finalité
A visée descriptive, étiologique, ou évaluative
12
Selon la chronologie
Transversale : étude portant sur les sujets présents au moment de l’enquête :
étude de prévalence.
Longitudinale (prospective) : étude d’une tendance évolutive suivi d’une cohorte
(ensemble de sujets choisis selon des critères définis et suivis dans une enquête
longitudinale).
Étude d’une incidence ou de la mortalité. Ex : suivi pendant 10 ans d’une cohorte
d’enfants nés une année définie pour évaluer leur croissance
Permanente : observation d’un phénomène pendant une durée «infinie» Ex : Registre
des cancers
Selon la finalité et la chronologie
Études descriptives : Transversales, description d’un problème de santé à un
moment donné.
Longitudinales : Observation d’une population sur une période
Transversales répétées : études de tendances
Études étiologiques : études de cohorte, le facteur d’exposition est connu avant
l’apparition de la maladie et le début de l’étude avant l’exposition. Ce sont le plus
souvent des études exposés-non exposés.
Études rétrospectives : cas-témoins : les expositions sont recherchées dans le
passé des sujets malades et non malades.
Les enquêtes transversales : c’est un recueil de l’exposition et de la maladie au
moment de l’enquête : le but est de formuler des hypothèses uniquement.
Selon le mode d’échantillonnage ou le mode de sélection
Exhaustive : Concernent toute la population : ex : statistiques de mortalité
Inconvénients : les investigations sont limitées ; la qualité de l’information est
parfois médiocre
Par sondage : l’échantillon est extrait par sondage de la population
Avantages : un cout moindre car effectif moindre, et une qualité meilleure avec
plus d’investigations
Inconvénients : ces enquêtes donnent des estimations (dont la précision est
fonction de la taille de l’échantillon) et nécessitent une bonne représentativité de
l’échantillon (risque de biais de sélection).
13
ÈRE
1 PARTIE
Épidémiologie
descriptive
14
PRINCIPALES CARACTÉRISTIQUES
EN ÉPIDÉMIOLOGIE DESCRIPTIVE
DÉFINITIONS
15
Quand ? Caractéristiques de temps.
D'une façon générale, l e s résultats s'expriment sous la forme :
- de fréquences brutes,
- ou mieux de fréquences spécifiques :
. Prévalence,
. Incidence,
. Taux de mortalité,
. Taux de létalité …
Ces résultats peuvent être ajustés sur certains critères démographiques : âge,
sexe, catégorie socio-professionnelle.
En fonction des résultats recherchés, les études descriptives se déclinent en :
• études de prévalence,
• études d'incidence,
• séries de cas.
On distingue deux types d’enquêtes descriptives : les enquêtes transversales et
les enquêtes longitudinales.
Les enquêtes transversales :
Enquête réalisée à une date fixée t ou sur une courte période. Elle permet d’évaluer
la Prévalence, par exemple : une étude de prévalence de l’asthme chez l’enfant
scolarisé. Les enquêtes dites transversales où les sondages permettent d’estimer à
un moment donné, dans une population donnée, la prévalence d’un état de santé ou
d’une exposition à un facteur .
Les enquêtes longitudinales
Surveillance continue de la population sur une période déterminée. Elle permet
d’évaluer l’incidence ou les taux de mortalité. Par exemple le Registre de population
sur les cancers…
Les outils utilisés par l'épidémiologie descriptive résident aussi dans :
• les statistiques de mortalité,
• les enregistrements permanents de morbidité (déclarations obligatoires,
Registre, ...),
• les études ponctuelles.
16
Selon la chronologie du recueil des données : Transversale ou Longitudinale (selon si
le recueil d’information à lieu lors d’un jour donné ou lors de visites successives
(suivi) ; Ou Rétrospective ou Prospective : recueil d’information dans le passé ou
lors d’un suivi dans le temps.
Selon la méthodologie : mono ou multicentrique, nationale ou internationale
CARACTÉRISTIQUES
Pour avoir de la valeur, les indicateurs de prévalence doivent être calculés sur
des populations définies dans l’espace et dans le temps (dénominateur) et pour le
numérateur, ils doivent concerner la totalité des cas présentant la pathologie
étudiée.
Les estimations de morbidité se heurtent au problème de l’exhaustivité.
il est très difficile d’identifier tous les cas d’une pathologie donnée, ceci aboutit à
une sous-estimation.
•Une enquête transversale est aussi caractérisée par son type de recrutement plus
que par le type d’informations recueillis ; c’est ainsi qu’elles sont largement utilisées
en épidémiologie des risques professionnels dans le domaine particuliers de la
recherche et de l’évaluation de marqueurs fonctionnels ou biologiques ; indicateurs
d’une atteinte infra clinique.
17
Figure 2 : schéma d’une enquête de prévalence
Principe
L’enquête de prévalence est réalisée « un jour donné » (période brève, pas de suivi
des patients), sur échantillon représentatif d’une population bien définie.
Le Recueil d’information : sur la présence M( prévalence) et sur des
caractéristiques autres (socio ‐ démographiques, exposition à différents facteurs)
Hypothèses d’association maladie ‐ tiers facteurs.
Séries de cas
Les études de séries de cas permettent l'observation détaillée d'un certain nombre
de patients mais ne permettent pas de généraliser les conclusions à l'ensemble
d'une population. Elles diffèrent en cela des études par échantillonnage. Elles
18
permettent par compte de "soupçonner" un facteur étiologique. Le nombre de cas
peut être très faible : l'influence de l'un des facteurs de risque du SIDA a été
suggérée par l'étude d'une série de 5 cas !
Notion d’échantillonnage
La représentativité de l’échantillon par rapport à la population cible est
fondamentale.
L’échantillonnage est fait par tirage au sort (seule méthode qui peut « garantir » la
représentativité d’un échantillon), à partir d’une liste exhaustive de la population
cible. Certains problèmes peuvent surgir : liste est complète, problème des non
réponse (biais de sélection). Les non-réponses entraînent une erreur sur
l’estimation du paramètre étudié. L’erreur croît avec la proportion de non-
répondant. Si de plus les non-répondants ont des caractéristiques particulières le
sondage devient totalement biaisé.
Pour essayer de cerner ce dernier problème on peut faire une enquête
complémentaire sur les non-répondants pour chercher
Les raisons des non-réponses.
Les valeurs observées sur l’échantillon de sondage diffèrent des valeurs vraies
dans la population en raison des fluctuations d’échantillonnage.
Il est donc nécessaire de définir un intervalle de confiance autour de la valeur
observée, dans lequel on peut situer la valeur pour la population avec un risque
19
d’erreur acceptable (en général fixé à 5 %) que la vraie valeur se situe à l’extérieur
de l’intervalle.
Les indicateurs (prévalence, incidence,…) calculés sur ces échantillons sont des
estimations : ils doivent être toujours présentés avec leur intervalle de confiance
à 95%. IC‐95% : intervalle dans lequel la grandeur que l’on étudie a de fortes
chances (95%) de se situer au sein de la population dont est extrait l’échantillon.
L’intervalle de confiance indique la précision du sondage, il dépend de la variabilité
du facteur étudié (variance), et de l’effectif de l’échantillon.
Inconvénients :
–Image instantanée : pas d’estimation d’incidence
–Pas toujours bon indicateur de santé à l’inverse de l’incidence : une augmentation
de prévalence peut être due à une augmentation d’incidence ou à l’augmentation de
la durée de survie d’une maladie
–Pas de prise en compte de la chronologie : interprétation difficile des liens
observés entre maladie et expositions
–Observation des seuls cas du moment : possibilité de biais de sélection si le fait
d’être absent le jour de l’enquête est lié au phénomène étudié.
20
Cette caractéristique a certainement une grande influence sur l’accessibilité aux
services de santé et sur l’état de santé des individus.
Les niveaux socio-économiques ont des modalités qui correspondent à des
classifications proposées par les organismes chargés de la planification et des
statistiques dans les pays.
Caractéristiques de lieu
L’analyse topographique des donnés dans une population a démontré de nombreux
cas, des variations d’une maladie selon le lieu. La relation entre la maladie et les
facteurs locaux peut être mise en évidence : résidence, lieu de naissance, lieu de
travail, district de l’école, unité hospitalière.
• Lieu de résidence vs l’endroit d’acquisition de la maladie / lieu où service prodigué
• Unités géographiques (district, commune, rue,).
On utilise parfois une notion unitaire appelée biotope, qui définit une zone
géographique, ses conditions climatiques (température et humidité) ; son sol, sa
végétation et sa faune ainsi que la population qui l’habite.
L’analyse géographique des cartes produites permet de nombreuses applications sur
le plan de la santé publique allant de la production de données administratives à la
génération d’hypothèses.
Caractéristiques de temps
Plusieurs notions de temps sont utilisées en épidémiologie.
•Les phénomènes de masse apparaissent dans le temps et dans l’espace avec une
régularité variable. Une classification entre phénomènes périodiques et non
périodiques s’impose.
•On distingue ainsi :
-Le temps chronologique relié a l’âge chronologique des personnes étudiées.(le
tableau de la maladie est établit dans un groupe d’âge particulier)
21
-Le temps «zéro» qui représente le moment ou l’individu rentre dans le groupe
étudié.(ex des études de survie)
-Le temps épidémiologique qui est l’intervalle qui sépare l’apparition de la maladie du
retour à la normale.(pour la diphtérie, l’année épidémiologique commence en été ).
-La tendance séculaire d’une maladie peut varier d’une année à une autre
Tendances cycliques
Ce sont des variations saisonnières, annuelles etc.,
Elles permettent d’élaborer des hypothèses relatives au rôle des vecteurs, des
comportements de population.
Variations « instantanées » :
Épidémies : Le nombre de cas atteint brusquement un niveau élevé dans un groupe
de population, sur un territoire donné, pendant un temps déterminé, puis disparaît.
Ex : la grippe.
Endémies : infection présente de façon constante dans une population au cours du
temps.
Clusters : petit groupe.
Figure 3 : Démarche dans les enquêtes épidémiologiques
22
Autres caractéristiques dans les enquêtes épidémiologiques descriptives
Caractéristiques de lieu
Le lieu en terme géographique est important à considérer dans toutes les études
car le lieu d’habitat ou de travail est « chargé » d’une histoire, de caractères de
l’environnement en termes de polluants ou autres. Ces dernières ont vu se
développer toute une approche de ce que l’on appelle la pathologie géographique.
Ceci est utile aussi pour l’élaboration d’hypothèse de causalité en particuliers.
23
LES INDICATEURS SANITAIRES
Indicateurs de mortalité :
Espérance de vie à la naissance et à différents âges
Taux de mortalité générale
Taux de mortalité par sous-groupes
Taux de mortalités standardisés sur l’âge
Indice de surmortalité masculine
Mortalité prématurée
Années potentielles de vie perdue
Mortalités évitables par cause
Indicateurs de morbidité :
Taux d’incidence
Taux de prévalence
Taux d’incapacité (espérance de vie sans capacité)
Taux de désavantages
Appréciation subjective de la santé
25
Les indicateurs de mesure de la morbidité
La morbidité
C’est un élément essentiel de la description épidémiologique de l’état de santé d’une
population. La morbidité dans une population est représentée par le nombre de
personnes malades ou le nombre de cas de maladies dans une population
déterminée, à un moment donné. On distingue plusieurs types de morbidité : selon
les modalités du recueil de l'information. En fonction de l'état "maladie" on
distingue :
- La morbidité diagnostiquée. C'est la morbidité mise en évidence par le diagnostic
médical et ayant nécessité le recours aux soins.
- La morbidité ressentie. C'est l'ensemble des troubles ou des affections ressenties
par les individus.
- La morbidité infraclinique. Elle inclut toutes les affections dont l'existence n'est
pas décelée faute de manifestations cliniques.
L'ensemble constitue la morbidité réelle. Elle comprend l'ensemble des affections,
connues ou non, ressenties ou non, diagnostiquée ou non.
La morbidité déclarée correspond dans les enquêtes à la morbidité que déclare un
individu. Elle est dépendante de la perception que l'individu a de sa santé, de
facteurs socio-économiques, culturels, ou psychologiques.
P=
C'est le type d'indicateur utilisé dans une enquête faite à un moment donné du
temps appelée enquête transversale. Il est clair que cet indicateur n'a d'intérêt
que ramené à l'effectif de la population. En effet dire qu'il y a 50 cas de
tuberculose dans une ville A et 200 cas dans une ville B ne permet en aucun cas
d'affirmer qu'il y a plus de tuberculose dans la ville B. En effet, il faut ramener à
un dénominateur commun : l'effectif de la population au moment de l'étude.
Remarque
La notion de prévalence intègre aussi deux dimensions différentes : d'une part la
durée de la maladie, car plus elle est longue, plus élevé sera le nombre de malade,
d'autre part la vitesse d'apparition de la maladie : plus elle est élevée, plus grande
sera la prévalence.
27
Taux d'incidence
Un taux d'incidence c'est le nombre de nouveaux cas d'une maladie apparus
pendant une durée donnée, rapporté au nombre de patients à risque pendant la
période considérée.
29
Les indicateurs de mortalité
Il existe plusieurs méthodes pour mesurer la mortalité. L'effectif (ou le nombre)
de décès est l'indicateur de mortalité le plus simple. Les effectifs de décès
peuvent être analysés toutes causes confondues ou répartis par cause, pour une ou
plusieurs années, en fonction des variables enregistrées :
- socio-démographiques (sexe, âge, état matrimonial, catégorie socio-
professionnelle, nationalité...) ;
- géographiques (région, département et commune de domicile ou de décès).
Taux de mortalité brut (TMB)
Le taux brut de mortalité est un indice utilisé pour décrire la mortalité dans une
population en tenant compte de l'effectif de cette population.
C'est le rapport du nombre de décès d survenus pendant la période considérée, sur
l'effectif n de la population à risque de décès, pendant cette même période. Pour
éviter de manipuler des fractions décimales, le taux de mortalité est généralement
calculé pour 1.000, 10.000 ou 100.000 habitants.
30
Figure 4 : Évolution du taux de mortalité infantile et
du taux de mortinatalité, 1970-2000, Algérie.
160
140
120
100
80
60
40
20
0
70
73
76
79
82
85
88
91
94
97
00
19
19
19
19
19
19
19
19
19
19
20
La mortalité maternelle :
Nombre de décès dus à l’accouchement et aux complications de la grossesse sur
10 000 ou 100 000 naissances vivantes.
La mortalité prénatale regroupe tous les décès survenus pendant la période
périnatale qui s'étend depuis la 22ème semaine de grossesse jusqu'au 8ème jour
révolu de la vie extra utérine que le nouveau né soit à terme ou prématuré.
On peut également définir la mortalité néonatale qui concerne la période néonatale.
Les différentes périodes en néonatologie sont illustrées par la figure 4.
31
Figure 5 : Périodes natales et quotients de mortalité
Taux %°
50
45
40
35
30
25
20
1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000
TMI TMn années
32
Taux standardisés
Pour comparer globalement la mortalité dans des populations différentes, on ne
peut utiliser le taux brut de mortalité car il ne tient pas compte des différences de
structure d'âge de ces populations. Ainsi une région dont la population est âgée
peut avoir un taux brut de mortalité relativement élevé uniquement du fait de sa
structure d'âge.
Pour éliminer cet effet de l'âge, on utilise des taux standardisés.
La standardisation par l'âge est la plus usuelle, mais on peut également
standardiser par rapport à d'autres variables comme le sexe, la catégorie
socioprofessionnelle, etc.
La létalité
Il s'agit de la probabilité de décéder d'une maladie durant une période donnée
sachant qu'on a contracté la maladie pendant cette période. C'est donc une mesure
de la gravité de la maladie (M) étudiée.
33
Figure 7 : Pyramide d’âge de la population estimée de la Wilaya d’Oran
Au 01/07/2002 – Source O NS/Oran
La structure par âge : l’âge est une variable étroitement liée à la survenue de
maladies.
Le sexe ratio : H/F peut montrer par exemple une surmortalité masculine.
La fécondité et la natalité :
- le taux brut de natalité, le rapport entre le nombre de naissances de l’année
divisé par la population au milieu de l’année ;
- le taux global de fécondité est le rapport du nombre de naissances sur le nombre
de femmes en âge de procréer. Les indicateurs socio-économiques
34
Les indicateurs de demande en soins :
L’accessibilité aux soins ;
L’inaccessibilité aux soins : demandes exprimées mais non satisfaites ;
La demande non exprimée ;
La consommation médicale (visites, médicaments, soins dentaires).
35
Les indicateurs sur les habitudes de vie :
Habitudes alimentaires : proportion de malnutritions, d’obésité
Les indicateurs de comportement à risque pour la santé (tabagisme, alcoolisme...)
Conclusion
Le choix des indicateurs de santé dépend du type d'enquête réalisé. Le type
d'enquête retenu est une fonction des objectifs à atteindre et de la faisabilité de
l'étude. Le type d'enquête envisagé détermine le type d'indicateur à évaluer. Par
exemple : dans une étude transversale l'indicateur privilégié sera une prévalence,
dans une étude de cohorte, une incidence.
Il faut également s'enquérir des moyens nécessaires à développer pour que ces
indicateurs soient mesurables. Dans le cas de la morbidité c'est la définition de la
maladie qu'il faut bien préciser. Quels critères choisir pour la définir ? Quels
examens, avec quelle fiabilité, quelle reproductibilité ?
Il faut définir précisément le moment de la mesure des indicateurs de santé dans
le cadre de l'étude et dans l'histoire de la maladie.
36
LES SOURCES D’INFORMATION
EN ÉPIDÉMIOLOGIE
37
-en tant que source de données administratives pour la gestion hospitalière
et l’évaluation de la qualité des soins
-en tant qu’outil de recherche clinique et d’étude épidémiologique,
38
mode de vie, la transformation de l’environnement, l’augmentation de l’espérance de
vie, etc.…
- Permettre de planifier des études d’intervention dans le but est de rechercher si
la modification d’un facteur d’exposition (causal ou protecteur) peut modifier
l’incidence ou l’évolution clinique de la maladie.
- Estimer les coûts directs et indirects de la maladie pour l’individu et la société,
ainsi que les besoins de la collectivité en termes de traitement spécifique,
d’éducation et de prévention.
- Mieux reconnaître une maladie intéressant la société, et aider à éduquer les
personnels de santé ainsi que les patients atteints de ces maladies.
Concept de base
Le concept de base des registres consiste à répondre à des questions précises en
rapport avec la recherche étiologique ou les soucis en s’appuyant sur des bases de
données contenant des informations pertinentes sur tous les patients atteints
d’une maladie donnée dans une population bien définie.
Qualité d’enregistrement :
Le terme de registre, ainsi défini, ne peut en aucune façon s’appliquer à tout
enregistrement systématique de donnée (enregistrement de donnée hospitalière,
de facteurs d’exposition…).
Par conséquent les détails contenus dans un registre dépendant des objectifs de
recherche de la quantité et de la qualité des informations devant être recueillies et
de l’exhaustivité et de la représentativité souhaitée.
39
des cancers de différentes localisations, ou des cancers à des témoins non
cancéreux.
La disponibilité des données des registres constituant un élément clé pour la mise
en place d'un programme de lutte contre les maladies. Ces données ont une valeur
immense ,non seulement pour la région ou le pays mais pour le monde entier.
En effet les données du registre fournissent la première indication fiable sur le
profil de la maladie en indiquant les taux d’incidence, les résultats thérapeutiques
et les taux de survie.
Priorités pour la mise en place des Registres
Le choix des pathologies susceptibles de faire l’objet de registre de morbidité
dépend de nombreux de facteurs, de nature très différentes, et dont on doit tenir
compte avant la mise en place d’un nouveau registre :
- Importance du problème en termes de morbidité et de coût social et
économique ;
- Diagnostic objectif aisé des nouveaux cas, quelque soit le système de santé.
- Problème de santé publique majeur.
40
Équipe du registre :
L’établissement d’un registre requiert la collaboration de nombreuses personnes qui
sont à la source des informations à réunir. Les actions doivent être menées dans le
cadre d’une recherche interdisciplinaire en collaboration avec des équipes et des
organismes de recherche et de lutte contre les maladies aussi bien au niveau
national qu’international.
41
traitement des données sont faits généralement sur les Logiciels spécifiques. Par
exemple le logiciel CANREG pour les registres du Cancer.
Fonctionnement :
IL faut commencer par établir un organigramme de registre et définir les facteurs
d’inclusion et d’exclusion.
Confidentialité :
Le fonctionnement du registre demande une rigueur non seulement scientifique
mais aussi éthique. Les données nominatives indispensables pour le registre et qui
relèvent d’une maladie grave sont répertoriées sur des fiches spéciales qui ne
doivent en aucun cas être laissées à la portée d’un tiers. L’accès au registre est
strictement réservé au personnel de l’unité. L’accès aux données du disque dur n’est
disponible qu’à l’aide d’un code.
Population :
Le recrutement repose sur une zone géographique administrative bien limitée. Le
nombre de nouveau cas diagnostiqués parmi les résidents de la zone considérée
(numérateur) sera rapporté au nombre d’habitants de cette même zone au moment
du diagnostic (dénominateur). Il faut que ce nombre soit connu avec une bonne
précision. La bonne correspondance entre le numérateur et dénominateur n’est pas
toujours facile à assurer :
- En ce qui concerne le numérateur ; les nouveaux cas signalés dans la région
peuvent atteindre des sujets non résidents. Il est relativement facile de les
éliminer. Par contre certains résidents peuvent être traités et signalés en dehors
de la région et des systèmes doivent être mis au point pour les inclure.
- En ce qui concerne la population, il faut se souvenir que les recensements sont loin
d’être annuels et que l’on procède à des estimations annuelles de la population en
tenant compte des naissances, des décès et de certaines migrations. Ces
estimations ne sont faites que pour des unités géographiques relativement
importantes telles que les wilayas ou départements.
On utilise souvent le taux d’accroissement par rapport au dernier recensement
général de la population.
Pour le calcul des taux standardisés on a souvent recours à une population de
référence (Ex population Mondiale OMS) , pour rendre comparable deux
populations n’ayant pas la même structure d’âge.
42
La zone retenue doit :
- comporter un nombre suffisant d’habitants pour que les données statistiques
aient une validité acceptable compte tenu de l’incidence de la pathologie.
- être relativement stable en ce qui concerne la population.
- bénéficier d’une bonne couverture sanitaire.
Critères de qualité d’un Registre :
Rendement et contrôle des sources : exhaustivité, fiabilité.
Taux de confirmation biologique, histologique, radiologique etc..
Concordance inter-sources des informations.
Cohérence des données enregistrées :
Concordance entre données.
Vérification des situations peu courantes.
Acceptabilité des résultats : interprétabilité
43
En Algérie, les Registres de cancer existent dans les Principaux Centres
Hospitaliers et Universitaires du pays. Par exemple, le Registre de Cancer de Sétif
a été en place depuis 1989.
Registre du Diabète : exemple le Registre du diabète insulino dépendent (DID) pour
les enfants d’Oran Oran, et le Registre du DID de Sétif.
Conclusion
L’information sanitaire constitue une source partiellement riche et utile pour
l’évaluation des besoins sanitaire de la population et des actions de prévention. Pour
lutter efficacement contre certaines maladies qui posent des problèmes de santé
publique majeurs, et qui pèsent lourdement sur l’économie du pays il est
indispensable de disposer de données fiables et précises. Aucune politique de santé
ne pourrait se passer de telles données.
Il ne suffit pas de dénombrer les cas d’une maladie et survie son évolution dans le
temps et dans l’espace, mais surtout expliquer et analyser une information fiable et
précise.
44
LES ENQUÊTES ÉPIDÉMIOLOGIQUES
TRANSVERSALES
45
Dans ce cas, les expositions sont évaluées de façon rétrospective, afin de tenir
compte de la période d’incubation ou temps de latence (L’effet ne précède jamais la
cause).
L’objectif principal de ces enquêtes est d’élaborer des hypothèses de recherche
étiologique. Elles ne peuvent apporter de réponse à la relation causale. C’est pour
cela qu’elles sont aussi appelées enquêtes à visée exploratoire.
De grandes études de ce type ont été réalisées notamment en s’appuyant sur
l’évaluation et la comparaison des SMR ( standardised mortality ratio).
Types d’enquêtes
Enquête transversale unique (Cross Sectional Survey )
L’enquête transversale porte sur une population définie dans laquelle on recueille
des informations une seule fois pour chaque individu.
Enquêtes transversales répétées dans le temps
Les enquêtes transversales répétées dans le temps s’imposent dès que l’on souhaite
décrire l’évolution de la prévalence dans un objectif de surveillance ou de
recherche, et peuvent porter sur des populations entièrement ou partiellement
renouvelées.
Ces enquêtes ont pour but d’estimer la prévalence mais non l’incidence.
L’échantillonnage
Selon les objectifs de l’enquête, l’échantillonnage est effectué sur la population
générale ou sur des populations particulières (professionnelle, scolaire etc.).
Dans le cas ou l’enquête est à visée descriptive, la représentativité de l’échantillon
est indispensable. Par contre, dans le cas ou l’enquête est à visée étiologique, la
représentativité passe au second plan car il s’agit surtout de constituer des
groupes comparables.
Constitution de l’échantillon
Les bases de sondage :
Elles doivent avoir la particularité d’être exhaustive et de fournir les mêmes
chances à tous les individus composant la population source d’être tirés. En outre,
elles doivent être constituées par l’ensemble des sujets présents au moment de
l’enquête.
47
Taille de l’échantillon :
Elle doit être calculée en tenant compte des données ou de l’estimation de
paramètres d’enquêtes antérieures ou dans des régions voisines selon les méthodes
proposées dans les manuels de statistiques.
Les sujets devant participer à l’enquête doivent impérativement être tirés au sort
afin d’assurer la représentativité.
Les sujets absents au moment du passage des enquêteurs doivent repris car il se
peut que ces sujets ont « l’évènement » recherché. C’est d’ailleurs pour cela qu’il
faut définir la population comme l’ensemble des individus présents.
Méthodes d’échantillonnage :
Elles sont nombreuses et dépendent de l’existence et de la nature de la base de
sondage. (Voir le chapitre)
Population
La population de « choix » serait une population exposée et à prévalence élevée.
Dans ce type d’enquête, l’étude est réalisée sur une population répartie en deux
groupes, car ces types d’études sont comparatifs.
Le groupe d’étude :
Il est constitué par l’ensemble des individus ayant une expérience commune quand à
l’objet de l’étude. Par exemple, si l’objet de l’étude est d’établir une relation
probable entre une maladie et un facteur, le groupe d’étude serait constitué par les
individus qui sont exposés ou vivant dans des conditions d’exposition minimales.
Le groupe de référence ou témoin
Il est important de constituer un groupe de référence qui soit comparable au
groupe d’étude. Le groupe de référence peut être constitué soit à partir de la
population source soit à partir d’une autre population. Le groupe de référence peut
48
être constitué à partir des données de la population générale, dans le cas où les
paramètres à comparer sont d’ordre biologique par exemple.
Taille de l’échantillon :
La taille de l’échantillon est estimée de telle sorte que l’on doit avoir une puissance
maximale égale au moins à 80%. C’est la condition indispensable pour mener une
enquête comparative à visée étiologique.
Le calcul pratique du nombre de sujets nécessaire est réalisé de la manière
suivante :
n1 = (k + 1/ k) (z α/2 – Z1-β )2 / C2
¤ Comparaison de 2 moyennes
C = ∆ / √ σ pour la comparaison de deux moyennes
Conclusion
Les enquêtes transversales sont bien adaptées aux enquêtes descriptives.
Lorsqu’elles sont à visée étiologiques, il faut manipuler les résultats avec beaucoup
de prudence, car les biais sont nombreux.
49
2ème partie
L’épidémiologie
analytique
50
LES ENQUÊTES ANALYTIQUES
ET CAUSALITÉ
GÉNÉRALITÉS
51
Par « exposition » on entend le fait, pour un sujet, d’être soumis à l’action d’un
facteur (une variable) donné. Ainsi, on comparera, par exemple, la fréquence de
survenue de la maladie étudiée entre un groupe de sujets exposés et un groupe de
sujets non-exposés. Les facteurs identifiés par ces études comme liés
significativement (au sens statistique) à la survenue d’une maladie seront appelés
des facteurs de risque : leur présence est associée à une modification du risque de
survenue de la maladie. Au delà des statistiques concernant une pathologie dans
une population donnée, l’épidémiologie dispose donc d’outils permettant d’étudier
l’étiologie ou les facteurs de risque en relation avec la probabilité de développer
une maladie. C’est le but de l’épidémiologie analytique qui compare toujours des
groupes en fonction de la question posée.
Exemples modernes
Tabac et cancer bronchique
En 1950, Doll et Hill (G.B) ont comparé les habitudes tabagiques de 1300 cancéreux
des bronches et de 1300 témoins. Cette enquête rétrospective a montré que les
premiers fumaient beaucoup plus que les témoins.
En 1952, Hammond et Horn (U.S.A.) font une enquête prospective sur 1 000 000
personnes pendant 5 ans.
Ces enquêtes ont montré que l'effet cancérigène du tabac est d'autant plus grand
que la quantité de tabac est plus forte, que l'inhalation de la fumée est plus
importante et que le début de l'intoxication est plus précoce.
Nutrition et l’infarctus du myocarde
L'enquête de Framingham (banlieue de Boson) suit depuis 1950 les habitudes
nutritionnelles des personnes qui étaient alors âgées de 30 à 60 ans. L’enquête du
GREA (Groupe de Recherche sur l'Épidémiologie de l'Athérosclérose) étudie à
Paris, depuis 1967, 7400 fonctionnaires.
Les deux enquêtes ont donné des résultats comparables et ont mis en évidence,
cinq facteurs de risque de l’infarctus du myocarde : taux élevé du cholestérol,
hypertension artérielle, consommation de tabac, existence d'un diabète, présence
d'anomalie de l'ECG.
LA CAUSALITÉ EN ÉPIDÉMIOLOGIE
53
Les biais liés à la relation temporelle entre l’exposition et l’apparition de la maladie
et/ou de l’effet sont à considérer avec beaucoup de soins dans les enquêtes
étiologiques.
Critères Résultats
Relation Ceci signifie qu’il ne s’agit pas d’une simple réponse mais que le
dose-réponse risque de développer une pathologie augmente avec la dose
Constance ou Il faut que les tendances des différentes études soient
concordance compatibles
Cohérence Il en est de même pour la cohérence des résultats
spécificité Ceci signifie que la pathologie peut-être attribuée au facteur
étudié, dans la mesure où les autres facteurs sont distribués
de façon égale dans les cas et dans les témoins
Puissance de La puissance de l’association ne dépend pas uniquement du
l’association niveau de significativité du test statistique mais aussi du
design de l’étude, c’est pour cette raison qu’il est parfois utile
d’avoir recours à des méta-analyses
Temporalité Le facteur temps peut avoir un impact considérable, en
fonction du mécanisme d’action et signifie que la durée
d’exposition doit être en cohérence avec le risque calculé
54
LES ÉTUDES CAS TÉMOINS
56
Tableau 3 : Mise en tableau et analyse des résultats
Maladie
Présente Absente
Exposition Oui a b
au facteur de risque
Non c d
a+c b+d
59
Figure 9 : Nombre de témoins par cas et puissance de l’étude
Puissance (1 – β)
1 2 3 4 5 6 7 8
60
Analyse des résultats
L'analyse des données se décompose classiquement en deux étapes : l'analyse
univariée puis l'analyse multivariée.
L'analyse univariée consiste à estimer les odds ratio « bruts » mesurant
séparément la force des associations entre la maladie et chacun des facteurs
d'exposition, sans ajustement sur les facteurs de confusion potentiels.
Les résultats sont toujours estimés à un risque d'erreur près, représenté par le
degré de signification p, qui permet classiquement de conclure lorsqu'il est
inférieur à 5 % (p < 0,05).
En pratique, l'association est statistiquement significative lorsque l'intervalle de
confiance à 95 % de l'odds ratio n'inclut pas la valeur 1.
Ainsi par exemple, un odds ratio égal à 3,0 avec un intervalle de confiance (2,1-4,4)
indique une association statistiquement significative, avec un risque trois fois plus
élevé de survenue de la maladie chez les sujets exposés par rapport aux sujets non
exposés.
Le rapport des cotes = Odds ratio (OR) : permet d’évaluer la liaison entre
l’exposition et la maladie
61
L’OR est calculé sur un échantillon (fluctuation d’échantillonnage), donc on doit
calculer son intervalle de confiance à 95%.
62
Avantage des études cas témoin :
– Bien adaptée pour étudier les maladies rares
– Étude courte, coût faible
– Rapidité d’exécution
– Échantillon de taille modérée.
Inconvénients :
– Les études cas témoin ne sont adaptées pour étudier :
• les expositions rares
• plusieurs maladies
• La séquence temporelle exposition/maladie
– Pas de calcul de taux d’incidence :
L’OR peut être biaisé si la prévalence de la maladie est élevée.
63
LES ÉTUDES DE COHORTE
GÉNÉRALITÉS
Une étude de cohorte est une étude au cours de laquelle on compare la morbidité
(ou la mortalité) observée dans un ou plusieurs groupes d’individus (cohorte),
indemnes de la maladie à l’origine, exposés ou non à un facteur de risque soupçonné
d’être à l’origine de la maladie.
L’apparition éventuelle, au cours du temps, de la maladie étudiée est traquée chez
chaque individu de la cohorte.
La cohorte peut être définie comme un ou plusieurs groupes de sujets suivis au
cours du temps et définis à p a r tir de caractéristiques personnelles communes :
sexe, milieu ou origine géographique, milieu professionnel,…
La cohorte peut être également prise au sens démographique du terme : «ensemble
d’individus ayant vécu un évènement semblable pendant la même période de temps».
Le principe d'une étude de cohorte consiste à suivre dans le temps une population
définie (la cohorte), et à enregistrer les pathologies survenant dans cette
population.
L'étude de cohorte représente le type de protocole épidémiologique le plus proche
de celui de l'approche expérimentale. Cette séquence temporelle de la cause vers
l'effet fait que l'on parle aussi d'enquête prospective ou longitudinale. Son rôle est
de déterminer les facteurs de risque associés à la survenue d'une pathologie et de
quantifier ces associations.
Avec l'étude cas-témoins, elle est à classer parmi les études épidémiologiques dites
analytiques, c'est-à-dire qu'on leur reconnaît la capacité à vérifier une relation de
causalité entre un facteur d'exposition et une pathologie
Une étude cohorte implique : soit une cohorte fixe, soit une population dynamique
pour laquelle la période de suivi de chaque individu est connue ou supposée par
l'investigateur.
Effectifs nécessaires
L’unité statistique des études de cohorte est la personne temps.
Le calcul des effectifs nécessaires est réalisé non pas sur la base du nombre de
sujets mais sur celle du nombre de personnes temps (années, mois, semaines, jours,
…) générés par les sujets constituant la cohorte. Il dépend des paramètres suivants
:
– Risque α fixé (généralement 5% bilatéral) et puissance fixée (1‐β, généralement
≥80%),
– Incidence de la maladie chez les non exposés,
– Importance de la taille d’effet attendu (exposés vs non exposés).
La personne- temps : unité statistique de l'étude de cohorte
Au sein d'une cohorte, tous les individus ne vont pas avoir la même durée de suivi.
Pour prendre en compte ces différences de durée (ainsi que des différences d'âge
ou de période), le suivi de chaque individu va être décomposé en personnes-temps.
L'unité de temps est généralement l'année et on parle de personnes-années. La
somme des personnes-années de tous les individus suivis détermine la taille de la
cohorte.
L'information sur le facteur d'étude doit alors être collectée à partir d'un très
grand nombre de sujets pour obtenir un nombre suffisant de cas.
Critères d’inclusion
Ce sont les sujets non atteints par la maladie étudiée à l’inclusion, les sujets pour
lesquels on dispose d’une information précise sur l’exposition, et enfin les sujets
pour lesquels un long suivi est possible.
Mesure de l’exposition
Un des principaux atouts des études de cohorte est la mesure précise de
l’exposition (on évite le biais de mémorisation des études cas témoin). Le recueil de
l’exposition doit être :
• Précis, intensité sur plusieurs niveaux d’exposition
66
• Objectif : mesuré avec un outil validé et fiable (questionnaire, appareil de mesure,
interrogatoire, examen clinique, examens biologiques, explorations fonctionnelles,
prélèvements…
• Daté : durée, et changements.
Pour l'estimation du risque dans une cohorte, deux schémas peuvent être envisagés
pour le choix du groupe de comparaison (ou groupe de référence).
Le risque dans un groupe exposé peut être estimé par rapport à un groupe de
référence interne à la cohorte, généralement un groupe non exposé au facteur
d'exposition considéré.
Cette démarche présente l'avantage de fonder les analyses par rapport à un groupe
non exposé répondant aux mêmes critères d'inclusion que les sujets exposés. Elle
aboutit à l'estimation directe du risque relatif.
Elle peut introduire un biais lorsque le groupe de référence est de faible taille ou
lorsqu'il diffère des individus exposés par d'autres facteurs que l'exposition (par
exemple personnels administratifs différents des autres travailleurs dans une
cohorte professionnelle).
Une autre approche est de déterminer le risque dans chaque groupe par rapport à
une référence externe à la cohorte (le plus souvent la population nationale).
Dans ce cas, la mesure du risque repose sur la comparaison du nombre de cas
observés dans la cohorte (O) avec le nombre de cas calculé dans la cohorte, dit
nombre de cas attendus (A).
Ce dernier est obtenu en appliquant les taux de la population de référence à la
structure de la cohorte, par classe d'âge et par année calendaire. Le rapport O/A
est appelé rapport standardisé de mortalité (SMR) ou d'incidence (SIR)
Critères d’inclusion
Pour éviter les biais de sélection, les critères d’inclusion doive n t être
extrêmement rigoureux :
- L’exposition au risque doit être définie avec précision de même que la durée et
l’intensité d’exposition.
- L’intensité d’exposition doit être variable si l’on veut établir une relation dose-
effet.
67
- L’information concernant le statut vital doit être accessible pendant toute la
durée du suivi : seront ainsi exclus de la cohorte les sujets les plus difficiles à
suivre, en évitant cependant d’exclure des sujets pour lesquels le risque est connu
comme, par exemple, les travailleurs temporaires dans l’industrie nucléaire.
68
L’analyse des résultats
Présentation des résultats pour une cohorte fixe avec un temps de participation
identique pour chaque sujet (avec groupe de référence interne).
Risque relatif
L’analyse des études de cohorte consiste essentiellement à comparer le taux
d’incidence de la maladie observé chez les sujets exposés au facteur de risque (ou
supposé comme tel) (T 1) à celui observé chez les sujets non exposés (T 0).
Le rapport de ces deux taux étant le risque relatif associé à l’exposition :
T1
RR = ------
T0
La valeur du risque relatif RR permet de dire que le risque de présenter la maladie
est RR plus important chez les sujets exposés que chez les sujets non exposés.
Si RR >1, le facteur augmente le risque d’être atteint de la maladie,
Si RR <1, le facteur est dit «protecteur» et diminue le risque d’être atteint de la
maladie.
Le calcul de l’intervalle de confiance du risque relatif permet d’indiquer la précision
de la mesure et de tester sa significativité. Si cet intervalle de confiance ne
comprend pas la valeur 1, on conclut alors que l’association entre le facteur de
risque et la maladie est statistiquement significative.
69
Interprétation : « Le fait d’être exposé ajoute … % de risque d’être atteint par
rapport au risque de chez les non exposés».
70
en tenant compte simultanément d’autres variables dites explicatives (X2, X3,…
Xn).
L’analyse multivariée permet aussi de réaliser des ajustements sur d’autres
variables, et en particulier sur des facteurs de confusion (qui peuvent intervenir
dans la relation entre l’évènement et le facteur d’exposition), ou de tester des
interactions.
Conclusion
Les difficultés méthodologiques propres aux études de cohorte doivent être
soulignées avant l’élaboration du protocole d’enquêtes. Elles exigent l’inclusion d’un
grand nombre de sujet à dès la phase initiale.
Ces études ne conviennent pas à l’étude des maladies rares. Par ailleurs, elles sont
longues et très couteuses et sont soumises à l’existence de biais de classification
ou de biais liés aux facteurs de confusion.
Les études de cohorte sont fréquemment exposées à la présence éventuelle de
biais liée à la perte de suivi des sujets inclus.
On doit souligner enfin que la structure à retenir pour une étude de cohorte
dépend des objectifs de cette étude. De ce point de vue, aucun type d'étude n'est
supérieur à un autre. Mais l'étude cohorte analytique est la structure la plus
appropriée pour établir des relations causales entre les variables.
71
3ème partie
72
LES ESSAIS CLINIQUES
PRINCIPE
L’essai clinique est une investigation menée sur des sujets humains en vue de
découvrir ou de vérifier les effets cliniques et pharmacologiques d'un produit de
recherche ou d'autres effets pharmacodynamiques liés à ce produit. Il permet
aussi d'identifier toute réaction indésirable à un produit de recherche, d'étudier la
façon dont un produit de recherche est absorbé, distribué, métabolisé et excrété
afin d'en évaluer la sécurité ou l'efficacité.
L’essai thérapeutique permet également de déterminer le rapport bénéfice/risque
d’un traitement ou d’un produit à l’étude. Sa durée est variable (7 à 12 ans) et le
cout du projet peut être très élevé.
On estime que parmi 1000 molécules étudiées, une seule, en moyenne est retenue
pour une application médicale.
Comme tous les traitements existants, chaque nouveau traitement peut comporter
à la fois des avantages et des inconvénients.
Il est indispensable, avant de l’intégrer dans la pratique courante, de démontrer
que ce nouveau traitement est bien sans danger pour le malade et qu’il est
supérieur aux traitements qui existent déjà et servent de référence.
Les essais cliniques de médicaments ont comme objectifs essentiels d’établir ou
vérifier, selon le cas, les données pharmacodynamiques (dont le mécanisme d'action
du médicament), thérapeutiques (efficacité et effets indésirables) et
pharmacocinétiques (modalités de l'absorption, de la distribution, du métabolisme
et de l'excrétion des substances actives).
Un essai clinique de médicament est aussi un genre particulier d’étude de cohorte,
où les conditions d’études sont spécifiées par le chercheur, dans le but d’établir
des comparaisons impartiales. Il est évident que les essais cliniques sont plus
contrôlés et mieux dirigés que les études de cohortes (on peut parler d’étude
expérimentale ou d’intervention).
Les résultats des essais thérapeutiques prennent une place de plus en plus
importante dans la médecine actuelle. Ils permettent de répondre de façon fiable
aux questions thérapeutiques se posant dans la prise en charge des malades. Ils
73
permettent de valider les soins proposés aux patients et donnent les preuves de
leur efficacité.
L’essai thérapeutique permet aussi de répondre à un impératif éthique de l’exercice
médical qui est de proposer au patient le meilleur traitement en fonction des
données acquises de la science.
De ce fait l’essai thérapeutique est un outil, mis à la disposition des praticiens pour
faire progresser leur pratique thérapeutique. Il est donc nécessaire, pour tout
médecin, qui veut rester maître de ses choix thérapeutiques, de connaître la
démarche nécessaire à leur mise en pratique. Les essais apportent aussi le
substratum rationnel des recommandations de pratiques en leur donnant des
fondements basés sur des critères scientifiques.
Essai explicatif – essai pragmatique
L’objectif des essais explicatifs est seulement d’enrichir nos connaissances
fondamentales, ce sont des essais thérapeutiques entrepris pour tester des
hypothèses cognitives sans finalité thérapeutique directe.
Ce sont, par exemple, des essais réalisés pour connaître les mécanismes d’actions
des traitements, avant d’envisager leur utilisation en thérapeutique ou pour
expliquer a posteriori leur efficacité. Les essais pragmatiques (« pragmatic trial »)
sont focalisés sur des objectifs thérapeutiques, ils sont réalisés sur un grand
nombre de patients.
74
Sans donnée manquante et analysé en intention de traiter : le devenir de chaque
patient inclus dans l’essai est pris en considération dans l’analyse et les patients ne
doivent pas être changés de groupe.
L’étape clinique
C'est la période d'étude chez l'homme et celle à laquelle nous nous intéressons.
Chez l'homme, l’évaluation d’un nouveau médicament comporte classiquement 4
phases cliniques.
Essai clinique de phase I : Administration à des volontaires sains (sauf pour des
thérapeutiques tels que les anticancéreux) pour étudier : la tolérance (fixer les
75
limites de la toxicité) et les réactions chez l’homme (dose minimale active, cinétique
du médicament, biodisponibilité....).
Essai clinique de phase III : Essai comparatif pour étudier les propriétés du
traitement par rapport à ceux déjà existants (traitement de référence), ou à un
placébo (dénué d’activité pharmacologique). L’essai comparatif doit apporter la
preuve de l’efficacité du traitement et/ou de sa supériorité par rapport au
traitement de référence (imputation causale).
L’essai doit permettre l’imputation causale : c’est bien le nouveau traitement qui a
entrainé l'amélioration (c’est le jugement de causalité), et avec le minimum d’erreur
sur les valeurs observées, cette supériorité observée n’est-elle pas due au hasard
seulement (jugement de signification).
A cette phase, il y a attribution ou non de l'Autorisation de Mise sur le Marché
(AMM), par rapport à l’efficacité et par rapport au bénéfice-risque acceptable.
76
Tableau 4 : Étapes de développement des essais thérapeutiques chez l’homme
77
LES DIFFÉRENTS TYPES D'ESSAIS CLINIQUES
La caractéristique essentielle de tous les essais cliniques en phase III, réside dans
la comparaison qui est faite entre un groupe traité ou exposé et un groupe témoin.
La comparaison permet de faire la part, dans l’évolution de la maladie de ce qui
revient à l’intervention pharmacologique par rapport aux facteurs non spécifiques.
Et pour que la différence observée puisse être attribuée au traitement (jugement
de causalité), les groupes ne doivent pas être différents par rapport au traitement
reçu.
Les essais randomisés reposent sur le principe de la randomisation, qui permet
d’éviter les biais de sélection (erreur systématique). Ils sont définis à travers de
nombreux critères.
1) Selon l'objectif
Comparaison d'effet de deux ou plusieurs produits.
Définir une courbe effet/dose ;
Décrire l’action pharmacocinétique ;
Étudier l’interaction d’un ou plusieurs …
78
obtenus dans deux groupes de sujets, l’un recevant une thérapeutique A, l’autre une
thérapeutique B. L’un est dit groupe traité, l’autre est dit groupe témoin.
Les essais comparatifs sont des essais qui visent à comparer des traitements
différents administrés à autant de groupes de patients que de traitements afin
d’établir la supériorité d’un de ces traitements. Il s’agit de montrer si pour une
affection donnée l’un d’eux, le traitement nouveau A, l’emporte sur le traitement de
référence B. Le groupe des patients recevant A est le groupe traité, le groupe
recevant B le groupe contrôle ou groupe témoin (qui n’est nullement synonyme de
groupe non traité).
En recherche clinique, le groupe contrôle permet d’avoir une référence à la
stratégie testée. Il permet d’établir que les différences observées dans la
présentation ou l’évolution (clinique ou biologique) de la maladie ne sont dues qu’aux
traitements et pas à des facteurs liés aux patients ou des facteurs
environnementaux, facteurs qui pourraient eux-mêmes moduler le cours de la
maladie
En d’autres termes, la comparaison à un groupe contrôle permet d’affirmer que
l’unique source de variation de la réponse thérapeutique entre deux groupes de
malades réside dans la nature du traitement qui leur est administré.
R : randomisation
81
Figure 13 : l’essai clinique comparatif, schéma général
82
Figure 14 : L’essai croisé (« cross-over »), les deux groupes reçoivent
successivement les deux interventions
temps
Par rapport à l’essai en groupes parallèles, l’essai croisé permet de diviser par 2 le
nombre de patients à inclure. Naturellement les deux phases d’administration des
médicaments doivent être entrecoupées d’une période de lavage, une fenêtre
thérapeutique (« washing out ») pour permettre aux effets traitement administré
en premier de disparaitre.
L’avantage de ce plan d’expérience est d’assurer une forte comparabilité des
groupes contrôle et traité, étant donné que ce sont les mêmes patients que l’on
retrouve dans ces deux groupes
Traitement B Placebo B
S’il n’y a pas d’interaction entre les interventions, le plan factoriel aura une
puissance statistique plus importante qu'un essai traditionnel comparant plusieurs
types d’intervention. Ce plan permet d’étudier deux interventions dans le même
essai, sans augmenter le nombre de grappes. L’inconvénient est qu’il est souvent
très difficile de garantir qu’il n’y aura pas d’interaction, et par conséquent
l’interprétation des résultats peut être difficile.
Ces essais sont également plus difficiles à concevoir, à mettre en œuvre et à
analyser.
L’analyse statistique des résultats dans un plan factoriel se fait en deux étapes. La
première étape est la recherche d’une interaction. En l’absence d’interaction,
l’effet des traitements est recherché en ajustant sur l’autre traitement.
84
AUTRES TYPES D’ESSAIS CLINIQUES
Essais de bioéquivalence
La démonstration de l’équivalence thérapeutique nécessite en principe la conduite
d’essais cliniques coûteux impliquant de nombreux patients. Quand l’équivalence ne
concerne que deux formes galéniques différentes, ou une molécule générique à
comparer au traitement traditionnel, on peut éventuellement se contenter d’une
démonstration de leur biodisponibilité. Si la dose du principe actif qui atteint la
circulation sous forme inchangée, est identique, les deux médications sont dites bio
équivalentes.
Si on démontre la bioéquivalence d’une nouvelle forme thérapeutique par rapport à
une forme pharmaceutique de référence dont les effets thérapeutiques et
indésirables ont été documentés selon la méthodologie des essais cliniques
classiques, on admet que cela peut constituer une démonstration indirecte de
l’équivalence thérapeutique des deux formulations
Les essais de bioéquivalence sont donc des essais dans lesquels les deux substances
ou formes à comparer sont administrées à des sujets, généralement des volontaires
sains, dans le but d’étudier leurs concentrations plasmatiques en fonction du temps.
Les paramètres comparés sont surtout la concentration plasmatique maximale
(Cmax) et le délai entre l'absorption et la survenue de la concentration maximale
(Tmax).
Essais adaptatifs
Le terme d’essais adaptatifs regroupe des essais cliniques contrôlés dans lesquels
l'attribution des traitements entre deux groupes de sujets est fonction des
résultats déjà obtenus. Leur objectif est de donner le traitement qui se révèlera
progressivement le meilleur à un plus grand nombre de malades. La répartition sera
donc délibérément biaisée en fonction de la thérapeutique la plus efficace dans un
but éthique.
86
• d’identifier les nouveaux essais thérapeutiques (dans le cadre d’une veille
scientifique) ou de rechercher les essais correspondant à une question
thérapeutique ;
• de faire la synthèse des résultats disponibles concernant la question
d’intérêt
• de vérifier le niveau de démonstration d’un résultat : le bénéfice clinique est
il formellement démontré par les essais disponibles ou seulement suggéré ?
• de déterminer sa pertinence clinique (le bénéfice est il médicalement
intéressant et extrapolable aux patients vus en pratique)
• de déterminer la place exacte du nouveau traitement dans l’arsenal
thérapeutique
• d’intégrer les données factuelles au cas par cas dans la décision
thérapeutique au moment de l’acte de soins en tenant compte des aspects humains,
sociologiques, psychologiques et autres.
La problématique de recherche
Dans les essais cliniques, la problématique de recherche avec ses questionnements,
permet de définir en termes précis la nature du problème à résoudre, par rapport à
des nécessites thérapeutiques nouvelles ou des contraintes vitales et en tenant
compte des problèmes d’éthique.
L’hypothèse de recherche
La formulation de l’hypothèse doit être impérativement élaborée en rapport avec
les données scientifiques qui la justifie. Elle doit être rédigée dans des termes
simples et sans ambigüités (une terminologie précisée par le travail documentaire).
88
Le schéma classique est de définir une première hypothèse qui correspond à ce que
l'on veut démontrer, le plus souvent il s'agit d'une hypothèse d'inégalité, le
nouveau traitement est meilleur que le traitement de référence, les traitements
sont différents.
Cette première hypothèse est l'hypothèse alternative notée H1 . La seconde
hypothèse est le complément de la première, c'est celle que l'on veut rejeter, il
s'agit le plus souvent d'une hypothèse d'égalité, le nouveau traitement est plus
mauvais ou égal au traitement de référence, les traitements sont équivalents. Cette
seconde hypothèse est l'hypothèse nulle notée H0.
La rédaction de l’hypothèse peut être donc de type directionnel, on donne le sens
de la relation que l’on présuppose ou que l’on veut confirmer (exemple, intérêt ou
limites d’une technique de dépistage systématique ou d’un protocole thérapeutique
ou de type non directionnel), ou de type non directionnel, on prédit une différence
entre deux stratégies, mais on n’indique pas dans quelle direction elle ne se fait
pas.
89
L’objectif global est ce vers quoi les efforts déployés au titre du projet ainsi que
ceux des autres projets complémentaires ou du même secteur tendent, il est
généralement de type qualitatif.
Les objectifs spécifiques sont plus clairement définis et dans la mesure du possible
exprimés qualitativement et quantitativement. Ils doivent permettre la définition
des actions à mener, ainsi que des apports nécessaires aussi bien que des résultats
à produire.
L’objectif spécifique doit donc être explicite, clairement énoncé, indépendant et
objectivement vérifiable. Ils doivent être clairement définis et en nombre limité. Il
en découle l’importance de la définition précise des objectifs.
Dans les essais thérapeutiques, et pour être parfaitement défini, l’objectif doit
préciser : le traitement testé, le traitement contrôle (placébo ou traitement actif),
s'il s'agit d'une recherche de supériorité ou d'équivalence, le critère de jugement
principal (et le moment de sa mesure), les patients concernés : maladie et
éventuellement caractéristiques particulières.
92
La définition des patients à inclure et à exclure doit être suffisamment précise
pour qu’au final soit constitué un groupe homogène de patients qui sera scindé via le
tirage au sort en un groupe de patients traités et un groupe contrôle. L'ensemble
forme les critères d'éligibilité qui visent à inclure un groupe homogène de malades,
les plus sains possibles en dehors de la maladie.
Les patients doivent être capables de recevoir indifféremment l'un ou l'autre des
traitements tirés au sort (critère d’ambivalence).
Le placébo
Le placébo est définit comme un traitement inactif (sur le plan pharmacologique). Il
est administré à la place d’un traitement actif à un malade ignorant cette
substitution. On utilise un placébo en l’occurrence, quand il n’existe pas de
traitement de référence.
L’effet placébo est une réalité bien connue de la médecine. La notion d’effet
placébo renvoie aux phénomènes de suggestion qui peuvent prendre place dans
l’interprétation des effets des traitements et dont l’importance ne peut être sous-
estimée dans l’évolution des maladies.
93
Attribution du traitement
Le seul moyen d’obtenir 2 groupes de malades aussi semblables que possible est,
pour chaque patient inclus, d’attribuer le traitement par tirage au sort ou
randomisation (après inclusion du patient). L’attribution des traitements se fait
obligatoirement par allocation aléatoire, dont on précise les modalités et le moment
par rapport au début de l’intervention. Il peut s’agir d’une allocation aléatoire de
l’ordre des expériences (étude cognitive), de l’ordre des traitements (essai croisé),
des traitements (essai en groupes parallèles). Chaque patient (quelles que soient
ses caractéristiques) a la même probabilité de recevoir un traitement que l’autre.
En pratique, on utilise une liste de randomisation (programme informatique ou
tables de nombre au hasard). La randomisation peut être centralisée (une seule
liste), par bloc (on équilibre les inclusions entre les 2 bras à comparer), stratifiée
(en fonction d’un facteur pronostique), ou enfin pour tester l’hypothèse dans des
sous-groupes, avec une liste de randomisation par strate.
Traitements associés
Les traitements associés doivent être prévus pour les éventuels cas secondaires,
les complications, ainsi que pour les affections intercurrentes.
Traitements intermédiaires : ce sont des traitements à adopter dans le période
intermédiaire de la maladie.
98
Le nombre de sujets nécessaires
Dans une enquête épidémiologique, la précision concernant la variable étudiée
devient minime à partir d'un certain effectif minimum de l’échantillon : c'est le
nombre de sujets nécessaires. Un nombre de sujets adapté à la taille de l’effet à
mettre en évidence garantit à un essai une puissance suffisante. Donc, le nombre
de patients à inclure dans un essai clinique n’est pas fixé arbitrairement. Dans les
essais thérapeutiques, le nombre de sujets nécessaires est une fonction de 4
composantes :
- La réponse vis à vis du traitement de référence ;
- le bénéfice attendu du nouveau traitement ;
- le niveau de signification ;
- et la puissance de l’étude.
De manière générale, ce nombre est d’autant plus important que la différence que
l’on veut déceler entre les deux produits est petite, que la dispersion des résultats
est grande et que les risques d’erreur choisis sont faibles. Le nombre de sujets
nécessaire est calculé à partir du critère de jugement principal en fonction des
données de la littérature ou de résultats préliminaires (étude pilote...). Le calcul du
nombre de sujets à inclure permet de garantir la puissance nécessaire pour
conclure.
Le nombre de sujets nécessaires est calculé aussi avec des risques d'erreur
consentis : le risque de première espèce, généralement à 5 % (conclure à tort à
une différence) et le risque de deuxième espèce de 5 à 20 % (conclure à tort à
l’absence de différence).
Le nombre de sujets nécessaires est calculé enfin en fonction d'hypothèses,
notamment sur la différence minimale cliniquement " intéressante " ou " raisonnable
" que l'on veut pouvoir montrer, si elle existe.
Cette différence correspond au gain espéré par l'emploi du nouveau médicament. Il
dépend aussi de la variabilité du critère. Lorsque le critère principal de jugement
s’exprime en pourcentage, il faut estimer le % attendu dans les deux groupes.
Lorsque le critère principal de jugement s’exprime en moyenne, il faut estimer la
moyenne et l’écart-type attendus dans les deux groupes.
Dans le cas d’un essai d’équivalence, c’est la valeur de la différence consentie entre
l’efficacité des 2 traitements qui conditionne le nombre de sujet.
Le développement mathématique permettant d’obtenir les formules de calcul de
l’effectif est donné par des logiciels que l’on trouve maintenant sur Internet.
99
A titre d’exemple, pour un essai thérapeutique entre deux traitements utilisant un
critère quantitatif et un test bilatéral exige par groupe, n calculé selon la formule :
Avec zk, la valeur d’une variable normale réduite correspondant à une fonction de
répartition de (1 – k/2).
101
Dans les essais thérapeutiques, on utilise un cahier d’observation par patient inclus.
Le cahier d’observation ne comprend que les données de l’essai et pas les données
de soin des patients Un cahier d’observation doit être identifié par une date et un
n° de version. Il est établi avant le début du recrutement et rempli par les
investigateurs ou leurs représentants autorisés. Il est conservé pendant 15 ans par
investigateur et promoteur. Le contrôle qualité (monitoring) est sous la
responsabilité du promoteur et les autorités en santé.
Déroulement et suivi de l’étude
Au cours du déroulement de l’étude, il s’agit de préciser et de déterminer la
répartition des taches selon un calendrier précis. Le suivi de l’étude se fera par des
visites régulières qui feront l'objet d'un rapport de visite faisant état de
l'avancement de l'étude et d'éventuelles difficultés rencontrées. Dans la
description du déroulement de l’étude, on précise les éléments suivants :
- la liste des Centres et composition des équipes ;
- la randomisation (modalités pratiques) ;
- l’organisation du recueil des informations ;
- La formation des enquêteurs surtout si l’étude est multi centrique ;
- On défini qui doit remplir les fiches initiales, qui récupère les données
manquantes (examen de laboratoire, etc.…) ;
- On précise comment doivent être organisés les rendez-vous pour le suivi des
sujets, le suivi des dossiers de l’étude, les relances…
- On identifie le nombre de cas inclus ;
- On effectue la surveillance des évènements indésirables ;
- On recherche les écarts au protocole ;
- On prévoie le codage, la saisie et le traitement statistique des données.
Échéancier
À partir d’une simulation simple, l’investigateur projette dans le temps la durée de
l’étude. Cet exercice permet, de concrétiser la coordination des différentes
activités liées à la réalisation de l’étude, de juger de la faisabilité de l’étude dans le
temps et d’estimer les coûts aux fins budgétaires.
Consentement libre et éclairé
Obligatoire, le consentement libre et éclairé des patients inclus dans l’étude est
information écrite et signée préalable sur le déroulement de l’étude (droit du sujet,
législation et anonymat). Le patient peut retirer son consentement à tout moment
de l’étude sans justification et sans encourir aucune responsabilité ni aucun
préjudice de ce fait
102
ANALYSE DES RÉSULTATS
103
Le moment d’analyse
104
Cette adaptation dans les essais cliniques, après une analyse intermédiaire des
données, permet d’interrompre prématurément un essai si l’efficacité du
traitement est estimée soit très élevée, soit très faible.
L’analyse séquentielle a été développée par Wald : un résultat observé après chaque
observation permet de prendre une décision quant à l’inclusion du prochain patient.
L’analyse séquentielle répond aux impératifs éthiques et économiques. Si l’on
détecte plus tôt un bénéfice du traitement, afin d'éviter de traiter des patients
par un placebo alors que les données amassées sont suffisantes pour conclure à
l'efficacité du traitement étudié, on effectue un arrêt de l’essai pour efficacité.
Si on contraire, on détecte un éventuel effet délétère du traitement, afin de
limiter le nombre de patients exposés au risque, on décide d’un arrêt pour
toxicité.
On distingue aussi l’arrêt d’une étude pour futilité ou pour désintéressement.
L’analyse intermédiaire a des inconvénients : les risques de résultats prématurés
qui ne seront pas confirmés dans le temps. Dans l’analyse intermédiaire, il est
important aussi d’ajuster les analyses pour ne pas augmenter l’inflation du risque de
première espèce (alpha).
Les analyses en sous-groupes (« by sub-groups analysis »)
Ce type d’analyse est fréquemment réalisée en complément de l’analyse principale
d’un essai thérapeutique Une analyse en sous-groupes consiste à subdiviser la
population d’un essai thérapeutique en deux ou plusieurs sous-groupes et à étudier
l’efficacité du traitement dans chacun de ces sous-groupes. Le but est de
rechercher une interaction entre l’effet du traitement et une ou plusieurs
variables (cf. infra).
Par exemple, une analyse en sous-groupes suivant le sexe revient à mesurer
séparément l’effet du traitement chez les hommes et chez les femmes. Une
analyse suivant l’âge entraîne souvent la division de la population en plusieurs sous-
groupes et en autant d’estimations de l’effet du traitement. Le but des analyses en
sous-groupes serait de rechercher ceux dans lesquels le traitement serait le plus
efficace et surtout ceux dans lesquels il serait inefficace.
105
L’analyse statistique
Démarche
1. Choix du critère principal.
En cancérologie, dans les essais de phase III, on distingue trois grandes catégories
de critères (résultats) : un pourcentage (par exemple, la réponse clinique), une
moyenne (par exemple, un dosage biologique) ou un risque relatif (par exemple, la
survenue d’un événement, comme le décès, au cours du temps).
2. Déterminer les résultats attendus pour le groupe de référence : par exemple, s’il
y a suffisamment de données dans la littérature pour penser que le traitement de
référence donne un taux de réponses objectives de 40 % ou bien que le taux de
survie à 3 ans est de 70 %.
3. La différence recherchée qui correspond à la plus petite différence
suffisamment importante et cliniquement pertinente pour avoir un impact sur la
pratique courante. Par exemple, une amélioration absolue de 15 % du taux de
réponses objectives (passer de 40 à 55 %) ou une amélioration absolue de 10 % du
taux de survie à 3 ans (passer de 70 à 80 %) serait cliniquement suffisamment
importante pour considérer que le nouveau traitement est prometteur.
4. Le choix des risques : les risques (α) et (β) sont souvent fixées au départ avec α
= 5 % et β = 10 à 20%, qui correspond à une puissance (1 - β) d’au moins 90 %. Le
choix de α est peu discutable et on le fixe habituellement à 5 %. Le choix de β (5,
10, 15 ou 20 %) est principalement lié à la faisabilité de l’essai en termes de nombre
total de patients, alors que le choix de sa valeur détermine le niveau du risque qu’on
est prêt à prendre pour passer à côté d’une différence significative lorsqu’elle est
réelle.
5. Formulation de l’hypothèse : On formule une hypothèse nulle HO : le traitement
A = le traitement, en considérant une hypothèse alternative H1 qui peut être
unilatérale (traitement A > au traitement B) ou bilatérale (traitement A est ≠ du
traitement B).
Dans un essai où on pose la question de la supériorité du nouveau traitement par
rapport au traitement de référence, on pose comme hypothèse nulle à tester
l’hypothèse initiale que les traitements sont équivalents, jusqu’à la preuve du
contraire. Ce sont les données qui vont fournir les preuves en faveur ou non de
l’hypothèse alternative, c’est-à-dire que les traitements sont différents.
106
6. Choix du test statistique : Le test statistique, permet de calculer la probabilité
d’observer une différence au moins aussi importante que celle que l’on a obtenue :
avec un degré de signification " p ".
Si cette probabilité σ est inférieure à un seuil classiquement fixé à σ = 5% (0,05),
on conclu que les deux groupes diffèrent.
En admettant ce risque d’erreur, on se trompera dans 5% des cas en déclarant une
différence alors qu’il n’y en a pas.
107
Il est souvent impossible de conclure, la DNS ne prouve pas qu'il n'y a pas d'effet
Conclusion
110
LES TESTS D’HYPOTHÈSE
ET ESSAIS CLINIQUES
Concepts
111
Sur la base des observations et des raisonnements probabilistes, on peut conclure à
l’acceptation de l’hypothèse nulle Ho ou son rejet. Le rejet de Ho peut se faire à
bon escient, c’est à dire quand elle est fausse, mais aussi quand elle est vraie (une
décision erronée).
Les risques d'erreur
Ce sont les risques (les probabilités) de conclure à tort en faveur de chacune des
hypothèses.
On parle de l’erreur de type I, ou erreurα, ou erreur de première espèce,
lorsqu’on rejette l’hypothèse nulle à mauvais escient, c’est à dire quand elle est
vraie, et de l’erreur de type II ou de l’erreur β ou de l’erreur de deuxième
espèce, quand on accepte l’hypothèse nulle à mauvais escient, c’est dire quand elle
est fausse.
Le risque de première espèce est la probabilité de rejeter l'hypothèse H0 (et
donc d'accepter l'hypothèse alternative H1), alors que H0 est vraie. Cette notion
constitue la pierre de touche des tests statistiques. La valeur seuil de
communément admise en médecine pour rejeter entre H0 est de 5%.
Le risque ß correspond à la probabilité d'accepter l'hypothèse nulle H0, alors que
H1 est vraie. La valeur 1 – β est appelée puissance du test.
112
Tableau 6 : Types d'erreurs et tests d'hypothèses
Réalité
Décision H0 vraie H1 vraie
(il n'existe pas (il existe une
de différence) différence)
Rejet H0 Α : risque erreur 1 - β
(conclusion =différence) 1ière espèce Puissance du test
Figure 17 : La relation entre les deux risques d’erreur dans les résultats d’un test
obtenus chez des sujets sains et des malades.
113
Principe de l’inférence
Le test statistique
Rappelons qu’un test statistique recherche s’il existe une réelle différence entre 2
ou plusieurs séries et que son principe est d'étudier les fluctuations
d'échantillonnage de la différence entre deux groupes par exemple (par exemple la
différence des moyennes), sous l'hypothèse nulle H0.
114
Par ailleurs, l'inférence statistique consiste à situer la différence calculée sur les
données réelles dans cette distribution d'échantillonnage. Une valeur seuil définit
une zone de non rejet et une zone de rejet de H0. Cette valeur seuil est
déterminée par le risque.
Devant une différence observée, le test statistique permet de calculer la
probabilité que l’on aurait d’observer ce résultat si en réalité il n’y avait pas de
différence entre les deux groupes. Cette probabilité est appelée p. On remarque
donc d’un test statistique est aussi un moyen de contrôler le risque d’erreur alpha.
Il ne prend pas directement en compte le risque d’erreur bêta.
La valeur de « p »
On appelle communément p, la probabilité d'obtenir entre deux traitements par
exemple, une différence d'effet au moins aussi grande que celle qui a été observée,
en supposant la différence nulle (H0).
Autrement dit cette valeur exprime la probabilité que la différence observée entre
un groupe contrôle et un groupe traité soit due au hasard. Elle est comprise entre 0
et 1.
Plus elle se rapproche de 0 et plus elle est significative car le risque d’erreur est
plus faible. Un p < 0.05 est généralement exigé (moins de 5% de risque d’erreur).
Lorsque p est inférieur ou égal au risque de première espèce consenti (
), on
rejette l'hypothèse H0 et l'hypothèse H1 est acceptée. L'effet des deux
traitements comparés diffère donc significativement (p< 0,05).
Les conclusions que l'on obtient par le test statistique ne sont pas symétriques, en
effet si la différence observée sur l'échantillon est dans la zone de rejet, H0 est
rejetée et donc H1 acceptée, en revanche si la différence observée est dans la
zone de non rejet de H0, on ne peut conclure au rejet de H1
115
Signification de « p»
Le « p » correspond donc à la probabilité que la différence observée soit due au
hasard, en l’absence d’effet du traitement (ou probabilité a posteriori du risque α).
Elle permet ainsi une quantification du risque de faire une erreur de première
espèce si l’on décidait de conclure à l’existence d’une différence entre les deux
groupes. Classiquement, il est convenu que le risque acceptable d’erreur alpha est
de 5%.
Figure 19 : Distribution de la différence de deux séries sous Ho et H1
117
Dans cet exemple, l’inégalité de répartition des patients en fonction de l’ancienneté
de l’HTA ne constitue pas une entrave grave à l’analyse des résultats de l’essai. Il
n’en sera sans doute pas de même si les chiffres de PA étaient différents à
l’admission.
Dans un essai thérapeutique, les résultats obtenus à l’issue de l’étude sont
comparés entre les groupes (comparaison inter- groupe) par le test statistique
adapté.
La comparaison ne doit jamais être menée dans les groupes (comparaison intra-
groupe) ce qui reviendrait à réaliser une analyse avant traitement-après
traitement, dont on stigmatise les limites.
119
Figure 21 : Zone d'acceptation et zone de rejet pour une distribution normale avec
un risque de première espèce de 0.05, sous l'hypothèse nulle H0.
Figure 6 a : Test bilatéral
Figure 6 b :
Test unilatéral
Dans le cas où l’on cherche à savoir si B est différent de A ou non, sans idée à
priori sur le sens de la différence, il s’agit d’une comparaison bilatérale.
Le plus souvent, l'hypothèse nulle H0 correspond à l'égalité des effets des
traitements et l'hypothèse alternative H1 correspond à l'inégalité des effets.
Il est donc important de déterminer (dans le protocole de recherche) avant de
faire un test statistique, quelle est l'hypothèse nulle et quelle est l'hypothèse
alternative, et de choisir si le test est effectué en situation unilatérale ou
bilatérale. Un test unilatéral est plus puissant qu'un test bilatéral.
120
Certains tests supposent une loi (distribution) théorique sous-jacente avec des
paramètres. Ce sont les tests paramétriques. D'autres tests n'imposent aucune
hypothèse de distribution. On les nomme tests non- paramétriques. Suivant que l’on
compare une valeur calculée (comme par exemple une moyenne, une proportion) à
une valeur théorique, ou que l’on compare deux ou plusieurs valeurs calculées entre
elles, on parle de test de conformité ou d'homogénéité. On utilise le même
vocabulaire pour comparer la ou les distributions calculées. Dans ce cas, il faut
aussi déterminer la valeur que le test doit atteindre pour être considéré comme
significatif.
Figure 22 : Types de variables servant à distinguer les individus d’une population
En règle générale, on estime la valeur réelle d’un paramètre dans une population à
partir de l’observation d’un échantillon. Le calcul d’une moyenne ou d’une proportion
par exemple à partir d’un échantillon n’est donc une estimation de la valeur vraie.
Or la valeur vraie de la générale est inaccessible à l’expérience.
L’intervalle de confiance est donc une fourchette de valeurs contenant la valeur
réelle du paramètre considéré avec une probabilité donnée. On l’exprime en % ou en
déviations standards.
L’intervalle [a, b] est centré sur la valeur numérique estimée du paramètre inconnu
et contient la valeur vraie avec un probabilité α fixée a priori. Cette probabilité
permet de s’adapter aux exigences de l’application.
Dans de nombreuses études, l'objectif n'est pas de tester une hypothèse
particulière sur un paramètre mais d'estimer un paramètre. C'est par exemple
l'estimation d'une moyenne ou d'un Odds ratio et leurs intervalles de confiance
respectifs.
L'intervalle de confiance est défini comme un ensemble de valeurs autour de
l'estimation d'un paramètre (une moyenne, une proportion, un risque relatif…) qui
ont une probabilité fixée à l'avance de contenir la valeur du paramètre que l'on
cherche à estimer.
Une estimation par intervalle de confiance sera d’autant meilleure que l’intervalle
sera petit pour un coefficient de confiance grand.
Cet intervalle de confiance peut être calculé pour toutes les valeurs citées. Une
valeur de 95 % est souvent choisie pour l’IC, 95 % de chances que la valeur réelle
soit bien dans la fourchette des valeurs données.
122
L’iintervalle de confiance d’un OR par exemple est la "fourchette" à l’intérieur de
laquelle la vraie valeur de OR a 95% de chances de se trouver. Un intervalle de
confiance à 95 % signifie que, si l’enquête ou l’étude est reproduite 100 fois dans la
même population avec des échantillons différents, dans 95 des cas la valeur
trouvée se situera dans l’intervalle de confiance donné.
123
Ainsi, à vrai risque relatif et à risque de base constant, la largeur de l'intervalle de
confiance dépend du nombre de sujets : plus l'effectif est important, plus
l'intervalle de confiance est étroit.
La précision de l'estimation de l'effet traitement est inversement proportionnelle
à la largeur de l'intervalle de confiance.
Donc plus la taille d'un essai est importante, plus il estime avec précision l'effet
traitement.
Avec le risque relatif, un résultat est statistiquement significatif à partir du
moment où l'intervalle de confiance ne contient pas la valeur 1 (marquant l'absence
d'effet).
Ainsi pour qu'un résultat soit statistiquement significatif, la largeur de l'intervalle
de confiance doit donc être d'autant plus petite que le risque relatif est proche de
1.
Comme la largeur de l'intervalle de confiance est directement liée au nombre de
patients, il devient clair qu'un plus grand effectif est nécessaire pour mettre en
évidence un petit effet qu'un effet plus important.
124
Conclusion
L'utilisation des statistiques est facilitée par le développement de l'informatique
et de logiciels conviviaux. Toutefois, une connaissance précise des principes
statistiques reste essentielle pour une utilisation appropriée de celles-ci, que ce
soit comme auteur ou comme lecteur d'un article scientifique.
Si la connaissance exacte des formules de calcul n'est plus nécessaire (plusieurs
logiciels peuvent le faire), une connaissance appropriée des conditions d'utilisation
des tests statistiques est impérative. Il faut souligner que la consultation d'un
biostatisticien est souvent salutaire et qu'elle est d'autant plus fructueuse que
celle-ci est prévue tôt dans l'histoire d'un protocole et que les concepts généraux
sont déjà acquis.
125
ème
4 partie
ÉTUDES ÉVALUATIVES
OU D’INTERVENTION
126
GÉNÉRALITÉS
Les études d évaluation ou d’intervention ont pour objet d’étudier les effets des
interventions préventives ou curatives dans le domaine de la santé. Les
interventions en santé publique se définissent comme des actions visant à améliorer
l’état de santé d’un groupe (prévention primaire, secondaire ou tertiaire).
L’épidémiologie évaluative a recours idéalement à des enquêtes de type quasi
expérimental (à rapprocher des méthodes mises en œuvre en recherche clinique), à
défaut à des études de type « avant-après » ou « ici-ailleurs » qui comparent un
groupe ayant bénéficié de l’intervention et un autre qui n’en a pas bénéficié.
Les enquêtes d’évaluation diagnostique / Évaluation d’une méthode de dépistage
Ce sont des enquêtes qui estiment les qualités diagnostiques d’un test diagnostique
ou son impact pour le malade. L’évaluation métrologique d’un test détermine sa
précision, sa reproductibilité, son acceptabilité, son coût. On détermine également
les indices de Sensibilité et de spécificité.
Enquêtes d’évaluation des facteurs pronostiques / prédictifs.
Selon la chronologie de l’enquête, on distingue les enquêtes prospectives et les
enquêtes rétrospectives
1) Les enquêtes rétrospectives : lorsque l’enquête est conduite, l’événement
recherché s’est déjà produit. On recherche donc l’information dans le « passé »
soit en interrogeant les sujets (anamnèse) soit à partir de document comme un
dossier clinique.
2) Les enquêtes prospectives : lorsqu’on met en place l’enquête l’événement ne s’est
pas encore produit. C’est la surveillance de la population qui permet
l’enregistrement des événements.
Ce que l’on cherche à évaluer
Dans une évaluation thérapeutique, (dans le chapitre précédent) : l’efficacité et la
tolérance d’un traitement médical, d’une technique chirurgicale, d’une association
thérapeutique… Dans une évaluation diagnostique : un symptôme, un signe clinique,
un examen complémentaire (biologique, radiologique, immunologique…)… Dans une
évaluation pronostique : l’influence de l’âge, du sexe, des signes cliniques, des
résultats biologiques, de l’environnement… Dans les enquêtes d’évaluation, les
données doivent être suffisamment claires, et précises : les valeurs limites d’un
examen considéré comme normales et, à contrario, comme anormales ou
pathologiques doivent indiquées.
127
ÉVALUATION DES MÉTHODES
DIAGNOSTIQUES ET DE DÉPISTAGE
Généralités
Une étude diagnostique peut être motivée par les éléments qui concernent soit la
recherche soit la mise en évidence de tests diagnostiques nouveaux et efficaces.
Pour le médecin, les méthodes diagnostiques lui permettant de classer, en fonction
des mesures effectuées, les résultats en “ positif ” ou “ négatif ”, et les personnes
en “ normales” ou “ malades ”.
Une étude diagnostique peut être justifiée par diverses attitudes, en particulier
devant une incertitude diagnostique éventuelle liée à l'imperfection des tests
existants (par exemple une problématique spécifique actuelle est posée par la
Maladie d’Alzheimer, dont le seul diagnostic de certitude et de référence est
l’autopsie et le diagnostic anatomopathologique. La mise en évidence de tests
neuropsychologiques pour le diagnostic de cette maladie sera d’un apport certain),
soit l’apparition d’un nouveau test diagnostique dont on veut décrire l'intérêt, ou
que l'on se propose d'étudier, cela correspond à l'hypothèse de recherche.
L’évaluation des méthodes de diagnostiques et de dépistage repose sur deux
méthodes :
La validité interne d’un test :
C’est la capacité d’évaluer correctement l’état de santé d’un sujet. La validité
interne d’un test évalue la qualité de l’instrument de mesure Cette capacité est
mesurée par la sensibilité, la spécificité, les valeurs prédictives, la concordance ou
l’efficience :
La validité externe d’un test ou reproductibilité : C’est la capacité d’obtenir un
même résultat quand on répète un examen chez la même personne dans des
circonstances exactement les mêmes. La reproductibilité peut être déterminée
pour un ou plusieurs observateurs.
128
envisagée en terme de qualité technique c'est la qualité métrologique de la mesure.
On évalue la fiabilité du test en termes d'exactitude et de précision.
L'évaluation d'un nouveau test (clinique, biologique, d'imagerie,...) consiste à
apprécier l'information qu'il apporte sur la connaissance de la maladie explorée.
Elle repose sur l'interprétation d'indices qui caractérisent cet apport
informationnel. Lorsque l'on dispose d'un nouveau test, il faut valider l'information
qu'il apporte. L'efficacité de ce nouveau test est généralement évaluée par rapport
à un test dit de référence.
On évalue également sa reproductibilité. C'est la capacité d'un test à donner un
résultat identique quand il est répété. Un test exact précis avec une
reproductibilité médiocre peut entraîner des résultats qui peuvent différer
largement de la valeur correcte, même si la moyenne des résultats avoisine la vraie
valeur.
La reproductibilité peut être affectée par des fluctuations entre observateurs
(différents individus ou laboratoires) ou par des fluctuations pour un même
observateur (variation intra-observateur).
La seconde concerne l'information qu'apporte le test, quel renseignement est-il
capable de véhiculer en clinique ? En effet, tout nouveau test, techniquement
réalisable, n'est pas forcément cliniquement nécessaire.
La troisième est de type décisionnel. Cet examen apporte-t-il un élément novateur
en termes de décision médicale qu'elle soit diagnostique, thérapeutique ou
pronostique ? Quelle est sa place dans la stratégie décisionnelle ?
La quatrième concerne le malade pour lequel on réalise ce nouveau test. La
réalisation du test améliore-t-il sa santé ? C'est le concept d'utilité au sens de
l'organisation mondiale de la santé.
La cinquième enfin, ce nouveau test améliore-t-il la santé de la population ? C'est le
concept d'efficacité appliquée en Santé Publique.
129
toute une gamme de possibilité. Dans ce cadre le problème qui se pose est de savoir
au delà ou en deçà de quelle valeur le résultat du test est-il pathologique.
Par exemple, au delà de quelle valeur de créatininémie un patient présente-t-il une
insuffisance rénale au-dessous de quelle valeur d'hémoglobinémie un homme/une
femme sont-ils considérés comme anémiques ?
Objectif principal
Il découle de l’hypothèse formulée, il est unique et conditionne la réalisation de
l’étude. Exemple : déterminer les valeurs intrinsèques (sensibilité et spécificité) du
test X pour le diagnostic de la maladie Z, ou déterminer les capacités
discriminantes (rapport de vraisemblance positif ou négatif…) du test X pour le
diagnostique de la maladie Z dans la population PP.
Objectifs secondaires
Ils peuvent être multiples, mais sont conditionnés par le mode de réalisation de
l’étude : l’objectif principal est prioritaire.
Les effectifs des vrais positifs, faux positifs, faux négatifs et vrais négatifs sont
notés respectivement a, b, c, d. L'effectif total est noté N.
On appelle prévalence de la maladie (PM) le rapport des effectifs des sujets
malades sur l'effectif total. Elle est définie par la proportion de sujets atteints
dans la population étudiée à un instant donné.
Test de référence
Nouveau Malades (M+) Non-malades (M-)
test
Positif (T+) Vrais positifs Faux positifs (b)
(a)
Négatif (T-) Faux négatifs Vrais négatifs (d)
(c)
La taille de l'échantillon.
Le calcul de la taille de l’échantillon doit être adapté à la question posée. L'exposé
du calcul de la taille de l'échantillon pour une étude de la validité diagnostique doit
faire apparaître :
- les valeurs espérées de la sensibilité et la spécificité pour considérer que le test
évalué sera valide ;
131
- le niveau de précision espéré autour de ces estimations de la sensibilité et de la
spécificité
- les niveaux de risques statistiques que les auteurs étaient prêts à prendre (« …
avec des risques α et β fixés à …).
Schéma d’étude
La comparaison entre un outil de référence et l'outil à évaluer peut se faire de
plusieurs manières.
-quand le seul outil diagnostique de référence est le suivi, le schéma d'étude est
similaire à une étude de cohorte ; des individus ayant des résultats positifs ou
négatifs, selon l'outil à évaluer, sont sélectionnés puis suivis jusqu'à ce que le
diagnostic définitif puisse être posé.
- quand un outil diagnostique de référence autre que le suivi est disponible, le
schéma d'étude est similaire à celui d'une étude cas- témoins ; des individus
malades et non malades sont sélectionnés selon l'outil de référence, puis l'outil à
évaluer est appliqué.
- si on compare des résultats de l'outil évalué avec ceux d'un outil diagnostique de
référence, l’outil de référence doit être un test de diagnostic définitif : biopsie,
chirurgie, autopsie, suivi à long terme ou tout autre référence acceptée.
132
La sensibilité est la proportion des vrais positifs parmi les sujets malades.
133
La spécificité et la sensibilité sont indissociables de la maladie qu'ils explorent. Ils
n'ont de sens que par rapport à une maladie donnée. La positivité de la recherche
d'une protéinurie par bandelette par exemple est sensible dans le cadre d'une
néphropathie glomérulaire mais pas dans un autre type de néphropathie. Ces deux
indices peuvent être aussi exprimés simplement en termes de probabilités
conditionnelles.
La sensibilité correspond à la probabilité d'avoir un résultat positif au nouveau test
dans la population malade. Elle caractérise la capacité du test à détecter les sujets
présentant la maladie (M+).
La spécificité correspond à la probabilité d'avoir un résultat négatif au nouveau
test dans la population non-malade (M-) ; elle caractérise la capacité du test à ne
détecter que les sujets présentant la maladie.
Les intervalles de confiance à 95% de ces pourcentages peuvent être calculés. Ces
intervalles de confiance sont :
pour la sensibilité :
où £ = 1.96.
pour la spécificité :
VPP = VP / VP + FP
VPN = VN / VN + FN
135
celui qui permet de séparer totalement tous les positifs des négatifs sans faux
positifs ni faux négatifs.
136
Figure 25 : Choix du seuil : exemple pour un test de glycémie
1 g/l
Limite de la glycémie au-delà de laquelle on dit que le test est positif
Pour la définition thérapeutique d’une maladie, on choisi comme seuil le point delà
duquel on a démontré que les traitements spécifiques font plus de bien que de mal.
Cela évite de qualifier des sujets comme étant malades s'ils ne doivent pas être
traités.
137
L’applicabilité et l’utilité clinique d’un test diagnostique
Le test doit pouvoir apporter une information utile pour la décision diagnostique et
thérapeutique du médecin. Par ailleurs, il doit pouvoir résulter du diagnostic ainsi
réalisé et de ses conséquences une amélioration de l'état de santé des individus
(utilité pour le patient). Ces utilités sont recherchées par des études
complémentaires, postérieures aux études étudiant fiabilité et validité,
comparatives des deux stratégies diagnostiques incluant ou non le test.
138
Évaluation de l'utilité d'un programme de dépistage
Maladie appropriée, grave ; avec une phase préclinique longue ; fréquente dans la
population-cible ; disponibilité d'un traitement efficace, et ce d'autant plus que le
traitement est appliqué plus précocement ; conséquences économiques ;
Stratégie appropriée :
Validité du dépistage : bonne spécificité et bonne sensibilité (éventuellement en
ajustant les seuils ou en combinant des tests) ;
Possibilité d'améliorer les valeurs prédictives en ciblant des populations à
prévalence plus ou moins élevée ; fiabilité du dépistage : les problèmes de
reproductibilité et de précision du test risquent d'être beaucoup plus importants
"sur le terrain".
Structure appropriée :
Tenir compte de l'accessibilité aux services de prévention ou de soins ;
Tenir compte de la charge accrue de travail que le dépistage va représenter pour le
système de soins (ressources matérielles et compétences nécessaires) :
Tenir compte du coût de ces activités supplémentaires dans l'évaluation de celui du
programme de dépistage ;
Vérifier l'acceptabilité du programme, les procédures diagnostiques initiales, les
procédures de confirmation et la thérapeutique proposée ; elle doit être vérifiée
auprès de toutes les personnes visées par le programme, y compris les
professionnels de santé ; tenir compte des risques liés aux différentes étapes, des
coûts associés, et des questions d'éthique.
Tableau 11 : test de dépistage et test diagnostique
139
LES ÉTUDES PRONOSTIQUES
Principe
Contrairement aux études étiologiques dont l’objectif est l’étude de l’apparition
d’un phénomène de santé, les études pronostiques sont menées pour répondre à un
objectif concernant l’évolution d’un phénomène de santé.
Elles portent sur des sujets porteurs d’une affection précise, dont on veut
connaître le devenir ou le pronostic : guérison, rechute, survenue d’une
complication, décès…
Les études pronostiques ont pour but de mettre en évidence et de quantifier
l'effet de certaines caractéristiques individuelles, appelées facteurs pronostiques,
sur l'évolution d'une maladie
Le pronostic concerne le jugement que porte un médecin, après le diagnostic, sur la
durée, le déroulement et l'issue d'une maladie. Les études pronostiques portent sur
des sujets porteurs d’une affection précise, dont on veut connaître le devenir ou le
pronostic : guérison, rechute, survenue d’une complication, décès…
Par exemple, au cours d’une pathologie cancéreuse, l’étude pronostique porte sur la
survenue d’une rémission ou d’une guérison ou d’un décès.
Un pronostic peut être un contexte pathologique ou clinique : une issue clinique
(décès, complication…), ou bien des facteurs prédictifs de l’issue clinique dans le
contexte pathologique considéré.
Un facteur pronostique est un facteur qui influence l’évolution d’une maladie et qui
entraîne plus rapidement une complication ou un décès. C’est une variable liée au
critère de jugement, une variable expliquée.
Un facteur pronostique est aussi une caractéristique du patient qui prédit la
survenue ultérieure d'un événement : la survie, la réponse au traitement, la
toxicité…
L'analyse du pronostic en médecine a connu un développement important ces
dernières années lié à l'émergence de nouvelles modalités d'analyse statistique
fondées sur la théorie des probabilités et sur les modèles d'analyse de la survie.
Cette analyse consiste à rechercher une association entre un ou plusieurs facteurs
et le devenir d'une maladie. Ces facteurs sont appelés facteurs pronostiques. Leur
utilité est croissante dans les processus de décision médicale pour améliorer les
décisions thérapeutiques et également dans les procédures d'ajustement
140
employées dans l'analyse des essais thérapeutiques. Outre l'intérêt de l'analyse
pronostique dans la décision médicale, un autre domaine d'application est celui des
essais thérapeutiques.
Tableau 12 : facteurs de risque et facteurs pronostiques dans l’infarctus du
myocarde
Les études pronostiques sont le plus souvent réalisées en constituant des cohortes
de patients atteints d’une maladie qui sont suivis dans le temps pour la survenue
d’événements évolutifs, selon le principe des études de cohorte. Plus rarement, il
s’agit d’études cas-témoins.
Les études pronostiques peuvent être :
- prospective : la période de recrutement et le suivi sont prospectifs dans le
temps. ;
- ou rétrospective : inclusion de sujets selon des critères définis dans le passé
(sur dossiers).
Les études pronostiques sont des études où le facteur temporel est important.
Elles permettent de suivre dans le temps le devenir des patients en liaison avec les
facteurs ; de fait, elles décrivent l’évolution complète de la maladie chez tous les
patients ; il reste que ces études sont plus simples à mener si le pronostic est à
court terme.
Ces études nécessitent souvent un suivi prolongé. La principale particularité lors de
l’analyse de ce type d’étude provient de l’existence de données censurées.
Les données censurées sont des données des sujets chez lesquels l’évènement n’est
pas encore survenue au moment de la fin de l’étude et que l’on désigne par les
exclus vivants et les sujets pour lesquels on ne dispose plus d’information : les sujet
perdus de vue.
141
Quand l’étude pronostique est descriptive, elle étudie le délai de survenue d’un
événement ; elle a pour objectif d’estimer la survie des patients.
Lorsque l’étude est comparative, elle permet de rechercher les facteurs
pronostiques ou prédictifs de survenue d’un événement.
Objectifs
Comme pour les études étiologiques, l’objectif principal d’une étude pronostique
peut être :
- descriptif (répartition spatio-temporelle des phénomènes de santé et leurs
déterminants), par exemple : quelle est la survie des femmes atteintes d’un cancer
du sein ?
- explicatif (recherche d’un lien entre un facteur et un phénomène de santé)
cherchant à mettre en évidence un ou des facteurs pronostiques en déterminant
quels sont les facteurs qui influent sur la survenue d’un événement : l’âge, le sexe,
le stade de la tumeur, la technique opératoire…
Les objectifs secondaires peuvent être multiples et dépendent du type de cohorte
mise en place.
Méthodes
Les études pronostiques sont des études où le facteur temporel est important.
Elles permettent de suivre dans le temps le devenir des patients en liaison avec les
facteurs. De fait, elles décrivent l’évolution complète de la maladie chez tous les
patients.
142
Paramètres à définir
Dans une étude de cohorte on doit préciser le type d’étude (prospective,
rétrospective, étude rétrospective sur données prospectivement recueillies), les
variables dont on veut étudier la valeur pronostique, les critères d’éligibilité de la
population et surtout le critère de jugement. La principale particularité lors de
l’analyse de ce type d’étude provient de l’existence de données censurées.
Dans une étude pronostique descriptive, on étudie le délai de survenue d’un
événement ; l’objectif est d’estimer la survie des patients.
Dans une étude comparative, on recherche et on analyse les facteurs pronostiques
ou prédictifs de survenue d’un événement dans deux groupes. Le plan expérimental
d’une étude pronostique peut être une étude de cohorte prospective, un essai
clinique (bras témoin), une étude cas témoin, ou une étude rétrospective
Le plan expérimental
Le plan expérimental doit être adapté au type d’étude. En effet, une étude
pronostique peut être élaboré sous forme d’une étude de cohorte prospective, un
essai clinique (bras témoin), une étude cas témoin, ou une étude rétrospective. Pour
mesurer l’association entre un facteur et une évolution, d’autres méthodes sont
possibles. Si l’on ne prend pas en compte le délai de survenue de l’évolution, on peut
utiliser les méthodes classiques d’étude d’un événement binaire : calcul de risques
relatifs et/ou d’Odds-ratio complétés si besoin par des analyses multi variées
utilisant des modèles de régression logistique (voir chapitre enquêtes analytiques).
L’étude des facteurs de risque de survenue de la maladie devient simplement dans
ce cas l’étude des facteurs de risque de survenue d’une évolution (= facteurs
pronostiques). Si l’on n’étudie que le délai de survenue d’une évolution présente dans
100% des cas, on peut utiliser les méthodes d’étude de variables quantitatives :
comparaison de moyennes, régression linéaire.
Population d’étude
La population qui est l'objet de l'étude doit être parfaitement définie. Les
conditions d'inclusion de sujets dans la cohorte étudiée doivent être définies
préalablement en termes d'âge, de sexe, de critères diagnostiques de la maladie
étudiée...
Comme pour les autres types d’étude, il faut minimiser les biais de sélection pour
obtenir un échantillon représentatif de la population à laquelle on souhaite
généraliser les résultats. En particulier il faut contrôler la comparabilité des sujets
143
inclus vis à vis de la maladie. Pour une étude descriptive, il faut s’assurer que les
participants inclus ne sont pas en meilleure santé que les non-participants (par
exemple, « healthy worker effect »1) et que leur suivi débute au même stade de la
maladie.
Pour comparer l’évolution d’une maladie, les patients inclus dans les groupes
comparés doivent être identifiés à des stades comparables, sous peine de fausser
les résultats obtenus.
La taille de l’échantillon (nombre de sujets nécessaire) doit-être définie a priori
avant le début de l’étude pour s’assurer une puissance statistique suffisante
permettant de répondre à l’objectif principal fixé. Pour une étude de cohorte
cherchant à identifier un facteur pronostique, l’effectif inclus doit être d’autant
plus grand que le nombre de facteurs pronostiques connus est grand et que le taux
attendus d’événement est faible.
Le nombre de sujets à inclure doit prendre en compte le risque de perdus de vue
afin d’obtenir un nombre suffisant de patient lors de l’analyse.
Les différents critères de jugement utilisés pour évaluer le pronostic d’une maladie
doivent être précis. C’est ainsi que la mesure de la survie globale est toujours prise
en compte.
144
Il faut recourir le moins possible aux critères de jugement secondaire et ou de
substitution. Dans ce cas, il faut que le critère de jugement introduise le moins de
biais possible et choisir donc celui qui mesure de manière la plus objective possible
le facteur pronostic.
Par exemple, la mesure de la survie sans récidive peut introduire un plus grand
risque de biais que la mesure de la survie globale, en effet, un diagnostic d’une
récidive sur des arguments radiologiques peut introduire une part de variabilité liée
à l’observateur.
Pour limiter l’impact de cette variabilité, particulièrement lorsque l’étude est
comparative, l’observateur ne doit pas connaître le groupe du patient
(interprétation en aveugle).
La date d’une récidive sera également moins précise que celle d’un décès car elle
peut dépendre de la périodicité du suivi des patients.
L’identification de facteurs pronostiques non modifiables (âge, sexe, etc.) apporte
des connaissances pour estimer le pronostic d’un patient donné. Elle peut néanmoins
être moins utile que l’identification de facteurs modifiables (tabagisme,
sédentarité, etc.) qui va potentiellement permettre de modifier la prise en charge
médicale.
145
Organisation du suivi : les patients seront suivis aux temps prédéfinis, avec un
tableau récapitulatif des différents examens qui seront réalisés durant le suivi.
Variables relevées : les caractéristiques mesurées au cours d'une étude
pronostique peuvent être de nature très différente : démographique, clinique,
biologique, histologique, génétique, etc. Le recueil des données sera effectué à
l'aide de cahiers d'observation standardisés qui comprendront les caractéristiques
des patients, des facteurs d’exposition, de la pathologie étudiée et les données du
suivi.
En pratique, l’analyse des études pronostiques s’appuie aussi sur le calcul de délais
de survie et la construction de courbes de survie qui sont des représentations
graphiques d’un taux de survie dans le temps et leur comparaison est testée
statistiquement par le test de Logrank.
Dans les analyses de survie, le choix de la date d’origine de la survie et la prise en
compte des sujets censurés doivent être clairement définis, car ils conditionnent
les résultats sur les taux de survie et la médiane de survie.
La notion de survie qui s’applique au décès a été étendue à tout autre événement
qualitatif binaire (p.ex. apparition d’une métastase dans le cancer).
Les variables pronostiques sont appelées aussi variables explicatives au plan
statistique ; ce sont des variables liées au critère de jugement, le critère de
jugement est appelé dans ce cas variable expliquée.
Par exemple, dans un essai de mortalité versus placebo, un hazard ratio de 0,5
signifie que, sous traitement, le risque instantané de décès est seulement la moitié
du risque (instantané) sans traitement. En d’autres termes, chaque jour les patients
sont exposés à un risque de décès dans la journée réduit de moitié.
148
Exemple : pour HR = 0.71, il y a une réduction de 29% du risque instantané de décès
à tous les temps t, ou bien quelque soit le temps t, on a 29% de risque en moins de
décéder. Le Hazard ratio mesure l’effet « moyen » du traitement sur tout le suivi,
il doit donc être présenté avec son intervalle de confiance.
Conclusion
149
LES META-ANALYSES
Définition
Dans les sciences du vivant en général et en médecine en particulier, les progrès de
la connaissance procèdent d'une série d’expérimentations. Cependant, les
fluctuations d'échantillonnage et la variation des conditions d'expérimentation
engendrent une variabilité dans les résultats, pouvant aboutir dans certains cas à
des résultats contradictoires.
Comment prendre en compte l'ensemble de ces résultats pour en tirer une
conclusion unique ?
C'est pour répondre à cette interrogation que les chercheurs en psychologie et en
sciences de l'éducation ont initié la méta-analyse au début des années soixante dix.
La méthode sera perfectionnée plus tard dans la recherche clinique et dans les
essais thérapeutiques en particulier.
On appelle méta- analyse, l'analyse simultanée d’un ensemble d'études s’intéressant
à la même question de recherche dans le but d'obtenir des informations qu'aucune
de ces études prises isolément ne pourrait fournir.
La méta-analyse ou "analyse des analyses" est définie aussi un ensemble de
techniques permettant l'analyse statistique, selon une méthodologie appropriée,
d'un grand nombre de données provenant de plusieurs analyses, afin d'en tirer une
synthèse qualitative, quantitative et reproductible (Glass 1976).
C’est une démarche, plus qu’une simple technique, qui a pour but de combiner les
résultats de plusieurs essais thérapeutiques, pour en faire une synthèse
reproductible et quantifiée.
Cette synthèse produit un gain de puissance statistique dans la recherche de
l’effet d’un traitement, une précision optimale dans l’estimation de la taille de
l’effet et permet en cas de résultats apparemment discordants.
C’est donc une synthèse qui se déroule en suivant une méthodologie rigoureuse et
qui a pour but d'assurer l'impartialité de la synthèse et sa reproductibilité. Elle
implique une recherche exhaustive de tous les essais publiés et non publiés. Elle est
quantifiée, car elle se base sur des calculs statistiques permettant une estimation
précise de la taille de l'effet (un traitement par exemple). Ainsi l’utilisation des
anticoagulants dans le post-infarctus a fait l’objet des premières méta-analyses
importantes (1983).
150
Intérêts d’une méta-analyse
La méta-analyse s'avère particulièrement utile lorsque les résultats des études,
prises séparément, semblent contradictoires ou lorsque l'on veut étudier des
événements relativement rares tels que les effets indésirables.
La méta-analyse permet en effet, par une augmentation de puissance, de conclure
là où les essais ne concluent pas du fait de petits effectifs, de faibles différences
entre les traitements ou encore de la fréquence limitée des événements étudiés.
151
Les étapes d'une méta-analyse
La réalisation d'une méta-analyse est généralement calquée sur celle d'un essai
thérapeutique. Le protocole doit s’articuler autour des étapes suivantes :
Définition de l'objectif ;
Revue de littérature ;
Sélection des essais ;
Extraction des données ;
Choix de la variable à analyser ;
Choix de la technique statistique ;
Interprétation et présentation des résultats.
Définition de l'objectif
Dans le protocole, l'objectif de la méta-analyse doit être clairement défini, les
hypothèses précisées et les procédures de chaque étape décrites.
Revue de littérature
La recherche des essais à inclure dans la méta-analyse est une étape capitale qui
peut être soumise à certains biais. Le recensement des essais réalisés doit être le
plus exhaustif possible afin d'éviter un biais lié à la sélection d'un sous-ensemble
d'essais dont les résultats seraient différents de ceux de l'ensemble des essais
existants, en raison notamment de la non publication d'essais "négatifs".
En effet, les essais publiés, donc les plus facilement accessibles sont en général
des essais "positifs" ou présentant un intérêt scientifique majeur.
La recherche des essais réalisés doit s'appuyer sur :
- les banques de données bibliographiques,
- les références bibliographiques d'articles de revues générales,
- les ouvrages de résumés de communications à des congrès,
- les minutes de conférences,
- les contacts directs avec les
- Investigateurs et les promoteurs.
Sélection des essais
Après la collecte de l'ensemble des études concernant le problème à résoudre, il
faut sélectionner les essais à inclure dans la méta-analyse. Les essais seront
classés en fonction de critères d'inclusion et d'exclusion préalablement définis.
Le premier critère de choix est naturellement l'existence de l'événement étudié.
La qualité des études, leur homogénéité sont des critères de sélection également
très importants.
152
En effet, la médiocre qualité de certaines études peut induire un résultat erroné,
dans la mesure où il existe indubitablement une corrélation entre la qualité
méthodologique d'un essai et le fait que son résultat soit positif ou négatif. Par
ailleurs, une discordance entre la méthodologie des essais et l'objectif de la méta-
analyse (exemple : durée de suivi très différente) peut être préjudiciable.
Inversement, le processus de sélection peut introduire un biais dans la mesure où la
sélection peut être influencée par les résultats observés.
La sélection doit donc toujours être réalisée à l’aveugle.
Extraction des données
Par ordre décroissant d'intérêt, on peut classer les données utilisées en méta-
analyse en 3 catégories :
1) Les données individuelles : elles permettent de répondre à beaucoup de
questions, mais impliquent la fourniture des fichiers par les expérimentateurs.
2) Les résumés par sous groupes : les données sont moins détaillées que les données
individuelles et entraînent par conséquent une utilisation plus restreinte. C'est un
succédané de la méta-analyse réalisée sur des données individuelles.
3) Les résumés tirés de publications : les informations sont trop restreintes. Ces
résumés conservent les biais introduits dans l'analyse. L'absence des données
nécessaires implique de contacter les investigateurs. On a donc les contraintes
liées aux données individuelles sans en avoir les avantages.
Choix de la variable à analyser
Pour des raisons techniques et d'accessibilité aux données sources, les variables
faisant l'objet d'une méta-analyse sont surtout des variables binaires de type
succès/échec et des variables continues traitées selon la méthode dite d'"effect
size" ou taille de l'effet. La taille de l'effet est la différence entre la moyenne
dans le groupe traité et celle dans le groupe contrôle, divisée par une mesure de la
variabilité des mesures individuelles. L'avantage de la taille de l'effet est de
permettre de mélanger des essais pour lesquels la technique de mesure voire
l'unité de mesure sont différentes.
Choix de la technique statistique
Le principe de la méta-analyse est de séparer l'information totale apportée par
l'ensemble des données en 2 parties : une partie commune qui traduit l'effet
commun des essais de la thérapeutique testée et une partie spécifique à chaque
essai traduisant les multiples différences d'un essai à l'autre. Diverses techniques
permettent d'effectuer cette séparation, mais de façon différente : ce sont les
modèles d'effets.
153
Méthodes statistiques
Toutes les méthodes statistiques employées pour analyser les données des essais
cliniques et des études épidémiologiques peuvent être utilisées.
La préférence sera donnée aux outils qui tiennent compte de la spécificité de
chaque étude : analyse de variance étendue par le modèle linéaire, régression
multiple pour les variables quantitatives ; régression logistique ou modèle de Cox
pour les variables binaires ; techniques non paramétriques.
Visualiser les résultats d'une méta-analyse : la représentation graphique
habituelle
Les principaux résultats d’une méta analyse sont représentés graphiquement
(Forest plot). Le choix de l'échelle de l'axe des abscisses peut être linéaire (cas
habituel d'une mesure d'effet d'une variable continue) ou logarithmique (cas
habituel d'une mesure d'effet d'une variable discrète à travers un OR ou un RR) et
doit être dicté par la lisibilité de la figure. L’utilisation des Odds ratio trouve une
bonne application des méta-analyses.
Dans cet exemple fictif, on remarque qu’il y a plus d’événements dans les groupes
traités que dans les groupes témoins. Cela démontre une homogénéité relative, mais
il n’ ya pas de différence significative, aussi bien dans chacune des études que dans
la méta analyse (tous les IC englobent la valeur 1).
154
Figure 30 : Représentation classique des résultats d'une méta-analyse
Figure 31 a :
Homogénéité
Figure 32 b :
Hétérogénéité
156
Analyse de la sensibilité
Dans une méta-analyse, l'analyse de la sensibilité permet de vérifier la cohérence
et la robustesse des résultats par :
- La représentation graphique des résultats de la méta- analyse en prenant en
compte la qualité des essais (regroupement successif des essais de bonne, puis de
moins bonne qualité) ;
- L'utilisation de plusieurs critères de jugement dans une même méta-analyse ;
- Le calcul du nombre d'essais à ajouter à une méta-analyse donnée pour en
modifier les résultats.
Conclusion
Une méta analyse répond donc à une série de questions clés, en évaluant le respect
des démarches méthodologiques et en répondant à deux types de questions : le
résultat de la Meta analyse est-il méthodologiquement valide (validité interne),
c'est à dire est-il à l'abri de biais, et si les résultats de la Meta analyse sont
cliniquement pertinents.
La méta-analyse possède le niveau de preuve le plus élevé si la synthèse porte sur
des études de bonne qualité méthodologique dont les résultats sont homogènes.
Les difficultés de la méta-analyse résident dans le choix d'une question pertinente
et dans la disponibilité des essais permettant de répondre à cette question. Le
succès d'une méta-analyse tient à sa capacité à résumer un grand nombre d'études.
La réalisation d'essais de meilleure qualité et la constitution de registres d'essais
auront pour conséquence une diminution des biais associés à toute revue exhaustive
d'essais randomisés.
157
5ème partie
Outils et méthodes
En épidémiologie
158
LE PROTOCOLE D’ENQUÊTE
Définition et présentation
Le protocole d’une enquête épidémiologique est le document qui décrit la méthode
de l’étude proposée, de la justification aux objectifs, de l’hypothèse aux
contraintes méthodologiques, et qui définit ses conditions de réalisation et son
déroulement Le protocole doit conduire à une description exacte du phénomène
étudié.
Aussi, il faut veiller à faire attention aux erreurs (biais), aux erreurs
d’interprétation, à la puissance de l’étude et aux contraintes matérielles.
La rédaction du protocole comporte 4 étapes importantes :
- La qualité de l’information acquise et présentée en termes de justification
de l’étude.
- La formulation du problème à résoudre en termes d’hypothèse, d’objectifs
de travail et de méthodes.
- Du contrôle de la validité des données recueillies
- Du plan d’analyse établi et de la présentation des tests statistiques choisis.
La question de recherche :
Toute la démarche de recherche repose sur la question de recherche, elle
est à la base du projet :
Quel sujet ?
Déjà publié ?
Quels effets ?
Quelles interventions ?
Une différence ou une association ?
Quelle population ?
La question ?
Réponse anticipée ?
Importance ?
Il faut connaître l’état des recherches sur la question, s’informer sur les
méthodes utilisées par ailleurs, identifier les difficultés d’ordre
méthodologique et formuler une hypothèse de recherche ou la question à
résoudre.
160
Tableau 13 : des questions de recherche, le cheminement
Recherche documentaire
La documentation est riche et variée. Il faut souvent s’orienter vers une méta
analyse.
Remarques :
–Insister sur le caractère actuel, nouveau voire inédit de l’information recueillie
–But de la recherche décrite dans le document ?
–Caractéristiques de la population étudiée ?
–Méthodes et instruments de recueil utilisés ?
–Quel protocole et quelle analyse ont été utilisés ?
–Interprétation des résultats et conclusions formulées
Problématique
Une problématique de recherche regroupe l’ensemble des questionnements qui sont
à l’origine du thème de recherche ou d’une hypothèse de travail à vérifier. C’est une
étape essentielle et qui est en rapport avec l’expérience de chacun et sa motivation
à contribuer à résoudre les questions d’intérêt commun. Elle met en évidence
l’intérêt du sujet et sa justification, ce qui permet d’aboutir à définition des
objectifs.
161
C’est une partie limitée aux aspects de la situation générale ayant trait au problème
posé et aux interventions à réaliser. Elle permet d’établir le diagnostic de la
situation, d’analyser le besoin à satisfaire et de définir en termes plus précis la
nature du problème à résoudre.
Elle donne une grande place à la bibliographie complète.
Quelques questions :
Quels sont les éléments qui ont conduit à poser le problème et à prendre la décision
d’élaborer un projet destiné à le résoudre ?
Quelle est la situation générale et de quelle manière le problème évolue-t-il ?
Se développera t-il rapidement si rien n’est fait pour le résoudre ?
Quelles mesures ont été prises jusque-là pour résoudre le problème et quels en ont
été les résultats ?
A t’on évalué les activités précédentes et si oui, quelles en ont été les conclusions ?
L’hypothèse de recherche :
Elle constitue une affirmation plausible, pas trop incertaine, présentant un lien
entre deux ou plusieurs variables dépendantes A et indépendantes B.
Elle n’est pas un résumé ou la somme des données concernant la question traitée,
elle est une affirmation permettant d’aller à la recherche de solutions meilleures.
C’est un aboutissement logique de toute démarche d’investigation.
Définir les termes
Il s’agit d’un travail essentiel d’une recherche, il faut s’entendre sur les termes
utilisés, bien clarifier les définitions, bien traduire le cas échéant selon la langue
utilisée par la population.
Buts et objectifs :
C’est une étape fondamentale. Que veut-on faire exactement. : Attention aux
objectifs ambitieux !
La définition et la clarification des objectifs à tout le niveau – national, sectoriel
etc. – permettent à tous les acteurs d’avoir la même compréhension des résultats à
atteindre et de se mettre d’accord là-dessus.
Ils doivent être exprimés de façon explicite et compréhensible.
L’objectif global est ce vers quoi les efforts déployés au titre du projet ainsi que
ceux des autres projets complémentaires ou du même secteur tendent.
Le projet seul ne permet pas d’atteindre cet objectif global dont la réalisation
dépendra d’autres facteurs extérieurs. (Politique, économiques, socioculturels,
environnementaux, institutionnel etc.).
Par exemple :
162
- Contribution pour la réduction de la mortalité infantile
– projet pour identifier les causes majeures de la mortalité infantile
L’objectif global est plutôt qualitatif.
Les objectifs spécifiques doivent être clairement définis et dans la mesure du
possible exprimés qualitativement et quantitativement. Ils doivent permettre la
définition des actions à mener ainsi que des apports nécessaires aussi bien que des
résultats à produire.
Les actions menées et les apports doivent produire des résultats observables,
concrets et tangibles dans la mesure du possible.
L’objectif spécifique doit être explicite, clairement énoncé, indépendant et
objectivement vérifiable.
L’énoncé d’un objectif comprend :
Un verbe qui définit l’action (analyser, évaluer…)
Une précision sur la population concernée
Exemple : Évaluer la couverture vaccinale au BCG des enfants scolarisés du
primaire, dans le secteur sanitaire de N. en 2003.
Le choix du type d’enquête
C’est un choix qui dépend : de la problématique de recherche, des objectifs à
atteindre, des conditions de réalisation de l’enquête.
Enquêtes descriptives
Enquête de prévalence : enquête transversale
Enquête de surveillance épidémiologique chronologique :
Enquête transversale répétée
Enquêtes étiologiques
Enquêtes d’intervention ou d’évaluation
La méthode d’échantillonnage
Étape essentielle du choix de la population à étudier ou types de population d’étude
Tenir compte de l’acceptabilité, de la faisabilité, et de la représentativité
Le choix peut se faire sur des bases géographiques ou professionnelles par exemple
Les modalités d’échantillonnage (sondages) :
Les méthodes empiriques
Les méthodes aléatoires (ou randomisée dans les essais cliniques)
Les méthodes mixtes
On détermine la base de sondage et la méthode de tirage au sort
On calcule le nombre de sujets nécessaires
Le plan d’analyse
163
C’est une étape d’identification des variables à étudier au cours d’une enquête
descriptive.
Objets et buts du plan d’analyse :
Identifier les variables ou les paramètres à étudier
Faire un tri à plat des variables (regroupements)
Identifier les différents croisements de variables
Identifier les différents tests statistiques à utiliser
Le questionnaire ou le recueil des données
Le questionnaire (à élaborer après le plan d’analyse) comprend l’ensemble des
questions destinées à recueillir les renseignements ou les informations souhaitées
pour une enquête.
Un questionnaire comprend :
Une identification du sujet
Des questions portant sur l’étude
Le corps du questionnaire qui comprend toutes les questions relative au sujet de
recherche, dans l’ordre, elles peuvent être ouvertes, fermées ou semi fermées.
Le questionnaire comporte également des instructions destinées à l’enquêteur
La description du déroulement
On précise :
La durée de l’enquête
Les différentes étapes de l’enquête
Les différentes étapes de l’enquête
La description des méthodes d’investigation, on décrit : les outils et les méthodes
de mesures.
La pré enquête
Il s’agit de tester sur le terrain la réalisation de l’enquête.
164
LE QUESTIONNAIRE
DANS UNE ENQUÊTE ÉPIDÉMIOLOGIQUE
Un questionnaire est le recueil des données d’une enquête, il doit répondre à des
objectifs préalablement élaborés. Le questionnaire doit susciter l'intérêt/désir
de répondre aux questions de la manière la plus exacte, il doit être adapté aux
objectifs, précis et clairs, être applicable avec uniformité. Il permet de
minimiser les erreurs des répondants.
Le questionnaire doit permettre : d’améliorer l’accessibilité à l’information, de
renforcer le caractère qualitatif de l’information (rigueur), d’assurer la
comparabilité (standardisation et codification), de transformer les informations en
variables. Il doit avoir également un bon enchaînement.
Un questionnaire doit transformer des notions et des concepts en éléments
opératoires (variables) qui autorisent des classements :
• Une mise en ordre des variables qualitatives ordonnées
• Une mise en catégories des variables qualitatives nominales
• Une mise en catégorie numérique.
166
Types de questions utilisées dans le questionnaire
167
Définition opérationnelle des questions
Pour les questions fermées, les modalités de réponses sont
- Mutuellement exclusive
- Exhaustive
La conception de questions filtres aboutit à la création de sous-groupes.
Exemple • Avez-vous été déjà vacciné ? Si Oui contre quel type de vaccin ?
Le Codage et codification
L'utilisation d'un système de conversion des réponses en chiffres plus
facilement utilisables à des fins d'analyse statistiques est souhaitable.
Lorsque qu'il s'agit d'une question fermée, les réponses sont proposées et
codées préalablement.
Pour les questions ouvertes, on doit regrouper les réponses attribuer un code à
chaque groupe.
La codification consiste à assigner un nombre ou un symbole pour représenter
une réponse. Le codage est fonction de la question de recherche et de l'analyse
statistique prévue.
Principes généraux
- Chaque réponse doit être représentée par un code distinct : exemple • Gl pour
groupe 1 et G2 pour groupe 2…
- Adopter une règle pour codifier les valeurs manquantes et la déclarer dans le
logiciel comme manquante. Exemples 9, 99, 999
- Enregistrer l'information avec le plus de détails possibles : exemple pour l'âge
donner la date de naissance et enregistrer l'âge exact.
Pour les variables quantitatives, donner des instructions pour l'unité de mesure.
168
Types de codification
Codification numérique
Exemple : sexe homme = 1, femme= 2 ce sont des réponses sont numériques.
Codification alphanumérique ou par chaîne de caractères : exemple Oui =O,
Non=N
Codification des dates : elles sont introduites comme telles. L'utilisation d'un
système de conversion des réponses en chiffres plus facilement utilisables à
des fins d'analyse statistiques.
169
LES MÉTHODES D’ÉCHANTILLONNAGE
ALÉATOIRES
Dans une enquête épidémiologique, le choix des sujets d’étude ou d’un échantillon
représentatif à partir de la population générale nécessite nécessairement
l’utilisation systématique d’une méthode de sondage aléatoire.
Principes généraux
Un sondage aléatoire est une méthode des probabilités qui est définie par le fait
que tous les sujets qui constituent une même population mère, doivent avoir la
même probabilité de faire partie de échantillon. Sur le plan technique, les sondages
aléatoires reposent sur le principe du tirage au sort d’un certain nombre de sujets
qui pourront être considérés comme représentatifs de la population-mère. Les
tirages au sort devront s’effectuer de manière anonyme.
Dans la méthode de sondage aléatoire la représentativité de l’échantillon est une
règle fondamentale.
Malgré le strict respect du tirage au sort, on envisage cependant dans les sondages
aléatoires la possibilité de faire des erreurs et de constituer un échantillon non
représentatif.
Il s’agit de l’erreur d’échantillonnage ou du risque consenti. Ce risque est fixé avant
la constitution de échantillon et dépend de sa taille : plus échantillon est grand, plus
le risque consenti est faible et plus la précision du sondage sera bonne.
Cette technique permet d’utiliser les lois de probabilité dans l’exploitation des
données et de généraliser les résultats obtenus sur échantillon à l’ensemble de la
population.
En effet dans l’interprétation des résultats enregistrés sur un échantillon aléatoire
et compte tenu du risque d’erreur consenti, les valeurs réelles des résultats
obtenus dans échantillon, fluctuent en fait dans un certain intervalle (intervalle de
confiance), soit autour de la moyenne, soit autour du pourcentage observé dans cet
échantillon. En Médecine, le risque consenti maximum généralement admis est de 5
%. Différentes méthodes sont utilisées pour constituer un échantillon aléatoire :
- le sondage aléatoire simple
- le sondage systématique
- le sondage aléatoire à plusieurs degrés
170
- le sondage aléatoire en grappes
- le sondage aléatoire stratifié
171
n individus obtenus en prenant systématiquement un individu sur 5 ou sur 10, ou
tout autre pas de sondage sur la population mère.
Exemple
Pour prélever un échantillon sur une population de 327 unités par exemple, avec une
progression de 15 en 15, on prend un nombre aléatoire compris entre 1 et 15 par
exemple : 6 L’échantillon comprendra les unités de rang de 15 en 15 en commençant
par : 6 puis (6 + 15) : 21, puis (21 + 15) : 51, ... 305 - 321. Le nombre d’unités de
l’échantillon sera égal à 22.
Le sondage aléatoire à plusieurs degrés
C'est une méthode qui permet d’obtenir un échantillon en utilisant plusieurs tirages
au sort successifs (ne dépassant pas trois). Dans un sondage à deux degrés on peut
obtenir par un premier tirage au sort, par exemple les districts des quartiers à
étudier (ce sont les unités primaires) puis par un second tirage au sort à l’intérieur
des districts recueillis, on obtient l’échantillon de ménages.
Dans un sondage à trois degrés, on effectue un premier tirage au sort des
communes à l’intérieur desquelles on tire un échantillon de districts, le troisième
tirage concernera les ménages. Sur le plan pratique, le sondage à plusieurs degrés
permet de mieux concentrer l’enquête sur le terrain et de diminuer par conséquent
les déplacements des enquêteurs. Pour réduire les biais, (ou les erreurs
systématiques), l’enquête doit porter autant que possible sur l’ensemble des
ménages tirés au sort.
Les sondages en grappes
Dans les régions ou les populations vivent en majorité dans des zones éparses,
l’échantillonnage aléatoire simple permettra de constituer un échantillon très
dispersé et difficilement accessible. Afin de contourner cette difficulté, on
préconise un cas particulier de sondage à plusieurs degrés, dans lequel les unités,
composant la base de sondage sont regroupées en grappes : comme par exemple un
ménage ou un foyer.
Les sondages en grappe consistent donc à sélectionner au hasard un échantillon de
grappes et d’effectuer un tirage au sort des différentes grappes qui constituent la
population Sur le terrain, on doit mener l’enquête auprès de tous les individus qui
composent les grappes tirées au sort.
Les sondages stratifiés
La stratification consiste à subdiviser, pour les besoins de l’enquête, une population
en groupes homogènes selon les modalités d'un caractère : comme par exemple : le
sexe, les groupes d’âge, les groupes socioprofessionnels...C’est un moyen de rendre
172
plus représentatif un échantillon aléatoire en particulier lorsque les unités
statistiques (individus, ou grappes) sont peu nombreuses et dispersées.
La stratification par âge par exemple consiste à répartir la population d’étude en
strates ou groupes d’âge.
La stratification par secteur d’habitat peut être effectuée par répartition de la
population d’étude en strates ou groupes de populations : rurales, semi-rurales ou
urbaines.
La stratification constitue un moyen pour accroître la précision du sondage. Le gain
de précision dû à la stratification est d'autant plus grand, qu'il existe une liaison
plus forte entre le critère servant à la stratification (l’âge par ex.) et la variable
étudiée.
Sur le plan statistique, il est possible de calculer des paramètres comme la
moyenne ou la variance par strate. A l’intérieur de chaque strate, la variance est
sensiblement inférieure à la variance totale de la population. Ce qui augmente la
précision pour une même taille d'échantillon.
En pratique deux méthodes de stratification sont utilisées :
La stratification à priori
La stratification à posteriori
La stratification à priori :
Dans une enquête de fécondité, le nombre moyen d’enfants par femme est
corrélé avec le secteur d’habitat. Dans ce cas une stratification à priori est
réalisée en prenant comme critère de stratification le secteur d’habitat : rural ou
urbain par exemple.
La stratification à posteriori
Ce type de stratification est utilisé dans deux situations : dans le cas où la base de
sondage ne contient pas de variable permettant la stratification à priori, et si la
variable ayant servi à la stratification à priori semble être mal corrélée aux
variables recherchées
173
Au cours des enquêtes de grandes envergures, avec une grande dispersion des
unités, il est recommandé de combiner plusieurs méthodes de sondage suivant les
cas. L’échantillonnage en grappe ou par stratification peut simultanément intervenir
dans une procédure de tirage simple ou à plusieurs degrés.
Les sondages en grappe sont très souvent utilisés dans les enquêtes à grande
échelle, en raison des commodités qu'ils présentent sur le terrain. C’est une
méthode souvent utilisée dans les enquêtes d’estimation du taux de couverture
vaccinale du Programme élargi de vaccination (PEV).
C’est un schéma d’échantillonnage économique et pratique. Les unités étant
groupées au sein de grappes, les enquêteurs seront peu dispersés, par ailleurs, il
n’est pas nécessaire d’avoir une liste de toute la population, mais seulement une
base de sondage constituée de grappes sélectionnées.
Cependant l’économie de moyens entraîne pour ce type de sondage une diminution
de la précision des estimations. Par exemple, dans un ensemble de grappes, on peut
observer une situation d’homogénéité vis à vis d’un phénomène particulier. Ainsi une
grappe de ménages habitant un même quartier pauvre par exemple peut adopter un
comportement identique en matière de dépenses de consommation. Par contre si la
grappe concerne un certain nombre de ménages tirés au sort sur plusieurs
quartiers, les résultats seront plus précis.
Ce problème de précision appelé effet de grappes est généralement corrigé par une
augmentation (un dédoublement) du nombre de sujets nécessaires.
174
Précision d’une estimation et celle de sa variation
Du fait de l'incertitude liée aux fluctuations d'échantillonnage, il est impossible de
déterminer avec certitude la valeur exacte d'une variable qualitative (fréquence)
ou quantitative (moyenne) au sein de la population. Pour cela on procède à son
estimation soit partir d'un échantillon soit par comparaison entre groupes de
sujets.
Il est possible de préciser l’estimation de cette variable en calculant la probabilité
pour que la variable exacte se trouve comprise dans un certain intervalle appelé :
Intervalle de confiance.
Exemple : pour un intervalle de confiance : I = 2 %, et P égal à 25 %, nous avons P° =
25 % + ou - 2 %. L'intervalle de confiance de P est compris entre 23% et 27%.
La précision de l’estimation
Plus l'intervalle de confiance est étroit, plus l’estimation sera précise. Il est
possible de faire varier cet intervalle et donc de préciser l'estimation d'une
variable
- soit en admettant un risque d’erreur
- soit en augmentant l'effectif de l échantillon
Dans l'exemple précédent, en admettant un risque d'erreur de 5 % (risque
consentiα), on peut dire avec P° = 25 % que la véritable valeur de P dans la
population a 95 % de chance d’être comprise entre 23 et 27 %.
Si l’on prend un risque d’erreur plus faible, l’intervalle de confiance augmente pour
mieux préciser P, comme par exemple, dans les estimations de fréquence d’une
maladie rare
En pratique, une meilleure précision nécessite un échantillon à effectif plus élevé.
La taille de l’échantillon
Dans une enquête épidémiologique, plus l'effectif de l’échantillon est élevé, plus
l'intervalle de confiance de la variable étudiée sera réduit (nul dans un
recensement exhaustif).
L’augmentation de la précision concernant la variable étudiée devient minime à
partir d'un certain effectif minimum de l’échantillon, c'est le nombre de sujets
nécessaires.
Méthodes de calcul du nombre de sujets nécessaires
• Cas des variables qualitatives :
175
On se fixe une précision à l’avance à travers l’intervalle de confiance. Si la précision
de l’estimation est désignée par : i et le nombre de sujets nécessaires par : n, pour
un risque d’erreur consenti α de 5 % :
pq (1,96)² pq
i = 1,96 Soit n =
n i²
On remarque que la taille de la population n’intervient pas dans la formule de calcul
du nombre de sujets nécessaires. Il n’est donc pas nécessaire de prendre
davantage de sujets dans échantillon pour une population importante.
Ainsi il est possible de déterminer le nombre de sujets nécessaires pour un sondage
à condition :
- de fixer : i et α (précision désirée et risque consenti)
- de connaître : p (valeurs approximatives de la variable)
Exemple : On veut étudier la fréquence d’une maladie : m dans une population Si une
enquête faite par ailleurs a montré que la fréquence de m est de l’ordre de 10 %, et
si la précision désirée i = 2 %, pour un risque consenti de 5%, n peut être obtenu en
utilisant la formule suivante :
176
Redressement du sondage
Parmi les problèmes pratiques que l'on rencontre au cours des enquêtes auprès d'un
échantillon, le plus important est celui des « non répondants ». Les non-réponses
dont le nombre peut être plus ou moins élevé introduisent un biais dans l'analyse
des résultats, car ces non-répondants peuvent être différents par rapport au
caractère étudié (de vrais malades absents d’une entreprise par exemple) et
peuvent fausser totalement les résultats de l’enquête. Les motifs de non-réponses
sont nombreux, il s'agit surtout :
- d'une absence du domicile (travail, déménagement...)
- d'un refus de répondre
- d'une incapacité de répondre ou autres ...
Exemple : dans une étude sur un problème de santé lié à l’âge les résultats sont
biaisés si les non répondants sont surtout des sujets âgés.
Techniques de corrections des non-réponses
- On récupère ultérieurement les résultats chez les non-répondants par une
enquête complémentaire
- On effectue une pondération des résultats en supposant que les non-répondants
se comportent exactement comme les sujets ayant répondu
- On enquête des sujets semblables figurant sur une liste préétablie pour
remplacer les non-répondants.
Conclusion
L’élaboration d’un échantillon parfaitement représentatif est une tache difficile,
sinon impossible, mais l’on doit se rapprocher au maximum, en utilisant la méthode
de sondage la mieux appropriées, la plus pratique, et la moins coûteuse. Par ailleurs
il est essentiel de veiller aux erreurs et aux biais aux différents moments du
sondage, en particulier : dans la détermination des unités de échantillon et dans le
recueil des informations auprès des sujets enquêtés (problème des non-réponses).
Il est nécessaire également de veiller à la conservation de la représentativité de
l’échantillon au cours du temps et tout au long de l’enquête (sujets perdus de vue).
Il faut noter enfin que la recherche d’un optimum de Précision en matière
d’échantillonnage dépend des objectifs à atteindre, de la fiabilité des données
recueillies et de la précision des résultats escomptés.
177
LES BIAIS DANS LES ÉTUDES
ÉPIDÉMIOLOGIQUES
179
Prévention des biais de sélection
La prévention des biais de sélection doit être envisagée au moment de la conception
du protocole de l'étude, car on ne peut en général plus contrôler cette catégorie de
biais au moment de l'analyse, c'est à dire lorsque les sujets de l'étude ont été
recrutés.
Les biais de sélection affectent surtout les études rétrospectives (cohorte ou cas
témoins). Pour les éviter, il faut s'assurer que les groupes de sujet sont choisis de
façon comparable, c'est à dire que les cas et les témoins proviennent du même
« univers »et que les sujets exposés et non exposés ont autant de chance d'entrer
dans le groupe des cas.
Critères simples de prévention des biais de sélection selon les types d’enquêtes :
Dans une étude cas témoins, sélectionner les cas et les témoins sans connaître leur
statut vis à vis de l'exposition aux facteurs étudiés ;
Dans une étude de cohorte rétrospective, choisir les sujets exposés et non
exposées sans connaître leur statut vis à vis de la maladie étudiée ;
Quelque soit le type d'étude, il faut utiliser une définition précise, nette et
uniforme de la maladie, basée sur des critères diagnostiques objectifs. Il faut
également recruter tous les cas ou les sujets exposés dans un univers bien défini et
choisir les témoins ou les sujets non exposées au hasard dans ce même univers.
180
Ils surviennent lorsque cas et témoins se souviennent avec une acuité différente de
leur exposition au facteur de risque étudié.
Par exemple, une mère dont l'enfant est né avec une malformation (groupe de cas)
se souviendra plus facilement de tout événement survenu lors de sa grossesse et
pouvant expliquer cette malformation, qu'une mère qui a donné naissance à un
enfant en parfaite santé (groupe des témoins). On pourra alors observer une
relation biaisée (surestimée) entre ce type de malformation et tel événement
(prise de médicaments, etc.) survenu pendant la grossesse.
Les biais de mesure : exemples
- l'utilisation d'appareils de mesure défectueux ou improprement réglés qui
conduisent à des erreurs systématiques de classification,
- des critères diagnostiques impropres pour définir la maladie,
- des omissions ou des imprécisions sur des données enregistrées dans le passé,
Les biais de surveillance et de diagnostic :
Ils peuvent survenir lorsque le facteur de risque étudié influence directement la
détection de la maladie. Par exemple, dans une enquête cas témoins, on veut
comparer les antécédents de traumatisme accidentel (facteur de risque) chez des
cas de spondylarthrite ankylosante (S.A.) et dans un groupe témoin issu de la
population générale.
En raison de la surveillance médicale étroite qu'entraîne un traumatisme, la
probabilité de détection d'une S.A. est plus élevée chez un individu qui a subit un
traumatisme que chez un sujet sans antécédent de ce type. En conséquence, même
en l'absence d'association réelle entre traumatisme et S.A., on pourrait observer
plus fréquemment un antécédent de traumatisme chez les cas que chez les témoins.
Un tel résultat serait dû à un biais de sélection.
Ce type de biais de sélection risque surtout de survenir dans les études qui
concernent les maladies longtemps asymptomatiques ou susceptibles d'échapper à
des examens médicaux de routine. Les cas ont alors d'avantage de chance d'être
diagnostiqués dans une population mieux suivie sur le plan médical que les témoins.
Les biais liés à la qualité des données disponibles :
Supposons que l'on souhaite déterminer s'il existe une association entre certaines
infections gynécologiques et certains dispositifs intra-utérins (DIU). On décide
d'étudier les données disponibles dans un service spécialisé de gynécologie,
concernant les femmes admises pour infection annexielle (cas). Les témoins sont
sélectionnés parmi les femmes admises dans un service de chirurgie plastique dont
on va également étudier les dossiers.
181
La fréquence et la qualité des informations disponibles quant à la présence d'un
DIU seront probablement plus grandes dans les dossiers du service de gynécologie
que dans ceux du service de chirurgie plastique.
Pour cette raison, le risque d'infection annexielle associé à la présence d'un DIU
sera vraisemblablement surestimé.
183
Figure 27 : 1 Le facteur de
confusion
EXPOSITION MALADIE
(Consommation de café (Cardiopathie)
FACTEUR DE CONFUSION
(Ex. Tabagisme)
Exemple : dans une étude cas-témoins portant sur l'association entre l'usage de
contraceptifs et l'apparition de l'infarctus du myocarde chez un groupe de
patientes montre que le calcul du risque relatif est de 1,7 alors qu'après avoir
éliminé le facteur âge dans la même enquête et pour les mêmes patientes, le risque
relatif est de 4.
Donc le fait que les utilisatrices de contraceptifs oraux soient plus jeunes que les
non-utilisatrices, entraîne un biais avec une sous-estimation importante du risque
relatif dans les conclusions de l'enquête.
Ainsi pour mieux déterminer la relation entre un facteur de risque et une maladie,
il est possible de neutraliser les principaux facteurs de confusion au moment de
l'élaboration de l'échantillon et aussi au niveau de l'analyse des résultats.
Sur le plan méthodologique, quelques procédés sont utilisés pour neutraliser les
facteurs de confusion.
Le tirage au sort :
Dans le cadre des essais thérapeutiques, la méthode utilisée pour contrôler les
facteurs de confusion est le tirage au sort (ou randomisation).
Dans les essais cliniques, les sujets sont repartis au hasard entre deux groupes
parfaitement comparables, dans le groupe des exposés et dans les non exposés.
La sélection de la population d'étude :
Dans ce cas, il s'agit de restreindre les groupes d'études à certaines catégories
particulières de la population, quand le sexe des personnes enquêtées est
susceptible d'être un facteur de confusion, on peut décider de mener l'enquête que
184
chez les hommes, ou chez les femmes séparément. Si l'âge est un facteur de
confusion, on peut se limiter à l'étude de tranche d'âge (par exemple de 40 à 50
ans).
L’appariement des données :
Cette méthode consiste à grouper les sujets par paire de telle façon que ceux d'un
même groupe possèdent les mêmes facteurs de confusion (âge, sexe). Il s'agit
d'équilibrer la distribution du facteur de confusion entre les groupes d'études
exposées et non exposés (cohorte) ou malade et non malade (cas-témoins).
La standardisation :
Cette technique utilisée pendant l'analyse des résultats permet de calculer un taux
de malades ajustés (standardisés), et de calculer un risque relatif ajusté.
185
LE RISQUE EN ÉPIDÉMIOLOGIE :
MESURES ET ASSOCIATIONS
186
survienne chez un individu qui ne fume pas. De même des fumeurs ne seront jamais
atteints.
Mesures d’association
L’étude des mesures d’association permet de répondre à deux questions :
- d’une part l’existence d’une liaison entre le facteur de risque (E) et la maladie
(M)
- d’autre part à la quantification de la force du lien entre (E) et (M).
Le risque relatif
C’est un rapport entre le risque de survenue de la maladie dans le groupe des non
exposés et dans le groupe des exposés. Le terme de risque relatif exprime la
comparaison entre taux de survenue d'un événement dans deux groupes qui ne
diffèrent que par l'exposition au facteur étudié. .
Le risque relatif est le rapport du risque observé chez les sujets exposés, au risque
chez les non exposés
Risque chez les exposés (P1)
Risque relatif (RR) = -----------------------
Risque chez les non exposés (P0)
Exemple
Si dans un groupe de mille personnes exposées à un facteur donné, on observe 130
cas de cancers en 1 an, soit 130 %o (ou 13 % ou 0,13) au lieu des 13 %o de la
187
population générale, on dira que le risque relatif dans ce groupe exposé est de :
0,13 / 0,013 = 10 (on ne trouve que rarement dans la réalité des RR aussi élevés).
Si le RR est égal à 1, cela signifie que l'exposition ne modifie pas le taux de
survenue de l'événement. Il y a deux explications possibles :
Si le RR est significativement plus petit que 1, cela signifie que l'exposition au
facteur réduit la probabilité de survenue de l'événement.
On parle de facteur protecteur.
L'odds ratio
Pour évaluer un RR on compare deux échantillons qui sont tous les deux
représentatifs d'une population (ici les fumeurs et les non-fumeurs). Des
échantillons correctement sélectionnés permettent d'étendre les résultats
obtenus à la population générale. Mais quand on compare un groupe de malades à un
groupe de sujets sains, on n'a pas le droit d'exprimer le RR de la même façon, car
on a choisi arbitrairement les sujets atteints et ceux qui ne l'étaient pas. Aucun
d'entre eux n'est représentatif de la population générale.
Sélectionnés parce qu'ils avaient, ou n'avaient pas la maladie étudiée, ils ne sont
représentatifs que d'eux-mêmes.
On ne peut calculer à partir de cette comparaison, qu'une valeur approchée du
risque relatif, appelée l'odds ratio (OR, assimilé à un risque relatif approché).
L’odds ratio est aussi le rapport des côtes d’exposition chez les malades et les non
malades, PE1 et PE0 pouvant être estimés dans une enquête cas-témoin (malades et
non malades de l’échantillon étant représentatifs des malades et non malades de la
population).
En choisissant l’expression convenable de l’OR, on voit que l’Ords ratio peut être
estimé dans tous les types d’enquêtes.
L’OR est beaucoup plus souvent étudié que le RR car il est beaucoup plus simple à
mesurer.
Le risque attribuable
Le risque relatif et l’odds ratio mesurent l’intensité du lien entre le facteur de
risque et la maladie au niveau individuel, mais n’indiquent pas l’importance du
188
facteur de risque au niveau de la population, c’est à dire le nombre de cas de
maladie dans la population qui peuvent être imputés au facteur de risque.
Ce rôle est rempli par le risque attribuable, qui vise à mesurer la proportion de
malades attribuable à l’exposition étudiée. Si PE représente fréquence de
l’exposition dans l’ensemble de la population :
PE (RR -1)
RA =
PE (RR -1) + 1
La fraction étiologique
La fraction étiologique du risque est la proportion de cas dus à l’exposition parmi
les sujets exposés. Pour son calcul on prend l’expression du risque attribuable
appliquée à une population où 100% des sujets sont exposés. (PE = 1).
RR - 1
FE = RR
Tableau 14 : Présentation des données pour le calcul du risque : Cas d’une enquête
de cohorte
non
malades total
malades
Exposés a b N1
non exposés c d N0
Total M1 M0 N
189
Risque relatif
C’est le rapport de l'incidence de la maladie chez les exposés sur l'incidence chez
les non-exposés : RR = R1 / R0 = (a / N1) / (c / N0). Si, par exemple, un RR est égal
à 3, cela signifie que les sujets exposés ont 3 fois plus de risque de développer la
maladie étudiée que les non-exposés.
Pour tester si l'association entre le facteur de risque et la maladie est
significative, un test statistique doit être réalisé : il s'agira le plus souvent du test
du Chi-2 de Mantel-Haenzel.
Si la valeur obtenue est supérieure à celle lue dans la table du Chi-2 (au risque
classiquement retenu de 5%, avec 1 degré de liberté (ddl), on peut en conclure que
l'association est significative (qu'elle n'est pas due au hasard), c'est-à-dire que le
RR est significativement différent de 1.
Enfin, il est préférable de calculer l'intervalle de confiance du RR (notamment en
raison du fait que le test ci-dessus ne donne aucune information sur la force de
l'association mise en évidence et sur le sens de cette association).
Différence de risque
C’est le risque en excès associé à l'exposition au facteur étudié :
DR = R1 - R0
190
LECTURE RECOMMANDÉE
192
Jenicek M., Méta-analyse en médecine : évaluation et synthèse de l’information
clinique et épidémiologique. Paris :Maloine, 1987 :152 p.
Landrivon G, Delahaye F. La recherche clinique. De l’idée à la publication. Paris :
Masson, 1995 :267
Langmuir, A. D., 1963: « The surveillance of communicable diseases of national
importance », New England Journal of Medicine, Vol. 268, p. 182-192.
Laplanche A. Com-Nougué C., Flamant R., Méthodes statistiques appliquées à la
recherche clinique, Médecine – Sciences – Flammarion. Paris 1993
Laporte RE., Tajima N., Akerbolm HR., et al. Geographical differences in the risk of
IDDM: the importance of registries. Diabètes Care 1985 ; 8 (Suppl. 1) : 101-7.
Lazar P., Élément de probabilité et statistique, Flammarion, 1994, Paris
Le Floch J.P., Perlemuter L., Essai thérapeutique et études cliniques, éd. MASSON.
Lecoutre J.P., Statistique : exercices corrigés avec rappels de cours, Masson, 1990,
Paris.
M. Jenicek. , R. Cléroux, Épidémiologie Clinique Clinimétrie, Edisem – 1983. Masson,
Paris 1998
Matillon Y., Durieux P., L’évaluation médicale – Du concept à la pratique.
Médecine-Sciences – Flammarion 1994
Oussoukine A. L’éthique biomédicale, Edition Dar El Gharb
Parkin DM. 1989) : Cancer occurrence in Developping Countries, CIRC, Publication
Scientifique N° 75. Centre International de Recherche sur le Cancer – Lyon.
Pignon J.P., Poynard T., La méta-analyse des essais thérapeutiques. Principes,
méthode et lecture critique. Rev Prat 1993 ; 43 :2383-6
Rewers M. : Les registres du diabète : méthodologie, p203-14, in Le Diabète en
Europe, Papoz L., Williams R., Fuller J. Éditions INSERM, 1994.
Rumeau-Rouquette C., Blondel B., Kaminski M., Bréart G., Épidémiologie – Méthodes
et pratique, Flammarion Médecine –Sciences Paris 1993
Sackett D.L., Haynes R.B., Guyatt G.H., Tugwell P... Clinical Epidemiology. A basic
science for clinical medicine, Second Edition – USA – 1996
Sacks, J. J., Stroup, D. F., Will, M. L., Harris, E. L., Israel, E., 1988 : « A nurse-
associated epidemics of cardiac arrests in an intensive care unit », Journal of
American Medical Association, Vol. 259, p. 689-695.
Schwartz D., Flammant R., Lellouch J., L’essai thérapeutique chez l’homme,
Collection statistique en biologie et en médecine, Flammarion Medecine Sciences
Schwartz D., Méthodes statistiques à l’usage des médecins et des biologistes,
Flammarion, 1995, Paris
193
Singly F., L’enquête et ses méthodes : le questionnaire, Paris Nathan Université
1992
Slutkin, G., Chin, J., Tarantola, D., Mann, J., 1988 : « Méthode de surveillance des
tendances de l’infection à VIH dans les groupes de population au moyen d’un réseau
sentinelle », WHO/GPA/DIR/88.8.
Tacker, S. B., 1992 : « Les principes et la pratique de la surveillance en santé
publique », Santé publique, Vol. 4, p. 43-49.
Valleron A.Jacques, Exercices programmés de statistiques à l’usage des médecins
et biologistes, Flammarion, 1995, Paris
WHO MONICA The princiapl investigator of the MONICA project. Project:
Geographic variation in mortality from cardiovascular diseases-baseline data on
selected population characteristics and cardio-vascular mortality. World Health
Statistics quarterly, 40(2) : 171-84, 1987.
WHO Organisation Mondiale de la Santé, Institut National de la Santé et de la
Recherche Médicale (1980). Classification Internationale des Maladies – Oncologie
(CIM-O)
WHO 3ème Séminaire-atelier de formation des formateurs en surveillance des
maladies transmissibles et préparation aux épidémies, RABAT, 7 au 17 mai 1997,
Document ronéoté.
WHO, Mise à jour, décembre 1987, Programme élargi de vaccination, « La
surveillance des maladies : des informations pour agir »
194