Académique Documents
Professionnel Documents
Culture Documents
Introduction :
• Santé publique
• Épidémiologie
L’épidémiologie est l’étude des états et des phénomènes (ou évènements) de santé au
niveau de la population définies par la distribution (quantification des choses) et des
déterminants (approche analytique). Application de cette étude au contrôle de problème de
santé (lien à l’action).
Au 19e siècle, tous ceux qui ne mourraient pas du choléra étaient considérés comme étant en
bonne santé. Aujourd’hui, tous ceux qui n’ont pas de maladies cardiovasculaires sont
considérés comme étant en bonne santé.
! Standardisation possible et nécessaire en cas de SCA (syndrome coronaire aigu) mais prise
en compte d’un double risque => hémorragie et ischémie (le muscle se nécrose).
1
• Ne pas souffrir
Un problème de santé est une souffrance actuelle ou potentielle (être malade sans le savoir
-> apparition d’aucuns symptômes ; mais à terme, il peut avoir des conséquences très
importantes) qui résulte d’un processus perturbant l’état de santé et provoquant un état de
mal-être individuel ou collectif.
- Morbidité réelle : la plus grande majorité des personnes étant vraiment malade sont
non couvert (pas accès aux soins de santé) et non ressentis (présence de la maladie
mais le malade n’est pas conscient de l’existence de cette dernière). Ces personnes ne
vont jamais chez le médecin. Il s’agit souvent des personnes les plus défavorisées.
- Morbidité ressentie : Ce sont des personnes qui sont couverts et ont ressenti la
maladie (présence des symptômes)
Une personne âgée est considérée comme étant en bonne santé si elle continue toujours à
être capable de continuer ses activités de la vie quotidienne, qu’elle est capable de bouger,
qu’elle a toujours ses fonctions mentales, qu’elle sait communiquer et qu’elle continue ses
activités instrumentales de la vie domestique. Si la personne âgée (PAgée) a une maladie
chronique, elle perdra son autonomie. Ce qui engendra la perte de certaines activités =>
malade.
2
Cependant, l’autonomie se rapporte à une liberté de choix. Même si la personne handicapée
nécessite l’aide d’un tiers, elle a toujours le choix de son mode de vie, son lieu de vie … Elle a
toujours une certaine autonomie.
L’activité de la PAgée est au centre de la santé, elle influence plusieurs points qui la rendront
comme étant malade. Lorsqu’elle ne sait plus faire ses activités, c’est qu’elle a des problèmes
de santé. Ces problèmes de santé vont émettre des modifications dans les fonctions
organiques et les structures anatomiques mais va aussi faire en sorte d’apporter l’incapacité
de la participation dans la société. Ce qui détermine sa santé est les facteurs
environnementaux et les facteurs personnels. Elle aura donc besoin de soins médicaux pour
guérir ses maladies, d’un appui aux auto-soins pour son autonomie et un appui à la vie
journalière pour son manque de capacités fonctionnelles. (modèle ICF)
La santé :
Dynamique d’évolution de la santé au niveau individuel :
L’histoire naturelle de la maladie commence par le fait que la personne a été en contact avec
un ou plusieurs facteurs de risque (initiation du processus étiologique) ; la phase d’induction
peut faire en sorte d’apporter la prévention primaire en mettant en place une série de
politique afin d’éviter d’être en contact avec d’autres facteurs de risque. Puis par un stade
pré-clinique (initiation du processus pathologique). La phase promotion apportera la
prévention secondaire qui est le dépistage. Ensuite, il y a le stade clinique précoce
(manifestation clinique de la maladie). La phase d’expression de la maladie mettra en place la
prévention tertiaire qui fera en sorte d’éviter les séquelles de la maladie. L’issue finale de la
maladie, qui est le stade clinique tardif, amènera à une déficience, une incapacité, un
handicap, la guérison ou la mort.
La santé se développe tout au court de la vie. La manière dont la santé se développe peut
être représenté par des trajectoires de vie. Au fur et à mesure qu’une personne grandit, elle
arrive à un moment donné au top de ses capacités fonctionnelles, puis ses capacités se
mettent à diminuer, ce qu’on appelle la période sensible-critique. Les médecins font en
sortes que les facteurs de risque et de protection diminuent le moins vite possible grâce au
bagage génétique, car ce qui se passe de génération en génération influence la personne
(question sociale). Mais aussi grâce au contexte et aux interactions avec d’autres personnes
qui ont une importance variable en fonction de la période de vie.
Dépistage :
Tout d’abord, il faut savoir que l’efficacité (capacité à atteindre un objectif) est différente de
l’efficience (efficacité au moindre coût). Une personne qui a un mal de tête à cause d’un
rhume peut dépenser des centaines d’euro pour obtenir le meilleur neurologue du pays ;
mais il lui aurait été plus favorable d’aller chez un généraliste qui aurait été moins cher et qui
aurait guéri son rhume et son mal de tête. De plus, la maladie n’est qu’une partie d’un
3
processus. Il faut savoir que la procédure de diagnostic parfait n’existe pas et que l’efficacité
d’une stratégie est toujours relative. Le dépistage d’une maladie doit se concevoir dans une
logique de santé publique.
Pour certaines maladies, le point critique se trouve entre le début du processus pathologique
et le premier test de dépistage possible. Pour les personnes atteintes de ces maladies, le
dépistage ne sert pas à grand-chose parce qu’il s’agit d’une maladie incurable, sauf pour
éviter les contaminations ou pour prévenir de la mort du patient. Pour d’autres maladies, le
point critique se trouve entre le moment habituel du diagnostic et l’issue finale. Les malades
gaspilleront beaucoup d’argent pour un résultat qui est le même qui s’ils n’avaient fait aucun
dépistage.
L’approche dans l’offre de soins de santé fait un lien avec les soins de santé, le bien être de la
personne, la maladie, l’environnement, la prospérité et la réponse comportementale et
biologique du patient. Les soins de santé ne servent pas uniquement à traiter la maladie mais
doivent aussi aider à renforcer la capacité des personnes à se prendre elles-mêmes en charge
et à faire face à toute une série de générant du contexte, environnement social,
4
environnement physique, capital génétique, qui vont influencer leur santé. La santé a un
aspect de prospérité qui peut apporter un bien-être ; la santé coûte de l’argent, de l’argent
qui ne peut plus être investi à d’autres choses qui pourraient améliorer de manière plus
durable et plus efficace la santé (ex : construction d’écoles, d’égouts).
Si on veut seulement traiter la maladie qu’on a détectée chez les gens, si on ne considère pas
les personnes comme des êtres humains mais comme une machine, on offre des soins de
santé en fonction des besoins de la personne. Les besoins sont tout ce qu’on peut de
manière objectif identifier comme étant des problèmes de santé dans la population. On
organise donc l’offre en fonction des besoins, en fonction de ce que les gens demandent. La
demande est ce que les gens expriment. Il faut qu’on s’intéresse en même temps au besoin
et à la demande. La santé est beaucoup plus globale que d’être malade ou pas malade, que
d’être décédé ou vivant. On doit donc s’intéresser à la maladie, aux besoins des gens et sur
ce que les gens font. Le meilleur est que l’offre répond au besoin et à la demande. Le pire est
quand l’offre ne répond ni au besoin ni à la demande ; il est possible qu’on induit la demande
lorsque les gens ne demande rien (ex : médecins qui opèrent tout le monde pour gagner plus
d’argent). On peut aussi être confronté à des médecins qui imposent aux gens une offre qui
correspond à un besoin alors que ces personnes n’ont rien demandées. Par exemple, tous les
enfants sont obligés d’être vaccinés contre la poliomyélite. Il y a aussi le fait que le besoin
n’est pas ressenti ce qui apporte une offre non assurée ou que la demande ne soit pas
satisfaite, car elle ne correspond pas au besoin. On peut avoir des besoins ressentis qui ne
seront pas satisfaits et une demande qui est satisfaite mais qui ne correspond pas au besoin.
L’équipe de soins primaire, centré sur les personnes en contact direct avec les patients, au
centre d’un réseau (OMS 2008). Au centre de tout, il y a l’équipe de soins primaires qui sont
des soins continus, complets, centrés sur la personne. Là, on a les infirmiers, les généralistes.
Tous les autres soins de santé fonctionnent en appuis de l’équipe centrale, comme les
services d’urgence, la chirurgie, la clinique du traitement du diabète, etc.
Le système de santé (OMS) inclus des personnes et toutes les activités et interventions dont
le but essentiel est de promouvoir, restaurer ou entretenir la santé. Le système de soins de
santé contient des structures de santé de premier échelon, des soins ambulatoires, des
5
programmes de santé pour des groupes de personnes comme l’ONE, des hôpitaux et des
soins institutionnalisés.
Ils existent des critères des activités au sein d’un système de soins de santé. Il faut se
demander si les activités sont-elles efficaces et efficientes. Si oui, à quel prix ? On doit
pouvoir faire une différence entre optimisation et maximisation dans une intervention de la
santé. Une optimisation est faite par une personne qui a une vision beaucoup plus globale,
qui réparti les ressource entre différents objectifs. Une maximisation est la focalisation sur un
seul objectif bien précis qui se concentre sur un seul groupe de personne.
Il existe deux types de relation entre les coûts et les bénéfices qui sont très importants à
comprendre pour les personnes qui travaillent dans le domaine de la santé. Le premier type
est le coût d’opportunité ; utiliser l’argent pour la meilleure opportunité, car ce qu’on investit
dans une chose ne pourra plus être investie dans une autre chose. Quelqu’un qui a une vue
d’optimisation fera toujours attention à ce coût d’opportunité. Le second type est le
rendement marginal décroissant ; si on est à un niveau où rien ne va et qu’on veut améliorer
les choses, l’amélioration ne coutera pas très cher. Par contre, si on est proche du parfait et
qu’on veut améliorer les choses, ça nous coutera beaucoup plus cher. Au plus on se
rapproche de la perfection, au plus le coût est énorme.
On a des prestataires de soins qui offrent des soins de santé. Ce qui est important en
Belgique est que le premier niveau de soins et hôpitaux est quasi exclusivement privés, ils
sont payés indirectement. On a des mutuelles prestataires qui sont aussi propriétaires des
soins de santé au travers des hôpitaux et de coordination de soins à domicile (CCSSD). Les
structures de soins de longue durée (dont le MRS). On doit respecter la liberté
professionnelle et du patient qui est une valeur essentielle du système, le patient est libre de
voir qui il veut, allez où il le veut. Le patient a le droit de voir un neurologue, un ORL ou autre
à la place d’un généraliste. Les communes organisent quelques (mais pas tous) services
d’appui au maintien à domicile (CPAS). Malgré que le patient et le médecin veuillent être
libres, il faut quand même qu’il y a des personnes qui imposent certaines limites. La
régulation est faite par le SPF (ministères et fédéraux) de la santé et sécurité, les régions
(coordination des soins et construction des hôpitaux) et les communautés (prévention et
promotion de la santé).
Il y a différentes manières de financer les prestataires de soins. Soit l’INAMI, qui reçoit de
l’argent des impôts et des contributions de l’employeur, transfert l’argent aux mutuelles. Le
patient paie aussi la mutuelle. Ces mutuelles financent les prestataires de soins en fonction
de l’acte qui est fait, des types de maladies ou par le nombre de personnes inscrites dans les
6
maisons médicales. Il y a d’autres sources de financement des prestataires de soin qui
viennent parfois des SPF mais aussi des régions. Il n’y a pas de décisions dictatoriales au
niveau de la santé, toute décision est négociable. Il y a une concertation entre les différents
niveaux de décision et les différents acteurs de la société. Il y a un juste équilibre entre la
liberté professionnelle et la régulation de l’état. L’avantage en Belgique est que tout le
monde à accès aux soins de santé. Même si ça commence à devenir de plus en plus difficile
pour certains d’en avoir accès sans problèmes (ex : dentisterie).
Il y a huit enjeux dans le système Belge. Le premier est que les personnes âgées ont plus
besoin des soins de santé que les autres. Ensuite, il y a une augmentation de pathologies
chroniques qui devient de plus en plus fréquentes comme le diabète, l’hypertension. Puis, il y
a une désinstitutionalisation de la santé mentale, on se met à garder les malades mentaux
chez soi. Ces trois cas apportent le virage ambulatoire pour les cas « complexes », comme il y
a moins de places dans les hôpitaux, on se met à s’occuper des patients à domicile. Il y a des
inégalités sociales en santé, tout le monde n’a pas le même accès aux soins de santé, plus on
est pauvre, plus on est en mauvaise santé. Le médecin ne doit pas s’intéresser uniquement
sur la maladie mais aussi sur ce qui a un effet sur la santé des gens, il faut qu’il y ait une
articulation entre la biomédecine et la promotion de la santé. On se met à ressentir la
pénurie des médecins généralistes et des infirmières, ce qui apporte de nouvelles fonctions,
de nouvelles professions en appui.
Les grandes questions et les débats actuels se portent sur « comment assurer la coordination
des soins ? », « quel futur pour la médecine générale de demain ? » est ce qu’il faut créer des
médecins en solo, une équipe pluridisciplinaire de soins, des réseaux de soins. Et on se pose
des questions au niveau du virage ambulatoire. Comment transférer des soins de l’hôpital
vers le domicile et comment organiser les choses à domicile. On se pose des questions sur le
partage de l’information clinique entre les prestataires de soins et l’informatisation des
informations du patient. On a plusieurs types de dossier, on a le dossier médical global
(DMG) qui est rédigé par le généraliste. On a le résumé clinique électronique (Sumehr) qui
est rédigé par l’hôpital qui renvoi l’information au généraliste. Et on a le dossier multi-
disciplinaire (Le RAI) qui est fait par plusieurs médecins. On transfert l’information entre
prestataires via le réseau santé Wallon et le E-health (réseau fédaral).
7
en charge, d’éducateurs et d’infirmiers spécialisés en gériatrie. Dans cette logique, être en
bonne santé signifie ne pas être malade.
L’autre logique est d’avoir beaucoup plus d’équipe pluridisciplinaire qui a une responsabilité
générale pour un groupe de personne, au niveau duquel on a des pharmaciens, des
infirmiers, des médecins généraliste qui ont une responsabilité pour la prise en charge
général de la population pour la coordination de soins à domicile. Ici, les trajets de soins et
réseaux centrés sur des maladies avec l’équipe de soins institutionnels ont un transfert
momentané de responsabilités de cas complexes.
8
Épidémiologie introduction :
Qu’est-ce que l’épidémiologie ?
L’épidémiologie est l’étude des états et de phénomènes de santé au niveau de population
définies, de la distribution et des déterminants.
Test diagnostique :
Un médecin ne sait pas. Pour diminuer l’incertitude, on met en place des tests diagnostiques
afin de savoir si la maladie est présente ou pas. Ces tests diagnostiques ont des techniques
qui vise à utiliser des observations d’un signe clinique (IPPA : Inspection Palpation Percussion
Auscultation) et des mesures para-clinique. Le résultat du test est soit une variable
qualitative binaire (positif => présent, anormal /négatif => absent, normal) soit une valeur
numérique si c’est une variable quantitative. Le résultat d’un test diagnostique n’est utile que
lorsqu’il diminue le niveau d’incertitude du clinicien.
! Avec ce test, on peut être face à 2 types d’erreurs : l’erreur par excès, on envoie en salle
d’opération la personne malade mais elle n’a rien de grave. Et l’erreur par défaut, on pense
qu’il n’y a rien de grave et on renvoie la personne malade chez elle. Cependant, 2 jours plus
tard, l’appendice explose et crée plusieurs problèmes dans le corps de la personne.
9
Maladie
A = VP B = FP
C = FN D = VN
Test
rien.
Un test diagnostique est toujours comparé à une méthode de référence (= gold standard :
personnes d’accord afin de passer de lourds tests). La validité intrinsèque du test dépend de
sa capacité à fournir de vraies réponses cliniques : un résultat positif pour les malades et un
résultat négatif pour les non-malades. Elle est estimée par 2 paramètres : sensibilité et
spécificité.
Sensibilité (Sn) :
La sensibilité est la caractéristique du test chez les malades (M+). La sensibilité d’un test est
la capacité de donner un résultat + chez M+. Sa valeur est comprise entre 0 et 1 et est
exprimée en %. Sn-OUT est un test très sensible dont le résultat revient négatif et permet
d’exclure le diagnostic. Sn est une erreur par défaut.
Sensibilité : A
A+C
Spécificité (Sp) :
Caractéristique d’un test chez les non-malades (M-). La spécificité d’un test est la capacité à
donner un résultat – chez M-. Sa valeur est comprise entre 0 et 1 et est exprimée en %. Sp+IN
10
est un test très spécifique dont le résultat est + et permet de retenir le diagnostic. Sp est une
erreur par excès.
Spécificité : D
D+B
Lorsque les erreurs par excès (FP) sont jugées plus graves que celles par défaut (FN), on
cherche à minimiser le nombre de FP, donc à privilégier la Sp. On augmente le seuil de
positivité du test en augmentant l’amplitude de l’anomalie ; il y aura donc moins d’erreur. A
l’inverse, lorsque les erreurs par défaut (FN) sont jugées plus graves que celles par excès (FP),
on veut minimiser le nombre de FP, donc à privilégier la Sn. On diminue le seuil de positivité
du test en diminuant l’amplitude de l’anomalie.
Sn et Sp :
• Compromis
Les tests diagnostiques (sauf exception) ne sont pas à la fois très Sn et très Sp. Le test prend
en compte soit une petite anomalie (Sn) soit une grande anomalie (Sp). Lorsque la variable
est quantitative, la définition du seuil (cut-off) de positivité du test est arbitraire.
Conséquences, plus le seuil est une anomalie modérée, plus Sn est grand et Sp est petit ; plus
le seuil est une anomalie franche, plus Sn est petit et Sp est grand.
• Courbe de ROC
La courbe ROC est une expression de la relation entre Sn et Sp d’un test diagnostique. Pour
dessiner cette courbe, on doit utiliser un graphe comprenant en ordonnée les proportions de
VP (Sn) et en abscisse les proportions de FP (1 - Sp). Ces 2 axes vont de 0% à 100%.
L’exactitude du test est mesurée par l’AUC qui est l’aire sous la courbe et la diagonale
(représente l’effet du hasard). Plus l’aire est grande, plus l’exactitude est grande. Si l’AUC vaut
50%, le test est inutile car tout se base sur le hasard. Par contre, si l’AUC vaut 100%, le test
est parfait car il est très Sn et très Sp.
11
La valeur prédictive positive d’un résultat + (VPP+) mesure la probabilité que la maladie est
présente lorsque le résultat du test est +.
VPP+ = A
A+B
La valeur prédictive négative d’un test – (VPP-) mesure la probabilité que la maladie est
absente lorsque le résultat du test est -.
VPN- = D
C+D
Prévalence = A + C
Total
Les rapports de vraisemblance RV+ et RV- sont très utiles en médecine, car ils intègrent les
rapports entre Sn et Sp. Ces 2 caractéristiques sont indépendantes de la prévalence. Les RV
renseignent sur la modification de probabilité que la maladie est présente.
En cas de résultat positif du test diagnostique, on peut calculer RV + qui est le rapport de
vraisemblance que les personnes malades ont un rapport + chez les non malades. On le
considère comme étant le facteur multiplicateur de la probabilité. Quand le résultat est +, la
probabilité que M est présente est accrue dans une amplitude qui dépend de la valeur RV+.
On parle de force probante du test qui est considérée comme étant grande ou très grande si
RV+ > 0.5
RV+ = Sn = A . B+D
1 – Sp A+C B
En cas de résultat négatif, on peut calculer RV – qui est le rapport de vraisemblance que le
test soit négatif si les personnes sont malades divisée par le résultat négatif des personnes
non malades. On le considère comme étant la force excluante du test. Quand le résultat du
test est négatif, la probabilité que M est présente est diminuée dans une proportion qui
12
dépend de RV-. C’est donc la force excluante du test qui est considérée grande ou très
grande si RV- <0.2
RV- = 1 – Sn = C . B+D
Sp A+C D
Odds :
O= P
1–P
P= O
1+O
O pré-test x RV (+ ou -) = O post-test
Le nomogramme de Fagan est utilisé pour calculer la proba post-test. Cependant, ce graphe
n’est pas très précis.
Il existe plusieurs tests diagnostiques pour la plupart des maladies, mais le choix d’un test
dépend de la maladie et du test en lui-même. Tout d’abord, on fait un dépistage que si la
personne est malade, que cette maladie est grave et qu’il y ait un traitement pour en guérir.
Le test, lui, doit avoir un but, soit il dépiste (exclure = rule-out) soit il confirme (inclure = rule-
in) la présence de la maladie. Il doit être de qualité (Sn, Sp, RV+ et RV-). Le médecin doit
prendre en compte le coût au niveau financier et psychologique, car le patient peut ressentir
de la peur, du stress de découvrir qu’il est atteint d’un cancer ou autre. Il doit aussi faire
attention aux erreurs. Enfin, le test doit être acceptable sur le plan médical et économique.
Une question revient souvent chez les médecins : est-ce qu’il faut privilégier la sensibilité ou
la spécificité ? Ce choix dépend du jugement clinique. Pour le dépistage du Virus HIV et les
banques de sang, un FN est plus grave qu’un FP, car jeter une poche saine est moins grave
que d’envoyer un malade contaminer d’autres personnes. Il faut que le praticien soit presque
sûr que quand le test est –, il n’y a aucune présence de M. Cependant, dans une maladie
sans traitement et incurable comme la sclérose en plaque, il est préférable à faux de ne rien
dire au patient afin qu’il ne se prépare pas à refaire toute sa vie, qui le chamboulera
13
psychiquement, alors qu’au final, il est sain. Dans ce genre de situation, il faut que le
praticien soit presque sûr que quand le test dit +, le patient est bien M+.
On soumet des personnes à des tests en parallèle (le sujet est soumis à plusieurs tests en
même temps) afin d’être sûr que la personne, si elle est vraiment malade, ne contaminera
pas d’autres personnes. Il suffit que l’un des tests en parallèle soit + pour que la personne
soit considérée comme étant malade. Il faut que la Sn augmente et que la Sp diminue.
Dans le cas contraire, on soumet un patient à des tests en série afin d’être sûr que la patient
est bel bien malade. Lorsque le sujet est + un l’un des tests, on le soumet à un autre test. Le
patient est considéré comme étant malade s’il est + aux 2 tests. Il faut que la Sp augmente et
que la Sn diminue.
Pour faire un dépistage, il faut qu’on ait tous ces critères. Tout d’abord, il faut que la maladie
ne soit pas rare et qu’elle est une latence, ce qui signifie qu’on soit en possession de
beaucoup de temps avant que la maladie ne devienne grave. Il faut que le test soit efficace
pour un dépistage à un stade précoce. Mais aussi que le traitement soit efficace et
acceptable pour soigner la maladie détectée à ce stade précoce. Il faut aussi placer la priorité
en termes de coût-efficacité par rapport à d’autres interventions de santé en termes de
conditions favorable sur le plan politique et logistique pour réaliser les mesures de dépistage
de traitement de cette maladie à large échelle.
Une fréquence absolue est un dénombrement de cas. Son utilité est très limitée. Les
fréquences relatives dépendent d’un numérateur (le cas) et d’un dénominateur (population à
risque). Un cas est défini et dépend du test diagnostique. Un cas inclus 3 types de variables :
le temps, le lieu et la personne.
Il y a 4 types de rapports :
a+b
14
o Le ratio varie entre 0 et ∞. C’est un rapport entre 2 classes d’une même variable.
o L’indice ; a n’est pas inclus dans b (ils n’ont aucun lien ensemble) et a et b sont 2
entités distinctes. ! Le vrai dénominateur est inconnu mais b s’en rapproche.
15
Les mesures de morbidité
La prévalence instantanée :
Cas prévalents
Population « à risque »
L’incidence :
Le taux d’incidence parle du taux d’individus développant l’évènement de santé dans une
population. Son numérateur et son dénominateur comprennent uniquement des personnes
non affectées de l’état de santé étudié au début de la période suivi. Il prend en compte le
premier ou tous les évènements observés entre t0 et t1. ! Le taux d’incidence n’est pas une
proportion.
16
Population « à risque » au t0
Au niveau épidémiologique, c’est une mesure directe du risque individuel au cours d’une
période connue. Au niveau opérationnel, elle compare l’efficacité de procédures de contrôle
de l’évènement étudié.
Deux choses peuvent poser problèmes dans le résultat de l’incidence cumulée : les perdus de
vue et les décès. De plus, on a une idée « à risque » au début et à la fin du suivi, car on ne
peut pas connaitre pour chaque personne leur année à risque. Lorsqu’on a trop de perdu de
vue et de décès, on doit faire une mesure adapté d’incidence cumulée.
Probabilité de l’incidence
L’épidémie compte un nombre de cas qui augmente très fort à un moment donné et limité
dans le temps. ! Elle n’est pas toujours due à une maladie infectieuse. Pour identifier une
épidémie, il faut remonter dans le temps pour pouvoir arriver à trouver l’origine. Il y a 3
types d’épidémie ; celle qui se transmette par interhumaine (grippe), celle où il faut être
exposé à de la nourriture ou à un environnement (nourriture avariée dans un resto) et celle
qui a besoin d’une exposition environnemental puis se transmet par interhumaine. Pour
contrôler une épidémie, il faut d’abord détecter et confirmer l’épidémie, car il faut avoir la
certitude avant de prendre de lourds choix et d’être confronter à de lourdes conséquences.
Puis, il faut prendre en charge les malades afin de réduire la létalité (ce qui provoque la mort)
mais aussi pour briser la dynamique de la transmission. Il faut ensuite évaluer l’évolution de
l’épidémie afin de confirmer son efficacité. Enfin, on déclare l’épidémie avec un système de
surveillance qui a besoin d’un seuil épidémique (taux d’incidence + 2 écarts types) ou sans
système de surveillance du à un nombre de cas très élevé, parce que c’est un devoir de
solidarité et c’est le règlement. On décrit une épidémie en utilisant une mesure de
fréquence ; il y a le taux d’attaque, la létalité et la distribution en termes de temps, de lieux
17
et de personnes. Le « taux » d’attaque (une attaque n’est pas un taux mais une incidence),
qui est une mesure relative, est la proportion de personnes exposées à un risque infectieux
qui développent le syndrome infectieux étudié, parmi les personnes à risque, pendant une
période donnée. C’est la mesure de probabilité conditionnelle de contracter la maladie parmi
les sujets exposés aux risques infectieux. Une épidémie plus étalée est plus acceptable, car
en court d’intervention, on espère avoir assez de temps afin d’injecter des vaccins à la
population.
La pandémie est un phénomène de masse limité dans le temps mais pas dans l’espace.
Koch émet 3 conditions nécessaires pour qu’un agent infectieux (X) soit considéré comme la
cause d’une maladie (postulats de Koch 1882) :
- L’agent peut être isolé en culture à partir d’un cas de la maladie et provoque cette
maladie chez l’animal de laboratoire
Cependant, ces postulats ont des limites. Ils ne sont pas applicables à toutes les bactéries
pathogènes, aux virus, champignons et parasites. Ils ne couvrent pas les notions de porteur
asymptomatique, car certaines personnes peuvent être porteur d’un virus quelconque sans
jamais faire la maladie (ex : zona). Enfin ces postulats sont inutilisables en dehors des
maladies infectieuses. L’approche déterministe ne fonctionne pas pour toutes les maladies, il
faut donc chercher d’autres règles en vue d’établir une présomption de causalité.
Quelquefois on risque d’être exposé à des raisonnements fallacieux. Peut-être que le test
diagnostique a mal été fait, ce qui apporte un biais (déformation) d’information du à des
erreurs de mesures. On peut aussi être confronté à un facteur de confusion, un facteur
confondant qui donne une fausse impression et dissimule le vrai facteur. Le fait que le risque
de trisomie 21 augmente avec le rang de l’enfant dans la fratrie cache une variable
confondante qui est l’âge de la mère. Plus elle est âgée, plus le risque d’obtenir un enfant
malade de la trisomie 21 est grand. On peut aussi avoir des erreurs dû au manque de
précision, dû au hasard, car si la taille de l’échantillon est trop petite, on risque d’obtenir une
IC (intervalle de confiance) trop large qui nous apportera un manque de précisions dans nos
données. Au plus la taille de l’échantillon est élevée, au plus l’IC sera étroit, au plus on sera
précis.
L’approche probabiliste met en avant l’effet qui est un événement dont la survenue est plus
ou moins probable en présence d’un facteur causal hypothétique. On n’est donc jamais sûr
de ce qu’on dit, parce que la certitude s’efface au profit de la probabilité. Dans cette
approche X est la cause suffisante de Y, ce qui signifie que parce qu’une personne est exposé
au facteur X elle pourrait tomber malade. Il suffit d’être exposé à X pour attraper Y. La notion
19
de cause unique est remplacée par celle de réseau de cause, car il y a un ensemble de causes
qui se mélangent les unes aux autres.
Il existe quelques critères de présomption causale basés sur la relation temporelle, la force
de l’association, la spécificité de l’association, la relation dose-réponse, la réversibilité de
l’association, la plausibilité biologique et la cohérence des résultats. La relation temporelle
utilisera des études prospective, longitudinale, cohorte : est-ce que l’exposition précède la
maladie ? La force de l’association met un lien entre l’exposition et la maladie. La spécificité
de l’association met en avant le fait que la cause ne peut pas toujours apporté l’effet observé.
La relation dose-réponse se demande si l’intensification de l’exposition à la cause se traduit-
elle par une aggravation de l’effet ; au + il y a de personnes exposées, au + il y aura de
malade. La réversibilité de l’association est de voir si l’élimination de la cause entraine la
réduction du risque de maladie. La plausibilité biologique fait un lien entre l’observation et ce
qu’on sait. La cohérence des résultats met en lien les résultats obtenus de l’étude par
d’autres études afin d’examiner la similitude.
Il existe aussi différents types de relations causales (Schwartz). Pour certaines maladies, X est
nécessaire et suffisant pour développer la maladie. C’est le cas de la trisomie 21 où l’enfant
n’expose pas les symptômes du mongolisme s’il n’est pas atteint de la trisomie 21. Mais
toute personne souffrant de la trisomie 21 aura tous les signes et symptômes du
mongolisme. Pour d’autres maladies, X n’est pas nécessaire mais il est suffisant comme pour
la transmission du VIH via du sang contaminé. Une personne ne devient pas séropositive
qu’en se transfusant du sang contaminé mais aussi via d’autre voies de contaminations.
Cependant il faut être en contact du virus VIH pour devenir séropositif. Il y a aussi celles où X
est nécessaire mais n’est pas suffisant pour avoir la maladie. Il faut être infecté par le virus BK
pour avoir la tuberculose, mais tous ceux qui sont contaminés par le virus non pas forcement
développé la tuberculose. Enfin, il y a les maladies où X n’est pas nécessaire et n’es pas
suffisant, ce qui est le cas pour le cancer des poumons. Ce n’est pas parce qu’une personne
ne fume pas qu’elle ne développera pas de cancer de poumons. De plus, une personne peut
très bien fumer et ne jamais développer de cancer de poumons.
20
avec laquelle la maladie rentre dans la population. On le calcule en utilisant les
personnes.temps, c’est-à-dire qu’on utilise une étude cohorte, longitudinale, prospective. On
peut aussi calculer le rapport de risques (= risque relatif, RR) qui fait appelle à une incidence
cumulée. L’incidence cumulée est une proportion, une probabilité de risque. Quand RR > 1
les exposés sont plus à risque de développer la maladie. Quand RR < 1 les exposés sont
moins à risque de développer la maladie.
L’odds ration est une mesure qualitative même s’il est chiffré. On peut le calculer quelque
soit le type d’étude mais il est surtout utilisé en étude cas-témoin. Une étude cas-témoin
prend en compte 2 échantillons : les cas qui sont les personnes ayant la maladie étudiée et
les témoins qui peuvent très bien être des personnes malades mais souffrant d’une autre
maladie que celle qu’on étudie. On peut donc mettre dans les témoins toutes les personnes
avec n’importe quelle maladie. Ce qui est important en épidémiologie, est de faire un groupe
de comparaison. On a toujours des exposés et des non exposés. L’odds est utilisé quand il est
impossible de disposer de mesures d’incidences (IC ou TI). C’est une application générale. La
cote d’un évènement est le rapport entre la probabilité de survenue d’un évènement et
l’évènement complémentaire ; c’est le produit croisé. L’odds ratio donne une relation
relativement bonne sur le RR, TIR (taux d’incidence relatif) pour autant que la prévalence et
donc le taux d’incidence ou IC soit ≤ 10%. ! L’odds nous donne une information moins fine
qu’un RR, de plus le RR est un indicateur quantitatif.
CB
Les mesures de fréquences sont dites comme étant des valeurs relatives valables si et
seulement si les mesures sont exprimées dans la même unité et que les groupes à comparer
sont similaires pour les variables associées à l’exposition ou à la maladie (âge, genre,…).
21
L’intérêt clinique dépend des valeurs absolues des fréquences à comparer. Il existe une
association uniquement si le RR > ou < que 1. On parle d’association positive si RR > 1 et
d’une association négative si RR < 1 ( ! RR n’a pas d’unité). Si le RR ≥ 2, alors on a un autre
critère de causalité qui est rempli. On parle d’une association forte. L’association est
considérée comme étant forte RR ≤ 0.5 ou si RR ≥ 2. Ce n’est pas parce que j’ai un RR > 1 que
j’ai une relation causale ( ! QCM). Pour qu’on parle de relation causale il faut prendre en
considération toutes les critères de présomptions causales et pas seulement la force
d’association qui illustre l’association statistique qui existe entre la variable d’exposition et la
variable maladie. On choisie un résultat en fonction d’une série d’autres variables qui
caractérisent une personne, une intervention que je vais mettre en place. La variable résultat
est dépendante des caractéristiques d’une personne, d’une intervention. La variable qui
caractérise la personne dans mon étude est considérée comme une variable indépendante.
Le facteur d’exposition est donc une variable indépendante et la variable de la maladie est
une variable dépendante.
La différence de risque (DR) est l’incidence cumulée chez les exposés moins l’incidence
cumulé chez les non exposés si le RR > 1. On veut toujours avoir un RR positif ! On peut donc
inverser les 2 incidences cumulées pour avoir un RR positif. Elle est aussi calculée avec des
taux d’incidences. Elle s’exprime dans la même unité que les mesures de fréquences
comparées. Elle donne une estimation du bénéfice ou de la perte de santé si les E+ n’était
plus exposé au facteur de risque.
La fraction étiologique du risque (FER) est dans le sens de ce qui provoque la maladie. C’est
la mesure de la proportion sur la fraction du risque qui est attribuable à un facteur
d’exposition dans le groupe des E+.
IE+ RR
La fraction prévenue du risque (FPR) pour les exposés est la mesure de la proportion sur la
fraction du risque qui est prévenue ou évitée grâce à un facteur d’exposition dans le groupe
des exposés.
IE-
22
L’information en épidémiologie
Quand on développe des études en épidémiologie, on part de questions. Le 1 er type de
question est Y. Y quand ? Quoi ? Qui ? Où ? Y est la maladie. On se demande donc « quel est
l’état de santé d’une population ? » Quand on parle d’état de santé d’une population, on
parle de mesures de fréquences. Ces mesures de fréquences sont la prévalence (on prend
une photographie et on mesure la proportion de personnes malades dans une population à
un moment donné), le taux d’incidence (je regarde la vitesse, le flux avec lequel une maladie
entre dans une population), l’incidence cumulée (une proportion, une probabilité, ça mesure
un risque) et le taux d’attaque (c’est un faux taux, c’est la même chose qu’une incidence
cumulée mais sur une période très courte). Quels sont les types de mesures de fréquence
que l’on peut mesurer avec ce type d’étude ? ( ! QCM). Pour décrire le Y, on peut s’intéressé
aux décédés. Pour les décédés, on se rapporte au taux de mortalité, qui est la même chose
que le taux d’incidence. On a des taux de mortalité brut et des taux de mortalité spécifique.
Spécifique, car on s’intéresse à un groupe particulier de la population (ex : taux de mortalité
chez les femmes enceinte). Mais il y a aussi la létalité qui est assez similaire à l’incidence
cumulée.
Le 2e type de question qu’on se pose est « X entraine-t-il Y ? » Est-ce que le fait d’être exposé
à quelque chose entraine-t-il une maladie ? Dans le domaine de la santé, on ne peut pas
avoir une approche déterministe, car on sera dans une logique où dès qu’on est exposé à
quelque chose, on développe directement la maladie. De plus, la question de causalité est
assez évidente alors que dans la réalité, c’est bien plus complexe. On fait alors une approche
probabiliste. Dans ce cas-là, la mesure statistique n’est plus suffisante pour établir un lien de
relation de cause à effet. On a donc besoin d’une série de critères de présomption causale.
Au plus j’ai des critères de causalité qui sont remplis, au plus je suis certain qu’il y ait un lien
de cause à effet. Pour établir le lien entre « je suis exposé et je deviens malade », on utilise
les mesures d’associations et les mesures d’impact.
Dans les mesures d’association, il y a le risque relatif (RR) et le taux d’incidence relatif (TIR).
On utilise surtout des RR (!QCM). On peut calculer les RR et les TIR qu’avec des études
longitudinales. Quand on ne peut pas mesure un RR ou un TIR, on n’a pas d’autre choix que
de mesurer un odds ratio (OR). L’OR est surtout calculer dans les études cas-témoins et les
études transversales. RR, TIR et OR sont des mesures statistiques qui ne sont pas suffisantes
23
pour établir un lien de causes à effet. Il faut donc rajouter des critères de présomption
causale.
Une fois les questions posées, et comme on sait qu’on ne peut pas utiliser toute la
population pour l’étude, on faire une procédure d’échantillonnage. Ce qui signifie qu’on
prend un plus petit groupe de la population mais qui doit être le plus représentatif possible. !
La taille de l’échantillon va influencer la précision de la mesure. On fait ensuite la collecte de
donnée dans l’échantillon qu’on a choisi puis on analyse les données. Enfin, on vérifie si nos
hypothèses étaient vraies ou fausses et on essaie de répondre à nos questions.
! Aux différentes étapes de l’étude d’épidémiologie, je peux être confronté à différents types
d’erreurs (erreurs de précisions, erreurs de validité, erreurs de biais).
Mesures de fréquence
Les mesures de fréquence me permettent de décrire une maladie en se posant les questions
suivantes : Quoi ? Qui ? Quand ? Où ? L’objectif est d’étudier la fréquence et la répartition
des problèmes de santé dans une population.
La prévalence mesure la fréquence d’un état déterminé à un moment donné. Elle mesure
aussi la présence de la maladie dans une population. C’est une mesure transversale ; elle
fournit l’information sur la situation au moment de la mesure.
L’incidence (TI ou IC) mesure la fréquence du changement d’état au cours d’une période de
temps déterminée. Elle mesure aussi l’apparition de la maladie dans une population. C’est
une mesure longitudinale ; elle prend en compte la dimension temporelle.
On illustre une validité par Sn et Sp. Un évènement est basé sur des critères, des normes et
des instruments de mesure. Pour la population, on s’intéresse à la taille de l’échantillon et à
obtenir l’échantillon le plus représentatif de cette population.
Évènement
Définition de la population-échantillonnage
24
un groupe spécifique de la population. Puis, on fait l’échantillonnage qui permet d’extraire un
échantillon de la population sur lequel l’étude sera réalisée.
Tout d’abord, on définit à quel groupe on s’intéresse afin de faire une restriction de la
population selon des critères d’éligibilité. Si tous les sujets de l’univers de l’étude sont
éligibles, alors la restriction est nulle vu que dans cette condition, il suffit de procéder à un
tirage de l’échantillon de la population générale. Pour avoir une restriction complète, il faut
prendre que les sujets qui satisferont à un ensemble uniformes de critères d’éligibilité. Si on
choisit de faire une procédure d’appariement, on doit choisir des sujets qui sont les plus
similaires possibles des personnes étudiées, du groupe index. Si les personnes étudiées sont
malades, il faut que l’autre groupe ne le soit pas.
Une fois qu’on ait notre population-cible, on fait une base de sondage qui comprend
seulement les personnes qu’on peut sélectionner dans l’échantillon. A ce moment, on a
l’échantillon aléatoire qui peut être simple, systématique, stratifié ou en grappes. A partir de
l’échantillon, on peut émettre des conclusions sur la base de données ; on fait une inférence
statistique mais il faut faire attention au biais de sélection. On peut aussi faire une inférence
épidémiologique, c’est-à-dire qu’on émet des conclusions sur la population-cible à partir de
l’échantillon.
Population-temps
A un moment donné, on collecte des données dans une population. Quand on s’occupe
d’une population statique, on procède à une étude transversale. Evidemment, prendre les
données de prévalence des sujets demande beaucoup de temps mais comme on le fait
qu’une seule fois, on parle d’étude transversale.
Les études expérimentales (d’intervention) sont utilisées pour tester l’efficacité d’un
médicament, d’une intervention. Les études de cohorte nous permettent de tester des
hypothèses causales. Les études de cas-témoins servent à formuler des hypothèses
25
étiologiques. On ne peut pas mesurer une prévalence. Une étude cas-témoin est une étude
rétrospective ; elle nous permet seulement d’émettre des hypothèses. Les études
transversales qu’on appelle aussi « cross-sectional » sont utilisées pour mesurer la dimension
d’un problème, mesurer une prévalence. L’étude parfaite n’existe pas ! Tous ces différents
types d’études sont complémentaires.
Le 1er grand type d’étude est l’étude d’intervention (=expérimentale). Le chercheur intervient
dans l’histoire naturelle de la maladie. Puis, il expose les sujets à un facteur d’exposition
censé avoir un effet favorable (procédure diagnostique, médicament, intervention à visée
préventive…). Le chercheur doit absolument avoir un respect éthique ; il ne peut pas exposer
ses sujets à une substance toxique, au froid, à la faim, au chômage.
Le 2e grand type d’étude est l’étude d’observation. Dans ce cas, le chercheur n’intervient pas
dans l’histoire naturelle de la maladie, de l’évènement étudié. Il laisse le champ libre à la
nature. Il observe, effectue et analyse des mesures. Il existe 2 types d’études d’observation ;
l’étude étiologiques (= analytique) vise à expliquer comment un facteur d’exposition produit
un effet. Cette étude est aussi divisée en 2 catégories : l’étude de cohorte et l’étude cas-
témoin. Le 2e type d’étude d’observation est l’étude descriptive qui vise à décrire un
problème de santé dans une population. L’étude descriptive est la 1ere étape de toute
investigation épidémiologique.
Dans les études épidémiologiques, on prend des mesures à partir d’observations, ce qui
signifie qu’on fait des estimations de prévalence, d’incidence, RR… ! Toute estimation est
sujette à l’erreur.
On peut faire face à 2 types d’erreurs : les erreurs aléatoires par manque de précision de
l’estimation (échantillonnage, test d’hypothèse statistique, intervalle de confiance), on parle
aussi de chance. Et les erreurs systématiques dues à la validité de l’estimation, qu’on appelle
aussi des biais. ! Au plus j’augmente la taille de l’échantillon, au plus je suis précis (baisse
d’erreur aléatoire) mais l’erreur systématique ne varie pas, car elle ne dépend pas la taille de
l’échantillon.
26
Pour conclure qu’une hypothèse est vraie (H1), on cherche à montrer que son contraire (H0)
est fausse. Les tests d’hypothèses mesurent la probabilité que les différences observées
entre groupes sont dues au seul hasard et pas à de vraies différences. Tout d’abord, on
formule une hypothèse de nullité (H0) selon laquelle les différences observées sont
explicables par le seul hasard (H0 est l’inverse de H1). Ensuite, on calcule la probabilité que
les différences observées sont compatibles avec H0. Enfin, on prend une décision afin de
savoir si H0 sera gardée ou rejetée.
L’erreur α (erreur de type I) conclue à tort qu’une différence existe alors qu’elle n’existe pas
dans la réalité. Il est probable que les modifications d’échantillonnage expliquent à elles
seules l’erreur α. Comme le fait de prendre un échantillon non représentatif. Mais elle peut
aussi être dû à une mauvaise interprétation de la p-value. Si p-value est inférieur au seuil
fixé, l’H0 est rejetée. Par convention, le seuil est de 5%, ce qui signifie qu’on accepte 5%
d’erreurs dû au manque de précision. On peut aussi faire une probabilité complémentaire
(=confiance) qui vaut 1 – α.
Un biais peut être en faveur de l’hypothèse nulle (s’il n’y a pas de différence entre les
exposés et les non-exposés -> RR = 1) ou en faveur de l’hypothèse alternative (Ha) (il y a une
différence >1 ou <1 entre les exposés et les non-exposés). Un biais peut être introduit à tous
les stades de l’étude ce qui apporte une préoccupation constante pour la recherche et la
lecture critique de la littérature scientifique.
Il existe différents types de biais, il y a les biais de sélection, les biais d’information et les biais
de confusion.
Pour le biais de sélection, on fait une erreur dans le processus de sélection de l’échantillon ;
on compare de mauvais malade avec de mauvais non malade. Cette erreur se fait au
moment de l’inclusion des unités lorsqu’on les sélectionne en relation avec leur statut en
termes de maladie ou d’exposition à un facteur de risque. Par conséquent, on risque
d’obtenir un biais dans la fréquence de la maladie et dans la fréquence de l’exposition qui
apportera une différence entre ceux qui font partie de l’échantillon et la population d’étude.
On peut faire un biais d’échantillonnage, un biais de constatation (admission (biais de
Berkson) ou diagnostic) ou un biais de participation dû à un volontarisme, des non-réponses
des sujets, des refus.
Un biais d’information est dû à une mesure incorrecte de l’exposition et/ou de l’effet. Même
si j’ai un échantillon représentatif, je mesure mal l’échantillon dû à une mauvaise
classification des sujets. L‘erreur de classification peut être différentielle, car elle affecte de
façon différente les groupes à comparer ; ou non-différentielle, parce qu’elle affecte de la
même manière les deux groupes à comparer. Il n’y a pas d’outil de mesure parfait ! On utilise
27
la Sn et Sp. Les erreurs de mesure entrainent la classification erronée en ce qui concerne le
facteur d’exposition ou de l’effet. Un biais d’information non-différentielle est une erreur
systématique. Elle apporte une classification erronée du facteur d’exposition qui est égale
entre le cas et le contrôle. Mais aussi une classification erronée de l’effet égale entre l’exposé
et le non exposé. Dans ce cas-là, on sous-estime la mesure d’association, car on est plus
proche de 1 que ça ne l’est dans la réalité. Un biais d’information différentielle est une erreur
systématique qui apporte une classification erronée du facteur d’exposition différente entre
le cas et le contrôle. Mais aussi une classification erronée de l’effet différente entre l‘exposé
et le non exposé. Ici, on peut faire une sous- ou sur-estimation de la mesure d’association,
parce qu’on peut être plus éloigné ou plus proche de 1 que ça ne l’est dans la réalité. Il existe
2 types principaux de biais d’information ; il y a le biais de rapportage (= de déclaration) ; on
rencontre des biais de rappel et des biais de prévarication (les cas exagèrent ou diminuent
leur exposition). Il y a aussi le biais d’observation ; on rencontre des biais d’interview et des
biais de suivi.
28
Les essaies thérapeutiques = études d’intervention
Les études épidémiologiques commencent par l’étude d’observation. Dans ces observations,
on peut rencontrer deux types de données. Avec des données groupées, on peut faire une
étude écologique ou corrélationnelle. Avec des données individuelles, on a des données
descriptives avec lesquelles on fait une étude transversale et on a des données étiologiques
avec lesquelles ont fait une étude cohorte (on suit le temps) ou une étude cas-témoin (on
remonte le temps). Cependant, à un certain moment, il est juger important et éthique de
proposer un traitement, une intervention à un groupe de personne pour essayer d’améliorer
leur état de santé.
Ces essaies thérapeutique ont comme but de tester l’efficacité d’un traitement. Le chercheur
applique ce traitement à un groupe de sujets auquel il le compare à un autre groupe de
sujets qui ne reçoit pas le traitement (placebo). Il faut penser à un plan de recherche où il y
ait suffisamment de sujet pour que l’effet du hasard soit contrôlé et qu’on ait un groupe qui
reçoit le traitement et un autre qui ne le reçoit pas. ! Il faut qu’il n’y ait aucune autre
différence entre ces 2 groupes. Le meilleur design, le meilleur plan pour étudier un
traitement est la RCT (randomized controlled trial). Tout essai randomisé doit avoir ces 4
parties. Les 4 parties sont la question clinique précise, une méthodologie fiable, des résultats
d’observations et la dernière partie est comprendre, interpréter les résultats. L’objectif d’une
RCT est de comparer des traitements pour voir lequel est le meilleur ou de démontrer un
avantage d’un traitement, de démontrer qu’un traitement est mieux que rien.
• Question précise
RCT
29
La question de recherche doit être précise et pour être précis, on passe par un PI/CO (Patient
x Intervention / Contrôle x Outcome). Pour cela, on se demande chez qui on propose quoi,
par rapport à quel contrôle, pour observer quoi. Un outcome (endpoint) est l’issue ou
l’évènement ; c’est le critère de jugement. Pour ça, on calcule l’incidence cumulée et le
risque (probabilité) par ∆t. On sait aussi calculer le risque bras intervention qui est le risque
que les gens n’ayant pas pris le traitement aient la maladie. Le risque bras contrôle est le
risque que les gens ayant pris le traitement aient la maladie.
a+b
c+d
• Méthode rigoureuse
Une RCT est le type d’étude d’intervention qui contrôle le mieux le champ d’évaluation et
présente le moins de risque de biais. Il est donc le plus fiable. Dans RCT, il y a 3 mots. Le
premier est l’ « essai » qui est une étude qui teste une intervention. L’intervention peut être
hygiénique, péridurale, chirurgicale, psychologique, etc. Le second est « contrôlé » qui
signifie qu’un groupe recevant l’intervention est comparé par un groupe contrôle, celui qui
reçoit le placebo. Le 3e mot est « randomisé ». Toute étude randomisée est contrôlée et
toute étude contrôlée n’est pas randomisée. Dans une étude contrôlée, on compare deux
groupes. Dans une randomisation, on compare deux groupes identiques.
La randomisation est la répartition aléatoire des sujets dans 2 groupes ou plus. Le but est
d’équilibrer les caractéristiques importantes qui influencent ce que l’on étudie. Le hasard
équilibrera toutes les caractéristiques qui pourraient influencer l’étude. On aura donc dans
les 2 groupes, la même proportion de chaque caractéristique. La seule différence devient
l’intervention que l’on veut étudier. Pour être sûr qu’il n’y ait pas de « triche », on fait un
double-aveugle. Ni les chercheurs, ni les patients, ni les statisticiens ne sont au courant de
30
qui reçoit quel traitement. On masque le statut E (E+ ou E-). Le but est de garder l’objectivité
surtout si l’outcome est subjectif. Ce qui est différent du protocole ouvert (open label) où les
personnes connaissent la réalité du traitement.
Le problème que peut survenir est que certaines personnes changent de groupe. Ceux qui
prenait le traitement peuvent l’arrêter en se disant que toute façon ils ne savent pas ce qu’ils
prennent alors mieux vaut arrêter. Et il y a ceux qui prennent le placebo, ils partent chez un
autre médecin en leur demandant ce qu’est le médicament qu’ils prennent. Découvrant que
c’est le placebo, ils demandent d’obtenir le vrai traitement. Face à ça, on a 2 choix. Soit on
accepte ce changement, car c’est le problème le plus pur vu que ça fait partie des choses de
la vie. Soit on rapatrie les personnes ayant changées de groupe dans le bon groupe ou de ne
plus les suivre. Mais on a tendance à prendre le 1 er choix. La 1ère étape de la RCT est une
validité externe ; l’ITT. Le reste est une validité interne.
En conclusion, l’intérêt majeur d’une RCT est l’absence de biais de répartition grâce à la
randomisation. Son déroulement est fait en 5 étapes (1 externe et 4 internes). Et si la RCT est
en double-aveugle, la garantie d’objectivité est assurée.
• Résultats quantifiés
Un rapport de risque (= risk ratio = RR) est la fréquence de survenue de l’évènement dans le
groupe traité (a/a+b) qui est multiplié par la fréquence de survenue de l’événement dans le
groupe contrôle (c/c+d). Si RR ˂ 1, on a un effet favorable du traitement (RE+ ˂ RE-). Si RR ˃ 1,
on a un effet défavorable d’E+ (RE+ ˃ RE-).
RR = a x c+d
a+b c
31
La RRR (= ERR : excès relatif du risque) est la fréquence de survenue de l’événement dans le
groupe expérimental qui sera diminuée ou augmentée en pourcentage par rapport au
groupe de comparaison.
RE+
Si RR ˂ 1, alors RRR = 1 – RR
RR
La RAR (réduction absolue du risque = ARR) est la fréquence absolue des évènements évités
dans groupe expérimental grâce à l’intervention.
La NNT (number needed to treat) ou la NST (nombre de sujets à traiter) est le nombre de
patients à traiter selon le protocole expérimental pour éviter un événement attendu
(utilisation d’une simple règle de trois)
NNT = 1 = 1
Si on répète l’étude, dans 95% des cas on trouverait un effet estimé compris dans cet
intervalle. Il y a 95% de chance que cet intervalle contienne la valeur vraie mais inconnue de
l’effet estimé. Si l’IC95 exclut la valeur de H0, alors p ˂ 0.05 et la différence est stasquement
significative.
Il y a des façons de savoir si le hasard n’a pas donné la différence escomptée. Il est possible
que si les personnes ayant pris le traitement agissent comme s’ils prenaient du placebo
(aucune efficacité chimique du médicament). Il y a une certaine probabilité que la chance est
32
faite en sorte que le taux de ce groupe ait un pourcentage plus grand que l’autre groupe. On
calcule alors la probabilité que le hasard est fait ça. On mesure donc la p-value. P est la
probabilité d’observer par le hasard une différence entre les groupes. Elle va de 0 à 1 et son
seuil est par convention ˂0.05 ou ˂0.01. Elle est foncon à la fois de la précision de la mesure
et de la taille de l’échantillon. Plus la précision est grande, plus la p-value est petite.
Statistiquement significative est de l’ordre de la précision (peu de chance que le hasard est
fait ça) cliniquement significative est qu’il est utile pour le patient. Ce sont 2 jugements
différents. Quand la p est en dessous de 5% alors l’IC95 exclut H0 (hypothèse de nullité). Si le
traitement a un effet nul, la valeur numérique du RR vaut 1. Donc RR qui vaut 1 est l’H 0. C’est
soit une p-value de 5% ou une IC95 qui exclut l’H0.
Vocabulaire
- Randomization : répartition aléatoire ; répartition liée au hasard
33
- IC (95%) = intervalle de confiance à 95%
Démarche critique
Face à un article de recherche clinique sur un traitement, on cherche la synthèse, l’abstract
ou l’article complet et on l’examine en 4 étapes. La première étape est l’inspection qui porte
de l’intérêt à la maladie ; on regarde. La 2e étape est la validité de la maladie par la palpation.
Les résultats se montrent via l’auscultation et l’applicabilité par la percussion.
L’auscultation se fait en 2 minutes et sur l’abstract et les tables. Son but est d’analyser le
contenu. On se pose 3 questions : Est-ce que l’outcome est bien quelque chose de clinique ?
On regarde la taille le l effet et on cherche RRR et RAR. Est-ce que l’étude est statistiquement
significative ou pas (IC à 95%) ?
La répercussion se fait en 2 minutes et sur la table et le texte. Le but est de prendre une
décision sur l’applicabilité de l’information sur mon étude. On se pose 3 questions : est-ce
l’étude est pertinent (valeur des outcomes choisis) ? Est-ce qu’elle est généralisable ? Quels
sont les bénéfices et les inconvénients (inconfort, coût,…)
En conclusion, on doit baser nos décisions médicales sur des données scientifiques quand
elles existent. Il faut développer un esprit critique face à l’information thérapeutique.
Ensuite, il faut examiner cette information en 4 temps en mémorisant l’information solide et
relativiser l’information fragile. Enfin, il faut acquérir une indépendance, une autonomie
scientifique.
34