Vous êtes sur la page 1sur 34

Épidémiologie et santé publique

Introduction :
• Santé publique

La discipline médicale (médecin, dentiste) a comme champs d’intérêt à trouver un ensemble


d’interventions qui permettra de promouvoir, maintenir (ex : vivre avec l’handicape, la
vieillesse), rétablir la santé au niveau individuel et populationnel.

La discipline scientifique recherche une approche globale, rationnelle et participative


(comment les gens interagissent, comment faire en sorte qu’ils soient conscient qu’ils
peuvent maintenir la santé). Elle veille à mettre en place des méthodes épidémiologiques,
opérationnelles, de sciences sociales dans le cadre pluridisciplinaire. Elle est d’avantage
orientée vers l’analyse de système de santé et la formalisation des problèmes complexes au
travers de modélisation (simplification de la réalité).

• Épidémiologie

L’épidémiologie est l’étude des états et des phénomènes (ou évènements) de santé au
niveau de la population définies par la distribution (quantification des choses) et des
déterminants (approche analytique). Application de cette étude au contrôle de problème de
santé (lien à l’action).

La santé, ses déterminants et les soins de santé :

D’une approche réductionniste à une approche globale de la santé :

Être en bonne santé c’est

• Ne pas être mort

Au 19e siècle, tous ceux qui ne mourraient pas du choléra étaient considérés comme étant en
bonne santé. Aujourd’hui, tous ceux qui n’ont pas de maladies cardiovasculaires sont
considérés comme étant en bonne santé.

! Standardisation possible et nécessaire en cas de SCA (syndrome coronaire aigu) mais prise
en compte d’un double risque => hémorragie et ischémie (le muscle se nécrose).

• Ne pas être malade

La maladie est un processus biologique anormal explicable et classifiable en fonction de ses


causes et mécanismes (ex : grippe, gastro-entérite, diabète de type II).

1
• Ne pas souffrir

Un problème de santé est une souffrance actuelle ou potentielle (être malade sans le savoir
-> apparition d’aucuns symptômes ; mais à terme, il peut avoir des conséquences très
importantes) qui résulte d’un processus perturbant l’état de santé et provoquant un état de
mal-être individuel ou collectif.

 Va au-delà du biologique, introduit le concept de souffrance et la dimension


collective.

Un problème de santé peut être du a un ensemble de symptômes, un syndrome, un


ensemble de facteurs de risque, des conditions de vie, une dysfonction, une invalidité, un
handicap, une maladie avec ou sans diagnostic, un mal-être, etc.

Diagnostic et conséquences sur la relation médecin-patient :

- Morbidité réelle : la plus grande majorité des personnes étant vraiment malade sont
non couvert (pas accès aux soins de santé) et non ressentis (présence de la maladie
mais le malade n’est pas conscient de l’existence de cette dernière). Ces personnes ne
vont jamais chez le médecin. Il s’agit souvent des personnes les plus défavorisées.

- Morbidité ressentie : Ce sont des personnes qui sont couverts et ont ressenti la
maladie (présence des symptômes)

- Morbidité diagnostiquable : il s’agit de personnes non couvertes mais ressenties. La


personne est malade mais ne va pas nécessairement chez le médecin, car elle a su
diagnostiquer seule sa maladie (ex : bronchite, rhume)

- Morbidité diagnostiquée : il s’agit de personnes couvertes mais qui sont non


ressenties. Il suffit qu’à un moment donné, il pense à faire une prise de sang afin de
vérifier que tout aille bien pour qu’ils découvrent qu’ils sont malades.

• Avoir la capacité fonctionnelle de vivre de manière satisfaisante

Une personne âgée est considérée comme étant en bonne santé si elle continue toujours à
être capable de continuer ses activités de la vie quotidienne, qu’elle est capable de bouger,
qu’elle a toujours ses fonctions mentales, qu’elle sait communiquer et qu’elle continue ses
activités instrumentales de la vie domestique. Si la personne âgée (PAgée) a une maladie
chronique, elle perdra son autonomie. Ce qui engendra la perte de certaines activités =>
malade.

Il y a une interconnections entre handicap, co-morbidité (maladie chronique) et fragilité.


L’handicap ou la dépendance est l’ensemble des conséquences des maladies qui entraine
comme désavantage pour la vie quotidienne de la PAgée de ne pas pouvoir être autonome.

2
Cependant, l’autonomie se rapporte à une liberté de choix. Même si la personne handicapée
nécessite l’aide d’un tiers, elle a toujours le choix de son mode de vie, son lieu de vie … Elle a
toujours une certaine autonomie.

L’activité de la PAgée est au centre de la santé, elle influence plusieurs points qui la rendront
comme étant malade. Lorsqu’elle ne sait plus faire ses activités, c’est qu’elle a des problèmes
de santé. Ces problèmes de santé vont émettre des modifications dans les fonctions
organiques et les structures anatomiques mais va aussi faire en sorte d’apporter l’incapacité
de la participation dans la société. Ce qui détermine sa santé est les facteurs
environnementaux et les facteurs personnels. Elle aura donc besoin de soins médicaux pour
guérir ses maladies, d’un appui aux auto-soins pour son autonomie et un appui à la vie
journalière pour son manque de capacités fonctionnelles. (modèle ICF)

La santé :
Dynamique d’évolution de la santé au niveau individuel :

L’histoire naturelle de la maladie commence par le fait que la personne a été en contact avec
un ou plusieurs facteurs de risque (initiation du processus étiologique) ; la phase d’induction
peut faire en sorte d’apporter la prévention primaire en mettant en place une série de
politique afin d’éviter d’être en contact avec d’autres facteurs de risque. Puis par un stade
pré-clinique (initiation du processus pathologique). La phase promotion apportera la
prévention secondaire qui est le dépistage. Ensuite, il y a le stade clinique précoce
(manifestation clinique de la maladie). La phase d’expression de la maladie mettra en place la
prévention tertiaire qui fera en sorte d’éviter les séquelles de la maladie. L’issue finale de la
maladie, qui est le stade clinique tardif, amènera à une déficience, une incapacité, un
handicap, la guérison ou la mort.

La santé se développe tout au court de la vie. La manière dont la santé se développe peut
être représenté par des trajectoires de vie. Au fur et à mesure qu’une personne grandit, elle
arrive à un moment donné au top de ses capacités fonctionnelles, puis ses capacités se
mettent à diminuer, ce qu’on appelle la période sensible-critique. Les médecins font en
sortes que les facteurs de risque et de protection diminuent le moins vite possible grâce au
bagage génétique, car ce qui se passe de génération en génération influence la personne
(question sociale). Mais aussi grâce au contexte et aux interactions avec d’autres personnes
qui ont une importance variable en fonction de la période de vie.

Dépistage :

Tout d’abord, il faut savoir que l’efficacité (capacité à atteindre un objectif) est différente de
l’efficience (efficacité au moindre coût). Une personne qui a un mal de tête à cause d’un
rhume peut dépenser des centaines d’euro pour obtenir le meilleur neurologue du pays ;
mais il lui aurait été plus favorable d’aller chez un généraliste qui aurait été moins cher et qui
aurait guéri son rhume et son mal de tête. De plus, la maladie n’est qu’une partie d’un

3
processus. Il faut savoir que la procédure de diagnostic parfait n’existe pas et que l’efficacité
d’une stratégie est toujours relative. Le dépistage d’une maladie doit se concevoir dans une
logique de santé publique.

Si on se base sur le modèle de l’histoire naturelle de la maladie, le point critique (point du


non-retour) se trouve entre le début d’une anomalie reconnaissable (apparition des
symptômes de la maladie) et le moment habituel du diagnostic qui est le stade clinique
précoce. Pour une maladie curable, si on fait un traitement après le point X, il n’y aura plus
de réversibilité du processus pathologique. Si une personne a un infarctus, ça ne sert à rien
d’essayer de déboucher l’artère parce que le muscle ne se dénécrose pas. Pour une maladie
entrainant une invalidité, le traitement après le point X ne pourra plus revenir en arrière ;
comme le risque qu’a un diabétique d’avoir la cécité. Pour une maladie chronique, le
traitement après le point X ne procure pas un ralentissement de l’évolution, ce qui signifie
que la maladie continue toujours à évoluer.

Pour certaines maladies, le point critique se trouve entre le début du processus pathologique
et le premier test de dépistage possible. Pour les personnes atteintes de ces maladies, le
dépistage ne sert pas à grand-chose parce qu’il s’agit d’une maladie incurable, sauf pour
éviter les contaminations ou pour prévenir de la mort du patient. Pour d’autres maladies, le
point critique se trouve entre le moment habituel du diagnostic et l’issue finale. Les malades
gaspilleront beaucoup d’argent pour un résultat qui est le même qui s’ils n’avaient fait aucun
dépistage.

Santé individuelle et santé collective :


Une personne devient malade parce qu’elle est exposée à un risque proximal. Ce risque
proximal est son mode de vie, ses habitudes, etc. Pour comprendre la santé d’une personne,
on doit s’intéresser à son contexte de vie, son contexte social qui a un lien avec le contexte
politique. La santé est très fortement influencée par le contexte social. On regarde sa
position sociale qui influence énormément la santé et peut donc apporter une exposition à
un « risque proximal ». Un risque proximal est un risque qui fait un lien extrêmement clair
entre le fait que je suis face à des facteurs de risques et que je développe une maladie. Par
exemple, une personne qui fume beaucoup et développe un cancer des poumons, une
personne qui mange tous les jours des hamburgers et développe une obésité, etc. Une fois
exposée à ses risques, la personne est malade. La maladie a des conséquences économiques
et sociales. La santé n’est pas améliorée si on s’intéresse uniquement aux risques proximaux
mais il faut aussi s’intéresser aux déterminants sociaux (= risque distaux).

L’approche dans l’offre de soins de santé fait un lien avec les soins de santé, le bien être de la
personne, la maladie, l’environnement, la prospérité et la réponse comportementale et
biologique du patient. Les soins de santé ne servent pas uniquement à traiter la maladie mais
doivent aussi aider à renforcer la capacité des personnes à se prendre elles-mêmes en charge
et à faire face à toute une série de générant du contexte, environnement social,

4
environnement physique, capital génétique, qui vont influencer leur santé. La santé a un
aspect de prospérité qui peut apporter un bien-être ; la santé coûte de l’argent, de l’argent
qui ne peut plus être investi à d’autres choses qui pourraient améliorer de manière plus
durable et plus efficace la santé (ex : construction d’écoles, d’égouts).

Si on veut seulement traiter la maladie qu’on a détectée chez les gens, si on ne considère pas
les personnes comme des êtres humains mais comme une machine, on offre des soins de
santé en fonction des besoins de la personne. Les besoins sont tout ce qu’on peut de
manière objectif identifier comme étant des problèmes de santé dans la population. On
organise donc l’offre en fonction des besoins, en fonction de ce que les gens demandent. La
demande est ce que les gens expriment. Il faut qu’on s’intéresse en même temps au besoin
et à la demande. La santé est beaucoup plus globale que d’être malade ou pas malade, que
d’être décédé ou vivant. On doit donc s’intéresser à la maladie, aux besoins des gens et sur
ce que les gens font. Le meilleur est que l’offre répond au besoin et à la demande. Le pire est
quand l’offre ne répond ni au besoin ni à la demande ; il est possible qu’on induit la demande
lorsque les gens ne demande rien (ex : médecins qui opèrent tout le monde pour gagner plus
d’argent). On peut aussi être confronté à des médecins qui imposent aux gens une offre qui
correspond à un besoin alors que ces personnes n’ont rien demandées. Par exemple, tous les
enfants sont obligés d’être vaccinés contre la poliomyélite. Il y a aussi le fait que le besoin
n’est pas ressenti ce qui apporte une offre non assurée ou que la demande ne soit pas
satisfaite, car elle ne correspond pas au besoin. On peut avoir des besoins ressentis qui ne
seront pas satisfaits et une demande qui est satisfaite mais qui ne correspond pas au besoin.

Conséquences, on a besoin d’un prestataire, d’un médecin, connaissant et capable de tenir


compte de la trajectoire de vie de ses patients, y inclus les risques, les facteurs protecteurs et
l’ensemble des problèmes de santé. Un médecin qui connait le contexte familial et du
voisinage de ses patients et les capacités propres de la personne. Ce médecin a le besoin de
faire le lien entre la santé individuelle et la santé communautaire, lien avec le contexte de vie
au niveau de la dimension médicale, de la dimension sociale et de la dimension
environnementale.

L’équipe de soins primaire, centré sur les personnes en contact direct avec les patients, au
centre d’un réseau (OMS 2008). Au centre de tout, il y a l’équipe de soins primaires qui sont
des soins continus, complets, centrés sur la personne. Là, on a les infirmiers, les généralistes.
Tous les autres soins de santé fonctionnent en appuis de l’équipe centrale, comme les
services d’urgence, la chirurgie, la clinique du traitement du diabète, etc.

Organisation des soins de santé :

Le système de santé (OMS) inclus des personnes et toutes les activités et interventions dont
le but essentiel est de promouvoir, restaurer ou entretenir la santé. Le système de soins de
santé contient des structures de santé de premier échelon, des soins ambulatoires, des

5
programmes de santé pour des groupes de personnes comme l’ONE, des hôpitaux et des
soins institutionnalisés.

Ils existent des critères des activités au sein d’un système de soins de santé. Il faut se
demander si les activités sont-elles efficaces et efficientes. Si oui, à quel prix ? On doit
pouvoir faire une différence entre optimisation et maximisation dans une intervention de la
santé. Une optimisation est faite par une personne qui a une vision beaucoup plus globale,
qui réparti les ressource entre différents objectifs. Une maximisation est la focalisation sur un
seul objectif bien précis qui se concentre sur un seul groupe de personne.

Il existe deux types de relation entre les coûts et les bénéfices qui sont très importants à
comprendre pour les personnes qui travaillent dans le domaine de la santé. Le premier type
est le coût d’opportunité ; utiliser l’argent pour la meilleure opportunité, car ce qu’on investit
dans une chose ne pourra plus être investie dans une autre chose. Quelqu’un qui a une vue
d’optimisation fera toujours attention à ce coût d’opportunité. Le second type est le
rendement marginal décroissant ; si on est à un niveau où rien ne va et qu’on veut améliorer
les choses, l’amélioration ne coutera pas très cher. Par contre, si on est proche du parfait et
qu’on veut améliorer les choses, ça nous coutera beaucoup plus cher. Au plus on se
rapproche de la perfection, au plus le coût est énorme.

Le système de santé en Belgique dépend des trois régions : la Flandre, Bruxelles et la


Wallonie. Chacun de ses niveaux joue un rôle dans le financement et l’ordre des soins de
santé. Au niveau fédéral, on a le SPF (Service Public Fédéral) qui a la responsabilité de
s’occuper de la santé et on a l’INAMI (Institut National d’Assurance Maladies et Invalidités).

On a des prestataires de soins qui offrent des soins de santé. Ce qui est important en
Belgique est que le premier niveau de soins et hôpitaux est quasi exclusivement privés, ils
sont payés indirectement. On a des mutuelles prestataires qui sont aussi propriétaires des
soins de santé au travers des hôpitaux et de coordination de soins à domicile (CCSSD). Les
structures de soins de longue durée (dont le MRS). On doit respecter la liberté
professionnelle et du patient qui est une valeur essentielle du système, le patient est libre de
voir qui il veut, allez où il le veut. Le patient a le droit de voir un neurologue, un ORL ou autre
à la place d’un généraliste. Les communes organisent quelques (mais pas tous) services
d’appui au maintien à domicile (CPAS). Malgré que le patient et le médecin veuillent être
libres, il faut quand même qu’il y a des personnes qui imposent certaines limites. La
régulation est faite par le SPF (ministères et fédéraux) de la santé et sécurité, les régions
(coordination des soins et construction des hôpitaux) et les communautés (prévention et
promotion de la santé).

Il y a différentes manières de financer les prestataires de soins. Soit l’INAMI, qui reçoit de
l’argent des impôts et des contributions de l’employeur, transfert l’argent aux mutuelles. Le
patient paie aussi la mutuelle. Ces mutuelles financent les prestataires de soins en fonction
de l’acte qui est fait, des types de maladies ou par le nombre de personnes inscrites dans les

6
maisons médicales. Il y a d’autres sources de financement des prestataires de soin qui
viennent parfois des SPF mais aussi des régions. Il n’y a pas de décisions dictatoriales au
niveau de la santé, toute décision est négociable. Il y a une concertation entre les différents
niveaux de décision et les différents acteurs de la société. Il y a un juste équilibre entre la
liberté professionnelle et la régulation de l’état. L’avantage en Belgique est que tout le
monde à accès aux soins de santé. Même si ça commence à devenir de plus en plus difficile
pour certains d’en avoir accès sans problèmes (ex : dentisterie).

Il y a huit enjeux dans le système Belge. Le premier est que les personnes âgées ont plus
besoin des soins de santé que les autres. Ensuite, il y a une augmentation de pathologies
chroniques qui devient de plus en plus fréquentes comme le diabète, l’hypertension. Puis, il y
a une désinstitutionalisation de la santé mentale, on se met à garder les malades mentaux
chez soi. Ces trois cas apportent le virage ambulatoire pour les cas « complexes », comme il y
a moins de places dans les hôpitaux, on se met à s’occuper des patients à domicile. Il y a des
inégalités sociales en santé, tout le monde n’a pas le même accès aux soins de santé, plus on
est pauvre, plus on est en mauvaise santé. Le médecin ne doit pas s’intéresser uniquement
sur la maladie mais aussi sur ce qui a un effet sur la santé des gens, il faut qu’il y ait une
articulation entre la biomédecine et la promotion de la santé. On se met à ressentir la
pénurie des médecins généralistes et des infirmières, ce qui apporte de nouvelles fonctions,
de nouvelles professions en appui.

Les grandes questions et les débats actuels se portent sur « comment assurer la coordination
des soins ? », « quel futur pour la médecine générale de demain ? » est ce qu’il faut créer des
médecins en solo, une équipe pluridisciplinaire de soins, des réseaux de soins. Et on se pose
des questions au niveau du virage ambulatoire. Comment transférer des soins de l’hôpital
vers le domicile et comment organiser les choses à domicile. On se pose des questions sur le
partage de l’information clinique entre les prestataires de soins et l’informatisation des
informations du patient. On a plusieurs types de dossier, on a le dossier médical global
(DMG) qui est rédigé par le généraliste. On a le résumé clinique électronique (Sumehr) qui
est rédigé par l’hôpital qui renvoi l’information au généraliste. Et on a le dossier multi-
disciplinaire (Le RAI) qui est fait par plusieurs médecins. On transfert l’information entre
prestataires via le réseau santé Wallon et le E-health (réseau fédaral).

Scénarios « disease management »

La logique est d’organiser les soins à domicile en fonction de maladies, de problèmes de


santé ou de groupes cible. Dans cette logique, on demande des fonctions générales. Cette
partie de la population a besoin de modalité de coordination et des fonctions infirmiers. Un
diabétique a besoin de coordinateur de trajet de soins, des éducateurs et des infirmiers
spécialisés dans le diabète. Une personne atteinte de maladie mentale a besoin de
coordinateur de réseau de santé mentale, d’éducateurs et d’infirmiers spécialisés dans le
domaine de la santé mentale. Et une personne âgée a besoin de coordinateur qui la prendra

7
en charge, d’éducateurs et d’infirmiers spécialisés en gériatrie. Dans cette logique, être en
bonne santé signifie ne pas être malade.

Scénarios équipe pluridisciplinaire

L’autre logique est d’avoir beaucoup plus d’équipe pluridisciplinaire qui a une responsabilité
générale pour un groupe de personne, au niveau duquel on a des pharmaciens, des
infirmiers, des médecins généraliste qui ont une responsabilité pour la prise en charge
général de la population pour la coordination de soins à domicile. Ici, les trajets de soins et
réseaux centrés sur des maladies avec l’équipe de soins institutionnels ont un transfert
momentané de responsabilités de cas complexes.

8
Épidémiologie introduction :
Qu’est-ce que l’épidémiologie ?
L’épidémiologie est l’étude des états et de phénomènes de santé au niveau de population
définies, de la distribution et des déterminants.

Sensibilité & spécificité ; seuil de positivité + courbes ROC


Diagnostic :

Le diagnostic est la démarche par laquelle on détermine l’affection (problème de santé,


maladie) dont souffre le patient, et qui va permettre de proposer un traitement. Le
diagnostic repose sur la recherche des manifestations comme des signes (on sait palper), des
symptômes (quelque chose de subjectif, quelque chose qu’on sent) et des causes (étiologie =
étude des causes des maladies) de l’affection. Diagnostic signifie être capable de comprendre
la maladie à travers nos connaissances.

Test diagnostique :

Un médecin ne sait pas. Pour diminuer l’incertitude, on met en place des tests diagnostiques
afin de savoir si la maladie est présente ou pas. Ces tests diagnostiques ont des techniques
qui vise à utiliser des observations d’un signe clinique (IPPA : Inspection Palpation Percussion
Auscultation) et des mesures para-clinique. Le résultat du test est soit une variable
qualitative binaire (positif => présent, anormal /négatif => absent, normal) soit une valeur
numérique si c’est une variable quantitative. Le résultat d’un test diagnostique n’est utile que
lorsqu’il diminue le niveau d’incertitude du clinicien.

Le test diagnostique a 2 caractéristiques principales qui sont la sensibilité, qui a la capacité


de détecter correctement les cas atteints par la maladie (M+), et la spécificité, qui a la
capacité à détecter les personnes qui ne sont pas atteintes par la maladie (M-).

! Avec ce test, on peut être face à 2 types d’erreurs : l’erreur par excès, on envoie en salle
d’opération la personne malade mais elle n’a rien de grave. Et l’erreur par défaut, on pense
qu’il n’y a rien de grave et on renvoie la personne malade chez elle. Cependant, 2 jours plus
tard, l’appendice explose et crée plusieurs problèmes dans le corps de la personne.

Relation entre le résultat d’un test et la présence d’une maladie :

9
Maladie

Présente (+) Absente (-)

A = VP B = FP

C = FN D = VN

Positif FP : inquiète tout le monde alors qu’il n’y a rien.

Test

Négatif FN : personne malade mais le scanner ne montre

rien.

Le médecin ne voit que l’horizontale du tableau, il ne voit pas la réalité verticale.

Un test diagnostique est toujours comparé à une méthode de référence (= gold standard :
personnes d’accord afin de passer de lourds tests). La validité intrinsèque du test dépend de
sa capacité à fournir de vraies réponses cliniques : un résultat positif pour les malades et un
résultat négatif pour les non-malades. Elle est estimée par 2 paramètres : sensibilité et
spécificité.

Sensibilité (Sn) :

La sensibilité est la caractéristique du test chez les malades (M+). La sensibilité d’un test est
la capacité de donner un résultat + chez M+. Sa valeur est comprise entre 0 et 1 et est
exprimée en %. Sn-OUT est un test très sensible dont le résultat revient négatif et permet
d’exclure le diagnostic. Sn est une erreur par défaut.

Sensibilité : A

A+C

Spécificité (Sp) :

Caractéristique d’un test chez les non-malades (M-). La spécificité d’un test est la capacité à
donner un résultat – chez M-. Sa valeur est comprise entre 0 et 1 et est exprimée en %. Sp+IN

10
est un test très spécifique dont le résultat est + et permet de retenir le diagnostic. Sp est une
erreur par excès.

Spécificité : D

D+B

Test diagnostique, choix du seuil :

Lorsque les erreurs par excès (FP) sont jugées plus graves que celles par défaut (FN), on
cherche à minimiser le nombre de FP, donc à privilégier la Sp. On augmente le seuil de
positivité du test en augmentant l’amplitude de l’anomalie ; il y aura donc moins d’erreur. A
l’inverse, lorsque les erreurs par défaut (FN) sont jugées plus graves que celles par excès (FP),
on veut minimiser le nombre de FP, donc à privilégier la Sn. On diminue le seuil de positivité
du test en diminuant l’amplitude de l’anomalie.

Sn et Sp :

• Compromis

Les tests diagnostiques (sauf exception) ne sont pas à la fois très Sn et très Sp. Le test prend
en compte soit une petite anomalie (Sn) soit une grande anomalie (Sp). Lorsque la variable
est quantitative, la définition du seuil (cut-off) de positivité du test est arbitraire.
Conséquences, plus le seuil est une anomalie modérée, plus Sn est grand et Sp est petit ; plus
le seuil est une anomalie franche, plus Sn est petit et Sp est grand.

• Courbe de ROC

La courbe ROC est une expression de la relation entre Sn et Sp d’un test diagnostique. Pour
dessiner cette courbe, on doit utiliser un graphe comprenant en ordonnée les proportions de
VP (Sn) et en abscisse les proportions de FP (1 - Sp). Ces 2 axes vont de 0% à 100%.
L’exactitude du test est mesurée par l’AUC qui est l’aire sous la courbe et la diagonale
(représente l’effet du hasard). Plus l’aire est grande, plus l’exactitude est grande. Si l’AUC vaut
50%, le test est inutile car tout se base sur le hasard. Par contre, si l’AUC vaut 100%, le test
est parfait car il est très Sn et très Sp.

Probabilité diagnostique ; VPP & VPN ; RV+ & RV-


Test diagnostique : interprétation

Il y a 2 approches dans les tests diagnostiques, il y a la valeur prédictive de la maladie et le


rapport de vraisemblance de maladie. Ces deux termes permettent de diminuer le niveau
d'incertitude dans le diagnostic, si ce n'est pas le cas, le test n'aura servi à rien.

11
La valeur prédictive positive d’un résultat + (VPP+) mesure la probabilité que la maladie est
présente lorsque le résultat du test est +.

VPP+ = A

A+B

La valeur prédictive négative d’un test – (VPP-) mesure la probabilité que la maladie est
absente lorsque le résultat du test est -.

VPN- = D

C+D

VPP+ et VPN- se lisent à l’horizontale du tableau 2x2. Ils dépendent de la prévalence (=


fréquence) de la maladie dans le groupe, ils varient lorsque la prévalence change. ! Sn et Sp
ne dépendent en rien de la prévalence, ce sont des constantes. Seul le seuil peut les modifier.

Prévalence = A + C

Total

Les rapports de vraisemblance RV+ et RV- sont très utiles en médecine, car ils intègrent les
rapports entre Sn et Sp. Ces 2 caractéristiques sont indépendantes de la prévalence. Les RV
renseignent sur la modification de probabilité que la maladie est présente.

En cas de résultat positif du test diagnostique, on peut calculer RV + qui est le rapport de
vraisemblance que les personnes malades ont un rapport + chez les non malades. On le
considère comme étant le facteur multiplicateur de la probabilité. Quand le résultat est +, la
probabilité que M est présente est accrue dans une amplitude qui dépend de la valeur RV+.
On parle de force probante du test qui est considérée comme étant grande ou très grande si
RV+ > 0.5

RV+ = Sn = A . B+D

1 – Sp A+C B

En cas de résultat négatif, on peut calculer RV – qui est le rapport de vraisemblance que le
test soit négatif si les personnes sont malades divisée par le résultat négatif des personnes
non malades. On le considère comme étant la force excluante du test. Quand le résultat du
test est négatif, la probabilité que M est présente est diminuée dans une proportion qui

12
dépend de RV-. C’est donc la force excluante du test qui est considérée grande ou très
grande si RV- <0.2

RV- = 1 – Sn = C . B+D

Sp A+C D

Odds :

L’Odds est la probabilité de l’évènement divisée par celle de l’évènement contraire.

O= P

1–P

P= O

1+O

O pré-test x RV (+ ou -) = O post-test

Le nomogramme de Fagan est utilisé pour calculer la proba post-test. Cependant, ce graphe
n’est pas très précis.

Choix d’un test diagnostique :

Il existe plusieurs tests diagnostiques pour la plupart des maladies, mais le choix d’un test
dépend de la maladie et du test en lui-même. Tout d’abord, on fait un dépistage que si la
personne est malade, que cette maladie est grave et qu’il y ait un traitement pour en guérir.
Le test, lui, doit avoir un but, soit il dépiste (exclure = rule-out) soit il confirme (inclure = rule-
in) la présence de la maladie. Il doit être de qualité (Sn, Sp, RV+ et RV-). Le médecin doit
prendre en compte le coût au niveau financier et psychologique, car le patient peut ressentir
de la peur, du stress de découvrir qu’il est atteint d’un cancer ou autre. Il doit aussi faire
attention aux erreurs. Enfin, le test doit être acceptable sur le plan médical et économique.

Une question revient souvent chez les médecins : est-ce qu’il faut privilégier la sensibilité ou
la spécificité ? Ce choix dépend du jugement clinique. Pour le dépistage du Virus HIV et les
banques de sang, un FN est plus grave qu’un FP, car jeter une poche saine est moins grave
que d’envoyer un malade contaminer d’autres personnes. Il faut que le praticien soit presque
sûr que quand le test est –, il n’y a aucune présence de M. Cependant, dans une maladie
sans traitement et incurable comme la sclérose en plaque, il est préférable à faux de ne rien
dire au patient afin qu’il ne se prépare pas à refaire toute sa vie, qui le chamboulera

13
psychiquement, alors qu’au final, il est sain. Dans ce genre de situation, il faut que le
praticien soit presque sûr que quand le test dit +, le patient est bien M+.

On soumet des personnes à des tests en parallèle (le sujet est soumis à plusieurs tests en
même temps) afin d’être sûr que la personne, si elle est vraiment malade, ne contaminera
pas d’autres personnes. Il suffit que l’un des tests en parallèle soit + pour que la personne
soit considérée comme étant malade. Il faut que la Sn augmente et que la Sp diminue.

Dans le cas contraire, on soumet un patient à des tests en série afin d’être sûr que la patient
est bel bien malade. Lorsque le sujet est + un l’un des tests, on le soumet à un autre test. Le
patient est considéré comme étant malade s’il est + aux 2 tests. Il faut que la Sp augmente et
que la Sn diminue.

Pour faire un dépistage, il faut qu’on ait tous ces critères. Tout d’abord, il faut que la maladie
ne soit pas rare et qu’elle est une latence, ce qui signifie qu’on soit en possession de
beaucoup de temps avant que la maladie ne devienne grave. Il faut que le test soit efficace
pour un dépistage à un stade précoce. Mais aussi que le traitement soit efficace et
acceptable pour soigner la maladie détectée à ce stade précoce. Il faut aussi placer la priorité
en termes de coût-efficacité par rapport à d’autres interventions de santé en termes de
conditions favorable sur le plan politique et logistique pour réaliser les mesures de dépistage
de traitement de cette maladie à large échelle.

Les mesures de fréquence en épidémiologie


Les principes du calcul des mesures de fréquence en épidémiologie
La mesure de la fréquence d’une maladie permet de décrire le nombre de personnes
affectées par une maladie au sein d’une population. Elles visent à quantifier la présence d’un
attribut ou la survenue d’un évènement en rapport avec la santé dans une population.

Une fréquence absolue est un dénombrement de cas. Son utilité est très limitée. Les
fréquences relatives dépendent d’un numérateur (le cas) et d’un dénominateur (population à
risque). Un cas est défini et dépend du test diagnostique. Un cas inclus 3 types de variables :
le temps, le lieu et la personne.

Il y a 4 types de rapports :

o La proportion est comprise entre 0 et 1 et est exprimée en %. Le numérateur est


compris dans le dénominateur

a+b

14
o Le ratio varie entre 0 et ∞. C’est un rapport entre 2 classes d’une même variable.

o L’indice ; a n’est pas inclus dans b (ils n’ont aucun lien ensemble) et a et b sont 2
entités distinctes. ! Le vrai dénominateur est inconnu mais b s’en rapproche.

o Le taux mesure la vitesse de survenue d’un évènement. a est un nombre


d’évènements survenus dans une population à risque, au cours d’un intervalle de
temps. b est la somme des durées d’exposition au risque de chacune des personnes
formant la population pour la période considérée (unité = personnes.temps).

Il y a 2 mesures fondamentales de la fréquence en épidémiologie ; il y a la prévalence et


l’incidence (incidence cumulée et taux d’incidence). Ces mesures peuvent être abordées en
regard de l’histoire naturelle de la maladie. La prévalence est une mesure de la fréquence
d’un état déterminé à un moment donné. Mais elle mesure aussi la présence de la maladie
dans une population. C’est une mesure transversale, elle fournit l’information sur la situation
au moment de la mesure. L’incidence est une mesure de la fréquence du changement d’état
au cours d’une période de temps déterminée. Elle mesure aussi l’apparition de la maladie
dans une population. C’est une mesure longitudinale, elle prend en compte la dimension
temporelle. La prévalence et l’incidence sont décrites comme étant une citerne. Il y a tout
d’abord le remplissage de malades à travers le taux d’incidence (survenue de nouveaux cas
=> incidence). Puis on décrit le remplissage des malades (présence de cas => prévalence).
Enfin, la citerne se vide par guérison ou décès (issue).

15
Les mesures de morbidité
La prévalence instantanée :

La prévalence prend en compte la proportion d’individus présentant l’évènement de santé


étudié dans une population à un moment donné. Elle mesure la dimension des problèmes de
santé à un moment donné, compare des fréquences de maladies dans des groupes différents
et ne prend pas en compte la séquence temporelle. C’est un bon estimateur des besoins en
soins et en services.

Cas prévalents

Population « à risque »

L’incidence :

L’incidence cumulée (= proporon d’incidence) est ≠ du taux d’incidence (= densité


d’incidence).

Le taux d’incidence parle du taux d’individus développant l’évènement de santé dans une
population. Son numérateur et son dénominateur comprennent uniquement des personnes
non affectées de l’état de santé étudié au début de la période suivi. Il prend en compte le
premier ou tous les évènements observés entre t0 et t1. ! Le taux d’incidence n’est pas une
proportion.

Nouveau cas survenus entre t0 et t1

Personnes.temps à risque vécues par la population entre t0 et t1

Ses fonctions épidémiologiques sont de fournir une information sur la transmission, la


dynamique de la maladie et de permettre de comparer des groupes entre eux ou dans les
temps.

! Le taux de détection est le nombre de nouveau cas diagnostiqués dans la population


exposée au risque, au cours d’une période étudiée. Il est souvent ≠ du taux d’incidence.

L’incidence cumulée est la proportion d’individus développant l’évènement de santé étudié


dans une population donnée au cours d’une période donnée. Le numérateur est le
dénominateur comprennent des personnes non affectées de la maladie étudiée au début de
la période suivi. Il prend en compte le 1er évènement incident seulement.

Nouveaux cas survenus entre t0 et t1

16
Population « à risque » au t0

Au niveau épidémiologique, c’est une mesure directe du risque individuel au cours d’une
période connue. Au niveau opérationnel, elle compare l’efficacité de procédures de contrôle
de l’évènement étudié.

Deux choses peuvent poser problèmes dans le résultat de l’incidence cumulée : les perdus de
vue et les décès. De plus, on a une idée « à risque » au début et à la fin du suivi, car on ne
peut pas connaitre pour chaque personne leur année à risque. Lorsqu’on a trop de perdu de
vue et de décès, on doit faire une mesure adapté d’incidence cumulée.

Calcul dans le cas de nombreux perdus de vue :

Probabilité de l’incidence

ICt0,ti = It0,ti Nombre de personnes qui deviennent malades ou subissent

nt0 – (w/2) l’évènement étudié

Les retraits observés en raison d’un autre motif que l’évènement

incident étudié divisé par la moitié du temps d’exposition

Nombre de personnes exposées au risque

Différents types de phénomènes de santé :

Il existe 3 types de phénomènes de santé : l’épidémie, la pandémie et l’endémie.

L’épidémie compte un nombre de cas qui augmente très fort à un moment donné et limité
dans le temps. ! Elle n’est pas toujours due à une maladie infectieuse. Pour identifier une
épidémie, il faut remonter dans le temps pour pouvoir arriver à trouver l’origine. Il y a 3
types d’épidémie ; celle qui se transmette par interhumaine (grippe), celle où il faut être
exposé à de la nourriture ou à un environnement (nourriture avariée dans un resto) et celle
qui a besoin d’une exposition environnemental puis se transmet par interhumaine. Pour
contrôler une épidémie, il faut d’abord détecter et confirmer l’épidémie, car il faut avoir la
certitude avant de prendre de lourds choix et d’être confronter à de lourdes conséquences.
Puis, il faut prendre en charge les malades afin de réduire la létalité (ce qui provoque la mort)
mais aussi pour briser la dynamique de la transmission. Il faut ensuite évaluer l’évolution de
l’épidémie afin de confirmer son efficacité. Enfin, on déclare l’épidémie avec un système de
surveillance qui a besoin d’un seuil épidémique (taux d’incidence + 2 écarts types) ou sans
système de surveillance du à un nombre de cas très élevé, parce que c’est un devoir de
solidarité et c’est le règlement. On décrit une épidémie en utilisant une mesure de
fréquence ; il y a le taux d’attaque, la létalité et la distribution en termes de temps, de lieux

17
et de personnes. Le « taux » d’attaque (une attaque n’est pas un taux mais une incidence),
qui est une mesure relative, est la proportion de personnes exposées à un risque infectieux
qui développent le syndrome infectieux étudié, parmi les personnes à risque, pendant une
période donnée. C’est la mesure de probabilité conditionnelle de contracter la maladie parmi
les sujets exposés aux risques infectieux. Une épidémie plus étalée est plus acceptable, car
en court d’intervention, on espère avoir assez de temps afin d’injecter des vaccins à la
population.

La pandémie est un phénomène de masse limité dans le temps mais pas dans l’espace.

L’endémie illimité dans le temps (ex : diabète).

Relation entre prévalence et incidence


Il y a un lien entre prévalence et incidence. Au plus le taux d’incidence d’une maladie est
élevée, au plus la prévalence augmente. Au plus la durée de la maladie est longue, au plus la
prévalence augmente.

Mesures d’effets en épidémiologie


18
Causalité et raisonnement causal en épidémio
Il existe 2 types d’approche ; il y a l’approche déterministe et l’approche probabiliste.
L’approche déterministe est une relation de cause à effet qui est constante et parfaitement
prévisible entre 2 facteurs X et Y. Dans cette approche X est la cause nécessaire de Y, ce qui
signifie qu’une personne tombera malade parce qu’elle a été exposé au facteur X. Il est
nécessaire dans ce cas-là d’être exposé à un facteur X pour développer le facteur Y.

Koch émet 3 conditions nécessaires pour qu’un agent infectieux (X) soit considéré comme la
cause d’une maladie (postulats de Koch 1882) :

- L’agent est présent dans tous les cas de la maladie considérée

- L’agent exerce toujours un effet pathogène et ne peut être présent de manière


accidentelle

- L’agent peut être isolé en culture à partir d’un cas de la maladie et provoque cette
maladie chez l’animal de laboratoire

Cependant, ces postulats ont des limites. Ils ne sont pas applicables à toutes les bactéries
pathogènes, aux virus, champignons et parasites. Ils ne couvrent pas les notions de porteur
asymptomatique, car certaines personnes peuvent être porteur d’un virus quelconque sans
jamais faire la maladie (ex : zona). Enfin ces postulats sont inutilisables en dehors des
maladies infectieuses. L’approche déterministe ne fonctionne pas pour toutes les maladies, il
faut donc chercher d’autres règles en vue d’établir une présomption de causalité.

Quelquefois on risque d’être exposé à des raisonnements fallacieux. Peut-être que le test
diagnostique a mal été fait, ce qui apporte un biais (déformation) d’information du à des
erreurs de mesures. On peut aussi être confronté à un facteur de confusion, un facteur
confondant qui donne une fausse impression et dissimule le vrai facteur. Le fait que le risque
de trisomie 21 augmente avec le rang de l’enfant dans la fratrie cache une variable
confondante qui est l’âge de la mère. Plus elle est âgée, plus le risque d’obtenir un enfant
malade de la trisomie 21 est grand. On peut aussi avoir des erreurs dû au manque de
précision, dû au hasard, car si la taille de l’échantillon est trop petite, on risque d’obtenir une
IC (intervalle de confiance) trop large qui nous apportera un manque de précisions dans nos
données. Au plus la taille de l’échantillon est élevée, au plus l’IC sera étroit, au plus on sera
précis.

L’approche probabiliste met en avant l’effet qui est un événement dont la survenue est plus
ou moins probable en présence d’un facteur causal hypothétique. On n’est donc jamais sûr
de ce qu’on dit, parce que la certitude s’efface au profit de la probabilité. Dans cette
approche X est la cause suffisante de Y, ce qui signifie que parce qu’une personne est exposé
au facteur X elle pourrait tomber malade. Il suffit d’être exposé à X pour attraper Y. La notion

19
de cause unique est remplacée par celle de réseau de cause, car il y a un ensemble de causes
qui se mélangent les unes aux autres.

Il existe quelques critères de présomption causale basés sur la relation temporelle, la force
de l’association, la spécificité de l’association, la relation dose-réponse, la réversibilité de
l’association, la plausibilité biologique et la cohérence des résultats. La relation temporelle
utilisera des études prospective, longitudinale, cohorte : est-ce que l’exposition précède la
maladie ? La force de l’association met un lien entre l’exposition et la maladie. La spécificité
de l’association met en avant le fait que la cause ne peut pas toujours apporté l’effet observé.
La relation dose-réponse se demande si l’intensification de l’exposition à la cause se traduit-
elle par une aggravation de l’effet ; au + il y a de personnes exposées, au + il y aura de
malade. La réversibilité de l’association est de voir si l’élimination de la cause entraine la
réduction du risque de maladie. La plausibilité biologique fait un lien entre l’observation et ce
qu’on sait. La cohérence des résultats met en lien les résultats obtenus de l’étude par
d’autres études afin d’examiner la similitude.

Il existe aussi différents types de relations causales (Schwartz). Pour certaines maladies, X est
nécessaire et suffisant pour développer la maladie. C’est le cas de la trisomie 21 où l’enfant
n’expose pas les symptômes du mongolisme s’il n’est pas atteint de la trisomie 21. Mais
toute personne souffrant de la trisomie 21 aura tous les signes et symptômes du
mongolisme. Pour d’autres maladies, X n’est pas nécessaire mais il est suffisant comme pour
la transmission du VIH via du sang contaminé. Une personne ne devient pas séropositive
qu’en se transfusant du sang contaminé mais aussi via d’autre voies de contaminations.
Cependant il faut être en contact du virus VIH pour devenir séropositif. Il y a aussi celles où X
est nécessaire mais n’est pas suffisant pour avoir la maladie. Il faut être infecté par le virus BK
pour avoir la tuberculose, mais tous ceux qui sont contaminés par le virus non pas forcement
développé la tuberculose. Enfin, il y a les maladies où X n’est pas nécessaire et n’es pas
suffisant, ce qui est le cas pour le cancer des poumons. Ce n’est pas parce qu’une personne
ne fume pas qu’elle ne développera pas de cancer de poumons. De plus, une personne peut
très bien fumer et ne jamais développer de cancer de poumons.

Un facteur d’exposition peut être un facteur (marqueur) de risque ou un facteur de


protection. On parle de marqueur de risque s’il exerce un effet défavorable (ex : tabac,
pollution). Un facteur de protection exerce un effet favorable (scolarisation, médicament).

! L’épidémiologie causale est évolutionniste. La maladie et ses déterminants varient au cours


du temps, selon les connaissances de l’époque, les processus d’adaptation biologiques et
sociaux. Tous les praticiens doivent se mettre au courant des nouveautés.

Les mesures d’association en épidémiologie


Il existe 2 types de mesures : les mesures d’association et les mesures d’impact. Les mesures
d’association calculent le rapport de taux, le taux d’incidence. Le taux d’incidence est le flux

20
avec laquelle la maladie rentre dans la population. On le calcule en utilisant les
personnes.temps, c’est-à-dire qu’on utilise une étude cohorte, longitudinale, prospective. On
peut aussi calculer le rapport de risques (= risque relatif, RR) qui fait appelle à une incidence
cumulée. L’incidence cumulée est une proportion, une probabilité de risque. Quand RR > 1
les exposés sont plus à risque de développer la maladie. Quand RR < 1 les exposés sont
moins à risque de développer la maladie.

Rapport des taux :

TIR = Tie+ -> taux d’incidence chez les exposés

Tie- -> taux d’incidence chez les non-exposés.

Odds ration ou rapport des cotes

L’odds ration est une mesure qualitative même s’il est chiffré. On peut le calculer quelque
soit le type d’étude mais il est surtout utilisé en étude cas-témoin. Une étude cas-témoin
prend en compte 2 échantillons : les cas qui sont les personnes ayant la maladie étudiée et
les témoins qui peuvent très bien être des personnes malades mais souffrant d’une autre
maladie que celle qu’on étudie. On peut donc mettre dans les témoins toutes les personnes
avec n’importe quelle maladie. Ce qui est important en épidémiologie, est de faire un groupe
de comparaison. On a toujours des exposés et des non exposés. L’odds est utilisé quand il est
impossible de disposer de mesures d’incidences (IC ou TI). C’est une application générale. La
cote d’un évènement est le rapport entre la probabilité de survenue d’un évènement et
l’évènement complémentaire ; c’est le produit croisé. L’odds ratio donne une relation
relativement bonne sur le RR, TIR (taux d’incidence relatif) pour autant que la prévalence et
donc le taux d’incidence ou IC soit ≤ 10%. ! L’odds nous donne une information moins fine
qu’un RR, de plus le RR est un indicateur quantitatif.

Rapport des cotes :

Odds ratio = AD (voir tableau)

CB

Interprétation de mesures d’association

Les mesures de fréquences sont dites comme étant des valeurs relatives valables si et
seulement si les mesures sont exprimées dans la même unité et que les groupes à comparer
sont similaires pour les variables associées à l’exposition ou à la maladie (âge, genre,…).

21
L’intérêt clinique dépend des valeurs absolues des fréquences à comparer. Il existe une
association uniquement si le RR > ou < que 1. On parle d’association positive si RR > 1 et
d’une association négative si RR < 1 ( ! RR n’a pas d’unité). Si le RR ≥ 2, alors on a un autre
critère de causalité qui est rempli. On parle d’une association forte. L’association est
considérée comme étant forte RR ≤ 0.5 ou si RR ≥ 2. Ce n’est pas parce que j’ai un RR > 1 que
j’ai une relation causale ( ! QCM). Pour qu’on parle de relation causale il faut prendre en
considération toutes les critères de présomptions causales et pas seulement la force
d’association qui illustre l’association statistique qui existe entre la variable d’exposition et la
variable maladie. On choisie un résultat en fonction d’une série d’autres variables qui
caractérisent une personne, une intervention que je vais mettre en place. La variable résultat
est dépendante des caractéristiques d’une personne, d’une intervention. La variable qui
caractérise la personne dans mon étude est considérée comme une variable indépendante.
Le facteur d’exposition est donc une variable indépendante et la variable de la maladie est
une variable dépendante.

Les mesures d’impact


Les mesures d’impact donnent une information supplémentaire au RR. Elles mesurent la part
de l’effet attribuable à l’exposition. Il y a 2 types de mesures d’impact : la différence de risque
et la fraction étiologique du risque ou la fraction prévenue du risque.

La différence de risque (DR) est l’incidence cumulée chez les exposés moins l’incidence
cumulé chez les non exposés si le RR > 1. On veut toujours avoir un RR positif ! On peut donc
inverser les 2 incidences cumulées pour avoir un RR positif. Elle est aussi calculée avec des
taux d’incidences. Elle s’exprime dans la même unité que les mesures de fréquences
comparées. Elle donne une estimation du bénéfice ou de la perte de santé si les E+ n’était
plus exposé au facteur de risque.

La fraction étiologique du risque (FER) est dans le sens de ce qui provoque la maladie. C’est
la mesure de la proportion sur la fraction du risque qui est attribuable à un facteur
d’exposition dans le groupe des E+.

Si RR > 1 FER = IE+ - IE- = RR – 1

IE+ RR

La fraction prévenue du risque (FPR) pour les exposés est la mesure de la proportion sur la
fraction du risque qui est prévenue ou évitée grâce à un facteur d’exposition dans le groupe
des exposés.

Si RR < 1 FPR = IE- - IE+ = 1 – RR

IE-

22
L’information en épidémiologie
Quand on développe des études en épidémiologie, on part de questions. Le 1 er type de
question est Y. Y quand ? Quoi ? Qui ? Où ? Y est la maladie. On se demande donc « quel est
l’état de santé d’une population ? » Quand on parle d’état de santé d’une population, on
parle de mesures de fréquences. Ces mesures de fréquences sont la prévalence (on prend
une photographie et on mesure la proportion de personnes malades dans une population à
un moment donné), le taux d’incidence (je regarde la vitesse, le flux avec lequel une maladie
entre dans une population), l’incidence cumulée (une proportion, une probabilité, ça mesure
un risque) et le taux d’attaque (c’est un faux taux, c’est la même chose qu’une incidence
cumulée mais sur une période très courte). Quels sont les types de mesures de fréquence
que l’on peut mesurer avec ce type d’étude ? ( ! QCM). Pour décrire le Y, on peut s’intéressé
aux décédés. Pour les décédés, on se rapporte au taux de mortalité, qui est la même chose
que le taux d’incidence. On a des taux de mortalité brut et des taux de mortalité spécifique.
Spécifique, car on s’intéresse à un groupe particulier de la population (ex : taux de mortalité
chez les femmes enceinte). Mais il y a aussi la létalité qui est assez similaire à l’incidence
cumulée.

Le 2e type de question qu’on se pose est « X entraine-t-il Y ? » Est-ce que le fait d’être exposé
à quelque chose entraine-t-il une maladie ? Dans le domaine de la santé, on ne peut pas
avoir une approche déterministe, car on sera dans une logique où dès qu’on est exposé à
quelque chose, on développe directement la maladie. De plus, la question de causalité est
assez évidente alors que dans la réalité, c’est bien plus complexe. On fait alors une approche
probabiliste. Dans ce cas-là, la mesure statistique n’est plus suffisante pour établir un lien de
relation de cause à effet. On a donc besoin d’une série de critères de présomption causale.
Au plus j’ai des critères de causalité qui sont remplis, au plus je suis certain qu’il y ait un lien
de cause à effet. Pour établir le lien entre « je suis exposé et je deviens malade », on utilise
les mesures d’associations et les mesures d’impact.

Dans les mesures d’association, il y a le risque relatif (RR) et le taux d’incidence relatif (TIR).
On utilise surtout des RR (!QCM). On peut calculer les RR et les TIR qu’avec des études
longitudinales. Quand on ne peut pas mesure un RR ou un TIR, on n’a pas d’autre choix que
de mesurer un odds ratio (OR). L’OR est surtout calculer dans les études cas-témoins et les
études transversales. RR, TIR et OR sont des mesures statistiques qui ne sont pas suffisantes

23
pour établir un lien de causes à effet. Il faut donc rajouter des critères de présomption
causale.

Dans la mesure d’impact, il y a la différence de risque et la fraction de risque. Ces 2 mesures


sont des mesures statistiques, elles ne sont donc pas suffisantes pour créer un lien de cause
à effet.

Une fois les questions posées, et comme on sait qu’on ne peut pas utiliser toute la
population pour l’étude, on faire une procédure d’échantillonnage. Ce qui signifie qu’on
prend un plus petit groupe de la population mais qui doit être le plus représentatif possible. !
La taille de l’échantillon va influencer la précision de la mesure. On fait ensuite la collecte de
donnée dans l’échantillon qu’on a choisi puis on analyse les données. Enfin, on vérifie si nos
hypothèses étaient vraies ou fausses et on essaie de répondre à nos questions.

! Aux différentes étapes de l’étude d’épidémiologie, je peux être confronté à différents types
d’erreurs (erreurs de précisions, erreurs de validité, erreurs de biais).

Mesures de fréquence

Les mesures de fréquence me permettent de décrire une maladie en se posant les questions
suivantes : Quoi ? Qui ? Quand ? Où ? L’objectif est d’étudier la fréquence et la répartition
des problèmes de santé dans une population.

La prévalence mesure la fréquence d’un état déterminé à un moment donné. Elle mesure
aussi la présence de la maladie dans une population. C’est une mesure transversale ; elle
fournit l’information sur la situation au moment de la mesure.

L’incidence (TI ou IC) mesure la fréquence du changement d’état au cours d’une période de
temps déterminée. Elle mesure aussi l’apparition de la maladie dans une population. C’est
une mesure longitudinale ; elle prend en compte la dimension temporelle.

On illustre une validité par Sn et Sp. Un évènement est basé sur des critères, des normes et
des instruments de mesure. Pour la population, on s’intéresse à la taille de l’échantillon et à
obtenir l’échantillon le plus représentatif de cette population.

Évènement

Une population (X une période)

Définition de la population-échantillonnage

Selon la définition de la population, il y a 2 étapes de sélection des sujets. Tout d’abord, on


fait une restriction. Cette restriction permet de définir la population type ; elle s’intéresse à

24
un groupe spécifique de la population. Puis, on fait l’échantillonnage qui permet d’extraire un
échantillon de la population sur lequel l’étude sera réalisée.

Tout d’abord, on définit à quel groupe on s’intéresse afin de faire une restriction de la
population selon des critères d’éligibilité. Si tous les sujets de l’univers de l’étude sont
éligibles, alors la restriction est nulle vu que dans cette condition, il suffit de procéder à un
tirage de l’échantillon de la population générale. Pour avoir une restriction complète, il faut
prendre que les sujets qui satisferont à un ensemble uniformes de critères d’éligibilité. Si on
choisit de faire une procédure d’appariement, on doit choisir des sujets qui sont les plus
similaires possibles des personnes étudiées, du groupe index. Si les personnes étudiées sont
malades, il faut que l’autre groupe ne le soit pas.

Une fois qu’on ait notre population-cible, on fait une base de sondage qui comprend
seulement les personnes qu’on peut sélectionner dans l’échantillon. A ce moment, on a
l’échantillon aléatoire qui peut être simple, systématique, stratifié ou en grappes. A partir de
l’échantillon, on peut émettre des conclusions sur la base de données ; on fait une inférence
statistique mais il faut faire attention au biais de sélection. On peut aussi faire une inférence
épidémiologique, c’est-à-dire qu’on émet des conclusions sur la population-cible à partir de
l’échantillon.

Population-temps

A un moment donné, on collecte des données dans une population. Quand on s’occupe
d’une population statique, on procède à une étude transversale. Evidemment, prendre les
données de prévalence des sujets demande beaucoup de temps mais comme on le fait
qu’une seule fois, on parle d’étude transversale.

Il y a 2 sortes de population dynamique, Pour la population fermée, on étudie l’échantillon et


on le suit pendant un certain temps. On mesure des données d’incidences plusieurs fois chez
les mêmes sujets, on fait une étude longitudinale. Pour la population ouverte, on utilise
différent temps pour la cohorte.

Au départ, on identifie un facteur d’exposition. On part de celui-ci. On fait une surveillance


de la population tout en allant dans le sens de la causalité. On va vers un nouveau cas ; on
identifie la survenue de l’effet (étude prospective). On fait des critères important de la
présomption causale. Une fois l’effet identifié, on part à rebours de la causalité afin de
récolter des infos sur le facteur d’exposition (étude rétrospective). ! Une collecte de données
rétrospective est différente de la prospective.

Objectifs principaux des différents types d’études

Les études expérimentales (d’intervention) sont utilisées pour tester l’efficacité d’un
médicament, d’une intervention. Les études de cohorte nous permettent de tester des
hypothèses causales. Les études de cas-témoins servent à formuler des hypothèses

25
étiologiques. On ne peut pas mesurer une prévalence. Une étude cas-témoin est une étude
rétrospective ; elle nous permet seulement d’émettre des hypothèses. Les études
transversales qu’on appelle aussi « cross-sectional » sont utilisées pour mesurer la dimension
d’un problème, mesurer une prévalence. L’étude parfaite n’existe pas ! Tous ces différents
types d’études sont complémentaires.

Le 1er grand type d’étude est l’étude d’intervention (=expérimentale). Le chercheur intervient
dans l’histoire naturelle de la maladie. Puis, il expose les sujets à un facteur d’exposition
censé avoir un effet favorable (procédure diagnostique, médicament, intervention à visée
préventive…). Le chercheur doit absolument avoir un respect éthique ; il ne peut pas exposer
ses sujets à une substance toxique, au froid, à la faim, au chômage.

Le 2e grand type d’étude est l’étude d’observation. Dans ce cas, le chercheur n’intervient pas
dans l’histoire naturelle de la maladie, de l’évènement étudié. Il laisse le champ libre à la
nature. Il observe, effectue et analyse des mesures. Il existe 2 types d’études d’observation ;
l’étude étiologiques (= analytique) vise à expliquer comment un facteur d’exposition produit
un effet. Cette étude est aussi divisée en 2 catégories : l’étude de cohorte et l’étude cas-
témoin. Le 2e type d’étude d’observation est l’étude descriptive qui vise à décrire un
problème de santé dans une population. L’étude descriptive est la 1ere étape de toute
investigation épidémiologique.

En résumé, les études épidémiologiques comportent 2 grands types d’études : l’étude


d’observation et l’étude d’intervention (randomisée ou non) Dans l’étude d’observation, on
collecte des données individuelles ; ces données sont soit descriptives soit analytique
(=étiologique). L’étude descriptive permet de faire une étude de cohorte ou une étude
transversale avec laquelle on peut faire une étude de prévalence. L’étude analytique fait un
lien entre un facteur d’exposition et l’apparition de la maladie. Dans ce cas, on peut faire une
étude de cohorte et une étude de cas-témoin.

Les types d’erreurs

Dans les études épidémiologiques, on prend des mesures à partir d’observations, ce qui
signifie qu’on fait des estimations de prévalence, d’incidence, RR… ! Toute estimation est
sujette à l’erreur.

On peut faire face à 2 types d’erreurs : les erreurs aléatoires par manque de précision de
l’estimation (échantillonnage, test d’hypothèse statistique, intervalle de confiance), on parle
aussi de chance. Et les erreurs systématiques dues à la validité de l’estimation, qu’on appelle
aussi des biais. ! Au plus j’augmente la taille de l’échantillon, au plus je suis précis (baisse
d’erreur aléatoire) mais l’erreur systématique ne varie pas, car elle ne dépend pas la taille de
l’échantillon.

Les erreurs aléatoires

26
Pour conclure qu’une hypothèse est vraie (H1), on cherche à montrer que son contraire (H0)
est fausse. Les tests d’hypothèses mesurent la probabilité que les différences observées
entre groupes sont dues au seul hasard et pas à de vraies différences. Tout d’abord, on
formule une hypothèse de nullité (H0) selon laquelle les différences observées sont
explicables par le seul hasard (H0 est l’inverse de H1). Ensuite, on calcule la probabilité que
les différences observées sont compatibles avec H0. Enfin, on prend une décision afin de
savoir si H0 sera gardée ou rejetée.

L’erreur α (erreur de type I) conclue à tort qu’une différence existe alors qu’elle n’existe pas
dans la réalité. Il est probable que les modifications d’échantillonnage expliquent à elles
seules l’erreur α. Comme le fait de prendre un échantillon non représentatif. Mais elle peut
aussi être dû à une mauvaise interprétation de la p-value. Si p-value est inférieur au seuil
fixé, l’H0 est rejetée. Par convention, le seuil est de 5%, ce qui signifie qu’on accepte 5%
d’erreurs dû au manque de précision. On peut aussi faire une probabilité complémentaire
(=confiance) qui vaut 1 – α.

Les erreurs systématiques

Un biais peut être en faveur de l’hypothèse nulle (s’il n’y a pas de différence entre les
exposés et les non-exposés -> RR = 1) ou en faveur de l’hypothèse alternative (Ha) (il y a une
différence >1 ou <1 entre les exposés et les non-exposés). Un biais peut être introduit à tous
les stades de l’étude ce qui apporte une préoccupation constante pour la recherche et la
lecture critique de la littérature scientifique.

Les différents types de biais

Il existe différents types de biais, il y a les biais de sélection, les biais d’information et les biais
de confusion.

Pour le biais de sélection, on fait une erreur dans le processus de sélection de l’échantillon ;
on compare de mauvais malade avec de mauvais non malade. Cette erreur se fait au
moment de l’inclusion des unités lorsqu’on les sélectionne en relation avec leur statut en
termes de maladie ou d’exposition à un facteur de risque. Par conséquent, on risque
d’obtenir un biais dans la fréquence de la maladie et dans la fréquence de l’exposition qui
apportera une différence entre ceux qui font partie de l’échantillon et la population d’étude.
On peut faire un biais d’échantillonnage, un biais de constatation (admission (biais de
Berkson) ou diagnostic) ou un biais de participation dû à un volontarisme, des non-réponses
des sujets, des refus.

Un biais d’information est dû à une mesure incorrecte de l’exposition et/ou de l’effet. Même
si j’ai un échantillon représentatif, je mesure mal l’échantillon dû à une mauvaise
classification des sujets. L‘erreur de classification peut être différentielle, car elle affecte de
façon différente les groupes à comparer ; ou non-différentielle, parce qu’elle affecte de la
même manière les deux groupes à comparer. Il n’y a pas d’outil de mesure parfait ! On utilise

27
la Sn et Sp. Les erreurs de mesure entrainent la classification erronée en ce qui concerne le
facteur d’exposition ou de l’effet. Un biais d’information non-différentielle est une erreur
systématique. Elle apporte une classification erronée du facteur d’exposition qui est égale
entre le cas et le contrôle. Mais aussi une classification erronée de l’effet égale entre l’exposé
et le non exposé. Dans ce cas-là, on sous-estime la mesure d’association, car on est plus
proche de 1 que ça ne l’est dans la réalité. Un biais d’information différentielle est une erreur
systématique qui apporte une classification erronée du facteur d’exposition différente entre
le cas et le contrôle. Mais aussi une classification erronée de l’effet différente entre l‘exposé
et le non exposé. Ici, on peut faire une sous- ou sur-estimation de la mesure d’association,
parce qu’on peut être plus éloigné ou plus proche de 1 que ça ne l’est dans la réalité. Il existe
2 types principaux de biais d’information ; il y a le biais de rapportage (= de déclaration) ; on
rencontre des biais de rappel et des biais de prévarication (les cas exagèrent ou diminuent
leur exposition). Il y a aussi le biais d’observation ; on rencontre des biais d’interview et des
biais de suivi.

Les facteurs de confusion et les facteurs modifiant


Un biais de confusion implique un facteur confondant qui perturbe la mesure de l’association
entre une exposition et une maladie. Je pense qu’il y a un lien entre exposition et maladie
mais je suis en confusions, car le facteur me montre une fausse image. Si on pense être en
contact avec ce biais, on fait une stratification. On coupe l’échantillon en 2 groupes différents
en prenant garde à ce que les sujets conservent les mêmes caractéristiques. Un biais de
confusion peut aussi impliquer un effet modifiant. Pour savoir si on est face à un effet
confondant ou à un effet modifiant, on calcule tout d’abord des mesures d’association dans
chaque strate (homme/femme ; vieux/jeunes …). Si ces mesures d’association ne sont pas
égales, si elles changent en fonction de la variable, il s’agit d’effet modifiant. Par contre, si
elles sont égales, il faut calculer le RR/OR ajusté et le comparer au RR/OR brut. Si ces
mesures sont différentes, il s’agit d’un effet confondant ; si elles sont identiques il n’y a aucun
effet.

28
Les essaies thérapeutiques = études d’intervention

Les études épidémiologiques commencent par l’étude d’observation. Dans ces observations,
on peut rencontrer deux types de données. Avec des données groupées, on peut faire une
étude écologique ou corrélationnelle. Avec des données individuelles, on a des données
descriptives avec lesquelles on fait une étude transversale et on a des données étiologiques
avec lesquelles ont fait une étude cohorte (on suit le temps) ou une étude cas-témoin (on
remonte le temps). Cependant, à un certain moment, il est juger important et éthique de
proposer un traitement, une intervention à un groupe de personne pour essayer d’améliorer
leur état de santé.

Ces essaies thérapeutique ont comme but de tester l’efficacité d’un traitement. Le chercheur
applique ce traitement à un groupe de sujets auquel il le compare à un autre groupe de
sujets qui ne reçoit pas le traitement (placebo). Il faut penser à un plan de recherche où il y
ait suffisamment de sujet pour que l’effet du hasard soit contrôlé et qu’on ait un groupe qui
reçoit le traitement et un autre qui ne le reçoit pas. ! Il faut qu’il n’y ait aucune autre
différence entre ces 2 groupes. Le meilleur design, le meilleur plan pour étudier un
traitement est la RCT (randomized controlled trial). Tout essai randomisé doit avoir ces 4
parties. Les 4 parties sont la question clinique précise, une méthodologie fiable, des résultats
d’observations et la dernière partie est comprendre, interpréter les résultats. L’objectif d’une
RCT est de comparer des traitements pour voir lequel est le meilleur ou de démontrer un
avantage d’un traitement, de démontrer qu’un traitement est mieux que rien.

• Question précise

Il n’y a plus de biais mais 2 groupes identiques

RCT

Cohorte 2 groupe suivis dans le temps

Cas-témoin voir passé des malades et des non-malades

Etude Transversale observation => aucune interprétation de causalité

29
La question de recherche doit être précise et pour être précis, on passe par un PI/CO (Patient
x Intervention / Contrôle x Outcome). Pour cela, on se demande chez qui on propose quoi,
par rapport à quel contrôle, pour observer quoi. Un outcome (endpoint) est l’issue ou
l’évènement ; c’est le critère de jugement. Pour ça, on calcule l’incidence cumulée et le
risque (probabilité) par ∆t. On sait aussi calculer le risque bras intervention qui est le risque
que les gens n’ayant pas pris le traitement aient la maladie. Le risque bras contrôle est le
risque que les gens ayant pris le traitement aient la maladie.

Risque bras intervention :

a+b

Risque bras contrôle :

c+d

• Méthode rigoureuse

Une RCT est le type d’étude d’intervention qui contrôle le mieux le champ d’évaluation et
présente le moins de risque de biais. Il est donc le plus fiable. Dans RCT, il y a 3 mots. Le
premier est l’ « essai » qui est une étude qui teste une intervention. L’intervention peut être
hygiénique, péridurale, chirurgicale, psychologique, etc. Le second est « contrôlé » qui
signifie qu’un groupe recevant l’intervention est comparé par un groupe contrôle, celui qui
reçoit le placebo. Le 3e mot est « randomisé ». Toute étude randomisée est contrôlée et
toute étude contrôlée n’est pas randomisée. Dans une étude contrôlée, on compare deux
groupes. Dans une randomisation, on compare deux groupes identiques.

La randomisation est la répartition aléatoire des sujets dans 2 groupes ou plus. Le but est
d’équilibrer les caractéristiques importantes qui influencent ce que l’on étudie. Le hasard
équilibrera toutes les caractéristiques qui pourraient influencer l’étude. On aura donc dans
les 2 groupes, la même proportion de chaque caractéristique. La seule différence devient
l’intervention que l’on veut étudier. Pour être sûr qu’il n’y ait pas de « triche », on fait un
double-aveugle. Ni les chercheurs, ni les patients, ni les statisticiens ne sont au courant de

30
qui reçoit quel traitement. On masque le statut E (E+ ou E-). Le but est de garder l’objectivité
surtout si l’outcome est subjectif. Ce qui est différent du protocole ouvert (open label) où les
personnes connaissent la réalité du traitement.

Il y a 5 étapes dans le déroulement de la RCT. Au départ, on a une population et on


sélectionne un échantillon. Ensuite, on fait une randomisation de l’échantillon afin d’obtenir
2 groupes identiques dont leur seule différence est le traitement pris. On fait un suivi de ces
groupes pour acquérir des résultats. Enfin, on analyse tous ces résultats.

Le problème que peut survenir est que certaines personnes changent de groupe. Ceux qui
prenait le traitement peuvent l’arrêter en se disant que toute façon ils ne savent pas ce qu’ils
prennent alors mieux vaut arrêter. Et il y a ceux qui prennent le placebo, ils partent chez un
autre médecin en leur demandant ce qu’est le médicament qu’ils prennent. Découvrant que
c’est le placebo, ils demandent d’obtenir le vrai traitement. Face à ça, on a 2 choix. Soit on
accepte ce changement, car c’est le problème le plus pur vu que ça fait partie des choses de
la vie. Soit on rapatrie les personnes ayant changées de groupe dans le bon groupe ou de ne
plus les suivre. Mais on a tendance à prendre le 1 er choix. La 1ère étape de la RCT est une
validité externe ; l’ITT. Le reste est une validité interne.

En conclusion, l’intérêt majeur d’une RCT est l’absence de biais de répartition grâce à la
randomisation. Son déroulement est fait en 5 étapes (1 externe et 4 internes). Et si la RCT est
en double-aveugle, la garantie d’objectivité est assurée.

• Résultats quantifiés

On montre souvent les mesures relatives : rapport de risque = RR et la réduction relative du


risque = RRR. Pour ces mesures, on calcule la différence de risque (amplitude), on regarde si
elle est statistiquement significative et on calcule la p-value et l’IC (intervalle de confiance).
Ce qu’on ne nous montre pas et qu’on doit calculer est la mesure absolue (réduction absolue
du risque = RAR). On calcule la différence de risque (amplitude), on regarde si elle est
cliniquement significative et on calcule le nombre de sujets à traiter (NST ou NNT).

Un rapport de risque (= risk ratio = RR) est la fréquence de survenue de l’évènement dans le
groupe traité (a/a+b) qui est multiplié par la fréquence de survenue de l’événement dans le
groupe contrôle (c/c+d). Si RR ˂ 1, on a un effet favorable du traitement (RE+ ˂ RE-). Si RR ˃ 1,
on a un effet défavorable d’E+ (RE+ ˃ RE-).

RR = a x c+d

a+b c

31
La RRR (= ERR : excès relatif du risque) est la fréquence de survenue de l’événement dans le
groupe expérimental qui sera diminuée ou augmentée en pourcentage par rapport au
groupe de comparaison.

RRR = RE+ - RE-

RE+

Si RR ˂ 1, alors RRR = 1 – RR

Si RR ˃ 1 alors ERR (excès relaf du risque) = RR – 1

RR

La RAR (réduction absolue du risque = ARR) est la fréquence absolue des évènements évités
dans groupe expérimental grâce à l’intervention.

RAR = RE+ - RE-

La NNT (number needed to treat) ou la NST (nombre de sujets à traiter) est le nombre de
patients à traiter selon le protocole expérimental pour éviter un événement attendu
(utilisation d’une simple règle de trois)

NNT = 1 = 1

|ARR| |RE+ - RE-|

• Interprétation (avec confiance)

Si on répète l’étude, dans 95% des cas on trouverait un effet estimé compris dans cet
intervalle. Il y a 95% de chance que cet intervalle contienne la valeur vraie mais inconnue de
l’effet estimé. Si l’IC95 exclut la valeur de H0, alors p ˂ 0.05 et la différence est stasquement
significative.

Il y a des façons de savoir si le hasard n’a pas donné la différence escomptée. Il est possible
que si les personnes ayant pris le traitement agissent comme s’ils prenaient du placebo
(aucune efficacité chimique du médicament). Il y a une certaine probabilité que la chance est

32
faite en sorte que le taux de ce groupe ait un pourcentage plus grand que l’autre groupe. On
calcule alors la probabilité que le hasard est fait ça. On mesure donc la p-value. P est la
probabilité d’observer par le hasard une différence entre les groupes. Elle va de 0 à 1 et son
seuil est par convention ˂0.05 ou ˂0.01. Elle est foncon à la fois de la précision de la mesure
et de la taille de l’échantillon. Plus la précision est grande, plus la p-value est petite.
Statistiquement significative est de l’ordre de la précision (peu de chance que le hasard est
fait ça) cliniquement significative est qu’il est utile pour le patient. Ce sont 2 jugements
différents. Quand la p est en dessous de 5% alors l’IC95 exclut H0 (hypothèse de nullité). Si le
traitement a un effet nul, la valeur numérique du RR vaut 1. Donc RR qui vaut 1 est l’H 0. C’est
soit une p-value de 5% ou une IC95 qui exclut l’H0.

Randomized Controlled Trial (RCT)

Vocabulaire
- Randomization : répartition aléatoire ; répartition liée au hasard

- Setting : où se passe l’étude

- Double-blind : double-insu ; ni le patient, ni le scientifique ne sait qui prend quoi.

- Outcome (endpoint) : critère d’évaluation ; qu’est-ce qu’on mesure

- Intention to treat (ITT) : analyse selon la randomisation

- Follow-up : suivi dans le temps de la proportion des gens

- RRR : réduction relative du risque

33
- IC (95%) = intervalle de confiance à 95%

- NNT : nombre de personnes à traiter (pour éviter un outcome)

Démarche critique
Face à un article de recherche clinique sur un traitement, on cherche la synthèse, l’abstract
ou l’article complet et on l’examine en 4 étapes. La première étape est l’inspection qui porte
de l’intérêt à la maladie ; on regarde. La 2e étape est la validité de la maladie par la palpation.
Les résultats se montrent via l’auscultation et l’applicabilité par la percussion.

L’inspection se fait en 15 secondes. On inspecte le titre ou l’abstract. On regarde s’il a de


l’intérêt et on fait une sélection. On se pose 3 questions : Est-ce que le thème à un intérêt
clonique dans ma pratique ? Quel est le PICO (quoi ? chez qui ? pour quoi ?) Est-ce que le
journal est réputé ?

La palpation se fait en 45 secondes. On regarde l’abstract et on se demande si le domaine est


valide. Le but de la palpation est l’exclusion ; est-ce que l’étude est bien faite ? Il faut être sûr
que l’étude ne boite pas. On se pose 3 questions : est-ce que l’étude est randomisée ( !
essentielle – RCT) ? Est-ce que le double-aveugle a été respecté ( ! important si l’outcome est
subjectif) ? Est-ce qu’il y a un suivi de plus de 80% des sujets de l’étude (moins de 20% ont
disparu) ?

L’auscultation se fait en 2 minutes et sur l’abstract et les tables. Son but est d’analyser le
contenu. On se pose 3 questions : Est-ce que l’outcome est bien quelque chose de clinique ?
On regarde la taille le l effet et on cherche RRR et RAR. Est-ce que l’étude est statistiquement
significative ou pas (IC à 95%) ?

La répercussion se fait en 2 minutes et sur la table et le texte. Le but est de prendre une
décision sur l’applicabilité de l’information sur mon étude. On se pose 3 questions : est-ce
l’étude est pertinent (valeur des outcomes choisis) ? Est-ce qu’elle est généralisable ? Quels
sont les bénéfices et les inconvénients (inconfort, coût,…)

En conclusion, on doit baser nos décisions médicales sur des données scientifiques quand
elles existent. Il faut développer un esprit critique face à l’information thérapeutique.
Ensuite, il faut examiner cette information en 4 temps en mémorisant l’information solide et
relativiser l’information fragile. Enfin, il faut acquérir une indépendance, une autonomie
scientifique.

34

Vous aimerez peut-être aussi