Vous êtes sur la page 1sur 42

Biostistique

Mehdi naimi

Table des gures

1.1 Représentation schématique de A . . . . . . . . . . . . . . . . . . . . 3

1.2 Représentation schématique de A ∪ B ,(a) A, B s'excluent mutuelle-

ment ; (b) A, B ne s'excluent pas mutuellement . . . . . . . . . . . . 4

1.3 Représentation schématique de A∩B . . . . . . . . . . . . . . . . . . 5

1.4 Représentation graphique de la distribution associée à la table 1.2.3 . 9

1.5 fonction de répartition pour le nombre d'épisodes d'otite moyenne au

cours des deux premières années de vie. . . . . . . . . . . . . . . . . 11

1.6 Graphe d'une distribution continue montre la surface entre a et b. . 20

1.7 la fonction de densité pour Le niveau de triglycéride sérique . . . . . 20

1.8 la fonction de densité pour une loi normale de moyen µ = 50 et une

variance σ 2 = 100 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.9 Comparaison de deux distributions normales avec la même variance

et des moyennes diérentes . . . . . . . . . . . . . . . . . . . . . . . 25

1.10 Comparaison de deux distributions normales avec les mêmes moyennes

et des variances diérentes . . . . . . . . . . . . . . . . . . . . . . . . 26

1.11 Fonction de densité de la loi normale centrée et réduite . . . . . . . . 26

1.12 Fonction de répartition φ(z) pour la loi normale centrée et réduite . 27

1.13 φ(0.64) dans table de Gauss . . . . . . . . . . . . . . . . . . . . . . . 28

1.14 Évaluation des probabilités pour toute distribution normale à l'aide

de la normalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

i
Liste des tableaux

1.1 Distribution de probabilité des programmes utilisés par les familles

parmi les sujets décrits dans l'exemple 1.2.3 . . . . . . . . . . . . . . 9

1.2 Distribution de probabilité . . . . . . . . . . . . . . . . . . . . . . . 10

1.3 les ordres possibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.4 Un exemple de l'approximation de Poisson à la distribution binomiale

pour n = 100, p = 0, 01, k = 0, 1, .., 5. . . . . . . . . . . . . . . . . . . 19

ii
Table des matières

Introduction 1

1 Rappel sur la théorie des probabilités 2


1.1 Vocabulaire et axiomes . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.1.1 Opérations sur les événements . . . . . . . . . . . . . . . . . . 3

1.1.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.2 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 L'espérance mathématique et la variance d'une variable aléa-

toire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

1.3 Lois usuelles de probabilités discrètes . . . . . . . . . . . . . . . . . . 13

1.3.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.3.2 Loi binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

1.4.1 Approximation de la loi binomiale (par la loi de Poisson) . . . 18

1.5 Variable aléatoire continue . . . . . . . . . . . . . . . . . . . . . . . . 19

1.6 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.6.1 Fonction de densite et fonction de repartition de la loi normale 23

1.6.2 Des caractéristiques de la distribution normale . . . . . . . . . 24

1.6.3 La fonction de répartition de la loi normale centrée réduite . . 27

1.6.4 standardisation d'une loi normale quelconque N (µ, σ) . . . . . 29

A LES TABLES DE STATISTIQUE 32


A.1 Table de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

A.2 Table de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

iii
A.3 Table de Chi-2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

Bibliographie 36

iv
Introduction

Même la science est incertaine. Les scientiques ont parfois tort. Ils arrivent à des

conclusions diérentes dans de nombreux domaines diérents : les eets d'un certain

ingrédient alimentaire ou d'une faible radioactivité, le rôle des graisses dans les ré-

gimes alimentaires, et ainsi de suite. De nombreuses études ne sont pas concluantes.

Par exemple, pendant des décennies, les chirurgiens ont cru qu'une mastectomie ra-

dicale était le seul traitement du cancer du sein. Plus récemment, des essais cliniques

soigneusement conçus ont montré que des traitements moins drastiques semblaient

tout aussi ecaces.

Mais le plus important, c'est qu'il faut toujours faire face à des informations incom-

plètes : il est soit impossible, soit trop coûteux, soit trop long, d'étudier l'ensemble

de la population ; il faut souvent s'appuyer sur des informations obtenues à partir

d'un échantillon, c'est-à-dire un sous-groupe de la population faisant l'objet de l'en-

quête. Donc, une certaine incertitude prévaut presque toujours. La science et les

scientiques font face à l'incertitude en utilisant le concept de probabilité. En cal-

culant les probabilités, ils sont en mesure de décrire ce qui s'est passé et de prévoir

ce qui devrait se produire à l'avenir dans des conditions semblables.

1
Chapitre 1

Rappel sur la théorie des probabilités

1.1 Vocabulaire et axiomes

La théorie des probabilités à pour but l'étude des phénomènes ou les expériences

aléatoires .Une expérience est appelée aléatoire s'il est impossible de prévoir son

résultat et si, répétée dans des conditions identiques, elle peut donner, ou aurait pu

donner, si l'expérience est unique, des résultats diérents.

Dénition 1.1.1 (ensemble fondamental). L'ensemble de tous les résultats possibles


d'une expérience aléatoire est appelé ensemble fondamental et on le note souvent par

Ω.

Lorsqu'on jette un dé (à six faces numérotées), si on s'intéresse au nombre obtenu

sur la face supérieure, l'ensemble fondamental est Ω = {1, 2, 3, 4, 5, 6} Le résultat

d'une expérience, c'est-a-dire d'une combinaison de résultats possibles, constitue un

évènement.

Dénition 1.1.2 (évènement). Un événement de Ω est un sous ensemble de Ω. Un

évènement peut être élémentaire (un seul élément) ou composée (plusieurs éléments).

Exemple 1.1.1. Si nous considérons l'expérience qui consiste a lancer un dé à six

faces numérotées Ω = {1, 2, 3, 4, 5, 6}


l'évènement A : "avoir le chire 2", est un évènement élémentaire A = {2} ⊂ Ω.
l'évènement B : "avoir un chire pair ", est un évènement composé B = {2; 4; 6} ⊂
Ω.

Toute expérience aléatoire comprend un événement certain et un événement

impossible. L'événement impossible est représenté par ∅, le sous-ensemble qui ne

2
contient pas d'éléments. Dans le cas du lancement d'un dé, l'événement impossible

pourrait être décrit par :

l'évènement C : "avoir le chire 7", A = ∅.


Ω est l'évènement certain dans le sens que le résultat d'une expérience doit être

par dénition parmi les résultats possibles de l'expérience. l'évènement E : "avoir le

chire inférieur à 7", E = Ω.

1.1.1 Opérations sur les événements

L'évènement contraire (La négation)


Dénition 1.1.3. L'événement contraire de A, noté A est l'événement qui se réalise
lorsque A ne se réalise pas, ou complémentaire de A par rapport à Ω. L'événement

A est illustré à la gure 1.1

Figure 1.1  Représentation schématique de A

Dans l'exemple 1.1.1, l'évènement B = {2; 4; 6} "avoir un chire pair " or L'évé-
nement contraire de B , B = {1; 3; 5} "avoir un chire pair ".

L'union (la disjonction)


Dénition 1.1.4. A ∪ B est l'événement où A ou B se réalise, ou les deux se

réalisent simultanément, est appelé la disjonction de A et B.

Remarque 1.1.1. Les deux événements A et B s'excluent mutuellement si A et B


ne peut pas se réaliser simultanément.

3
La gure 1.2 illustre graphiquement A∪B pour le cas où A et B sont et ne sont

pas mutuellement exclusifs.

Figure 1.2  Représentation schématique de A ∪ B ,(a) A, B s'excluent mutuelle-


ment ; (b) A, B ne s'excluent pas mutuellement

L'intersection (La conjonction)


Dénition 1.1.5. A ∩ B est l'événement où A et B se produisent simultanément.

A∩B est représenté graphiquement à la gure 1.3

Exemple 1.1.2. Dans L'exemple 1.1.1.

A ∩ B, "avoir le chire 2" et "avoir un chire pair " donc A ∩ B = {2}


A ∩ B, "avoir le chire 2" ou "avoir un chire pair " donc A ∩ B = {2, 4, 6}

Exemple 1.1.3. Supposons que A soit l'événement pour lequel une personne a une

tension artérielle diastolique normotensive (DBP) (DBP < 90), et que B entre

4
Figure 1.3  Représentation schématique de A ∩ B

(90 ≤ DBP < 95).


Les événements A et B s'excluent mutuellement car A∩B =∅ A∪B
A∪B est l'événement pour lequel une personne a une DBP inférieur à 95.

1.1.2 Probabilité

Dénition 1.1.6. On appelle une probabilité P sur ξ(Ω)(l'ensemble des événement

venant de Ω), une application de ξ(Ω) dans [0, 1] telle que

1. P (Ω) = 1
2. Si A et B deux événement qui s'excluent mutuellement, P (A ∪ B) = P (A) +
P (B)

Propriétés

1. L'événement impossible a une probabilité nulle. P (∅) = 0


2. La probabilité de l'événement contraire d'un événement A s'obtient par :

P (A) = 1 − P (A).
3. Si un événement implique un autre : A ⊂ B ⇒ P (A) ≤ p(B).
4. P (A ∪ B) = P (A) + P (B) − P (A ∩ B), pour tout événement A et B.
Cas particulier :
Il s'agit d'un cas assez courant où tous les événements élémentaires ont la même

probabilité de se produire, ce qui correspond à la loi uniforme discrète donné par :

5
Si L'ensemble fondamental est ni Ω = {a1 , a2 , ..., an } donc dans le cas d'équipro-
1
babilité, on a P (ai ) = pour tout i ∈ {1, ..., n}.
n
Cette particularité est souvent sous-entendue ou précisée par l'armation que les

résultats de l'expérience sont obtenus au hasard. On obtient alors pour un événe-

ment A.
P
P (A) = P (ai ) = Card(A)/Card(Ω) (où le ”Card” représente le nombre d'élé-
ai ∈A
ment diérentes).

Exemple 1.1.4. Dans le lancement du dé à 6 faces équilibrées, posant les événe-

ments suivant :

A obtenir un nombre pair  ;

B  obtenir un multiple de 3 

Alors

A = {2, 4, 6} , B = {3, 6} et A ∩ B = {6}


3 2 1
P (A) = 6
, P (B) = 6
et P (A ∩ B) = 6
4
Or P (A ∪ B) = P (A) + P (B) − P (A ∩ B) =
6
4
en eet A ∪ B = {2, 3, 4, 6} qui conrme que P (A ∪ B) =
6

événements indépendants
Dénition 1.1.7. Deux événements A et B sont dit indépendants si la réalisation

ou la non réalisation de l'un ne modie pas la réalisation ou la non réalisation de

l'autre. A et B sont indépendants si et seulement si P (A ∩ B) = P (A).P (B)

Exemple 1.1.5. Supposons que deux médecins, A et B, testent tous les patients ar-

rivant dans une clinique pour la syphilis. L'événement A+ = {le médecin A pose un

diagnostic positif } et B + = {le médecin B pose un diagnostic positif}. Supposons

que le médecin A diagnostique 10% de tous les patients comme positifs, le médecin

B diagnostique 17% de tous les patients comme positifs, et les deux médecins diag-

nostiquent 8% de tous les patients comme positifs. Les événements A+ , B + sont-ils

indépendants ?

La solution On nous donne :

P (A+ ) = 0.1, P (B + ) = 0.17 et P (A+ ∩ B) = 0.08

Alors P (A+ ∩ B) 6= P (A) × P (B), et les événements sont dépendants. Ce résultat

serait attendu parce qu'il devrait y avoir une similitude entre la façon dont deux

médecins diagnostiquent des patients pour la syphilis.

6
1.2 Variable aléatoire discrète

Après avoir réalisé une expérience, on s'intéresse souvent à une certaine fonction

(valeurs) du résultat et non au résultat en lui-même, le nombre d'enfants de sexe

masculin touchés par la rétinite pigmentaire dans une famille, le nombre de décès par

cancer chez les jeunes enfants dans une ville. Ces grandeurs (ou fonctions) auxquelles

on s'intéresse sont en fait des fonctions réelles dénies sur l'ensemble fondamental

et sont appelées variables aléatoires.

Cette section présente le concept général d'une variable aléatoire discrète et décrit

les distributions binomiales et de Poisson en profondeur. Ceci constitue la base de la

discussion des tests hypothèses basés sur les distributions binomiales et de Poisson.

Dénition 1.2.1. On appelle variable aléatoire le résultat d'une épreuve aléatoire

lorsque l'issu de celle-ci peut être présenter par un nombre.

On peut dénir une variable aléatoire X par :

X :Ω −→ R

ai 7−→ X(ai ) = xi

Deux types de variables aléatoires sont abordés dans ce texte : discrète et conti-

nue. Une variable aléatoire est dite discrète si elle peut prendre un nombre de valeurs

ponctuelles. et continue si prendre tout les valeurs d'un intervalle ou une union d'in-

tervalles.

Exemple 1.2.1. L'otite moyenne, une maladie de l'oreille moyenne, est l'une des

raisons les plus courantes de consulter un médecin au cours des deux premières

années de vie, autre qu'une visite de routine chez le bébé. soit X la variable aléatoire

qui représente le nombre d'épisodes d'otite moyenne au cours des deux premières

années de vie. Alors X est une variable aléatoire discrète, qui prend les valeurs 0, 1,

2, et ainsi de suite.

Exemple 1.2.2 (Santé environnementale). Les eets possibles sur la santé des tra-

vailleurs de l'exposition à de faibles niveaux de rayonnement sur de longues périodes

sont d'intérêt pour la santé publique. L'un des problèmes dans l'évaluation de cette

question est de savoir comment mesurer l'exposition cumulative d'un travailleur. Une

étude a été réalisée au chantier naval de Portsmouth, où chaque travailleur exposé

portait un insigne, ou dosimètre, qui mesurait l'exposition annuelle au rayonnement

en rem [2]. L'exposition cumulative au cours de la vie d'un travailleur pourrait alors

7
être obtenue en additionnant les expositions annuelles. L'exposition cumulative aux

rayonnements est un bon exemple d'une variable aléatoire continue, car elle variait

dans cette étude de 0,000 à 91,414 rem, ce qui serait considéré comme prenant un

nombre essentiellement inni de valeurs, qui ne peuvent être dénombrées.

La fonction Probabilité-Masse pour une variable aléatoire dis-

crète

Les valeurs prises par une variable aléatoire discrète et ses probabilités associées

peuvent être exprimées par une règle ou une relation appelée fonction probabilité-

masse (pmf ).

Dénition 1.2.2. Soit X une variable aléatoire discret, Une fonction probabilité-

masse est une relation mathématique, ou règle, qui associer à toute valeur possible xi
de la variable aléatoire X la probabilité P (X = xi ) = P (xi ). La fonction probabilité

de masse est aussi appelée distribution ou la loi de probabilité de X.

La distribution de probabilité peut être achée dans un tableau donnant les

valeurs et leurs probabilités associées, ou elle peut être exprimée comme une formule

mathématique donnant les probabilités de toutes les valeurs possibles.

Exemple 1.2.3. Dans un article paru dans le "Journal of the American Dietetic

Association, Holben et al". ont examiné le statut de sécurité alimentaire des familles

dans la région des Appalaches, dans le sud de l'Ohio. L'objectif de l'étude était

d'examiner les taux de faim des familles avec enfants dans le cadre d'un programme

Bon départ local à Athènes, en Ohio. L'enquête comprenait le nombre de programmes

d'aide alimentaire utilisés au cours des 12 derniers mois. Le tableau 1.1 montre les

résultats obtenus lors de cette étude.

Alternativement, nous pouvons présenter cette distribution de probabilité sous

la forme d'un graphique, comme dans Figure 1.4 Dans la Figure 1.4, la longueur de

chaque barre verticale indique la probabilité valeur correspondante de x.

Exemple 1.2.4. quelle la probabilité qu'une famille sélectionnée au hasard ait utilisé
un ou deux programme alimentaire.

Solution Pour répondre à cette question, nous utilisons la règle d'addition pour les

événements incompatible. Utilisant la notation de probabilité et les résultats dans la

table 1.1

On écrit P (X ∈ {1, 2}) = P (X = 1) + P (X = 2) =: 0.2088 + 0.1582 = 0.3670

8
Table 1.1  Distribution de probabilité des programmes utilisés par les familles

parmi les sujets décrits dans l'exemple 1.2.3

Figure 1.4  Représentation graphique de la distribution associée à la table 1.2.3

Fonction de répartition

Parfois, il sera plus pratique de travailler avec la fonction de répartition d'une

variable aléatoire, L'idée de base est d'assigner à chaque valeur individuelle la somme

9
des probabilités de toutes les valeurs qui ne sont pas plus grandes que la valeur

considérée. Cette fonction est dénie comme suit

Dénition 1.2.3. La fonction de répartition d'une variable aléatoire X est dénotée

par F (X) et, pour une valeur spécique x de X, est dénie par P r(X ≤ x) et

dénotée par F (x).

Exemple 1.2.5. On considère la variable aléatoire mentionnée dans l'exemple 1.2.1


représentant le nombre d'épisodes d'otite moyenne au cours des deux premières an-

nées de vie. Supposons que cette variable aléatoire a une fonction probabilité-masse

décrit dans le tableau 1.2.

calculer et représenter graphiquement la fonction de répartition pour la variable aléa-

toire "otite moyenne".

La solution La fonction de répartition est donnée par :

F (x) = 0 if x < 0

F (x) = 0.129 if 0 ≤ x < l

F (x) = 0.393 if 1 ≤ x < 2

F (x) = 0.664 if 2 ≤ x < 3

F (x) = 0.849 if 3 ≤ x < 4

F (x) = 0.944 if 4 ≤ x < 5

F (x) = 0.983 if 5 ≤ x < 6

F (x) = 1.0 if x ≥ 6

x 0 1 2 3 4 5 6

P(X=x) 0.129 0.246 0.271 0.185 0.095 0.039 0.017

Table 1.2  Distribution de probabilité

En consultant la fonction répartition, nous pouvons répondre à des questions

rapides comme celles de exemple suivant

Exemple 1.2.6. Quelle est la probabilité qu'un bébé sélectionnée au hasard ait eu :

1. moins de 4 consultations d'otite moyenne ?

10
Figure 1.5  fonction de répartition pour le nombre d'épisodes d'otite moyenne au
cours des deux premières années de vie.

2. au moins 5 consultations d'otite moyenne ?

3. entre 3 et 5 ?

La solution la réponse est

1. P (X < 4) = P (X ≤ 3) = F (3) = 0.849


2. P (X ≥ 5) = 1 − P (X < 5) = 1 − F (4) = 0.56
3. P (3 ≤ X ≤ 5) = P (X ≤ 5) − P (X < 3) = F (5) − F (2) = 0.983 − 0.664

1.2.1 L'espérance mathématique et la variance d'une variable

aléatoire discrète

Les mesures de tendance centrale et de dispersion peuvent être élaborées pour

une variable aléatoire de la même façon que pour les échantillons. L'analogue de

la moyenne arithmétique x est appelé l'espérance de la variable aléatoire, ou la

moyenne de la population, et est noté par E(X) ou µ. L'espérance représente la

valeur  moyenne  de la variable aléatoire.

L'analogue de la variance de l'échantillon s2 pour une variable aléatoire est appelé

11
la variance de la variable aléatoire, ou la variance de population, et est dénoté par

V ar(X) ou σ2. La variance représente l'écart, par rapport à la valeur prévue, de

toutes les valeurs qui ont une probabilité positive.

Dénition 1.2.4. L'espérance mathématique de la variable aléatoire X ayant la loi

de probabilité P (X = xi ), i ∈ {1, ..., n} est

i=n
X
E(X) = µ = xi P (X = xi )
i=1

La variance est donné par

i=n
X
V (X) = σ 2 = (xi − µ)2 P (X = xi )
i=1

L'écart type d'une variable aléatoire X, dénoté par σ, est la racine carrée de sa

variance.

Remarque 1.2.1. Pour le calcul de la variance, il est préférable d'utiliser la formule


développée :
i=n
X
2
V (X) = E(X − µ) = x2i P (X = xi ) − µ2
i=1

Exemple 1.2.7. Calculer la variance et l'écart-type pour la variable aléatoire illus-

trée dans le tableau 1.2.

Solution
L'espérance mathématique de X :

i=6
X
µ= xi P (X = xi )
i=1

= 0(0.129) + 1(0.246) + 2(0.271) + 3(0.185) + 4(0.095) + 5(0.039) + 6(0.017)

= 2.038.

La variance de X :

i=n
X
x2i P (X = xi ) = 02 (0.129) + 12 (0.246) + 22 (0.271) + 32 (0.185) + 42 (0.095) + 52 (0.039)
i=1

+ 62 (0.017)

= 6.12

d'où la variance σ 2 = 6.12 − (2.038)2 = et l'écart-type σ= 1.967.

12
Propriétés
Soient X, Y deux variable aléatoires, a et b deux constantes réelles.

1. E(aX + b) = aE(X) + b
2. E(X + Y ) = E(X) + E(Y )
3. V (X + a) = V (X)
4. V (aX) = a2 V (X)
5. V (X + Y ) = V (X) + V (Y ) si X et Y sont indépendants.

1.3 Lois usuelles de probabilités discrètes

1.3.1 Loi de Bernoulli

Procès de Bernoulli, nommé en l'honneur du mathématicien suisse James Ber-

noulli (1654-1705), qui a apporté des contributions signicatives dans le domaine

de la probabilité, y compris, en particulier, la distribution binomiale. Lorsqu'un

processus ou une expérience aléatoire, ne peut aboutir qu'à l'un des deux résultats

mutuellement exclusifs, tels que mort ou vivant, malade ou en bonne santé, à terme

complet ou prématuré, l'expérience est appelé expérience Bernoulli. L'un des résul-

tats possibles est qualié (arbitrairement) de succès, et l'autre d'échec..

La probabilité correspondant à chacun des événements (succès-échec) est

P (succs) = p et P (chec) = 1 − p avec p ∈ [0; 1].


variable aléatoire X suit une loi de Bernoulli de paramétré p et on note X
Bernoulli(p) si p(X = 1) = p et p(X = 0) = 1 − p
Où La valeur x=1 correspond à l'événement "succès" et x=0 à "échec".

Espérance mathématique
L'espérance mathématique d'une variable de Bernoulli est obtenue en appliquant

la formule de l'esperance mathématique pour les variables aléatoires discrètes, on

trouve

E(X) = p

En eet E(X) = 0(1 − p) + 1(p) = p


Variance
On obtient de même pour la variance

V (X) = p(1 − p)

13
Car

X
V (X) = (xi − µ)P (X = xi )

= (1 − p)2 p + (0 − p)2 (1 − p)

= p(1 − p)

1.3.2 Loi binomial

Tous les exemples faisant intervenir la distribution binomiale ont une structure

commune : un échantillon de n essais indépendants,

1. dont chacune ne peut avoir que deux résultats possibles (expérience de Ber-

noulli).

2. La probabilité de succès, indiquée par p, reste constante d'un épreuve à

l'autre.

3. Les épreuves sont indépendants, c'est-à-dire que le résultat d'un épreuve par-

ticulier n'est pas touché par l'issue de tout autre épreuve.

Exemple 1.3.1. Nous sommes intéressés à calculer la probabilité de x succès dans

n épreuve de Bernoulli. Par exemple, si nous examinons tous les dossiers de nais-

sance du North Carolina State Center for Health Statistics (...) pour l'année 2001,

nous constatons que 85, 8% des grossesses ont eu lieu au cours de la semaine 37 ou

plus tard. Nous appellerons cela une naissance à terme. Avec ce pourcentage, nous

pouvons interpréter la probabilité d'une naissance enregistrée au cours de la semaine

37 ou plus tard comme 0,858. Si nous choisissons au hasard cinq enregistrements de

naissance de cette population, quelle est la probabilité que trois d'entre eux corres-

pondent à des naissances à terme ?.

Solution Si on note un "naissances à terme" par (S) (succès), et un naissance

prématuré par (E) (échec), et supposons que les cinq enregistrements de naissance

sélectionnés ont donné lieu à cette séquence de naissances à terme :

SSSEE

Comme la probabilité d'un succès est donnée par p et que la probabilité d'un échec

est donnée par (1 − p), la probabilité de la séquence de résultats ci-dessus est déter-

minée par la règle de multiplication.

P (SSSEE) = ppp(1 − p)(1 − p)

14
La probabilité qui en résulte est celle d'obtenir la séquence spécique des résultats

dans l'ordre indiqué. Cependant, nous ne nous intéressons pas à l'ordre d'occurrence

des enregistrements pour les naissances à terme et les naissances prématurées. Au

lieu de se produire dans l'ordre indiqué ci-dessus (appelez-le l'ordre numéro 1), trois

succès et deux échecs pourraient se produire dans l'une des séquences supplémen-

taires représentés dans la table 1.3 :

Numéro 2 3 4 5 6 7 8 9 10

Ordre 10110 10011 11010 11001 10101 01110 00111 01011 01101

Table 1.3  les ordres possibles

Chacune de ces séquences a la même probabilité de se produire, La question devient

maintenant : Quelle est la probabilité d'obtenir la séquence numéro 1 ou la séquence

numéro 2 ... ou la séquence numéro 10 ?, d'après la règle d'addition est

10.p2 .(1 − p)2 = 10 × (0.858)3 × (1 − 0.585)2 = 0.1276

Utilisation de combinaisons
On peut facilement prévoir que, à mesure que la taille de l'échantillon augmente,

l'énumération du nombre de séquences devient de plus en plus dicile. Ce qui est

nécessaire est une méthode facile de compter le nombre de séquences.

Dénition 1.3.1. Étant donné un ensemble E de n objets. On appelle combinaisons


de k objets tout ensemble de k objets pris parmi les n objets sans remise.

Le nombre de combinaisons de p objets parmi n et sans remise, est :

n!
Cnk =
k!(n − k)!

Dans l'exemple précédent le nombre de combinaison est

5! 5×4×3×2
C53 = = = 10
3!(5 − 3)! 3×2×2

15
Dénition 1.3.2. La distribution du nombre de succès dans n essais statistiquement
indépendants, où la probabilité de succès de chaque essai est p, est connue sous le

nom de distribution binomiale et a une fonction de probabilité-masse donnée par

P (X = k) = Cnk pk (1 − p)n−k

pour tout entier k ∈ {1, ..., n}. et on note X B(n, p).

Exemple 1.3.2. Quelle est la probabilité d'obtenir 2 garçons sur 6 enfants si la

probabilité d'obtenir un garçon est de 0,51 à chaque naissance et que les sexes des

enfants successifs sont considérés comme des variables aléatoires indépendantes ?

Solution
n utilise une distribution binomiale avec n = 6, p = 0.51, k = 2. et X= nombre

de garçons sur 6 naissances.

P (X = 2) = C62 (0.51)2 (0.49)4


6!
= (0.51)2 (0.49)4
2!(4!)
= 0.224

Exercice 1.3.1. Évaluer la probabilité de 2 lymphocytes sur 10 globules blanc si la

probabilité qu'une cellule soit un lymphocyte est de 0, 2.

Esperance mathématique et variance L'espérance et la variance d'une dis-

tribution binomiale est importante en termes de notre connaissance générale de la

distribution binomiale et de notre travail ultérieur sur l'estimation et les tests d'hy-

pothèses. L'espérance d'une variable aléatoire X B(n, p). E(X) = np Car

Xi=n
E(X) = E( Xi ) les Xi sont des variables de Bernoulli indépendants
i=1
i=n
X
= E(Xi )
i=1

= n.p

et de la même manière,on obtient variance de X B(n, p).

V (X) = np(1 − p)

16
1.4 Loi de Poisson

La distribution de Poisson est peut-être la deuxième distribution discrète la plus

utilisée après la distribution binomiale. Cette distribution est généralement associée

à événements rares.

Exemple 1.4.1. On considère la répartition du nombre de décès attribués à la èvre


typhoïde sur une longue période, par exemple, un an. En supposant que la probabi-

lité d'un nouveau décès attribuable à la èvre typhoïde dans un jour donné est très

faible et que le nombre de cas signalés dans deux périodes distinctes est une va-

riable aléatoire indépendante, le nombre de décès sur une période d'un an suivra une

distribution de Poisson.

Exemple 1.4.2. L'exemple précédent concerne un événement rare qui se produit au

l du temps. Des événements rares peuvent également être considérés non seulement

au l du temps, mais aussi sur une surface, comme la distribution du nombre de co-

lonies bactériennes poussant sur une plaque d'agar. Supposons que nous ayons une

plaque d'agar de 100 cm2 . Nous supposons que la probabilité de trouver des colo-

nies bactériennes à n'importe quel point a (ou plus précisément dans une petite zone

autour de a) est très petite et proportionnelle à la zone et que les événements de

trouver des colonies bactériennes à n'importe quels deux points a1 , a2 sont indépen-

dants. Selon ces hypothèses, le nombre de colonies bactériennes sur toute la plaque

d'agar suivra une distribution de Poisson.

Dénition 1.4.1. on dit que X suit la loi de poisson de paramètre (moyenne)


m>0 et on note X P (m)
Si
mk
p(X = k) = e−m . , ∀k ∈ N
k!
et on trouve E(X) = V (X) = m

Exemple 1.4.3. Dans une étude sur l'anaphylaxie induite par les médicaments

chez les patients prenant du bromure de rocuronium dans le cadre de leur anesthé-

sie, Laake et Røttingen [1] ont constaté que la fréquence de l'anaphylaxie suivait un

modèle de Poisson avec m = 12 incidents par an en Norvège. Trouvez la probabilité

que dans la prochaine année, parmi les patients recevant du rocuronium,

(i) exactement trois auront une anaphylaxie.

(ii) au moins trois patients connaîtront une anaphylaxie.

17
Solution (i)
e−12 123
P (X = 3) = = 0.00177
3!
(ii)

P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)]

= 1 − [P (X = 0) + P (X = 1) + P (X = 2)]
 −12 0
e−12 121 e−12 122

e 12
=1− + +
0! 1! 2!
= 1 − [0.00000614 + 0.00007373 + 0.00044238]

= 0.99947775

Exercice 1.4.1. Si le nombre moyen d'accidents graves par an dans une grande

usine (où le nombre d'employés reste constant) est de cinq, trouver la probabilité

que dans l'année en cours il y aura

a) Exactement sept accidents

b) Dix accidents ou plus

c) Aucun accident

d) Moins de cinq accidents

1.4.1 Approximation de la loi binomiale (par la loi de Pois-

son)

Une autre utilisation importante pour la distribution de Poisson est l'approxi-

mation de la distribution binomiale.

Considérons une variable aléatoire X suit la loi binomiale de paramètre n et p.


Lorsque n → ∞ et p → 0, et que l'espérance mathématique reste constante E(X) =
np. On peut montrer que la loi binomiale converge vers une loi de Poisson. En pra-

tique, on considère que P (m) constitue une très bonne approximation de B(n, p)
lorsque n est assez grand (n ≥ 100), p assez petit (p ≤ 0, 1). Elle est encore valable

pour 10 ≤ np ≤ 20, à condition d'avoir n > 200.

Exemple 1.4.4. Dans une population, la probabilité d'apparition d'une maladie

génétique est de 0.001.

On tire un échantillon de 100 individus. Quelle est la probabilité que 2 individus

soient malades ?

18
Solution Soit X Le nombre d'invendues malade parmi 100.

X B(100, 0.001)
100!
donc P (X = 2) = (0.001)2 (0.999)98 = 0.00449
2! 98!

Approximation par la loi de Poisson(n ≥ 100 et p ≤ 0.1) :

m = E(X) = np = 0.1 et X P (0.1)


e−0.1 (0.1)2
P (X = 2) = = 0.00452
2!

Exemple 1.4.5. nous donnons la probabilité binomiale exacte et l'approximation

de Poisson pour n = 100, p = 0, 01, k = 0, 1, 2, 3, 4, 5 dans le tableau 1.4 Dans tous

les cas.

Table 1.4  Un exemple de l'approximation de Poisson à la distribution binomiale


pour n = 100, p = 0, 01, k = 0, 1, .., 5.

1.5 Variable aléatoire continue

une variable aléatoire est dite continue si elle peut prendre tout les valeurs d'un

intervalle (borné ou non borné).

Exemple 1.5.1. Exemples de variables aléatoires qui ne sont pas discrètes :

Variable T correspondant au taux de glucose dans le sang.

Variable A correspondant à la masse corporelle des individus pour une espèce ani-

male donnée.

19
Fonction de densité de probabilité
Si X a une distribution continue, la probabilité que X prenne une valeur bien

précise a est en général nulle P [X = a] = 0 pour tout a. prenant X le taux de

cholestérol d'un individu, alors P [X = 0.53969252982mg \ l] = 0., On s'intéresse

donc à la probabilité que X soit dans un intervalle donne [a; b], ou qu'il soit inférieur
à une valeur donnée a.

Dénition 1.5.1. Une variable aléatoire X est dite à densité lorsqu'il existe une

fonction positive f : R → R+ telle que :


Z b
p(a ≤ X ≤ b) = f (x) dx
a

Cette fonction f est appelée densité de X.

Figure 1.6  Graphe d'une distribution continue montre la surface entre a et b.

Exemple 1.5.2 (Maladies cardiovasculaires) . Le niveau de triglycéride sérique est

une variable aléatoire asymétrique, positivement asymétrique et continue dont la

fonction de densité se représente à la gure 1.7.

Figure 1.7  la fonction de densité pour Le niveau de triglycéride sérique


R +∞
la fonction de probabilité satisfait p(X ∈ R) = −∞
f (x) dx = 1

20
Exemple 1.5.3. Voici quelques exemples de densités de probabilités ainsi que leurs

courbes représentatives dans un repère orthonormal :

Espérance et variance X
Dénition 1.5.2. Soit X une variable aléatoire continue de densité f.
On appelle espérance de X le réel, noté E(X), déni par la relation

Z +∞
E(X) = xf (x) dx
−∞
On appelle variance de X le réel, noté V (X), s'il existe, est déni par la relation
Z +∞
V (X) = (x − E(X))2 f (x) dx
−∞
On appelle écart-type de X le réel, noté σX , déni par la relation

2
σX = V (X)
Exemple 1.5.4. On peut calculer l'espérance, la variance et l'écart-type pour la

fonction f2 dénie dans l'exemple précédent :

21
Fonction de repartition
Dénition 1.5.3. La fonction de distribution cumulative pour la variable aléatoire

X évaluée au point x est dénie comme la probabilité que X prenne les valeurs ≤ x.

F :R −→ [0, 1]
Z x
a 7−→ F (a) = f (t) dt
−∞

Elle est représentée par la zone sous la courbe de f à gauche de x.

Exemple 1.5.5. On calcule la fonction de répartition pour f3 dans l'exemple 1.5.3.

pour x<0 La fonction de réparation est nulle.

Soit x∈ [0, +∞],


Z x
F (x) = f (t) dt
−∞
Z 0 Z x
= f (t) dt + f (t) dt
−∞ 0
Z x
=0+ 2e−2t dt
0
x
+e−2t 0

=

− e−2x + 1

0, si x ≤ 0

Donc on trouve F (x) =
−e−2x + 1,

si t ≥ 0.

1.6 Loi normale

La loi de probabilité qu'on rencontre le plus souvent tant dans les traites de

statistique théorique que pour ses applications, est la loi de Gauss, encore appelée

loi normale ou loi de Laplace-Gauss. Cette loi semble avoir été formulée pour la

première fois en 1733 par De Moivre dans ses recherches sur la forme limite de la loi

binomiale. En 1774, Laplace retrouva la loi normale en tant qu' approximation de

la loi binomiale. Plus tard, les travaux de Gauss en 1809 et 1816 établirent L'aspect

fondamental de la distribution normale, comme la forme de distribution résultante

des erreurs de mesures, d'où L'importance de cette distribution. Des circonstances

semblables se rencontrent souvent dans la pratique et dans beaucoup de domaines.

Exemple 1.6.1 (Hypertension) . Poids corporel pour un groupe d'hommes de 35 à

44 ans environ suivre une distribution normale

22
De façon générale, toute variable aléatoire qui peut être exprimée comme une

somme de beaucoup d'autres variables aléatoires peuvent être bien approchées à une

distribution normale.

Exemple 1.6.2 ( Maladies contagieuses) . Le nombre de lymphocytes dans un dif-

férentiel de 100 globules blancs.

Les cellules ont tendance à être distribuées normalement parce que cette variable

aléatoire est une somme de 100 variables aléatoires, chacune représente si une cel-

lule individuelle est un lymphocyte ou non.

1.6.1 Fonction de densite et fonction de repartition de la loi

normale

La loi normale s'applique a des variables aléatoires continues pouvant prendre

toutes les valeurs réelles possibles, entre moins L'inni et plus l'inni. La loi normale

est entièrement dénie par deux paramétrés, la moyenne µ et la variance σ2.

Dénition 1.6.1. La fonction de densité qui dénit la loi normale notée N (µ, σ 2 )
a pour expression :

1 x − µ !2
1 −
f (x) = √ e 2 σ , x∈R
σ 2π
Cette fonction f est appelée densité de X.

23
Fonction de répartition

La fonction de répartition correspondante en x est la probabilité que la variable

aléatoire X ait une valeur inférieure ou égale à x. Cette fonction est exprimée par :

1 t−µ 2
 
Z x − 
1

p(X ≤ x) = √ e 2 σ dt, x∈R
−∞ σ 2π
La fonction de répartition ne peut être exprimée sous forme explicite, d'une façon

simple, son calcul demande L'utilisation des méthodes d'évaluation numériques. Les

résultats de ces calculs sont pressentes sous forme de tables, appelées tables de la

loi normale.

1.6.2 Des caractéristiques de la distribution normale

caractéristiques importantes de la distribution normale.

(1) Il est symétrique par rapport à sa moyenne, µ, la courbe sur une côté de la

droite verticale x=µ est une image identique de l'autre côté.

(c.f, gure 1.6.2) un example avec µ = 50 et σ = 10


(2) La moyenne, le mode et le médiane sont égales.

(3) la surface totale sous la courbe au-dessus de l'axe des x est une unité car-

rée. Cette caractéristique découle du fait que la distribution normale est une

distribution probabiliste.

(4) La distribution normale est entièrement déterminée par les paramètres µ et

σ . c'est-à-dire, une distribution normale diérente est spéciée pour chaque

valeur diérente de µ et σ. Diérentes valeurs de µ déplacent le graphe de la

distribution au long de l'axe des x comme (c.f gure 1.6.2).

Diérentes valeurs de σ déterminent le degré d'aplatissement (the atness

)du graph de la distribution (c.f, gure 1.6.2).

24
Figure 1.8  la fonction de densité pour une loi normale de moyen µ = 50 et une
variance σ 2 = 100

Figure 1.9  Comparaison de deux distributions normales avec la même variance


et des moyennes diérentes

25
Figure 1.10  Comparaison de deux distributions normales avec les mêmes

moyennes et des variances diérentes

Loi normale centrée réduite Si une variable aléatoire X suit une loi N (µ, σ 2 ),
avec µ=0 et σ = 1, on dit que X suit une loi normal standard ou une loi normale

centrée réduite. Sa fonction de densité est donc :


 2
z
−
1

f (z) = √ e 2 , z∈R

La gure. 1.6.2 suivante représente la courbe normale centrée réduite. Elle est

symétrique autour de 0 et la surface totale délimitée par cette courbe est égale a 1.

Figure 1.11  Fonction de densité de la loi normale centrée et réduite

26
la valeur maximale de f (z) est atteinte à z = 0, la valeur maximale étant f (0) =
1
√ = 0, 399. On peut vérier aussi que les deux points correspondants à, z = −1

et z = 1 sont les points d'inexion de la courbe de densité.

1.6.3 La fonction de répartition de la loi normale centrée ré-

duite

La fonction de répartition de la loi normale centrée réduite que on notera φ(z)


est dénie par :

t2
 
Z Z − 
1
φ(z) = p(Z ≤ z) = √ e 2 dt, z∈R
−∞ 2π
La symétrie de la courbe de densité par rapport a L'origine implique que la fonction

de répartition φ(z) admet un point d'inexion a z=0 et que

pour tout a ∈ R+

Figure 1.12  Fonction de répartition φ(z) pour la loi normale centrée et réduite

La symétrie de la courbe de densité par rapport a L'origine implique que la

fonction de répartition φ(z) admet un point d'inexion a z = 0 et que pour tout

a ∈ R+
(a) p(Z < a) = p(Z ≤ a) = φ(a)
(b) p(Z > a) = p(Z ≥ a) = 1 − φ(a)
(c) p(Z ≤ −a) = p(Z ≥ a) = 1 − φ(a)
(d) p(−a ≤ Z ≤ a) = 2p(Z ≤ a) − 1 = 2φ(a) − 1

27
Le résultat (3) est très utile, car il permet d'obtenir la valeur de la fonction de

répartition pour a négatif a partir de la valeur de la fonction pour a positif. Donc,

il sut d'avoir en mains la table des valeurs de φ(z) pour z≥0


Un autre résultat général de la loi normale centrée réduite est la relation suivante :

p(a ≤ Z ≤ b) = φ(b) − φ(a)

utilisation de la Table (Gauss)


Exemple 1.6.3. Calculer p(Z ≤ 0.64) , Si Z N (0, 1).
On cherche P (Z ≤ 0.64) (rappel : on écrit aussi φ(0.64)).
On cherche 0.64 dans la table de Gauss (c.f Figure 1.6.3)

Figure 1.13  φ(0.64) dans table de Gauss

P (Z ≤ 0.64) = 0.7389

Exemple 1.6.4. Quelle proportion des valeurs Z se situe entre 2.0 et 1,53 ?, si

Z N (0, 1).
p(1.53 ≤ Z ≤ 2.0) = φ(2.00) − φ(1.53) = 0.9772 − 0.9370.

Exemple 1.6.5. Étant donné une distribution normal standard, trouver p(Z ≥
1.22).
p(Z ≥ 1.22) = 1 − φ(1.22) = 1 − 0.8888

Exemple 1.6.6. Étant donné une distribution normal standard, trouver p(Z ≤
−1.22).
p(Z ≤ −1.22) = 1 − φ(−1.22) = 1 − 0.8888

28
1.6.4 standardisation d'une loi normale quelconque N (µ, σ)
Exemple 1.6.7 (hypertension) . Supposons qu'une légère hypertension est dénie

comme une personne dont le DBP est entre 90 et 100mm Hg , et les sujets sont des

hommes âgés de 35 à 44 ans dont la pression artérielle est distribuée normalement

avec une moyenne de 80 et une variance de 144. Quelle est la probabilité qu'une

personne sélectionnée au hasard dans cette population a une légère hypertension ?

Cette question peut être énoncée plus précisément :

Si X N (80, 144), alors qu'est-ce que P (90 ≤ X ≤ 100) ?

Plus généralement, la question suivante peut être posée : Si X N (µ, σ 2 ), alors


quelle est P (a ≤ X ≤ b) pour tout a, b ?
Pour résoudre ce problème, nous convertissons l'énoncé de probabilité d'une distri-

bution N (µ, σ 2 ) à un énoncé de probabilité équivalent concernant une distribution

N (0, 1).
X −µ
Théorème 1.6.1. Si X N (µ, σ 2 ) alors Z= suit une loi normal centrée
σ
et réduite N (0, 1).

Le passage de la variable aléatoire X N (µ, σ 2 ) à la variable aléatoire Z =


X −µ
N (0, 1) , s'appelle standardisation.
σ
X −µ
Si X N (µ, σ 2 ) et Z= donc
σ
a−µ b−µ a−µ b−µ
p(a ≤ X ≤ b) = p( ≤Z≤ ) = φ( ) − φ( )
σ σ σ σ
les probabilités pour toute distribution normale peuvent maintenant être évaluées à

l'aide de la table de Gauss. Cette procédure est illustrée dans la gure 1.6.4.

29
Figure 1.14  Évaluation des probabilités pour toute distribution normale à l'aide

de la normalisation

La solution (Exemple hypertension) La probabilité d'une légère hypertension

chez les 35 à 44 ans hommes peut maintenant être calculée

90 − 80 100 − 80
p(90 ≤ X ≤ 100) = p( ≤Z≤ )
12 12
= p(0.883 ≤ Z ≤ 1.667) = φ(1.667) − φ(0.883)

= 0.9522 − 0.7977 = 0.155.

Exemple 1.6.8. On suppose qu'une certaine variable X N (11; 4). Pour quelle

proportion d'individus est-ce que X ≤ 14 ?

30
Solution
14 − 11
p(X ≤ 14) = p(Z ≤ )
2
= p(Z ≤ 1.5) = φ(1.5)

= 0.9332

31
Annexe A

LES TABLES DE STATISTIQUE

32
A.1 Table de Gauss

33
34
A.2 Table de Student

35
A.3 Table de Chi-2

36
Bibliographie

[1] J. H. LAAKE and J. A. RøTTINGEN, Rocuronium and Anaphylaxisa Sta-

tistical Challenge, Acta Anasthesiologica Scandinavica, 45 (2001), 11961203.

[2] Rinsky, R. A., Zumwalde, R. O., Waxweiler, R. J.,Murray, W. E., Bierbaum,

P. J., Landrigan, P. J., Terpilak, M.,and Cox, C. (1981, January 31). Cancer

mortality at a naval nuclear shipyard. Lancet, 231-235.

[3] B. Rosner, D. Press, Fundamentals of Biostatistics, Duxbury Press, 10th Edi-

tion.

[4] Wayne W. Daniel, Chad L. Cross.Biostatistics : A Foundation for Analysis in

the Health Sciences, 10th Edition.

[5] J.A.Rice, Mathematicals Statistics And Data analysis,Duxbury Press, 2nd Edi-

tion, University of California.

[6] Arora, N. S., and Rochester, D. R (1984). Eect of chronic airow limitation

(CAL) on sternocleidomastoidmuscle thickness. Chest, 85(6), 58S-59S.

37

Vous aimerez peut-être aussi