Vous êtes sur la page 1sur 13

Cours de Biostatistiques

Table des matières

1 Rappel de Probabilités 1
1.1 Notions de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Dénitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Réunion de deux évènements . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Intersection de deux évènements . . . . . . . . . . . . . . . . . . . . 2
1.1.4 Système complet d'évènements . . . . . . . . . . . . . . . . . . . . 2
1.1.5 Tribu d'évènements de Ω, espace probabilisable . . . . . . . . . . . 2
1.1.6 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.7 Propriétés élémentaires d'une probabilité . . . . . . . . . . . . . . . 2
1.1.8 Univers équiprobable . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.9 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.10 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . 3
1.1.11 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.12 Indépendance de A et B . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Quelques lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1.1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1.2 Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1.3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2.1 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2.2 Loi normale centrée réduite . . . . . . . . . . . . . . . . . 7
1.3.3 Loi du Chi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3.1 Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.3.2 Loi de Fisher-Snédécor . . . . . . . . . . . . . . . . . . . . 11

i
Chapitre 1
Rappel de Probabilités

1.1 Notions de base

1.1.1 Dénitions et notations


− Expérience aléatoire E : une expérience dont le résultat ne peut pas être déterminé
avec certitude.
− L'univers de E , (L'espace échantillonnal), notée Ω est un ensemble de tous résultats
possibles de l'expérience aléatoire E .
− Le résultat élémentaire de E , notée ω et un résultat possible de Ω.
− Ensemble P (Ω) des parties de Ω : ensemble constitué de tous les sous-ensembles
(parties) de Ω.
− Evènement aléatoire : une partie ( un sous-ensemble) de Ω.
− Réalisation d'un évènement : Soit A un évènement de Ω, et soit ω le résultat de
l'expérience;
A se réalise ⇔ ω ∈ A.
− Complémentaire de A, notée Ā ou A : évènement constitué des résultats élémen-
c

taires de Ω qui ne sont pas dans A. Soit ω le résultat de l'expérience :


Ā = {ω ∈ Ω, ω ∈
/ A}

1.1.2 Réunion de deux évènements


− Réunion de A et B : évènement constitué des résultats élémentaires de Ω qui ap-
partiennent à A ou à B ou aux deux. Soit ω le résultat de l'expérience :
A ∪ B = {ω ∈ Ω, ω ∈ A ou ω ∈ B}.

1
1.1.3 Intersection de deux évènements
− Intersection de A et B : évènement constitué des résultats élémentaires de Ω qui
appartiennent à la fois à A et à B. Soit ω le résultat de l'expérience :
A ∩ B = {ω ∈ Ω, ω ∈ A et ω ∈ B}.

1.1.4 Système complet d'évènements


Soient A , A , ..., A n évènements. On dit que (A , A , ..., A ) constituent un système
complet d'évènements s'ils forment une partition de Ω :
1 2 n 1 2 n

1. ∀i ∈ {1, ..., n}; A 6= ∅,


2. Ils sont deux à deux disjoints : ∀i 6= j; A ∩ A = ∅.
i

3. Leur réunion est l'évènement certain Ω : A ∪ A ∪ ... ∪ A = Ω.


i j
1 2 n

1.1.5 Tribu d'évènements de Ω, espace probabilisable


− Soit A une famille de parties de Ω. On dit que A est une tribu ou σ− algèbre sur
Ω si elle vérie :
1. ∅ ∈ A , Ω ∈ A .
2. A est stable par union dénombrable, c'est-à-dire que pour toute famille dénom-
brable (A ) d'éléments de Ω, on a ∪ A ∈ Ω.
3. A est stable par intersection dénombrable, c'est-à-dire que pour toute famille dé-
n n∈N n∈N n

nombrable (A ) d'éléments de Ω, on a ∩ A ∈ Ω.
4. A est stable par passage au complémentaire, c'est-à-dire que pour tout A ∈ A , on
n n∈N n∈N n

a Ā ∈ A .
− (Ω, A ) est dit un espace probabilisable.

1.1.6 Probabilité
Soit (Ω, A ) est dit un espace probabilisable. Une probabilité sur (Ω, A ) est une appli-
cation P : A → [0, 1] telle que :
 0 ≤ P(A) ≤ 1, ∀A ∈ A
 P(Ω) = 1 P
 P(∪ A ) = P(A ), ∀(A ) ensemble d'énombrable d'évènements disjoints.
i∈N i i∈N i i i∈N

1.1.7 Propriétés élémentaires d'une probabilité


 0 ≤ P(A ) ≤ 1.
 P(Ā) = 1 − P(A).
i

 P(∅) = 0.
 A ⊂ B ⇒ P(A) ≤ P(B).
 P(A ∪ B) =PP(A) + P(B) − P(A ∩ B).
P(∩i Ai ) ≤ i P(Ai ).

2
1.1.8 Univers équiprobable
Univers équiprobable est un ensembe Ω dont tous les évènements élémentaires ont la
même probabilité.
Si Ω contient N éléments, alors :
1
p1 = p2 = ... = pN = .
N
Si A ⊂ Ω et si A contient n éventualités, alors :
n nombre de cas favorables .
P(A) =
N
=
nombre de cas possibles
1.1.9 Probabilité conditionnelle
Soit A et B deux événements tels que P(B) 6= 0. La probabilité conditionnelle de A
par rapport à B, est donnée par :
P(A ∩ B)
P(A|B) = .
P(B)

1.1.10 Formule des probabilités totales


Si les événements B , B , ..., B forment une partition de Ω
1 2 n

P(A) = P(B1 )P(A|B1 ) + P(B2 )P(A|B2 ) + ... + P(Bn )P(A|Bn )


Xn
= P(Bi )P(A|Bi ).
i=1

1.1.11 Formule de Bayes


Si P(A) 6= 0 et P(B) 6= 0 alors
P (A)P (B|A)
P (A|B) = .
P (B)

Formule de Bayes − Si les événements A1 , A2 , ..., An forment une partition de Ω alors


P(Ai )P(B|Ai )
P(Ai |B) = Pn .
i=1 P(Ai )P(B|Ai )

1.1.12 Indépendance de A et B
Deux événements A et B sont dits indépendants (A q B) si et seulement si
P(A ∩ B) = P(A)P(B).

3
1.2 Variables aléatoires réelles

Denition 1.2.1 Une variable aléatoire réelle X est une application qui à tout élément
ω de ω associe un nombre réel x
X : Ω −→ R
ω 7→ x.

Denition 1.2.2 • Une variable aléatoire discrète est une variable aléatoire dont le do-
maine de variation contient un nombre ni ou une innité dénombrable de valeurs.
• Une variable aléatoire continue est une variable aléatoire dont le domaine de varia-
tion contient une innité non dénombrable de valeurs

Denition 1.2.3 Soit X une variable aléatoire discrète telle que ΩX = x1 , ..., xN . La
loi de probabilité de X est caractérisée par sa fonction de probabilité qui donne, pour
touti ∈ 1, ..., N
pi = P(X = xi ).

Propriétés.
 p = 1.
N
X
i

 ∀A ⊂ Ω, P(A) =
i=1 X
pi .
i,xi ∈A

Denition 1.2.4 Soit X une variable aléatoire continue. On appelle densité de probabilité
la fonction f (x) dénie par :
P(X ∈ [x; x + ])
f (x) = lim .
→0 
Propriétés.
 fZ(x) ≥ 0, ∀x ∈ R.

+∞
f (x) = 1.
−∞

1.2.1 Fonction de répartition


On appelle fonction de répartition la fonction F dénie par :
F : DX → [0, 1]
xi 7→ P(X ≤ xi )

Propriétés.
1. F (x) ∈ [0, 1]
2. F est une fonction croissante
3. lim F (x) = 0
x→−∞

4
4. lim F (x) = 1
5. Pour une variable aléatoire discrète, F est une fonction en escaliers. Pour une
x→+∞

variable aléatoire continue, F est une fonction continue


1. L'espérance E(X) d'une variable aléatoire X est dénie par :
a. Cas discret
NX
:
E(X) = xi p i .

b. Cas continu
i=1
Z +∞
:
E(X) = xf (x)dx.
2. La variance V ar(X) d'une variable aléatoire X est dénie par :
−∞

V ar(X) = E(X − E(X))2 = E(X 2 ) − E(X)2 .

3. L'écart-type est déni par :


p
σX = V ar(X).

4. La covariance de X et Y est dénie par :


Cov(X, Y ) = E((X − E(X))(Y − E(Y ))) = E(XY ) − E(X)E(Y ).

1.3 Quelques lois usuelles

1.3.1 Lois discrètes


1.3.1.1 Loi de Bernoulli
La loi de Bernoulli est la loi d'une variable aléatoire discrète X qui prend la valeur 1
avec probabilité p et la valeur 0 avec probabilité 1 − p. Elle est notée par B (p).
La fonction de probabilité est donnée par

 p, x=1;
P(X = x) = 1 − p, x=0;

0, sinon.
L'espérance de la variable de Bernoulli :
2
X
E(X) = pi xi = p × 1 + (1 − p) × 0 = p.
i=1

La variance de la variable de Bernoulli


1
X
V (X) = x2i pi − E(X)2 = 1 − p.
i=

5
1.3.1.2 Loi Binomiale
La loi binomiale est une loi de probabilité discrète qui décrit le nombre de réussites
parmi un ensemble d'expériences aléatoires et indépendantes. Elle est notée par B (n, p)
avec n le nombre d'expériences et p la probabilité de réussite à chaque expérience.
La fonction de probabilité est donnée par :
 
n k
P(X = k) = p (1 − p)n−k , k = 1, ...n,
k

où n

= Cnk = p!
.
L'espérance de la loi Binomiale :
k p!(n−p)!

E(X) = np.

La varaince de la loi Binomiale :


V ar(X) = np(1 − p).

1.3.1.3 Loi de Poisson


La loi de Poisson (introduite en 1838 par Siméon Denis Poisson, 1781-1840) est une loi
de probabilité discrète qui décrit le comportement du nombre d'évenements aléatoires et
indépendants se produisant dans le même intervalle de temps ou d'espace. Elle est notée
par P (λ) avec λ l'espérance et la variance de la loi. Si le nombre moyen d'occurrences dans
un intervalle de temps xé est λ, alors la probabilité qu'il existe exactement k occurrences
(k étant un entier naturel, k = 0,1,2,...) est
λk −λ
P(X = k) = e , k = 1, ...n.
k!
L'espérance de la loi de Poisson :
E(X) = np.
La variance de la loi de Poisson :
V ar(X) = np(1 − p).

1.3.2 Lois continues


1.3.2.1 Loi normale
La loi normale (ou loi de Gauss-Laplace) est la loi de probabilité des variables aléatoires
continues dépendantes d'un grand nombre de causes indépendantes et additives. Elle est

6
notée par N (µ; σ ) avec µ l'espérance de la loi et σ la variance. La densité de probabilité
2 2

de la loi normale est donnée par :


1 1 x−µ 2
f (x) = √ e− 2 ( σ ) .
σ 2π
La courbe de cette densité est appelée courbe de Gauss.
La fonction de répartition est comme suit :
Z x
1 1 x−µ 2
F (x) = √ e− 2 ( σ ) dx.
−∞ σ 2π
L'espérance de la loi normale :
E(X) = µ.
La variance de la loi normale :
V ar(X) = σ 2 .
La densité.

1.3.2.2 Loi normale centrée réduite


La loi normale de moyenne nulle et d'écart type égale à 1 est appelée loi normale
centrée réduite (N (0, 1)). La densité de probabilité est donnée par :
1 1 2
f (t) = √ e− 2 t .

Propriété :
• Si X N (µ, σ ), alors T =
2 X−µ

σ2
N (0, 1).
• f est une fonction paire; f (−t) = f (t).

7
• P(X = a) = 0.
• P(X < a) = P(X ≤ a)
• P(X > a) = 1 − P(X ≤ a)
• P(X ≤ −a) = P(X ≥ a) = 1 − P(X < a)
• P(−a ≤ X ≤ a) = P(|X| ≤ a) = 2P(X ≤ a) − 1.
Allure de la densité normale centrée réduite

Table de la loi N (0, 1) Soit Z une variable aléatoire normale centrée réduite. An
de calculer des probabilités du type P(X > t), P(X < t), P(|X| > t), et P(t < X < t )
quand X suit une loi normale N (µ, σ ), on doit suivre les étapes suivantes :
1 2
2

Etape 1 :Reexprimer les probabilités qu'on veut calculer avec la v.a. centrée réduite
X−µ
Z= σ
.

Etape 2 :En utilisant les propriétés citées ci-dessus, on se ramene à des probabilités
du type P(Z ≤ z) pour certains z ≥ 0.
Etape 3 :Utiliser la table de la loi normale standard N (0, 1).
Exercice 1 Si X N (3, 0.25), calculer P(X > 3.5).
Pour calculer cette probabilité, on doit d'abord centrer et réduire, an d'obtenir une v.a.
Z N (0, 1), d'où
X −2
Z=√ .
0.25
Par conséquent,
P(X > 3.5) = P( √X−2
0.25
> 3.5−3

0.25
)
= P(Z > 1)
= 1 − P(Z < 1)
= 1 − 0.8413 (via la table de la loi N (0, 1)).
= 0.1587

8
Theorem 1.3.1 Soit X1 , ..., Xn n variables aléatoires indépendantes et identiquement
distribuées d'espérance µ et de variance σ 2 :
n
X
1
n n
Xi − µ
X L i=1 L
Y = Xi N (nµ, nσ 2 ) ⇔ p N (0, 1).
i=1 σ 2 /n

1.3.3 Loi du Chi-deux


Denition 1.3.1 Soient X1 , ..., Xn n variables aléatoires indépendantes et identiquement
distribuées de loi normale centrée réduite. La variable aléatoire Y = X12 + ... + Xn2 suit la
du loi χ2 à n degrés de liberté :
n
X
Y := Xi2 χ2n .
i=1

Quelques propriétés Y ≥ 0, Yn'est pas donc symétrique.


Y admet une densité.
L'espérance de Y : E(Y)=n.
La variance de Y : V(Y)=2n.
Si Y χ et Y χ avec Y indépendante de Y , alors Y = Y
1
2
n1 1
2
n2 1 2 1 + Y1 χ2n1 +n2 .

9
1.3.3.1 Loi de Student
Denition 1.3.2 Soient X et Y deux variables aléatoires indépendantes telles que X
N (0, 1) et Y χ2n . La variable aléatoire

X
T =p .
Y /n

suit une loi continue dite loi de Student à n degrés de liberté, notée Tn .

L'espérance de la loi de student : E(T ) = 0.


La varaince de la loi de student : V (T ) = n
n−2
, n > 2.
Allure de la densité de Student

10
1.3.3.2 Loi de Fisher-Snédécor
Denition 1.3.3 Soient Y1 et Y2 deux variables aléatoires indépendantes telles que Y1
χ2n1 et Y2 χ2n2 . La variable aléatoire

Y1 /n1
Z=
Y2 /n2

suit la loi de Fisher-Snédécor à n1 et n2 degrés de liberté, notée F (n1 ; n2 ).

L'epérance de la variable de Fisher-Snédécor Z : E(Z) = , n n2


n2 −1 2 > 2.

La variance de la variable de Fisher-Snédécor Z : V (Z) = 2


 
n2 2(n1 +n2 −2)
n2 −2 n1 (n2 −4)
, n2 > 4.

Remarque : Si Z 1 F (n ; n ) alors Z = 1/Z


2 1 2 F (n ; n ).
1 1 2
Allure de la densité de Fisher-Snédécor

11

Vous aimerez peut-être aussi