Académique Documents
Professionnel Documents
Culture Documents
Chapitre II :
Loi de probabilité d’une variable aléatoire
Section 1. La terminologie et les axiomes
1.1. La terminologie
1) expérience aléatoire :
C’est une expérience dont l’issue ne pourrait pas être déterminée avec
certitude à l’avance.
2) Espace fondamental :
3) Evénement :
4) Eventualité :
5) Evénement certain :
6) Evénement impossible :
A ∆ B = (A ∩ B) ∪ (B ∩ A) = (A – B) ∪ ( B – A)
� Ai = � Ai
i=1 i=1
1.4. Définition d’une Algèbre
(∆⊂ 𝒫(Ω). On dit que l’ensemble ∆ forme une algèbre si elle vérifie les
conditions suivantes :
1- ∅ ∈ ∆
� 𝐴𝑖 ∈ ∆
𝑖=1
(si la condition 3 est vérifiée, on dit alors que ∆ est fermé pour la réunion
d’une famille fini d’événements).
Propriété :
Preuve :
(𝐴1 ∈ ∆, 𝐴2 ∈ ∆, … , 𝐴𝑛 ∈ ∆)
d’après 2) on a : 𝐴1 ∈ ∆, 𝐴2 ∈ ∆, … … . 𝐴𝑛 ∈ ∆
d’après 3) on a : �𝐴1 ∪ 𝐴2 ∪ … ∪ 𝐴𝑛 � ∈ ∆
𝐴1 ∪ 𝐴2 ∪ … ∪ 𝐴𝑛 = � 𝐴𝑖 = 𝐴1 ∩ 𝐴2 … ∩ 𝐴𝑛
𝑖=1
Exemple d’algèbre:
1- ∅ ∈ ∆
2- Si A ∈ ∆ , 𝐴 ∈ ∆
3- Si 𝐴1 ∈ ∆ , 𝐴2 ∈ ∆, … , 𝐴𝑛 ∈ ∆ … 𝑎𝑙𝑜𝑟𝑠 ⋃∞
𝑖=1 𝐴𝑖 ∈ ∆
Propriétés :
1- Toute σ - algèbre de Ω est une algèbre de Ω (la réciproque n’est pas vraie).
2- On montre qu’une σ - algèbre fermée pour la complémentation et la
réunion est aussi fermée par rapport à l’intersection (la preuve est
similaire à celle que nous avons donné dans le cas d’une famille finie de
parties de ∆)
Espace Probabilisable :
Espace probabilisé :
On dit qu’une application P définit de ∆ vers [0,1] est une probabilité si elle
vérifie les axiomes suivants :
𝑃 �� 𝐴𝑖 � = � 𝑃(𝐴𝑖 )
𝑖=1 𝑖=1
Remarque :
Pour toute famille infinie A1, A2, …, An … d’événements deux à deux disjoints
on a :
∞ ∞
P �� Ai � = � P(Ai )
i=1 i=1
Propriétés :
Soit P une probabilité définit de ∆ vers [0,1], nous pouvons établir les
propriétés suivantes :
1- p(Ø)=0
Preuve : on a Ω∪∅=Ω
p (Ω ∪ ∅) = p(Ω) =1
p (Ω ∪ ∅) = p(Ω) + p(∅)= 1 (d’après l’axiome 3)
2- p(A)=1 - p(𝐴)
Preuve: on a �A ∪ 𝐴� = Ω
p�A ∪ A� = p(Ω) = 1
3- Soient A ∈ ∆ et B ∈ ∆ B-A
+ ⋯ + ⋯ + (−1)n−1 p( A1 ∩ A2 ∩ … ∩ An )
𝑘 {𝑒𝑖 } ∩ �𝑒𝑗 � = ∅
𝑃(𝐴) = � 𝑃({𝑒𝑖 }) 𝑐𝑎𝑟 � ∀ 𝑖, 𝑗 = 1, … , 𝑘
𝑖=1 𝑒𝑡 𝑖 ≠ 𝑗
Soit A = {e1 , … … . , ek }
1
On suppose que p�ej � = ∀ j = 1, 2, … , n (⇔ équiprobabilité)
n
Alors :
k
card A k
P(A) = � P({ei } ) = =
card Ω n
i=1
Preuve :
k k k
1 1 1
p(A) = � P({ei }) = � P(ei ) = � = + ⋯ +
n n n
i=1 i=1 i=1
k fois
𝑘 𝑐𝑎𝑟𝑑 𝐴
𝑃(𝐴) = =
𝑛 𝑐𝑎𝑟𝑑 Ω
Donc lorsqu’il y a équiprobabilité des résultats possibles nous retrouvons la
formule classique d’une probabilité d’un événement.
7- Inégalité de Boole :
𝑝 �� 𝐴𝑖 � ≤ � 𝑃(𝐴𝑖 )
𝑖=1 𝑖=1
Solution :
Preuve :
Démontrons la première proposition, et, les deux autres seront laissées au soin
du lecteur de les vérifier à titre d’exercices.
Donc, si
P(A) ≠ 0
� alors P(A). P(B) ≠ 0
P(B) ≠ 0
incompatibilité ⟹ dépendance
incompatibilité de A et B ⟺ indépendance de A et B
iii. Une autre ressemblance entre ces deux notions est le fait qu’elles sont
toutes les deux symétriques et non transitives :
Symétrie :
Non transitivité :
Propriété :
P(A∩B∩C)=P(A)P(B/A).P(C/A∩B)=P(A)P(C/A)P(B/A∩C)
=P(B)P(C/B)P(A/B∩C)
=P(C)P(A/C)P(B/A∩C)
=P(C)P(B/C)P(A/B∩C)
Preuve :
Théorème :
Preuve :
T = (T ∩ C1 ) ∪ (T ∩ C2 ) ∪ … ∪ (T ∩ Cn )
P(T) = P[(T ∩ C1 ) ∪ (T ∩ C2 ) ∪ … ∪ (T ∩ Cn )]
(T ∩ Ci ) ∩ �T ∩ Cj � = T ∩ Ci ∩ Cj = Ø
Exercice :
b- P (U1/N) ; P (U2/N)
Solution :
P(B/U1)=0.6 ; P(U1)=0.5
P(B/U2)=0.4 ; P(U2)=0.5
0.6x0.5 0.6
P(U1 ⁄B) = = = 0.6
(0.6x0.5) + (0.4x0.5) 1
b-
P(N/U2)=0.6 ; P(U2)=0.5
0.4x0.5
P(U1 ⁄N) = = 0.4
(0.4x0.5) + (0.6x0.5)
P(U1 ⁄N) = 0.4 ⇒ P(U2 ⁄N) = 1 − P�U2 ⁄N� = 1 − P(U1 ⁄N) = 0.6
2.1 Définition :
appartient à ∆.
Schématiquement :
Ω IR (ensemble
x(e) des réels)
p(Ax ) [
[ ] e x
0 1 ] − ∞, x[
Ax ∈ ∆
e ∈ AX ⇔ X(e) ∈ ]−∞, 𝑥 [
𝑒 ∈ 𝐴𝑋 ⇔ 𝑋(𝑒) < 𝑥
2.1.2 Fonction de répartition :
x ⟶ F(𝑥) = P( Ax ) = P( ] − ∞, 𝑥[ )
2.1.3 Propriétés :
1- ∀ 𝑥 ϵ IR; 0 ≤ F(𝑥) ≤ 1
2- limx→+∞ F(x) = 1
3- limx→−∞ F(x) = 0
4- F est monotone croissante :
Preuve:
La propriété 1 résulte du fait que F(x) est une probabilité, les propositions
2 et 3 sont des conventions.
mk = E�X k �
4- L'espérance mathématique :
si dans 3 on pose k = 1 on a m1 = E(X)
5- La variance :
2 2
𝑉(𝑋) = 𝐸 ��𝑋 − 𝐸(𝑋)� � = 𝐸(𝑋 2 ) − �𝐸 (𝑋)�
6- L'écart type :
σ(X) = �V(X)
7- Le coefficient de variation :
𝜎(𝑋)
𝐶𝑉(𝑋) =
𝐸(𝑋)
8- Le moment factoriel d’ordre k :
Soit X une variable aléatoire quelconque :
MkF = E[X(X − 1) … (X − k + 1)]
g x (u) = E[ux ]
Si on pose u=e t on a :
g(t) = E(etx )
Remarque : Suivant la nature de F et de X(Ω), nous pouvons classer les
variables aléatoires en plusieurs types : les variables aléatoires discrètes, les
variables aléatoires absolument continues et les variables aléatoires mixtes.
Dans ce livre, nous traitons surtout les deux premiers types.
2.2.1 Définition :
Soit X une variable aléatoire définit de Ω vers X(Ω) ⊂ IR. X est une
variable aléatoire discrète si X(Ω) est fini ou infini dénombrable c.-à-d. si :
X(Ω) = {x1 , … , xn } ou X(Ω) = {x1 , x2 , … , xn , … } .
Fonction de répartition :
xi xi+ε
+
Faisons tendre ε → 0 alors [{X⁄ xi ≤ X < xi + ε}] = {xi }
D’où
et puisque P(X = xi ) ≠ 0 ∀ xi ∈ DX
Alors
Donc F n'est pas continu à droite des points de DX et elle effectue des sauts de
valeur P(X = xi) aux points d'abscisse xi ∀ xi ∈ DX
2.2.4 Probabilité d'un intervalle :
𝑃(𝑎 ≤ 𝑋 < 𝑏) = 𝑃(𝑋 < 𝑏) − 𝑃(𝑋 < 𝑎) = 𝐹(𝑏) − 𝐹(𝑎) = ∑𝑏−1
𝑘=𝑎 𝑃(𝑋 = 𝑥𝑖 )
X<a
X
a b
X<b
2.2.5 Caractéristiques d'une variable aléatoire discrète
mk = E�X k � = � xi k P(X = xi )
xi∈Dx
4- L'espérance mathématique :
Pour k = 1 m1 = E(X) = � xi P(X = xi )
xi∈Dx
5- La variance :
2 2
𝑉(𝑋) = 𝐸 ��𝑋 − 𝐸(𝑋)� � = 𝐸(𝑋 2 ) − �𝐸 (𝑋)�
6- L'écart type :
σ(X) = �V(X)
7- Le coefficient de variation :
𝜎(𝑋)
𝐶𝑉(𝑋) =
𝐸(𝑋)
8- Le moment factoriel d’ordre k :
MkF = E[X(X − 1) … (X − k + 1)]
x!
MkF = � P
(x − k)! x
x=k
M1F = E(X) = m1
….
… etc
g x (u) = E[ux ]
Si on pose u=e t on a :
g(t) = E(etx )
1.
g x (0) = 0 ; g x (1) = 1
2.
g kx (1) = MkF
Celle propriété signifie que la dérivée d’ordre k de g x (1) fournit le
moment factoriel d’ordre k, et inversement, le moment factoriel d’ordre
k donne la dérivée à l’ordre k de g x (1)
3. Si on pose u=1+v alors nous obtenons le développement
suivant au voisinage de v=0 :
v ′ v 2 ′′
g(1 + v) = g(1) + g (1) + g (1) + …
1! 2!
v F v2 F v3 F
g(1 + v) = 1 + M1 + M + M +⋯
1! 2! 2 3! 3
v F vk F
g(1 + v) = 1 + � Mk = � M
k! k! k
k=1 k=0
2.3.1 Définition :
Une variable aléatoire est dite absolument continue si :
Donc P(X = a) = 0 ∀ a ∈ DX
F(x + h) − F(x)
f(x) = lim D(x, x + h) = lim
h→0 h→0 h
D’où f(x) = F’(x) si X est une variable aléatoire absolument continue.
Propriété :
a. ∀ 𝑥 ∈ 𝐷𝑋 ; 𝑓(𝑥) ≥ 0
+∞
b. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 1
Preuve :
a. F est définit sur IR et elle est monotone croissante sur ce domaine donc :
𝐹 ′ (𝑥) = 𝑓(𝑥) ≥ 0 ∀ 𝑥 ∈ 𝐷𝑋 (𝑒𝑡 𝐷𝑋 ⊂ 𝐼𝑅)
+∞
b. ∫−∞ 𝑓(𝑥)𝑑𝑥 = 𝐹(+∞) − 𝐹(−∞) = 1 − 0 = 1
2.3.5 Probabilité d'un intervalle :
On a vue que :
𝑓(𝑥) = 𝐹 ′ (𝑥)
𝑏
Donc F est une primitive de f alors 𝐹(𝑏) − 𝐹(𝑎) = ∫𝑎 𝑓(𝑥)𝑑𝑥
Interprétation géométrique :
En effet 𝑃(𝑎 ≤ 𝑋 < 𝑏) est l’aire de la surface limitée par la courbe, les droites
verticales passant par les abscisses a et b , et ,l’axe des abscisses
𝑓(𝑥)
𝑝(𝑎 ≤ 𝑋 < 𝑏) = Aire de la
surface hachurée
a b
Remarque importante :
alors P(a ≤ X < 𝑏) = P(a < 𝑋 ≤ 𝑏) = P(a < 𝑋 < 𝑏) = P(a ≤ X ≤ b)=
b
= � f(x)dx
a
b
On a vu que : P(a ≤ X < 𝑏) = F(b) − F(a) = ∫a f(x)dx
F(x)=P(X<x)
Remarque :
Exemple :
f(x)
Au point d’abscisse M0
la fonction f admet un
maximum
x
F(x) M0
1
F convexe Au point d’abscisse M0
F ′′ (x) > 0 la courbe de F(x) admet
F concave
F ′′ (x) ≤ 0 un point d’inflexion
x
M0
2) L’espérance mathématique :
+∞
E(X) = � x f(x)dx
−∞
+∞
Plus généralement si Y=g(x) alors : E�g(x)� = ∫−∞ g(x)f(x)dx
3) Le moment non centré d’ordre k :
+∞
k
mk = E�X � = � X k f(x)dx
−∞
𝜎(𝑋) = �𝑉(𝑋)
Indépendance totale :
p(A 1 ∩ A3 ) = p(A1 ) p( A3 )
∀ I ⊂ {1, 2, 3} P �� Ai � = � p(Ai )
i∈I i∈I
Donnons maintenant la définition dans le cas général
P �� Ai � = � p(Ai )
i∈I i∈I
Considérons n variables aléatoires X1, X2, X3, …, Xn définies sur un espace Ω ; nous
disons qu’elles sont indépendantes si quelque soient les parties :
B1, B2, B3, …, Bn de IR les événements « "X1 ∈ B1 "; "X2 ∈ B2 "; … ; "Xn ∈ Bn " sont
totalement indépendants au sens donné dans la définition 1.
Propriété importante :
Si f1, f2, f3, …, fn sont des fonctions définies de IR vers IR si X1, X2, X3, …, Xn sont
des variables indépendantes alors leurs transformations f1oX1, f2oX2, f3oX3, …,
fnoXn sont indépendantes aussi (ici le signe o signifie composition).
Théorème :
Soit X une variable aléatoire absolument continue de densité f(x) et soit Y=g(X)
une transformation de X. Si g est une fonction bijective. Et si on désigne par
h(y) la densité de la variable aléatoire Y alors
−1 (y)
dg −1 (y)
h(y) = f(g � � ; g −1 est la fonction réciproque de g
dy
f(�y ) + f(−�y)
h(y) =
2 �y
Preuve :
−1 (y)
dg −1 (y)
ℎ(𝑦) = 𝑓�g �
d(y)
Y=g(X)
y
X
x
Car x étant absolument continu P(X=x)=0 ∀x
−1 (y)
d g −1 (y) d g −1 (y)
h(y) = −f�g � ≥0 (car ≤ 0)
dy dy
−1
𝑑𝑔−1 (𝑦)
h(y) = f(𝑔 (𝑦)) � �
𝑑𝑦
= F (�𝑦) – F (−�𝑦) X
-�𝑦 �𝑦
𝑑 �𝑦 𝑑(−�𝑦)
H’(y) = h(y) = f(�𝑦) � � − f(−�𝑦) � �
𝑑𝑦 𝑑𝑦
2.3.11 Théorème :
V(X ) = p − p² = p(1 − p) = pq
P( X = k) = 𝐶𝑛𝑘 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
DX = {0, 1, 2, … , n}
Règle pratique : La loi binomiale apparait à chaque fois qu’il ya répétition d’une
épreuve aléatoire à deux issues dans les mêmes conditions de manière à ce
que (la probabilité d’une issue) reste constante. Par exemple lorsqu’on répète
un tirage avec remise, ayant deux issues n fois, les conditions précédentes sont
vérifiées.
Preuves :
Pour la preuve nous utilisons les propriétés que nous avons déjà énoncées
𝑋 = � 𝑋𝑖
𝑖=1
Calcul de E(X) :
n
Calcul de V(X) :
n
Les variables X1, X2, X3, …, Xn sont indépendantes puisqu’elles sont le résultat
des tirages avec remises. Donc :
n
V(X) = � pq = npq
i=1
Calcul du mode :
Px = Cnx px qn−x
n!
Px−1 Cnx−1 px−1 qn−x+1 (x − 1)! (n − x + 1)! q xq
= = =
Px Cnx px qn−x n! (n − x + 1)p
p
x! (n − x)!
Px+1 (n − x)p
=
Px (x + 1)q
xq (n − x) p
<1 𝑒𝑡 <1
(n − x + 1) p (x + 1) q
⇕ ⇕
Alors X ↝ (N, n, N1 )
k
P(X = k) = CN 1
𝐶𝑁𝑛−𝑘
2
⁄𝐶𝑁𝑛
P(X = k) = 𝑒 −𝜆 𝜆𝑘 / k !
On écrit X ↝ P(λ) ;
Preuves :
Calcul de E(X) :
∞ ∞ ∞
e−λ λk e−λ λk−1 λ e−λ λk−1
E(X) = � k =� = λ�
k! (k − 1)! (k − 1)!
k=0 k=0 k=0
∞
−λ
λx
Si on pose x = k − 1 on a: E(X) = λ e �
x!
x=0
E(X) = λ e−λ eλ = λ
Calcul de V(X) :
On pose x=k-2 ;
∞
−λ 2
λx
E[X(X − 1)] = e λ � = λ2 e−λ eλ = λ2
x!
x=0
Donc : V(X) = λ2 + λ − λ2 = λ
Définition 1 :
Une variable aléatoire X absolument continue suit une loi normale d’espérance
E(X) =m et d’écart type 𝜎 si :
1 1 𝑥−𝑚 2
f(x) = exp �− ( ) �
𝜎 √2𝜋 2 𝜎
DX = IR; m ∈ IR ; σ ∈ IR+
On note: X ↝ N (m , 𝜎)
Représentation graphique:
f(x)
1
1
𝜎 √2𝜋
1/2
x x
m m
Définition 2 :
X−m
Si Y = alors Y est appelé la loi normale centrée réduite.
σ
On note Y ↝ N(0,1)
On montre que :
1 2
1
E(Y)= 0 ; V(Y) =1 et h(y) = 𝑒 −2𝑦
√2𝜋
Preuves :
𝑋−𝑚 1 1
E(Y) = E � � = ( E(X) – E(m) ) = (m − m) = 0
𝜎 𝜎 𝜎
𝑋−𝑚 1 1 𝜎2
V(Y) = V � � = 2 V(X − m) = 2 V(X) = 2 = 1
𝜎 𝜎 𝜎 𝜎
Pour déduire la densité de Y nous allons utiliser le théorème déjà énoncé.
1 𝑚
Puisque Y = g(X) = X− est une fonction affine et donc g est bijective
𝜎 𝜎
Alors :
𝑑𝑔−1 (𝑦) 𝑑𝑔−1 (𝑦)
h(y) = f (𝑔−1 (𝑦)) � −1
� ; 𝑔 (y) = 𝜎 𝑦 + 𝑚 ; = 𝜎
𝑑𝑦 𝑑𝑦
1 1 𝜎𝑦 + 𝑚 − 𝑚 2
h(y) = f(𝜎𝑦 + 𝑚)|𝜎| = exp �− ( ) � |𝜎|
𝜎√2𝜋 2 𝜎
1 𝑦2 1 −
𝑦2
|𝜎| = 𝜎 d’où h(y) = exp − = 𝑒 2
√2𝜋 2 √2𝜋
Il reste maintenant à montrer que h(y) est bien une densité de probabilité,
c’est-à-dire que h(y) vérifie bien les propriétés d’une fonction de densité de
probabilité que nous avons déjà énoncés.
𝑦2
−
1-Puisque 𝑒 2 > 0, 0 ∀𝑦𝜖 IR 𝑎𝑙𝑜𝑟𝑠 h(y) > 0 ∀𝑦𝜖 𝐷𝑦 = IR
+∞
2-Montrons que ∫−∞ ℎ(𝑦) d y = 1
Preuve :
+∞
Soit I = ∫−∞ h(y) dy et calculons I² :
+∞ +∞
2
1 +∞ +∞ −1(𝑦2 +𝑡 2)
𝐼 =� ℎ(𝑡)𝑑𝑡 � ℎ(𝑦) 𝑑𝑦 = � � 𝑒 2 𝑑𝑡𝑑𝑦
−∞ −∞ 2𝜋 −∞ −∞
cos 𝜃 – 𝜌 sin 𝜃
det 𝒥𝑓 (ρ, 𝜃) = � � = ρ(𝑐𝑜𝑠 2 𝜃 + 𝑠𝑖𝑛2 𝜃) = 𝜌
sin 𝜃 𝜌 cos 𝜃
2
1 2π +∞
−
ρ2 +∞
I = � dθ �� e 2 𝜌dρ � = 1 d’où I = � h(y) dy = 1
2π 0 0 −∞
1- h(y) est continue car elle est une fonction composée de deux
fonctions continues.
𝑦2
(Ici la fonction 𝑧 = est continue et la fonction 𝑒 −𝑧 est continue)
2
Fonction de répartition :
+∞
1 −
x2
π(+∞) = � e 2 dx =1
−∞ √2π
1 −
𝑥2
(car f(𝑥) = 𝑒 2 est une densité de probabilité)
√2𝜋
Représentation graphique :
f(x) 𝜋(𝑡)
1
1/√2𝜋
1/2
x t
0 0
La courbe de f(x) admet un maximum La courbe de π(t) admet un point
Utilisation
(=mode) aude la table
point :
d’abscisse E(X)=0 d’inflexion de coordonnées (0, ½)
j tj
h 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5039 0.5079 0.5119 0.5159 0.5199 0.5239 0.5279 0.5318 0.5358
0.1 0.5398 0.5438 0.5477 0.5517 0.5556 0.5596 0.5635 0.5674 0.5714 0.5753
0.2 0.5792 0.5831 0.587 0.5909 0.5948 0.5987 0.6025 0.6064 0.6102 0.6140
0.3 0.6179 0.6217 0.6255 0.6293 0.6330 0.6368 0.6405 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6627 0.6664 0.6700 0.6736 0.6772 0.6808 0.6843 0.6879
0.5 0.6914 0.6949 0.6984 0.7019 0.7054 0.7088 0.7122 0.7156 0.7190 0.7224
0.6 0.7257 0.7290 0.7323 0.7356 0.7389 0.7421 0.7453 0.7485 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7703 0.7733 0.7763 0.7793 0.7823 0.7852
0.8 0.7881 0.7910 0.7938 0.7967 0.7995 0.8023 0.8051 0.8078 0.8105 0.8132
0.9 0.8159 0.8185 0.8212 0.8238 0.8263 0.8289 0.8314 0.8339 0.8364 0.8389
1.0 0.8413 0.8437 0.8461 0.8484 0.8508 0.8531 0.8554 0.8576 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8707 0.8728 0.8749 0.8769 0.8790 0.8810 0.8829
1.2 0.8849 0.8868 0.8887 0.8906 0.8925 0.8943 0.8961 0.8979 0.8997 0.9014
1.3 0.9032 0.9049 0.9065 0.9082 0.9098 0.9114 0.9130 0.9146 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9250 0.9264 0.9278 0.9292 0.9305 0.9318
th 1.5 0.9331 0.9344 0.9357 0.9369 0.9382 0.9394 0.9406 0.9417 0.9429 0.9440
1.6 0.9452 0.9463 0.9473 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9544
1.7 0.9554 0.9563 0.9572 0.9581 0.9590 0.9599 0.9608 0.9616 0.9624 0.9632
1.8 0.9640 0.9648 0.9656 0.9663 0.9671 0.9678 0.9685 0.9692 0.9699 0.9706
1.9 0.9712 0.9719 0.9725 0.9732 0.9738 0.9744 0.9750 0.9755 0.9761 0.9767
2.0 0.9772 0.9777 0.9783 0.9788 0.9793 0.9798 0.9803 0.9807 0.9812 0.9816
2.1 0.9821 0.9825 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9853 0.9857
2.2 0.9861 0.9864 0.9867 0.9871 0.9874 0.9877 0.9880 0.9884 0.9887 0.9889
2.3 0.9892 0.9895 0.9898 0.9901 0.9903 0.9906 0.9908 0.9911 0.9913 0.9915
2.4 0.9918 0.9920 0.9922 0.9924 0.9926 0.9928 0.9930 0.9932 0.9934 0.9936
2.5 0.9937 0.9939 0.9941 0.9943 0.9944 0.9946 0.9947 0.9949 0.9950 0.9952
2.6 0.9953 0.9954 0.9956 0.9957 0.9958 0.9959 0.9960 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9972 0.9973
2.8 0.9974 0.9975 0.9976 0.9976 0.9977 0.9978 0.9978 0.9979 0.9980 0.9980
2.9 0.9981 0.9981 0.9982 0.9983 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986
3.0 0.9986 0.9986 0.9987 0.9987 0.9988 0.9988 0.9988 0.9989 0.9989 0.9990
Table pour les grandes valeurs de t
t 3,0 3,1 3,2 3,3 3,4 3,5 3,6 3,8 4,0 4,5
π(t) 0,9986 0,9990 0,9993 0,9995 0,9996 0,9997 0,9998 0,9999 0,9999 0,9999
Pour t ≥ 0 :
- Si 0 ≤ t ≤ 4.5 : la table donne les valeurs de π(t).
- Si t > 4.5 : on utilise l’approximation π(t) ≈ 1.
Exemple : t = 1.51 = 1.5 + 0.01 = th + tj . La table donne π (1.51)=0.9344
Pour t < 0 :
La table ne donne pas directement les valeurs de π(t). Il faut utiliser la
propriété π(-t) = 1 - π(t).
Exemple : t=-1 ; π(-1) = 1 - π(1) = 1 - 0.8413 = 0.1587
Définition :
Propriétés de 𝜞 :
2- 𝛤(1) = 1
3- 𝛤(𝑛 + 1) = 𝑛! pour n 𝜖 𝐼𝑁
1
4- 𝛤 � � = √𝜋
2
Forme de la densité
x x x
a-1
Les moments d’une 𝛾(𝐚)
2- L’espérance:
𝛤(𝑎 + 1) 𝑎𝛤(𝑎)
𝐸(𝑋) = = =a
𝛤(𝑎) 𝛤(𝑎)
3- La variance :
Théorème :
Z = 𝑋1 + 𝑋2 + ⋯ + 𝑋𝑛 ↝ γ �� 𝑎𝑖 �
𝑖
Corollaire (conséquence) :
1- 𝑈𝑖 ↝ γ(1⁄2) ∀ i = 1, 2, … , n
2- Les variables 𝑈1 , 𝑈2 , … , 𝑈𝑛 sont indépendantes
3- Z = 𝑈1 + 𝑈2 + ⋯ + 𝑈𝑛 ↝ γ(𝑛⁄2)
Preuve :
T
1) X = ; T = g −1 (X) = √2 X
√2
t2
1 −
T variable aléatoire centrée réduite de densité f(t) = e 2
√2π
−1
dg −1 (x) d√2 x
h(x) = f(g (x)) � � = f(√2 x)
dx dx
1 −
(√2 𝑥)2 1 2
h(x) = 𝑒 2 . √2 = 𝑒 −𝑥
√2𝜋 √𝜋
Transformation: on pose U= X²
𝑦
Faisons le changement de variable Y= 2Z ; 𝑔−1 (y) = z =
2
−1 −1
𝑑𝑔 (𝑦) 1 𝑑𝑔 (𝑦)
= ; h(y) = f(𝑔−1 (y)) � �
𝑑𝑦 2 𝑑𝑦
1 −𝑦 𝑦 𝑛−1 1
𝑛 𝑒 2 ( )2 si y ≥ 0 𝑒𝑡 𝑛 > 0
h(y) = �𝛤( ) 2 2
2
0 𝑠𝑖𝑛𝑜𝑛
1 𝑦 𝑛
𝑒 −2 𝑦 2 −1 si y ≥ 0 𝑒𝑡 𝑛 > 0
h(y) = �2𝑛2 𝑛
𝛤( )
2
0 𝑠𝑖𝑛𝑜𝑛
La densité obtenue est celle d’une variable qui suit une loi 𝜒𝑛2 .
Définition :
On dit qu’une variable aléatoire Y suit une loi de χ2𝑛 si Y est la somme de n
variables aléatoires normales, centrées réduites, indépendantes au carré.
La densité :
1 −
𝑦 𝑛
𝑛 𝑒 2 𝑦 2 −1 𝑠𝑖 𝑦 ≥ 0 𝑒𝑡 𝑛 > 0
Si Y ↝ χ2n alors h(y) = �2 2 𝛤 (𝑛)
2
0 𝑠𝑖𝑛𝑜𝑛
Forme de la densité :
h(y)
h(y) h(y)
n=1 n=2 n>1
0.30
1/2
0.20
0.10
y y n-2 y
L’espérance : 𝐸(χ2n ) = n
La variance : 𝑉(χ2n ) = 2n
1
- cf. B.GRAIS, Méthodes statistiques, Dunod
Utilisation de la table de 𝛘𝟐𝐧 :
𝟏𝒆𝒓 Cas : Si n≤ 30, la table donne pour une probabilité λ et une valeur de n
la valeur y de χ2n telle que : 𝑃(χ2n ≥ y) = 𝜆
f(χ2n )
𝑃(χ2n ≥ y) = 𝜆
χ2n
y
Exemple :
𝜆 = 0,90
� ⟹ 𝑃(χ23 ≥ y) = 0,90 ⇒ 𝑦 = 0,58 (𝑣𝑜𝑖𝑟 𝑡𝑎𝑏𝑙𝑒)
𝑛=3
2ème Cas : Si 30 < 𝑛 ≤ 100
Donc dans ce cas là on utilise la table de la loi Normale pour calculer par
exemple y tel que 𝑃(χ2n ≥ 𝑦) = 0,90
On admet que :
χ2n − 𝑛
≃ N(0,1)
√2𝑛
Donc on utilise la table de la loi normale pour le calcul.
Propriétés
𝑠𝑖 𝑌1 ↝ χ2n1
𝑠𝑖 𝑌2 ↝ χ2n2 � alors 𝑌1 + 𝑌2 ↝ χ2𝑛1+ 𝑛2
𝑠𝑖 𝑌1 𝑒𝑡 𝑌2 𝑠𝑜𝑛𝑡 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠
3)
𝑠𝑖 𝑌1 ↝ χ2n1
𝑠𝑖 𝑌2 ↝ χ2n2 � alors 𝑌1 et 𝑌2 𝑠𝑜𝑛𝑡 𝑖𝑛𝑑é𝑝𝑒𝑛𝑑𝑎𝑛𝑡𝑒𝑠
2
𝑠𝑖 𝑌1 + 𝑌2 ↝ χ𝑛1+ 𝑛2
4)
𝑠𝑖 𝑌1 ↝ χ2n1
2 � alors 𝑌2 ↝ χ2𝑛2
𝑠𝑖 𝑌1 + 𝑌2 ↝ χ𝑛1+ 𝑛2
Remarque :
Mais on montre que plus le nombre de degrés de liberté est élevé, plus cette
dissymétrie est faible.
Définition :
On note U ↝ F (n, m)
La densité :
n
1 n m u2−1
U ↝ F(n, m); f(u) = �B(n , m) n m si u > 0
2 2
n+m
2 2 (m + nu) 2
0 sinon
Avec :
m n
n m 1 n m Γ � � Γ( )
−1 −1
B( , ) = � x 2 (1 − x) 2 dx = 2 2
2 2 n m
0 Γ( + )
2 2
B(a, b) est appelé fonction eulérienne de première espèce (ou tout simplement
fonction Beta)
La forme de la densité :
F(u)
Moments :
𝑚
E(U) = pour m > 2
𝑚−2
2𝑚2 (𝑛 + 𝑚 − 2)
𝑉(U) = pour m > 4
𝑛(𝑚 − 4)(𝑚 − 2)2
Exemple :
𝑝𝑜𝑢𝑟 𝑛 = 1; 𝑚 = 5
� ⇒ a = 6,61 (voir table )
𝑝 = 0,05
3.2.5 Loi de Student :
Définition :
X ↝ N(0,1) et Y ↝ χ2n
1 t 2 −(n+1)
On note T ↝ St n ; f(t, n) = (1 + ) 2
1 n n
√n B(2 , 2)
𝐷𝑇 = IR et n entier ≥ 1
On rappelle que :
1
Γ(a)Γ(b)
B(a, b) = � x a−1 (1 − x)b−1 dx = ; a > 0 𝑒𝑡 𝑏 > 0
0 Γ(a + b)
Forme de la densité :
T ↝ St n
t
0
Les moments :
𝑛
𝐸(𝑇) = 0; 𝑉(𝑇) = 𝑠𝑖 𝑛 ≥ 3
𝑛−2
Remarque : la variance d’une Student n’existe que pour n ≥3.
Utilisation de la table de Student :
La table de la loi Student donne pour une valeur de degré de liberté n et pour
une probabilité β la valeur t telle que :
1−𝛽
-t 0 t