Vous êtes sur la page 1sur 54

Probabilités-Statistique

Cours et Exercices

i Dr. Jean Marc OWO


Table des matières

1 Analyse combinatoire 1
1. Cardinal d’un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. Principes fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2.1. Principe multiplicatif . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2.2. Principe additif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
3. Permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
4. Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
5. Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
6. Répartitions d’objets dans des cases discernables . . . . . . . . . . . . . . . . 6
6.1. Cas d’objets discernables . . . . . . . . . . . . . . . . . . . . . . . . . 6
6.2. Cas d’objets indiscernables . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Notions de probabilités 9
1. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.1. Expérience aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Langage des événements . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4. Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5. Système complet d’événements . . . . . . . . . . . . . . . . . . . . . 11
2. Notion de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3. Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.2. Formule des probabilités composées . . . . . . . . . . . . . . . . . . . 14
3.3. Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . 14
3.4. Formule de Bayes ou probabilités des causes . . . . . . . . . . . . . . 14
4. Indépendance d’événements . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.1. Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . 15
4.2. Indépendance mutuellede n événements . . . . . . . . . . . . . . . . . 15

ii
TABLE DES MATIÈRES

3 Variables aléatoires réelles 16


1. Exemples et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2. Loi d’une variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1. Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2. Fonction de masse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3. Fonction de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3. Variables aléatoires réelles discrètes . . . . . . . . . . . . . . . . . . . . . . . 20
3.1. Loi d’une v.a.r. discrète . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2. Loi d’une fonction d’une v.a.r. discrète . . . . . . . . . . . . . . . . . 21
4. Variables aléatoires réelles continues . . . . . . . . . . . . . . . . . . . . . . . 22
4.1. Loi d’une v.a.r. continue . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2. Loi d’une fonction continue d’une v.a.r. continue . . . . . . . . . . . . 23
5. Moments d’une variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . 24
6. Fonction caractéristique - Fonction génératrice . . . . . . . . . . . . . . . . . 26
6.1. Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . 26
6.2. Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Lois de probabilités usuelles 28


1. Lois usuelles discretes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.1. Loi de Bernoulli B(1, p) . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2. Loi Binomial B(n, p) . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3. Loi Hypergéométrique H(N, n, p) ou H(N, N p, n) . . . . . . . . . . . 29
1.4. Loi géométrique G(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.5. Loi Binomial négative BN (r, p) . . . . . . . . . . . . . . . . . . . . . 31
1.6. Loi de Poisson P(λ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7. Loi uniforme sur {1, ..., n} ; U{1,...,n} . . . . . . . . . . . . . . . . . . . 32
1.8. X L, avec X(Ω) = N . . . . . . . . . . . . . . . . . . . . . . . . . 32
2. Lois usuelles continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.1. Loi uniforme sur [a, b], a < b ∈ R . . . . . . . . . . . . . . . . . . . . . 33
2.2. Loi exponentielle ξ(θ), θ > 0 . . . . . . . . . . . . . . . . . . . . . . . 33
2.3. Loi Gamma γ(a, ρ), a > 0, ρ > 0 . . . . . . . . . . . . . . . . . . . . . 34
2.4. Loi normale N (m, σ 2 ) (ou loi de Gauss) . . . . . . . . . . . . . . . . 35
2.5. Loi de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

5 Vecteurs aléatoires 37
1. Introdution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2. Loi conjointe d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . 37
2.1. Fonction de repartition . . . . . . . . . . . . . . . . . . . . . . . . . 37

iii Dr. Jean Marc OWO


TABLE DES MATIÈRES

2.2. Vecteur aléatoire discret . . . . . . . . . . . . . . . . . . . . . . . . . 38


2.3. Vecteur aléatoire absolument continu . . . . . . . . . . . . . . . . . . 38
3. Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4. Espérance mathématique et matrice de covariance . . . . . . . . . . . . . . . 40
5. Indépendance et conditionnement . . . . . . . . . . . . . . . . . . . . . . . . 42
6. Vecteurs aléatoires Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.1. Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.2. Lois dérivées d’un vecteur Gaussien . . . . . . . . . . . . . . . . . . . 46

6 Convergences 48
1. Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2. Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3. Convergence presque sure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4. Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.1. Forme multidimensionnelle . . . . . . . . . . . . . . . . . . . . . . . . 49

iv Dr. Jean Marc OWO


Chapitre 1

Analyse combinatoire

L’analyse combinatoire a pour but de dénombrer les différentes dispositions que l’on
peut former à partir d’un nombre fini d’éléments. Ce chapitre fournit des méthodes de
dénombrement particulièrement utiles en probabilités.

1. Cardinal d’un ensemble fini


Définition 1.1. Un ensemble E non vide est dit fini s’il existe un entier n et une bijection
de {1, 2, ..., n} sur E. Lorsqu’il existe, l’entier n est unique et est noté Card(E). C’est le
cardinal ou le nombre d’éléments de E.

Définition 1.2. Un ensemble E est dit dénombrable s’il existe une bijection de N sur E. Un
ensemble E est dit infini non dénombrable s’il n’est ni fini, ni dénombrable.

Soit E un ensemble fini et A, B deux parties de E.

Proposition 1.1.
1. Si Ā est le complémentaire de A dans E alors Card(A) = Card(E) − Card(A).
2. Card(A ∪ B) = Card(A) + Card(B) − Card(A ∩ B).
3. Si A ∩ B = ∅, alors Card(A ∪ B) = Card(A) + Card(B)
4. Card(A × B) = Card(A) × Card(B)

2. Principes fondamentaux

2.1. Principe multiplicatif


Ce principe est à la base des techniques de denombrement. Il permet de compter le nombre
de résultats d’expériences qui peuvent se décomposer en une succession de sous-expériences,
i.e. en une suite d’expériences partielles, réalisées l’une après l’autre.

1
CHAPITRE 1. ANALYSE COMBINATOIRE

Principe : Supposons qu’une expérience est la succession de r sous-expériences. Supposons


de plus que la première sous-expérience peut produire n1 résultats, et pour chaque résultat
de la première sous-expéience, il y a n2 résultats possibles pour la deuxième sous-expérience ;
pour chaque résultat des deux premières sous-expériences, il y en a n3 pour la troisième, etc.
Alors, le nombre total de résultats de l’expérience complète est le produit

n1 × n2 × ... × nr .

Interprétation avec les ensembles :


Si E = E1 × E2 × ... × Er (produit cartesien),
alors Card(E) = Card(E1 ) × Card(E2 ) × ... × Card(Er ).

Exemple 1 : On considère trois villes : Abidjan, Agboville et Akoupé et On suppose qu’il y


a 5 chemins différents pour aller d’Abidjan à Agboville et 3 chemins pour aller d’Agboville
à Akoupé. Combien de chemins différents y a t il pour aller d’Abidjan à Akoupé en passant
par Agboville ?

Exemple 2 : Supposons qu’une plaque d’immatriculation contenant deux lettres distinctes


suivies de trois chiffres dont le premier est différent de zéro. Combien de plaques différentes
peut-on imprimer ?

Exemple 3 : Nous désirons former un comité de 3 personnes dont 1 président, 1 secrétaire


et 1 trésorier à partir d’une classe de 20 élèves. Combien de comités différents est-il possible
de faire ?

2.2. Principe additif


Il permet de compter le nombre de résultats d’expériences qui peuvent se décomposer
en des sous-expériences mutuellement exclusives (les expériances qui n’ont aucun résultat
commun) .

Principe : Supposons qu’une expérience se décompose en r sous-expériences mutuellement


exclusives. Si la i−ème sous-expérience a ni résultats possibles (avec i = 1, 2, ..., r), alors le
nombre total de résultats de l’expérience complète est la somme

n1 + n2 + ... + nr .

Interprétation avec les ensembles :


Si E = E1 ∪ E2 ∪ ... ∪ Er avec Ei ∩ Ej = ∅, pour tout i 6= j (partition),
alors Card(E) = Card(E1 ) + Card(E2 ) + ... + Card(Er ).
Lorsqu’on veut dénombrer un ensemble fini E, on peut trouver une partition E1 , E2 , ..., En
de cet ensemble, où les cardinaux des ensembles Ei sont plus faciles à déterminer. Il ne reste
alors qu’à faire la somme des differents cardinaux obtenus

2 Dr. Jean Marc OWO


CHAPITRE 1. ANALYSE COMBINATOIRE

Exemple 4 : On considère trois villes : Abidjan, Agboville et Adzopé. On suppose qu’il y


a 5 chemins différents pour aller d’Abidjan à Agboville et 3 chemins pour aller d’Abidjan à
Adzopé. Combien de chemins différents y a t il pour aller d’Abidjan à l’une des deux autres
villes ?

Exemple 5 : En plus des conditions de l’exemple 1 et 4, on suppose qu’il y a 2 chemins


pour aller d’Adzopé à Akoupé et 4 chemins directs d’Abidjan à Akoupé. Combien de chemins
différents y a-t-il pour aller d’Abidjan à Akoupé ?

3. Permutations
Une permutation de n éléments est un réarrangement ordonné de ces n éléments.

Notation : La fonction "factorielle" est la fonction de N vers N qui a tout n ∈ N associe


n! = n(n..1) × ... × 2 × 1.
On a : 0! = 1 et n! = n(n − 1)!.

• Lorsque tous les n éléments sont distincts, on parle de permutations sans répétitions. Dans
ce cas le nombre de permutations de n éléments est n!.

Remarque : Une permutation de n éléments distincts est une application bijective d’un
ensemble E à n éléments dans lui-même.

• Si parmi les n éléments, certains sont semblables, on parle de permutations avec répétitions.

Le nombre de permutations de n éléments dont n1 sont semblables, n2 sont semblables, ...,


nr sont semblables est
n!
n1 ! × n2 ! × ... × nr !
avec n1 + n2 + ... + nr = n.

Exemples :
- Le nombre d’applications d’un ensemble de n éléments distincts dans un ensemble de r
éléments distincts {a1 , .., ar } qui envoient exactement n1 éléments dans a1 , n2 éléments dans
a2 ,..., nr éléments dans ar est égal à
n!
.
n1 ! × n2 ! × ... × nr !

4. Arrangements
• Un arrangement sans répétitions de p éléments parmi n éléments distincts est une permu-
tation de p éléments distincts pris parmi les n (p ≤ n). Cela revient à prendre p éléments
distincts parmi les n en tenant compte de l’ordre dans lequel on les choisit.

3 Dr. Jean Marc OWO


CHAPITRE 1. ANALYSE COMBINATOIRE

Remarque :
(i) Les éléments sont pris sans répétition et en tenant compte de l’ordre dans lequel on
les choisit.
(ii) Un arrangement sans répétitions de p éléments parmi n est une application injective
de {1, 2, ..., p} dans un ensemble F à n éléments.

On note Apn le nombre d’arrangements sans répétitions de p éléments parmi n. On a

n!
Apn = n(n − 1) × ... × (n − p + 1) = .
(n − p)!

Propriétés :
(i) Apn = nAp−1
n−1
(ii) Apn = pAp−1 p
n−1 + An−1

Exemples :
- Si E et F sont des ensembles finis tels que Card(E) = p et Card(F ) = n, alors le
nombre d’applications injectives de E dans F est Apn = n(n − 1) × ... × (n − p + 1) si p ≤ n
et 0 sinon.
- Le nombre de tirages différents sans remise de p boules dans une urne contenant n
boules toutes discernables est égal à Apn = n(n − 1) × ... × (n − p + 1) si p ≤ n et 0 sinon.
- Le nombre de façons de placer p objets distincts dans n cases discernables, chaque case
pouvant contenir au plus 1 objet est Apn = n(n − 1) × ... × (n − p + 1) si p ≤ n et 0 sinon.

• Un arrangement avec répétitions (possibles) de p éléments parmi n est une disposition


ordonnée de p éléments avec autant de répétitions que l’on souhaite.

Remarque : Un arrangement avec répétitions de p éléments parmi n est une application de


{1, 2, ..., p} dans un ensemble F à n éléments.

Le nombre d’arrangements avec répétitions de p éléments parmi n est np .

Exemples :
- Si E et F sont des ensembles finis tels que Card(E) = p et Card(F ) = n, alors le
nombre d’applications de E dans F est np .
- Le nombre de tirages différents de p boules dans une urne contenant n boules toutes
discernables est égal à np lorsque les tirages sont non exhaustifs (i.e. avec remise après chaque
tirage).
- Le nombre de façons de placer p objets distincts dans n cases discernables, chaque case
pouvant contenir éventuellement plusieurs objets est np .

4 Dr. Jean Marc OWO


CHAPITRE 1. ANALYSE COMBINATOIRE

5. Combinaisons
• Une combinaison sans répétitions de p éléments pris dans un ensemble à n éléments distincts
(p ≤ n) est un sous-ensemble à p éléments de cet ensemble.
Remarque : Les éléments sont pris sans répétition et ne sont pas ordonnés.
Exemple : Les combinaison sans répétitions de 2 éléments pris dans l’ensemble {1, 2, 3, 4}
sont : {1, 2} , {1, 3} , {1, 4} , {2, 3} , {2, 4} , {3, 4} .
Le nombre de combinaisons (sans répétitions) de p éléments parmi n est noté Cnp ou (np ) qui
est appelé coefficient binomial. On a
Apn n!
Cnp = = .
p! p!(n − p)!
Exemples :
- Si E est un ensemble fini tels que Card(E) = n, alors le nombre de parties de E ayant
p éléments est Cnp .
- Le nombre d’applications d’un ensemble de n éléments dans l’ensemble {a1 , a2 } (a1 6= a2 )
qui envoient exactement p éléments dans a1 et les autres dans a2 est égal Cnp .
- Le nombre de façons de placer p objets indiscernables dans n cases discernables, chaque
case pouvant contenir au plus 1 objet est Cnp si p ≤ n et 0 sinon.
Propriétés :
(i) Cn0 = Cnn = 1
(ii) Cnp = Cnn−p
p−1 p
(iii) Formule de récurrence (Triangle de Pascal) Cnp = Cn−1 + Cn−1
Xn
(iv) Formule de Binôme de Newton (a + b)n = Cnp ap bn−p
p=0
n
X
En particulier, 2n = Cnp (Le nombre de parties d’un ensemble à n éléments).
p=0
• Une combinaison avec répétitions (possibles) de p éléments pris dans un ensemble à n
éléments distincts est une disposition non ordonnée de p éléments avec possibilité de répéti-
tions.
Exemple : Les combinaison avec répétitions (possibles) de 2 éléments pris dans l’ensemble
{1, 2, 3, 4} sont : {1, 1} , {1, 2} , {1, 3} , {1, 4} , {2, 2} , {2, 3} , {2, 4} , {3, 3} , {3, 4} , {4, 4} .
Le nombre de combinaisons avec répétitions de p éléments parmi n est noté Knp ou ((np )).
On a
p
Knp = ((np )) = Cn+p−1 .

Exemples :
Le nombre de façons de placer p objets indiscernables dans n cases discernables, chaque
p
case pouvant contenir éventuellement plusieurs objets est Cn+p−1 .

5 Dr. Jean Marc OWO


CHAPITRE 1. ANALYSE COMBINATOIRE

6. Répartitions d’objets dans des cases discernables


Dans tout ce qui suit, on dispose de n objets et r cases discernables. On désire dénomber
la répartition des objets dans les cases. On suppose que les cases sont discernables.

6.1. Cas d’objets discernables


On suppose que les n objets sont tous discernables.
• La répartition des objets se fait sans contrainte
Sous cette hypothèse, une répartition des objets est identifiable à une application de
l’ensemble des n objets vers l’ensemble des r cases.
Alors, le nombre de répartions possibles est rn .

• La répartition des objets se fait sans qu’aucune case ne reste vide


(i) Si r > n, alors le nombre de répartions des objets est zéro.
(ii) Si r < n, alors le nombre de répartions des objets est Arn × r(n−r)

En effet, on considère la répartion des objets comme une expérience qu’on subdivise en deux
sous-expériences. La première sous-expérience consiste à mettre dans chaque case un objet
et la deuxième à répartir le reste des objets sans contrainte. On a Arn façons de mettre dans
chaque case un objet et un seul. A chacune de ces répartitions, on a r(n−r) façons de répartir
le reste des objets. D’après le principe fondamental, on déduit le résultat énoncé.

• La répartition des objets se fait de telle sorte que la case i contienne ni objets.
La répartition des objets est identifiable à une expérience qu’on peut subdiviser en r
sous-expériences. La ième sous-expérience est le chox des objets à mettre dans la case i. A
chaque choix des objets des cases 1, ..., k − 1, on a C nk k−1
choix possibles des objets à
X
n− ni
i=1
mettre dans la case k. D’après le principe fondamental, le nombre de répartions des objets
est
Cnn1 × Cn−n
n2
1
× ... × C nr r−1
.
X
n− ni
i=1
r
X
En remarquant que ni = n, on tire que :
i=1
Le nombre de répartitions de n objets discernables dans r cases discernables de telle sorte
que la case i contienne ni objets est
n!
.
n1 ! × n2 ! × ... × nr !
Cette quantité est noté (n1 ,nn2 ,...,nr ) et est appelé coefficient multinomial.

6 Dr. Jean Marc OWO


CHAPITRE 1. ANALYSE COMBINATOIRE

6.2. Cas d’objets indiscernables


Ici, on considère que tous les n objets sont indiscernables
• La répartition des objets se fait sans qu’aucune case ne reste vide
Puisque les objets sont indiscernables, ce qui différencie les répartitions possibles est la
suite n1 , ..., nr où ni désigne le nombre d’objets dans la case i. On doit avoir ni ≥ 1.
Supposons qu’on a n objets indiscernables alignés et qu’on veut les diviser en r groupes non
vides. Ces objets peuvent être représentés comme suit :

0|0|0|0|...|0|0|0

où les 0 représentent les n objets indiscernables, les bars | de séparation symbolisant les n − 1
espaces entre ces objets. Pour avoir une répartition des objets, il suffit de choisir r − 1 des
n − 1 espaces comme bars de division. Si par exemple, n = 6, r = 3 et qu’on choisit les deux
bars de séparation comme suit :
000|0|00,

on obtient la répartition où il y a trois objets dans la première case, un objet dans la deuxième
case et deux objets dans la troisième case.

Ainsi,
Le nombre de répartitions de n objets indiscernables dans r cases sans qu’aucune case
r−1
ne reste vide est Cn−1 .

Remarque : Notons que le nombre de répartitions de n objets indiscernables dans r cases


discernables est identique au nombre de vecteurs (n1 , ..., nr ) à composantes entières supé-
rieures ou égales à 1 tels que
n1 + ... + nr = n.

• La répartition des objets se fait sans aucune contrainte


Puisque les objets sont indiscernables, ce qui différencie les répartitions possibles est la
suite n1 , ..., nr où ni désigne le nombre d’objets dans la case i. Sans contrainte, ni ≥ 0.

- Prmière méthode
Comme précédemment, le nombre de répartitions de n objets indiscernables dans r cases
discernables est identique au nombre de vecteurs (n1 , ..., nr ) à composantes entières supé-
rieures ou égales à 0 tels que
n1 + ... + nr = n.

Par changement de variable mi = ni + 1, i = 1, ..., r, on obtient l’équation suivante :

m1 + ... + mr = n + r, mi ≥ 1, i = 1, ..., r.

r−1 n
Le nombre de vecteurs solution de cette équation est Cn+r−1 = Cn+r−1 .

7 Dr. Jean Marc OWO


CHAPITRE 1. ANALYSE COMBINATOIRE

- Deuxième méthode
Désignons par ei la ième case, i = 1, ..., r. Ainsi, une répartition de ces n correspond à
une combinaison avec répétition de n éléments parmi e1 , e2 , ..., er .
Par exemple n = 6, r = 5 :

(e1 , e1 , e2 , e4 , e4 , e4 )

signifie qu’on a la répartition :


- 2 objets sont placés dans la première case,
- 1 objet est placé dans la deuxième case,
- aucun objet dans la troisième case,
- 3 objets dans la quatrième case,
- aucun objet dans la cinquième case.

3 e 5 e
e1 e2
z}|{ e4 z}|{
00 | 0 | | 000 |

Par conséquent, il y a autant de façons de répartir les objets dans les cases qu’il y a de
combinaisons avec répétition de n éléments choisis parmi r. On a donc ((rn )) = Cn+r−1
n

répartitions.
Ou bien déplaçons provisoirement les r − 1 points intermédiaires et rassemblons les :

||||||...|||||| 0000000...0000000
| {z }
| {z }
r−1bars intermédiaires nobjets indiscernables

Par permutation des r − 1 bars (indiscernables) et des n objets indiscernables, on obtient


une et une seule répartition des objets. Ainsi
Le nombre de répartitions de n objets indiscernables dans r cases sans contrainte est

(r − 1 + n)! r−1 n
= Cn+r−1 = Cn+r−1 .
(r − 1)! × n!

8 Dr. Jean Marc OWO


Chapitre 2

Notions de probabilités

Le but de ce chapitre est d’introduire les bases mathématiques utiles à la modélisation


des phénomènes aléatoires. Ainsi, l’objectif visé est de donner un sens mathématique à la
notion de "hasard".

1. Généralités

1.1. Expérience aléatoire


 Une expérience ou un phénomène est dit aléatoire si on ne peut prévoir d’avance le résultat
et qui répétée dans les même conditions peut donner lieu à des résultats différents.
Exemples
- Le lancer d’un dé à six faces.
- Le lancer d’une pièce de monnaie.
- Le tirage d’un numéro parmi n numéros.
 L’ensemble des résultats d’une expérience aléatoire est bien déterminé avant sa réalisation,
i.e. avant l’épreuve. Cet ensemble est appelé l’espace fondamental ou l’univers de l’expérience.
On le note en général Ω.
Exemples
- Pour le lancer d’un dé à six faces numéroté de 1à 6, Ω = {1, 2, 3, 4, 5, 6}.
- Pour le lancer d’une pièce de monnaie, Ω = {P, F }.
 Tout résultat d’une expérience aléatoire s’appelle aussi une éventualité. On note ω le
résultat obtenu lors de la réalisation d’une expérience aléatoire.

1.2. Événements
 Lorsqu’on effectue une expérience aléatoire, certains faits liés à cette expérience peuvent
se produit ou non. On les appelle événements. Ils sont représentés par les sous-ensembles de

9
CHAPITRE 2. NOTIONS DE PROBABILITÉS

l’univers Ω.

Exemple
Pour le lancer d’un dé à six faces numéroté de 1à 6, "obtenir un nombre pair", "obtenir
plus de 4" sont des événements possibles.
Notons A l’événement "obtenir un nombre pair" et B l’événement "obtenir plus de 4".
A est décrit par les éventualités 2,4 et 6. On écrit : A = {2, 4, 6}.
B est décrit par les éventualités 5 et 6. On écrit : B = {5, 6}.

 Tout événement formé d’une seule éventualité est appelé événement élémentaire.

1.3. Langage des événements


 On dit qu’un événement A s’est réalisé si le résultat observé de l’expérience est un élément
de A.

 Tout événement qui n’est jamais réalisé est dit événement impossible, il correspond à l’en-
semble vide ∅. Exemple, "obtenir un nombre négatif", dans un lancer de dé est un événement
impossible à réaliser.

 Tout événement qui est toujours réalisé est dit événement certain, il correspond à l’ensemble
Ω. Exemple, dans un lancer de dé "obtenir moins de 7" ou "obtenir plus de 0" sont des phrases
équivalentes correspondant toutes deux à un événement toujours réalisé, soit à à l’ensemble
Ω.

 A chaque événement A correspond son événement contraire "non A" noté A.


L’événement A est réalisé si, et seulement si, A n’est réalisé.

L’événement certain et l’événement impossible sont contraires l’un de l’autre.

On considère deux événements A et B.

 On dit que l’événement "A et B", noté A ∩ B, s’est réalisé si le résultat observé de
l’expérience est un élément de A et de B, i.e. si A et B sont réalisés au cours de la même
expérience aléatoire.

 Les événements A et B sont dits incompatibles ou disjoints s’ils ne peuvent pas se pro-
duire simultanément au cours de la même expérience aléatoire. Autrement dit A et B sont
incompatibles si, et seulement si, A ∩ B = ∅.
Deux événements contraires sont incompatibles : A ∩ A = ∅.

 On dit que l’événement "A ou B", noté A ∪ B, s’est réalisé si le résultat observé de
l’expérience est un élément de A ou de B, i.e. si l’un au moins des deux événements A ou B
est réalisé au cours de la même expérience aléatoire.
Remarque : Pour tout événement A, on a, A = CΩ A, A ∪ A = Ω et A ∩ A = ∅.

10 Dr. Jean Marc OWO


CHAPITRE 2. NOTIONS DE PROBABILITÉS

 De même, on définit les événements :

− La différence : A\B = A ∩ B. Remarque : A\B = A\A ∩ B.


L’événement A\B est réalisé si, et seulement si, A est réalisé et B ne l’est pas.

− La différence symétrique : A∆B = (A\B) ∪ (B\A) = (A ∪ B)\(A ∩ B).


L’événement A∆B est réalisé si, et seulement si, l’un et l’un seulement des deux événements
A et B est réalisé.

 On dit que A implique B si la réalisation de A entraine la réalisation de B. Autrement dit


A implique B si, et seulement si, A ⊂ B.

1.4. Espace probabilisable


Soit Ω l’univers d’une expérience aléatoire. On considère P(Ω) l’ensemble des parties de
Ω. Un sous-ensemble F de P(Ω) est un ensemble de parties de Ω.

Définition 2.1. Un sous-ensemble F de P(Ω) est une tribu sur Ω si


(i) Ω ∈ F,
(ii) F est stable par passage au complémentaire (i.e. A ∈ F =⇒ A ∈ F),
(iii) F est stable par réunion dénombrable (i.e. Ai ∈ F, i ∈ N =⇒ ∪∞
i=0 Ai ∈ F).

Exemples
- {∅, Ω} est une tribu appelée tribu grossière. C’est la plus petite tribu sur Ω.
- P(Ω) est une tribu appelée tribu triviale. C’est la plus grande tribu sur Ω.

- Pour tout A ⊂ Ω, ∅, A, A, Ω est une tribu. C’est la tribu engendrée par l’événement A,
c-à-d la plus petite tribu sur Ω contenant A. On la note σ(A).
Le couple (Ω, F) formé d’un ensemble Ω et d’une tribu F est appelé un espace probabilisable.

Définition 2.2. On appelle tribu borélienne la tribu définie sur R et qui contient tous les
intervalles de R. On la note BR .

1.5. Système complet d’événements


Dans cette partie, I désigne une partie de N ou de Z

Définition 2.3. Soit (Ω, F) un espace probabilisable. On appelle système complet d’évé-
nements toute famille {Ai , i ∈ I} d’événements de F deux à deux incompatibles tels que
[
Ai = Ω.
i∈I

Exemple

Pour tout A ⊂ Ω, A, A est un système complet d’événements.

11 Dr. Jean Marc OWO


CHAPITRE 2. NOTIONS DE PROBABILITÉS

2. Notion de probabilité
On considère une expérience aléatoire d’univers Ω. Soit A ⊂ Ω. On répète l’expérience
n fois. Soit nA le nombre de réalisation de A. Soit fn (A) la fréquence de réalisation de A.
Alors
nA
fn (A) = et 0 ≤ fn (A) ≤ 1.
n
On a
(i) fn (Ω) = 1
(ii) Si A et B sont deux événement incompatibles alors fn (A ∪ B) = fn (A) + fn (B)
On montre que lorsque n tend vers l’infini, fn (A) converge vers une quantité P (A) qui
sera appelée probabilité de l’événement A.

Définition 2.4. Soit Ω l’univers d’une expérience aléatoire. Soit F une tribu définie sur Ω.
On appelle probabilité sur l’espace probabilisable (Ω, F), toute application P : F −→ [0, 1]
telle que
(i) P (Ω) = 1
(ii) Pour toute suite (An )n≥0 d’éléments de F deux à deux incompatibles on a

[ ∞
X
P( An ) = P (An ).
n=0 n=0

La quantité P (A) s’appelle la probabilité de l’événement A et le triplet (Ω, F, P ) espace


probabilisé.
Exemple : Probabilité uniforme
Soit (Ω, P(Ω)) un espace probabilisable fini c’est à dire tel que Ω est fini. On suppose que
tous les événements élémentaires ont la même probabilité ce qui s’énonce en disant qu’on
a l’hypothèse d’équiprobabilité. Sous cette hypothèse, la probabilité d’un événement A est
alors donnée par
card(A) Nb de cas favorables à A
P (A) = = .
card(Ω) Nb de cas possibles
Cette probabilité est dite uniforme sur Ω. Notons qu’il est impossible d’avoir l’hypothèse
d’équiprobabilité sur un espace probabilisable non fini.

Propriété 2.1. Toute probabilité sur un espace probabilisable (Ω, F) vérifie les propriétés
suivantes :
(P 1) P (∅) = 0
(P 2) P (A) = 1 − P (A)
(P 3) P (A \ B) = P (A) − P (A ∩ B)
(P 4) Si A ⊂ B alors P (A) ≤ P (B)
(P 5) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

12 Dr. Jean Marc OWO


CHAPITRE 2. NOTIONS DE PROBABILITÉS

(P 6) Formule de Poincaré :
n
[ n
X X n
X X
P( Ai ) = P (Ai ) − P (Ai ∩ Aj ) + (−1)k−1 P (Ai1 ∩ ... ∩ Aik ),
i=1 i=1 1≤i<j≤n k=3 1≤i1 <i2 <...<ik

soit

n
[ n
X X \
P( Ai ) = (−1)k−1 P ( Ai ).
i=1 k=1 I⊂[[1,n]],|I|=k i∈I

(P 7) Pour toute suite croissante (An )n≥0 d’éléments de F, on a



[
P( An ) = lim P (An ).
n→∞
n=0

(P 8) Pour toute suite décroissante (An )n≥0 d’éléments de F, on a



\
P( An ) = lim P (An ).
n→∞
n=0

Définition 2.5. Soit (Ω, F, P ) un espace probabilisé.


- Si A est un événement de probabilité nulle, on dit que A est négligeable.
- Soit P une propriété. Si A = {ω ∈ Ω/ω vérifie P} et P (A) = 1, on dit que P est vraie
presque sûrement (p.s.).

Remarque : Ces notion dependent de P .

? Détermination d’une probabilité sur un espace probabilisable dénombrable.

Soit I une partie de N ou Z, Ω = {ωi , i ∈ I} un ensemble et (pi )i∈I une famille de nombre
réels. Soit P une application sur (Ω, P(Ω)) telle que pour tout i ∈ I, P ({ωi }) = pi .

Une condition nécessaire et suffisante pour que P soit une probabilité sur (Ω, P(Ω)) est que :

 ∀ i ∈ I, pi ≥ 0
X
 pi = 1.
i∈I
X
P est alors unique et on a pour tout événement A, P (A) = pi .
i∈I/ωi ∈A

Remarque : La probabilité P sur un espace probabilisable dénombrable (Ω, P(Ω)) est entiè-
rement déterminée par la connaissance des probabilités des événements élémentaires.

13 Dr. Jean Marc OWO


CHAPITRE 2. NOTIONS DE PROBABILITÉS

3. Probabilités conditionnelles
Dans cette section, notre objectif est quantifier les chances de réalisation d’un événement
lorsqu’on dispose d’informations sur le résultat de l’expérience sans le connaître.

Exemple. On lance succesuvement deux dés non pipés. On suppose qu’on a l’information
suivante : " la somme des chiffres obtenus est 8". On cherche sous cette information à évaluer
la chance que le premier chiffre du résultat obtenu soit pair.

3.1. Définition
Définition 2.6. Soit (Ω, F, P) un espace probabilisé. Soient A et B deux événements tels
P(A ∩ B)
que PB) > 0. On appelle probabilité conditionnelle de A sachant B, la quantité .
P(B)
Pour tout événement B tel que P(B) > 0, on appelle probabilité conditionnelle sachant
B l’application notée P(./B) ou PB définie sur F et qui à tout élément A de F associe
P(A ∩ B)
qu’on note P(A/B) ou PB (A).
P(B)

3.2. Formule des probabilités composées


Soit A1 , ..., An une famille d’événements tels que P(A1 ∩ A2 ∩ ... ∩ An−1 ) > 0. Alors, on a

P(A1 ∩ A2 ∩ ... ∩ An ) = P(A1 ) × P(A2 /A1 ) × P(A3 /A1 ∩ A2 ) × ... × P (An /A1 ∩ ... ∩ An−1 ).

Exemple :

3.3. Formule des probabilités totales


Soit (Ai )i∈I un système complet d’événements de probabilités non nulles. Pour tout évé-
nement B, on a
X X
P(B) = P(Ai ∩ B) = P(Ai )P(B/Ai ).
i∈I i∈I

Exemple :

3.4. Formule de Bayes ou probabilités des causes


Soit (Ai )i∈I un système complet d’événements de probabilités non nulles et B un événe-
ment de probabilité non nulle. Alors pour tout i0 ∈ I fixé, on a :
P(Ai )P(B/Ai0 )
P(Ai0 /B) = X 0 .
P(Ai )P(B/Ai )
i∈I

Exemple :

14 Dr. Jean Marc OWO


CHAPITRE 2. NOTIONS DE PROBABILITÉS

4. Indépendance d’événements

4.1. Indépendance de deux événements


Définition 2.7. Soit (Ω, F, P) un espace probabilisé. Soit A et B deux événements. On dit
que A et B sont indépendants si P(A ∩ B) = P(A)P(B).

Remarque : Si A et B sont tels que P(A) 6= 0 et P(B) 6= 0, alors A et B sont indépendants


si P(A/B) = P(A) et P(B/A) = P(B). i.e. la réalisation de l’un n’a pas d’influence sur la
chance de réalisation de l’autre.

Exemple :

Propriétés
(i) Les événements A et B sont indépendants si et seulement si les événements A et B sont
indépendants.
(ii) Les événements A et B sont indépendants si et seulement si les événements A et B sont
indépendants.
(iii) L’événement certain est indépendant de tout événement.
(iv) L’événement impossible est indépendant de tout événement.
(v) Deux événements incompatibles en dehors de l’univers et de l’événement impossible ne
sont pas indépendants.

4.2. Indépendance mutuellede n événements


Définition 2.8. Soient A1 , ..., An n événements d’un espace probababilisé (Ω, F, P). Les
événements A1 , ..., An sont dits mutuellement indépendants si pour tout k ∈ {2, ..., n} et
pour tout i1 , ..., ik ∈ {1, ..., n} avec i1 < i2 < ... < ik , on a
k
\ k
Y
P( Aij ) = P (Aij ).
j=1 j=1

Remarque
n
X
L’indépendance mutuelle de n événements est décrite à l’aide de Cnk = 2n −n−1 relations.
k=2

Exemple A, B, C sont mutuellement indépendants si


(1) P (A ∩ B) = P (A)P (B)
(2) P (A ∩ C) = P (A)P (C)
(3) P (B ∩ C) = P (B)P (C)
(4) P (A ∩ B ∩ C) = P (A)P (B)P (C)
X 3
On a C3k = 23 − 3 − 1 = 4 relations.
k=2

15 Dr. Jean Marc OWO


Chapitre 3

Variables aléatoires réelles

1. Exemples et définitions
Exemple 3.1. On lance une pièce de monnaie trois fois et on note le résultat.
L’univers de cette expérience aléatoire est

Ω = {P P P, P P F, P F P, F P P, P F F, F P F, F F P, F F F } ,

où P désigne "pile" et F "face".


Soit X : le nombre de piles obtenus.
X associe un nombre réel X(ω) à chaque résultat ω ∈ Ω.

L’ensemble des valeurs possibles pour X est X(Ω) = {0, 1, 2, 3}.

Exemple 3.2. Soient A et B les points de coordonnées respectives (1, 0) et (1, 1) dans un
repère orthonormé d’origine O. On tire un point au hasard dans le triangle OAB.
L’univers de cette expérience aléatoire est

Ω = l’intérieur du triangle OAB.

On note X l’abscisse du point tiré.


De même, X associe un nombre réel X(ω) à chaque résultat ω ∈ Ω.

L’ensemble des valeurs possibles pour X est X(Ω) =]0, 1[.

Définition 3.1. Une variable aléatoire rélle (v.a.r) X sur un univers Ω est une application
qui associe à chaque résultat ω ∈ Ω un nombre réel x = X(ω).

L’ensemble des valeurs possibles pour X est X(Ω), il est appelé support de X et dénoté SX .
Si le support X(Ω) est fini ou denombrable, on dit que X est une variable aléatoire discrète
(v.a.r.d). Dans le cas contraire, X est dit continue (v.a.r.c).

16
CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

Note : L’exemple 3.1 illustre une variable aléatoire discrète, l’exemple 3.2 une variable aléa-
toire continue. Il existe aussi des v.a. mixtes, i.e. discrète pour certains éléments de l’univers
Ω et continue pour d’autres.

Remarque.
La définition précédente de variable aléatoire est relative à l’espace probabilisable (Ω, P(Ω)).
Mais elle peut être généralisée à tout espace probabilisable (Ω, F), où F ⊂ P(Ω) est une
tribu sur Ω.

Définition 3.2. Soit (Ω, F) un espace probabilisable et B la tribu borélienne sur R. Une
variable aléatoire réelle sur (Ω, F) est une application

X : (Ω, F) −→ (R, B)

telle que

∀ B ∈ B, X −1 (B) ∈ F (3.1)

Dans la pratique, pour vérifier la relation 3.1, il suffit de la vérifier pour tout B de BSX ,
la tribu induite sur SX par B.

Notation : X −1 (B) = {ω ∈ Ω/X(ω) ∈ B} est notée {X ∈ B}.

L’exemple suivant montre l’importance de la relation 3.1.

Exemple 3.3. Considérons l’expérience aléatoire qui consiste à lancer un dé.


Alors, Ω = {1, 2, 3, 4, 5, 6} , F1 = P(Ω).
Soit l’application X : (
1, si ω = 6
X(ω) =
0, sinon.
On a SX = {0, 1}, BSX = P(SX ) = {∅, {0}, {1}, SX }.
On a X −1 (∅) = ∅ ∈ F1 ; X −1 ({0}) = {1, 2, 3, 4, 5} ∈ F1 ; X −1 ({1}) = {6} ∈ F1 ;
X −1 (SX ) = Ω ∈ F1 ;
Ainsi, X est une variable aléatoire sur (Ω, F1 ).
Par contre, X n’est une variable aléatoire sur (Ω, F2 ) avec F2 = {∅, {5, 6}, {1, 2, 3, 4}, Ω},
car X −1 ({0}), X −1 ({1}) 6∈ F2 (la condition 3.1 n’est pas vérifiée).

Proposition 3.1. Une application X : (Ω, F) −→ (R, B) est une variable aléatoire réelle
ssi
∀x ∈ R, X −1 (] − ∞, x]) = {X ≤ x} ∈ F.

Dans la suite, on considère un espace probabilisé (Ω, F, P).

17 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

2. Loi d’une variable aléatoire réelle


Soit X une variable aléatoire sur (Ω, F, P) à valeurs dans (R, B).

On définit une probabilité sur B :

∀ B ∈ B, PX (B) = P(X −1 (B)) = P({X ∈ B}).

Cette probabilité est appelée loi de X.

En pratique, il est difficile de pouvoir déterminer l’application PX de façon explicite. Donc


pour déterminer la loi d’une variable aléatoire, on considère des fonctions qui la caractérisent.

2.1. Fonction de répartition


Définition 3.3. Soit X une variable aléatoire réelle sur (Ω, F, P). On appelle fonction de
repartition de X la fonction FX : R −→ R telle que

FX (x) = P(X −1 (] − ∞, x])) = P(X ≤ x).

La fonction de répartition vérifie les importantes propriétés suivantes :

Propriété 3.1.
(1) 0 ≤ FX (x) ≤ 1, pour tout x ∈ R
(2) lim FX (x) = 0 et lim FX (x) = 1
x−→−∞ x−→+∞
(3) FX est croissante (au sens large)
(4) FX est continue à droite en tout point de R : ∀ x ∈ R, lim FX (u) = FX (x).
u→x
>

Réciproquement, on prouve qu’une fonction vérifiant les propriétés précédentes est la


fonction de répartition d’une certaine variable aléatoire réelle (discrète ou continue).

On a aussi les propriétés suivantes : ∀ a, b ∈ R,


- P(a < X ≤ b) = FX (b) − FX (a)
- P(a ≤ X ≤ b) = FX (b) − limu→a FX (u)
<

- P(a < X < b) = limu→b FX (u) − FX (a)


<

- P(a ≤ X < b) = limu→b FX (u) − limu→a FX (u).


< <

- Si X est une v.a.r. discrète, alors FX (x) est une fonction en escalier
- Si X est continue alors FX (x) est une fonction continue.

18 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

2.2. Fonction de masse


Définition 3.4. Soit X une variable aléatoire réelle sur (Ω, F, P). On appelle fonction de
masse de X la fonction pX : R −→ R telle que

pX (x) = P(X −1 ({x})) = P(X = x).

La fonction de masse en x0 représente donc le saut de la fonction de répartition en ce


point :
pX (x0 ) = FX (x0 ) − lim FX (u).
u→x0
<

On prouve qu’il existe un nombre fini ou dénombrable de points où la fonction de masse


est non nulle. Cela signifie encore que FX est continue sauf en un nombre fini ou dénombrable
de points.
Remarque :
- La fonction de masse pX d’une variable aléatoire réelle continu X est nulle sur tout R ;
∀ x ∈ R, pX (x) = P(X = x) = 0.
- La fonction de masse pX d’une variable aléatoire réelle discrète X est nulle en dehors
X
de son support SX ; ∀ x ∈ R\ SX , pX (x) = 0 et pX (x) = 1.
x∈SX

Réciproquement, on prouve qu’une fonction p vérifiant

(1) ∀ x ∈ R, p(x) ≥ 0
X
(2) p(x) = 1.
x∈S

est la fonction de masse d’une certaine variable aléatoire réelle discrète de support S.

2.3. Fonction de densité


Définition 3.5. Soit X une variable aléatoire réelle sur (Ω, F, P). On appelle fonction de
densité de X la fonction fX : R −→ R telle que
Z
∀ B ∈ B, PX (B) = P(X ∈ B) = fX (t)dt.
B

En particulier, Z b
P(a ≤ X ≤ b) = fX (t)dt.
a

La fonction de densité vérifie les propriétés suivantes :

Propriété 3.2.
(1) fX (x) ≥ 0, pour tout x ∈ R
(2) f est continue par morceaux

19 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

Z +∞
(3) f (t)dt = 1.
−∞

Réciproquement, on prouve qu’une fonction vérifiant les propriétés précédentes est la


fonction de densité d’une certaine variable aléatoire réelle continue.

3. Variables aléatoires réelles discrètes

3.1. Loi d’une v.a.r. discrète


La loi de probabilité PX d’une v.a.r discrète X est entièrement déterminée par sa fonction
de masse pX .
Soit X une variable aléatoire réelle discrète (v.a.r.d) définie sur (Ω, F, P) de support X(Ω) =
{xi , i ∈ I}, avec I une partie de N.
Remarque : {X = xi }i∈I est un système complet d’événements appelé système complet as-
socié à la v.a.r. X.
En pratique, pour déterminer la loi de X, on détermine les valeurs xi susceptibles d’être
prises par X, puis les probabilités pi = pX (xi ) = P(X = xi ).
Si I = [[1, n]] avec n petit, on représente souvent les résultats dans un tableau.

Exemple 3.4. Une urne contient 6 boules numérotées de 1 à 6. On tire sans remise 3 boules.
On note X le plus petit nombre tiré et Y le plus grand nombre tiré.
Donner les lois de X et Y .

Exemple 3.5. On jette une pièce de monnaie. On désigne par X le nombre de jets successifs
necessaires pour obtenir le coté pile pour la première fois. Déterminer la loi de X.

Soit I une partie de N ou Z et {(xi , pi ), i ∈ I}.


Une condition nécessaire et suffisante pour qu’une partie de R2 , {(xi , pi ), i ∈ I} telle que
xi 6= xj , ∀ i 6= j soit la loi de probabilité d’une v.a.r. discrète est que :

 ∀ i ∈ I, pi ≥ 0
X
 pi = 1.
i∈I

Soit X une v.a.r.d de support X(Ω) = {xi , i ∈ I}. Alors sa fonction de répartition FX
est constante par morceaux et les points de discontinuité sont les xi .
Plus précisement, si X(Ω) = {x1 , x2 , ..., xi , ...}, où les valeurs sont rangées dans l’ordre
croissant et pi = P(X = xi ) la loi de X, alors, pour tout x ∈ R, FX (x), est définie par :

∀ x ∈] − ∞, x1 [, FX (x) = 0.
k
X
∀ k ≥ 1, ∀ x ∈ [xk , xk+1 [, FX (x) = p1 + p2 + ... + pk = pi .
i=1

20 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

- Si X(Ω) est fini et si xn est la plus grande valeur, on a


n
X
∀ x ∈ [xn , +∞[, FX (x) = p1 + p2 + ... + pn = pi = 1.
i=1

- Si X(Ω) est infini


+∞
X
pi = 1.
i=1

Exemple 3.6. On considère une variable aléatoire discrète X telle que X(Ω) = {1, 2, 3, 4}
et P(X = 1) = 31 , P(X = 2) = 14 , P(X = 3) = 61 . Déterminer sa fonction de répartition.

Connaissant, la fonction de répartition FX d’une variable aléatoire réelle discrète X, on


peut réconstituer sa loi :

∀ x ∈ X(Ω), P(X = x) = FX (x) − lim FX (u).


u→x
<

En particulier, si X(Ω) = {x1 , x2 , ..., xi , ...}, où les valeurs sont rangées dans l’ordre croissant,
alors

P(X = x1 ) = FX (x1 ),
∀ i ≥ 2, P(X = xi ) = FX (xi ) − FX (xi−1 ).

Remarque : Il est parfois plus simple de déterminer la loi d’une variable aléatoire réelle à
partir de sa fonction de répartition.

Exemple 3.7. On jette successivement et indépendamment sur une table deux dés tétra-
édriques dont les faces sont numérotées de 1 à 4. On note X1 le premier nombre obtenu, X2
le deuxième nombre obtenu et X le plus grand des deux nombres obtenus.
Donner la loi de X.

3.2. Loi d’une fonction d’une v.a.r. discrète


Soit X une variable aléatoire réelle discrète (v.a.r.d) définie sur (Ω, F, P), de support SX
et de loi pX . Soit ϕ une fonction numérique définie sur SX . Soit Y = ϕ(X). Alors Y est une
v.a.r.d de support SY = ϕ(SX ) = {y ∈ R|∃x ∈ SX , y = ϕ(x)} et de loi pY définie par :
X X
y ∈ SY , pY (y) = P(Y = y) = pX (x) = P(X = x).
x∈SX |ϕ(x)=y x∈SX |ϕ(x)=y

Exemple 3.8. On joue à un jeu de pile ou face. On perd 1 point si on obtient face, on gagne
1 point sinon. Pour tout entier non nul n, on note Xn la somme des points obtenus au cours
des n premiers jeux.
1) Déterminer la loi X3 .
2) On pose Y = |X3 | et Z = 2X3 + 3. Déterminer la loi de Y et de Z.

21 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

Exemple 3.9. Soit X v.a.r.d de support SX = {−2, −1, 0, 1, 2} et de masse de probabilité


pX définie par :

x −2 −1 0 1 2
1 1 1 1
pX (x) 4 6 3 12
p

1) Trouver la valeur de p.
2) On pose Y = X 2 . Déterminer la loi de Y .

4. Variables aléatoires réelles continues


On rappelle qu’une variable aléatoire réelle X est dite continue lorsqu’elle n’est pas
discrète, autrement dit lorsque son support SX est un intervalle de R éventuellement R
lui-même.

4.1. Loi d’une v.a.r. continue


La fonction de répartition FX d’une variable aléatoire réelle continue X est continue et
caractérise la loi de X.
X P(a < X ≤ b) = P(a < X < b) = P(a ≤ X ≤ b) = FX (b) − FX (a).
La v.a.r.c X est dite absolument continue, si sa fonction de répartition FX est absolument
continue c’est à dire s’il existe une fonction densité fX , telle que
Z x
∀ x ∈ R, FX (x) = fX (t)dt.
−∞

Ce qui revient à dire que FX est dérivable en tout point x de R où fX est continue et on a
FX0 (x) = fX (x).
Dans ce cas, la loi de XZ est déterminée par la densité fX .
b
X P(a ≤ X ≤ b) = fX (t)dt = FX (b) − FX (a).
a
Remarque : Une variable aléatoire réelle peut être ni discrète, ni absolument continue.

Exercice 3.1.
 On considère la fonction F définie par :
 0, si x<0


3 2
F (x) = 4
x − 14 x3 , si 0≤x<2

x≥2

 1, si
1) Montrer que F est la fonction de répartition d’une variable aléatoire réelle continue
X dont on déterminera l’ensemble des valeurs possibles.
2) Montrer que la v.a. X est absolument continue et déterminer sa densité.
3) Calculer P(X < 1, 5), P(0, 5 < X ≤ 1, 5).

22 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

( On considère la fonction f définie par :


Exercice 3.2.
ke−2x , si x ≥ 0
f (x) =
0, si non
1) Déterminer la valeur de k pour que f soit une densité de probabilité d’une variable
X.+∞
aléatoire réelle continue Z Z x
(On utilisera le fait que f (t)dt = lim f (t)dt )
0 x→+∞ 0
2) Déterminer sa fonction de répartition.
3) Calculer P(X > 1).

4.2. Loi d’une fonction continue d’une v.a.r. continue


Soit X une variable aléatoire réelle discrète (v.a.r.d) définie sur (Ω, F, P), de support
SX et de loi pX . Soit ϕ une fonction continue définie sur SX . Soit Y = ϕ(X). Alors Y est
une v.a.r.c de support SY = ϕ(SX ) = {y ∈ R|∃x ∈ SX , y = ϕ(x)}. Sa loi s’obtient en
déterminant sa fonction de répartition FY à l’aide de celle de X, FX selon la régularité de ϕ.

Cas d’une transformation monotone

Dans le cas où ϕ est dérivable, strictement croissante, on a :

FY (y) = P [Y ≤ y] = P [ϕ(X) ≤ y] = P [X ≤ ϕ−1 (y)] = FX (ϕ−1 (y)),

La densité correspondante est :

d 1
fY (y) = FY (y) = 0 −1 fX (ϕ−1 (y)).
dy ϕ (ϕ (y))
Dans le cas où ϕ est dérivable, strictement décroissante, on a :

FY (y) = P [Y ≤ y] = P [ϕ(X) ≤ y] = P [X ≥ ϕ−1 (y)] = 1 − FX (ϕ−1 (y)),

La densité correspondante est :

d 1
fY (y) = FY (y) = − 0 −1 fX (ϕ−1 (y)).
dy ϕ (ϕ (y))
Donc de façcon générale, si ϕ est dérivable, strictement monotone, la densité fY de
Y = ϕ(X) est donnée par :
1
fY (y) = fX (ϕ−1 (y))

ϕ0 (ϕ−1 (y))
ou dx
fY (y) = fX (x) ,

dy
avec x = ϕ−1 (y) exprimé en terme de y.

23 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

( Soit X une v.a.r.c de densité fX :


Exemple 3.10.
1, si 0 ≤ x ≤ 1
fX (x) =
0, sinon.
Déterminer la densité de Y = X 2 .

Cas d’une transformation non monotone

Soit X une
( v.a.r.c de densité fX :
1
2
, si − 1 ≤ x ≤ 1
fX (x) =
0, sinon.
Déterminer la densité de Y = X 2 .

5. Moments d’une variable aléatoire réelle


Définition 3.6. Soit X une variable aléatoire réelle. On appelle espérance mathématique ou
moyenne de X la quantité si elle existe :
 X X

 xp X (x) = xP(X = x), si X est discrète,

 x∈X(Ω) x∈X(Ω)
E(X) =
 Z +∞


 xfX (x)dx, si X est absolument continue.
−∞

Exemple 3.11. Soit X v.a.r.d de support SX = {−2, −1, 0, 1, 2} et de masse de probabilité


pX définie par :

x −2 −1 0 1 2
1 1 1 1
pX (x) 4 6 3 12
p

1) Trouver la valeur de p.
2) Calculer l’espérance mathématique E(X) de X.

Exemple 3.12. On effectue une succession de lancers de dé cubique bien équilibreé, jusqu’à
ce que l’on obtienne 6. Soit X le nombre de lancers effectués.
Calculer l’espérance mathématique E(X) de X.

Exercice 3.3. On suppose que la durée de vie d’un individu dans une population donnée est
modélisée par une v.a.c. X dont la fonction densité est donnée par :
(
kx2 (100 − x)2 , si 0 ≤ x ≤ 100
f (x) =
0, sinon.
où k est une contante positive.
1) Déterminer la valeur de k.
2) Calculer la probabilité qu’un individu meure entre 60 ans et 70 ans.
3) Quelle est l’espérance de vie d’un individu dans cette population ?

24 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

Théorème 3.1. Soit X une variable aléatoire réelle.


- Si X est discrète de loi p, et g une fonction définie de R dans R. Alors
X X
E(g(X)) = g(x)p(x) = g(x)P(X = x),
x∈X(Ω) x∈X(Ω)

si cette somme est finie. Réciproquement, si cette égalité tient pour toute fonction g continue
positive ou bornée, alors p est la loi de la v.a.r. discrète X.
- Si X est continue de densité f , et g une fonction définie de R dans R. Alors
Z +∞
E(g(X)) = g(x)f (x)dx,
−∞

si cette intégrale existe. Réciproquement, si cette égalité tient pour toute fonction g continue
positive ou bornée, alors f est la densité de la v.a.r continue X.

Exemple 3.13. Soit X une v.a. de densité


1 1 2
fX (x) = √ e− 2 x , ∀ x ∈ R.

Déterminer la loi de X 2 .

Posons Y = X 2 = ϕ(X), où ϕ(x) = x2 . Pour toute fonction g continue positive, on a


Z +∞ Z +∞
1 1 2
E(g(Y )) = E(g(ϕ(X))) = g(ϕ(x))f (x)dx = √ g(x2 )e− 2 x dx,
Z +∞ −∞ 2π −∞
2 1 2
=√ g(x2 )e− 2 x dx
2π 0

Pour x ∈ [0, +∞[, on pose y = x2 et donc x = y. D’où
Z +∞ Z +∞
2 − 21 y 1 1 1
E(g(Y )) = √ g(y)e √ dy = √ e− 2 y 1[0,+∞[ dy,
2π 0 2 y −∞ 2πy
1 1
Par conséquent, Y a pour densité fY (y) = √ e− 2 y 1[0,+∞[ .
2πy
Propriété 3.3. - E(aX + b) = aE(X) + b.
- Si X ≤ Y , alors E(X) ≤ E(Y ).
- Si X et Y sont indépendantes, alors E(XY ) = E(X)E(Y ).

Définition 3.7. Soit X une variable aléatoire réelle. On appelle variance de X la quantité
si elle existe :
V (X) = E (X − E(X))2 = E(X 2 ) − [E(X)]2
 

Propriété 3.4. - V (X) ≥ 0


- V (aX + b) = a2 V (X).
- Si X et Y sont indépendantes, alors V (X + Y ) = V (X) + V (Y ).

25 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

Définition 3.8. Soit X une variable aléatoire réelle.


- On appelle moment d’ordre k ≥ 1 de X la quantité : mk = E(X k ).
 
- On appelle moment centré d’ordre k ≥ 1 de X la quantité : µk = E (X − E(X))k .

Remarque 3.1. E(X) = m1 et V (X) = µ2 .

Définition 3.9. Soit X une variable aléatoire réelle. On appelle ecart type de X la racine
p
carrée de la variance V(X) : σX = V (X).

Proposition 3.2 (Inégalité de Markov). Soit X une variable aléatoire réelle positive.
Alors
1
P(X ≥ α) ≤
E(X), ∀ α > 0.
α
Proposition 3.3 (Inégalité de Bienaymé- Tchebychev). Soit X une variable aléatoire
réelle. Alors
1
P(|X − E(X)| ≥ α) ≤ V (X), ∀ α > 0.
α2

6. Fonction caractéristique - Fonction génératrice

6.1. Fonction caractéristique


Définition 3.10. Soit X une variable aléatoire réelle. On appelle fonction caractéristique
de X la fonction ϕX : R −→ C définie par :

ϕX (t) = E(eitX )

Dans le cas discret :


X
ϕX (t) = eitxi P(X = xi )
i∈I
Dans le cas continu : Z +∞
ϕX (t) = eitx f (x)dx = fˆ(t).
−∞
X Formule d’inversion de Fourier.
Si |ϕX (t)| est intégrable, on a :
Z +∞
1
f (x) = e−itx fˆ(t)dt.
2π −∞

Théorème 3.2. Soit X et Y deux variables aléatoires réelles définies sur (Ω, F, P). Si
ϕX (t) = ϕY (t) alors X et Y ont la même loi.

Proposition 3.4. Soit X une variable aléatoire réelle.


- Si E(|X|) < +∞, alors ϕX est dérivable en 0 et E(X) = −iϕ0X (0).
- Si E(X 2 ) < +∞, alors ϕX est deux fois dérivable en 0 et E(X 2 ) = −ϕ00X (0). Ainsi
2
V (X) = −ϕ00X (0) + [ϕ0X (0)] .

26 Dr. Jean Marc OWO


CHAPITRE 3. VARIABLES ALÉATOIRES RÉELLES

-De manière générale, si k ≥ 1, E(|X|k ) < +∞, alors ϕX est k−fois dérivable en 0 et
E(X k ) = (−i)k ϕkX (0).

Remarque 3.2. - |ϕX (t)| ≤ 1


- Si Y = aX + b, alors ϕY (t) = eitb ϕX (at).
- Si X et Y sont indépendantes, alors ϕX+Y (t) = ϕX (t)ϕY (t).

6.2. Fonction génératrice


Définition 3.11. Soit X une variable aléatoire réelle à valeurs dans N. On appelle fonction
génératrice de X la fonction GX : [−1, 1] −→ R définie par :
+∞
X
GX (t) = sk P(X = k) = E(sX )
k=0

Théorème 3.3. Soit X et Y deux variables aléatoires réelles définies sur (Ω, F, P) à valeurs
dans N. Si GX (s) = GY (s), ∀ s ∈ [−1, 1], alors X et Y ont la même loi.

Proposition 3.5. Soit X une variable aléatoire réelle à valeurs dans N.


- GX est continue sur [−1, 1] et indéfiniment dérivable sur ] − 1, 1[.
- Si E(X) < +∞, alors E(X) = lim− G0X (s).
s−→1
- Si E(X 2 ) < +∞, alors E(X(X − 1)) = lim− G00X (s).
s−→1
- Si X et Y sont indépendantes, alors GX+Y (s) = GX (s)GY (s).

Remarque 3.3. Si on connait la fonction génératrice d’un variable aléatoire réelle X à


valeurs dans N, il suffit de faire un dévelopement en série entière pour avoir la loi de X.

27 Dr. Jean Marc OWO


Chapitre 4

Lois de probabilités usuelles

1. Lois usuelles discretes

1.1. Loi de Bernoulli B(1, p)


On appelle epreuve de Bernoulli, toute expérience aléatoire à deux issues, l’une est appelée
succes et l’autre l’echec.
Exemples :
- Le jet d’une pièce de monnaie
- Le jet d’un dé cubique et l’observation d’une face marquée.
- Se présenter à un examen
- Dans une population subdivisée en deux parties, le tirage d’un individu.
Le résultat de cette expérience est représenté par une v.a. X, appélée v.a de Bernoulli, définie
par : (
1, si le choix de ω donne un succes
X(ω) =
0, sinon.
Ainsi, X(Ω) = {0, 1}. Si la probabilité du succès est p (p = P(succs)), alors P(X = 1) = p,
P(X = 0) = 1 − p. On dit que X suit une loi de Bernoulli de paramètre p, ce qu’on écrit
X B(1, p).
En pratique : Ces variables aléatoires servent à modéliser des expériences aléatoires
n’ayant que deux issues possibles, que lon code avec 0 ou 1 : lancer d’un pile/face, expérience
avec succès/échec, état d’un composant fonctionne/en panne...

 0, si x < 0


• FX (x) = 1 − p, si 0 ≤ x < 1

si x ≥ 1.

 1,
• E(X) = p, V (X) = p(1 − p)
• ϕX (t) = (1 − p) + peit , GX (s) = (1 − p) + ps

28
CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

1.2. Loi Binomial B(n, p)


On effectue n répétitions indépendantes d’une epreuve de Bernoulli et on note X le
nombre de fois où on a obtenu le succès. On définit ainsi une variable aléatoire X qui suit
une loi Binomial de paramètres n et p = Prob(Succès), caractérisé par

X(Ω) = {0, 1, ..., n} et pour tout k ∈ X(Ω), P(X = k) = Cnk pk (1 − p)n−k .

On écrit X  B(n, p).




 0, si x < 0

(1 − p)n , si 0 ≤ x < 1




k
• FX (x) = X


 Cni pi (1 − p)n−i , si k ≤ x < k + 1
i=1




 1, si x ≥ n
• E(X) = np, V (X) = np(1 − p)
• ϕX (t) = (1 − p + peit )n , GX (s) = (1 − p + ps)n .
n
X
Remarque : X B(n, p) ⇐⇒ X = Xi , avec Xi B(1, p), ∀ i = 1, ..., n indépendantes.
i=1

Cette loi apparait à chaque fois que l’on somme n variables aléatoires indépendantes et
identiquement distribuées de loi de Bernoulli de paramètre p.

Exemple 4.1. On lance dix fois dans les même conditions une pièce de monnaie, quelle est
la probabilité d’obtenir 5 faces.
Le lancer d’une pièce de monnaie est une épreuve de Bernoulli. Le fait de lancer dix fois
dans les même conditions la pièce constitue une répétition indépendante de la même épreuve.
X=nombre de fois où l’on obtient face. Alors X B(n, p), avec n = 10 et p = 21 .

1.3. Loi Hypergéométrique H(N, n, p) ou H(N, N p, n)


On effectue n tirage sans remise dans une urne contenant N objets dont N p objets A (p
étant la proportion des objets A) et on note X le nombre d’objets A tirés. Alors X suit une
loi Hypergéométrique de paramètres N , N p et n ou N , p et n, caractérisé par

X(Ω) = {max(0, n − N q), ..., min(n, N p)} avec N p ∈ N, q = 1 − p

et pour tout
CNk p CNn−k
q
k ∈ X(Ω), P(X = k) = n
.
CN
On écrit X H(N, N p, n).
N −n
• E(X) = np, V (X) = npq
N −1

29 Dr. Jean Marc OWO


CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

Exemple : Une urne contient 10 pièces dont 4 sont défectueuses. On y prend au hasard
un lot de 5 pièces. Soit X la variable aléatoire donnant le nombre de pièces non défectueuses
contenues dans le lot.

1. Quel est l’ensemble des valeurs possibles de X ?


2. Donner la loi de probabilité de X
3. Calculer l’espérance, la variance et l’écart type de X.
4. Quelle est la probabilité que le lot ne contienne aucune pièce défectueuse ?

1.4. Loi géométrique G(p)


On effectue des répétitions indépendantes de la même épreuve de Bernoulli jusqu’à l’ob-
tention du premier succes et on note X le nombre de répétition effectuées ou nécessaires.
Alors X suit une loi géométrique de paramètre p, avec p = Prob(Succes), caractérisé par
X(Ω) = N∗ et pour tout k ∈ X(Ω), P(X = k) = p(1 − p)k−1 .
On écrit X ( G(p).
0, si x < 1
• FX (x) = n
1 − (1 − p) , si n ≤ x < n + 1.
1 1−p
• E(X) = , V (X) =
p p2
it
pe ps
• ϕX (t) = , G X (s) =
1 − (1 − p)eit 1 − (1 − p)s
Remarque : Si Xi est la variable de Bernoulli B(1, p) associée à la i−ème épreuve, alors
X = inf{k ≥ 1, Xk = 1} G(p).
De même si (Xn )n∈N une suite de variable aléatoire indépendante de même loi.
Si X = inf{k ≥ 1, Xk ∈ B} où B ∈ BR , alors X G(p), où p = P(X0 ∈ B).

Exemple 4.2. On considère une suite infinie de lancers de pièce de monnaie bien équilibrée
indépendants.On note X le numéro du premier pile obtenu. Déterminer la loi de X.

Définition 4.1. Soit X : Ω → N∗ une variable aléatoire. On dit que X est sans mémoire si

∀ n, k, P(X > n + k/X > n) = P(X > k).

Propriété "sans mémoire" : Une variable aléatoire de loi géométrique est une variable
sans mémoire.
Reciproquement, toute variable aléatoire X à valeurs dans N, sans mémoire suit une loi
géométrique. (Démonstation : à faire au TD).

30 Dr. Jean Marc OWO


CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

1.5. Loi Binomial négative BN (r, p)


•X BN (r, p) si X(Ω) = {r, r + 1, ...} et

r−1 r−1
∀ k ∈ X(Ω), P(X = k) = pCk−1 p (1 − p)k−r
r−1 r
= Ck−1 p (1 − p)k−r

 0,
 si x < r
n
• FX (x) = X
r−1 r

 Ci−1 p (1 − p)i−r , si n ≤ x < n + 1
i=r

Génération de BN (r, p).


r
X
X BN (r, p) ⇐⇒ X = Xi avec Xi G(p), ∀ i = 1, ..., r indépendantes.
i=1
Dans une répétition indépendante de la même épreuve de Bernoulli, la variable aléatoire
égale au nombre de répétitions nécessaires à l’obtention du r−ème succes est une variable
aléatoire Binomial négative de paramètres r, p, avec p = Prob(Succes).

{X = k} = {∃I ⊂ {1, ..., k}, Card(I) = r et max I = k; i ∈ I, Xi = 1 et i 6∈ I, Xi = 0}.

r−1 r−1
P(X = k) = pCk−1 p (1 − p)k−r
r r
X r X r(1 − p)
• E(X) = E(Xi ) = , V (X) = V (Xi ) =
i=1
p i=1
p2
r r
peit
  
r ps
• ϕX (t) = ϕ i=1 Xi (t) = (ϕX1 (t)) =
Pr
, GX (s) =
1 − (1 − p)eit 1 − (1 − p)s

1.6. Loi de Poisson P(λ)


Définition 4.2. Une variable aléatoire X suit une loi de Poisson de paramètre λ ∈ R∗+ si :

λk −λ
P(X = k) = e , k ∈ N.
k!
On note X P(λ)
λx
∀ x ∈ R, pX (x) = e−λ 1N (x).
x!

 0,
 si x < 0
n k
• FX (x) = Xλ
 e−λ , si n ≤ x < n + 1

k=0
k!
• E(X) = λ, V (X) = λ
it
• ϕX (t) = e−λ(1−e ) , GX (s) = e−λ(1−s)
n
X
Remarque. Si Xi P(λ), ∀ i = 1, ..., n indépendantes alors Xi P(nλ).
i=1

Modélisation.

31 Dr. Jean Marc OWO


CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

La loi de Poisson est utilisée de façon fondamentale pour modéliser certains phenomènes
rares et d’une manière générale dans les problèmes de file d’attente (quand on veut modéliser
par exemple le nombre de clients qui se présentent à un guichet, le nombre d’arrivées à
un poste de douane dans un intervalle de temps donné, il est naturel d’utiliser une loi de
Poisson. Le paramètre λ est le nombre moyen d’arrivées dans l’intervalle de temps considéré.)
De même, le nombre d’absents par jour dans une entreprise, le nombre annuel de sinistres
par police dans un portefeuille d’assurance à risques homogènes, peuvent être décrits, sous
certaines conditions, par une loi de Poisson.

1.7. Loi uniforme sur {1, ..., n} ; U{1,...,n}


Définition 4.3. Une variable aléatoire X suit une loi uniforme sur {1, ..., n} avec n ∈ N∗
si :
1
P (X = k) = , ∀ k ∈ {1, ..., n}.
n
On note X U{1,...,n}
1
• pX (x) = 1{1,...,n} (x), ∀ x ∈ R.
n


 0, si x < 1
k

• FX (x) = , si k ≤ x < k + 1

 n
1, si x ≥ n

n n
1X n+1 1 X 2 (n + 1)(2n + 1) n2 − 1
• E(X) = k= , E(X 2 ) = k = et V (X) =
n k=1 2 n k=1 6 12
1
Généralement : X U{a1 ,...,an } ⇐⇒ X(Ω) = {a1 , ..., an } et ∀ k ∈ X(Ω), P(X = k) = .
n
n
1X
E(X) = ak .
n k=1
Modélisation. Ces variables aléatoires servent à modéliser des expériences aléatoires équi-
probables qui consistent à extraire une unité au hasard dans un ensemble contenant n unités :
le lancer d’un dé équilibré, choix d’une carte au hasard dans un jeu de cartes...

1.8. X L, avec X(Ω) = N



X
P(X = x) = u(x) ≥ 0, u(x) = 1.
x=1

X v.a discret ⇐⇒ il existe (ai )i∈I fini ou dénombrable telle que


X
P(X = x) = pi , pi = 1.
i∈I

Toute série à termes positives (un ) convergente permet d’obtenir une variable aléatoire de
un
loi PX : P(X = n) = P .
un

32 Dr. Jean Marc OWO


CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

2. Lois usuelles continues

2.1. Loi uniforme sur [a, b], a < b ∈ R


1
•X U[a,b] ⇐⇒ fX (x) = 1[a,b] (x).
b−a
 

 0, si x < a  0, si x < a
Z x  Z x dt
 
 x−a
• FX (x) = fX (t)dt = , si a ≤ x < b = , si a ≤ x < b
−∞ 
 a b−a 
 b−a
1, si x ≥ b
 
 1, si x ≥ b
a+b (b − a)2
• E(X) = , V (X) =
2 12
itb ita
e −e
• ϕX (t) = ,
it(b − a)
eitα − e−itα sin(tα)
NB Si a = −α, b = α, α > 0 =⇒ ϕX (t) = = .
2itα tα
Modélisation. Ces variables aléatoires servent à modéliser des expériences aléatoires équi-
probables qui consistent à tirer un point au hasard dans un segment ou dans un intervalle,
de temps par exemple.
Les lois uniformes continues sont très utiles de par la facilité des calculs qu’elles per-
mettent et pour leur utilisation dans les simulations.

2.2. Loi exponentielle ξ(θ), θ > 0


•X ξ(θ) ⇐⇒ fX (x) = θe−θx 1]0,+∞[ (x).
Z x (
0, si x ≤ 0
• FX (x) = fX (t)dt =
−∞ 1 − e−θx , si x > 0
Z +∞
k
• E(X ) = θ e−θx xk dx.
0
Cette quantité se calcule à l’aide de la fonction Gamma :

Définition 4.4. Nous appelons fonction Gamma la fonction définie par :


Z +∞
Γ(a) = e−x xa−1 dx, ∀ a ∈ R∗+ .
0

Propriété 4.1. La fonction Gamma satisfait aux relations suivantes :


1 √
Γ(a + 1) = aΓ(a), ∀ a ∈ R∗+ , Γ(n + 1) = n!, ∀ n ∈ N, Γ( ) = π.
2
Remarque. La fonction Gamma est une généralisation directe de la notion de factorielle
pour des nombres réels non entiers. Le logiciel R permet d’obtenir des valeurs de gamma.

33 Dr. Jean Marc OWO


CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

On montre que : Z +∞
Γ(a)
e−ρx xa−1 dx = a
, ∀ ρ, a ∈ R∗+ .
0 ρ
Γ(k + 1) k!
Donc, E(X k ) = θ = , par consequent,
θk+1 θk
1 2 1
E(X) = , E(X 2 ) = 2 et V (X) = 2
θ θ θ
θ
• ϕX (t) = ,
θ − it
Définition 4.5. Soit X : Ω → R une variable aléatoire. On dit que X est sans mémoire si

∀ s, tR+ , P(X > t + s/X > t) = P(X > s).

Propriété "sans mémoire" : Une variable aléatoire de loi exponentielle est une variable
sans mémoire.
Reciproquement, toute variable aléatoire X à valeurs dans N, sans mémoire suit une loi
exponentielle. (Démonstation : à faire au TD).

Modélisation. A cause de la propriété d’absence de mémoire, la loi exponentielle est utilisée


quand on veut modéliser la durée de vie d’un composant électronique, ou le temps entre les
arrivées de deux clients successifs dans une file d’attente (il y a en particulier des liens très
forts entre les lois exponentielles et les lois de Poisson).
λ
Le paramètre θ = , où λ est le nombre moyen d’arrivées dans l’intervalle de temps de
τ
longueur τ . C’est donc le nombre moyen d’arrivées par unité de temps.

2.3. Loi Gamma γ(a, ρ), a > 0, ρ > 0


Définition 4.6. Une variable aléatoire continue X suit une loi Gamma, ou eulerienne de
paramètres a, ρ ∈ R∗+ si elle admet pour densité de probabilité la fonction
a
 ρ e−ρx xa−1 , si x > 0

a
ρ −ρx a−1
fX (x) = e x 1]0,+∞[ (x) = Γ(a)
Γ(a)
0, si x ≤ 0,

et note X γ(a, ρ).



Z x  0,
Z x si x ≤ 0
• FX (x) = fX (t)dt = ρa
−∞  e−ρt ta−1 dt, si x > 0
Γ(a) 0
Z +∞
ρa ρa Γ(a + k) Γ(a + k)
k
• E(X ) = e−ρx xa+k−1 dx = . a+k = , par consequent,
Γ(a) 0 Γ(a) ρ Γ(a)ρk
Γ(a + 1) a Γ(a + 2) a(a + 1) a
E(X) = = , E(X 2 ) = 2
= 2
et V (X) = 2
Γ(a)ρ ρ Γ(a)ρ ρ ρ

34 Dr. Jean Marc OWO


CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

ρ a
• ϕX (t) = ( ) ,
ρ − it
Remarque. γ(1, ρ) = ξ(ρ). Si X γ(a, ρ) alors Y = ρX γ(a, 1).
Xn
X γ(n, ρ) ⇐⇒ X = Xi avec Xi γ(1, ρ), ∀ i = 1, ..., n indépendantes.
i=1
Modélisation. La loi Gamma peut décrire des phénomènes de durée de vie, en assurance
pour l’étude du temps écoulé entre deux sinistres dans des portefeuilles à risques hétérogènes
ou encore pour prendre en compte cette hétérogénéité. En général pour des distributions for-
tement asymétriques avec une décroissance rapide en queue de distribution, une loi Gamma
peut être un bon modèle.

2.4. Loi normale N (m, σ 2 ) (ou loi de Gauss)


Définition 4.7. Une variable aléatoire continue X suit une loi normale ou encore loi de
Laplace-Gauss de paramètres σ ∈ R∗+ et m ∈ R si elle admet pour densité de probabilité la
fonction

1
1 − (x − m)2
fX (x) = √ e 2σ 2 , ∀ x ∈ R.
2πσ
On note X N (m, σ 2 ).
Si m = 0 et σ = 1, on diot que X suit la loi normale centrée et réduite, ou encore la loi
Normale standard N (0, 1).

Important à retenir :
Z +∞ r
2 π
(1) e−αx dx =
α
Z−∞
+∞ Z +∞
−α(x−t)2 2
(2) e dx = e−αx dx
Z−∞
+∞
−∞ r
2
−αx +βx β2 π
(3) e dx = e 4α
−∞ α
Soit X N (m, σ 2 ). Alors

• E(X) = m, V (X) = σ 2
1 22
itm− σ t
• ϕX (t) = e 2

En pratique, on calule les probabilités rélatives aux intervalles à l’aide la fonction de répar-
tition de la loi normale centrée et réduite N (0, 1) qui dispose d’une table, appelée table de
loi normale centrée et réduite :
Cette fonction de répartition est souvent notée π ou N . On a donc

x
1 2
t
Z
1 −
π(x) = N (x) = √ e 2 dt
2π −∞

35 Dr. Jean Marc OWO


CHAPITRE 4. LOIS DE PROBABILITÉS USUELLES

X−m
Soit X N (m, σ 2 ). Alors T = σ
N (0, 1) et π(t) = P(T ≤ t).

Remarque : π(−∞) = 0, π(+∞) = 1, π(0) = 0.5 et ∀ t ∈ R, π(−t) = 1 − π(t).

Pour tout t ∈ R, P(|T | ≤ t) = 2π(t) − 1 et P(|T | ≥ t) = 2(1 − π(t)).

Exemple :
     
a−m b−m b−m a−m
P (a ≤ X ≤ b) = P ≤T ≤ =π −π .
σ σ σ σ

Modélisation. Ces lois apparaissent dans le théorème central limite, que nous verrons plus
tard. Elles sont souvent utiliser pour modéliser de petites erreurs ou variations aléatoires
autour d’une quantité déterministe.

2.5. Loi de Cauchy


Définition 4.8. Une variable aléatoire continue X suit une loi de Cauchy, de paramètres
∈ R∗+ et m ∈ R si elle admet pour densité de probabilité la fonction

α
fX (x) = , ∀ x ∈ R.
π(α2 + (x − m)2 )
On note X Cauchy(m, α)

Une variable aléatoire continue X suivant une loi de Cauchy n’a aucun moments.

• Pour m = 0, ϕX (t) = e−α|t| .

36 Dr. Jean Marc OWO


Chapitre 5

Vecteurs aléatoires

1. Introdution
Soit (Ω, F, P) un espace probabilisé. Pour tout entier n ≥ 1, on note BRn la tribu engen-
drée par les ouverts de Rn . Cette tribu est appelée tribu borelienne de Rn .
Définition 5.1. On appelle vecteur aléatoire à n dimensions ou variable aléatoire à n di-
mensions toute application X de (Ω, F) dans (Rn , BRn ) telle pour tout borélien B ∈ BRn ,

X−1 (B) = {ω ∈ Ω, X(ω) ∈ B} ∈ F.

On note par {X(ω) ∈ B} l’événement {ω ∈ Ω, X(ω) ∈ B}.


On note 
X1
 . 
X= .  ou X = (X1 , ..., Xn )
 . 
Xn
où pour tout 1 ≤ i ≤ n, Xi est une variable aléatoire réel ou à une dimensien définie sur
(Ω, F) : Xi : (Ω, F) −→ (R, BR ).

2. Loi conjointe d’un vecteur aléatoire


Définition 5.2. Soit X : (Ω, F, P) −→ Rn un vecteur aléatoire. On appelle loi conjointe de
X la probabilité PX : BRn −→ [0, 1] définie par PX (B) = P(X−1 (B)) = P(X ∈ B).
Autrement dit, c’est l’application qui permet d’associer à tout n−uplets d’intervalles
B1 , ..., Bn de R, la probabilité de l’événement (X1 ∈ B1 , ..., Xn ∈ Bn ).

2.1. Fonction de repartition


Si a = (a1 , ..., an ) est un element de Rn , on pose :

∆(a) = {(x1 , ...xn ) ∈ Rn |x1 ≤ a1 , ..., xn ≤ an } .

37
CHAPITRE 5. VECTEURS ALÉATOIRES

 
X1
 . 
Définition 5.3. Soit X =  . 
 .  un vecteur aléatoire. On appelle fonction de repartition
Xn
de X la fonction FX définie sur Rn par :
pour tout x dans Rn ,
FX (x) = PX (∆(x)).

On a alors

FX (x) = PX (∆(x))
= P(X ∈ ∆(x))
= P(X1 ≤ x1 , ..., Xn ≤ xn )

pour tout x = (x1 , ..., xn ) dans Rn

2.2. Vecteur aléatoire discret


 
X1
 . 
Définition 5.4. Soit X =  . 
 .  un vecteur aléatoire. On dit que X est discret si X(Ω)
Xn
est fini ou dénombrable.

La loi PX de X est alors une loi discrète. Elle est entièrement définie par les probabilités
élémentaires pX (x1 , ..., xn ) où (x1 , ..., xn ) parcourt X(Ω) :

pX (x1 , ..., xn ) = P(X1 = x1 , ..., Xn = xn ).

2.3. Vecteur aléatoire absolument continu


 
X1
 . 
Définition 5.5. Soit X =  . 
 .  un vecteur aléatoire. On dit que X est absolument
Xn
continu si sa loi de probabilité PX possède une densité relativement à la mesure de Lebesgue
sur Rn , c-à-d, il existe une fonction positive et intégrable f telle que l’on ait pour tout
(x1 , ..., xn ) ∈ Rn ,
Z Z x1 Z xn
FX (x1 , ..., xn ) = fX (t1 , ..., tn )dt1 ...dtn = ... fX (t1 , ..., tn )dt1 ...dtn .
∆(x1 ,...,xn ) −∞ −∞

On a alors
∂ n FX (x1 , ..., xn )
= fX (x1 , ..., xn )
∂x1 ...∂xn
en tout point (x1 , ..., xn ) ∈ Rn où f est continue.
La fonction f est appelée alors la densité (conjointe) de probabilité de X.

38 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

Rq 1. La condition
PX (Rn ) = 1

se traduit par
Z
f (x1 , ..., xn )dx1 ...dxn = 1
Rn
Rq 2. Tout fonction
f : Rn → R

positive, intégrable telle que


Z
f (x1 , ..., xn )dx1 ...dxn = 1
Rn

est la densité de probabilité d’une loi de probabilité unique.

3. Lois marginales
 
X1
 . 
Définition 5.6. Soit X =  . 
 .  un vecteur aléatoire de loi PX . Les lois marginales de la
Xn
loi conjointe PX sont les lois de probabilité PXi des variables aléatoires Xi , 1 ≤ i ≤ n. PXi
est loi marginale d’odre i.
• Dans le cas discret, cette loi est donnée par
X
pXi (xi ) = P(Xi = xi ) = P(X1 = x1 , ..., Xn = xn )
x1 ,..,xi−1 ,xi+1 ,...,xn

• Dans le cas continu, cette loi est déterminée par la densité de Xi appelée densité mar-
ginale : Z
fXi (xi ) = fX (x1 , ..., xn )dx1 ..dxi−1 dxi+1 ...dxn
Rn−1
ou par la fonction de repartition de Xi appelée fonction de repartition marginale :

FXi (xi ) = lim FX (x1 , ..., xn )


xj → +∞
j 6= i

39 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

4. Espérance mathématique et matrice de covariance


 
X1
 . 
Définition 5.7 (Espérance mathématique). Soit X =  . 
 .  un vecteur aléatoire.
Xn
 
E(X1 )
 .. 
L’espérance de X est E(X) = 
 . , où

E(Xn )
X X
cas discret : E(Xi ) = xi P(X1 = xi ) = xi P(X1 = x1 , ..., Xn = xn ).
xi x1 ,..,xn
Z Z
cas continu : E(Xi ) = xi fXi (xi )dxi = xi fX (x1 , ..., xn )dx1 ...dxn .
R Rn
!
X1
Exemple 5.1. Soit X = un vecteur aléatoire de densité
X2
fX (x1 , x2 ) = Cx1 x2 1{0≤x1 ≤x2 ≤1} .
1. Déterminer C
2. Déterminer les lois marginales
3. Calculer E(X).

Théorème 5.1. Soit X un vecteur aléatoire à valeur dans Rn .


- Si X est discret, PX est la loi de X ssi pour toute fonction h : Nn −→ R positive ou bornée,
X
E(h(X)) = h(x1 , .., xn )P(X1 = x1 , ..., Xn = xn ).
x1 ,..,xn

- Si X est continu, fX est la densité de X ssi pour toute fonction h : Rn −→ R positive ou


bornée, Z
E(h(X)) = h(x1 , .., xn )fX (x1 , ..., xn )dx1 ...dxn .
Rn

Proposition 5.1. Soit X un vecteur aléatoire à valeur dans Rn de densité fX de support D.


Soit ϕ : D −→ ∆ une fonction bijective et différentielle. Soit Y = ϕ(X). Alors la densité de
Y est
fY (y) = fX (ϕ−1 (y))|Jϕ−1 (y) |1∆ ,

où |Jϕ−1 (y) | est le jacobien de ϕ−1 au point y.

∂(x1 , ..., xn )
Jϕ−1 (y) = |y .
∂(y1 , ..., yn )

40 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

   
x1 h1 (x1 , ..., xn )
 .   .. 
.  7 h(x1 , ..., xn ) = 
 . →
Soit  . , alors le jacobien de h au point a est
 
xn hn (x1 , ..., xn )

∂h1 ∂h1

∂x1
(a) ... ∂xn
(a)


∂(h1 , ..., hn ) .. .. ..
Jh(a) = |a = . . . .
∂(x1 , ..., xn )
∂hn ∂hn


∂x1
(a) . . . ∂xn (a)

Définition 5.8 (Variance-Covariance).


a-) Soit X un vecteur aléatoire à valeurs dans Rn . On appelle
 matrice de covariance ou
matrice de dispersion de X la matrice carré d’ordre n, ΣX = σij ,
h  i 1≤i,j≤n

où σij = Cov(Xi , Xj ) = E Xi − E(Xi ) Xj − E(Xj ) = E(Xi Xj ) − E(Xj )E(Xj ).


h  t i
ΣX = E X − E(X) X − E(X) = E(XXt ) − E(X)[E(X)]t .

b-) Soit X et Y deux vecteurs aléatoires à valeurs resp. dans Rn et Rp .


On appelle covariance
 de X et Y la matrice de taille (n, p),
Cov(X, Y) = Cov(Xi , Yj ) .
1≤i≤n
1≤j≤p
h  t i
Cov(X, Y) = E X − E(X) Y − E(Y) = E(XYt ) − E(X)[E(Y)]t .

On a ΣX = Cov(X, X), c’est pour cette raison qu’on l’appelle abusivement variance de
X : V (X).

Propriété 5.1. Soit X et Y deux vecteurs aléatoires à valeurs resp. dans Rn et Rp . soit
B ∈ Rp et A une matrice de taille (p, n) telle que Y = AX + B. Alors
• E(Y) = AE(X) + B
• ΣY = AΣX At .

Propriété 5.2. Soit X et Y deux vecteurs aléatoires à valeurs dans Rn . Alors


• V (X + Y) = V (X) + V (Y) + 2Cov(X, Y)
• Cov(X, Y) = Cov(Y, X)
• ΣX est une matrice symétrique semi-définie positive i.e ∀ x ∈ Rn , xt ΣX x ≥ 0.

Définition 5.9(Fonction
 caracteristique-Fonction génératrice).
X1
 . 
a-) Soit X =  . 
 .  un vecteur aléatoire. On appelle fonction caracteristique de X la
Xn
fonction ϕX : Rn −→ C définie par :
n
X
n iha,Xi t
∀ a ∈ R , ϕX (a) = E(e ) où ha, Xi = a X = ak X k .
k=1

41 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

 
X1
 . 
b-) Soit X =  .  n
 .  un vecteur aléatoire à valeurs dans N . On appelle fonction géné-
Xn
ratrice de X la fonction GX : [−1, 1]n −→ R définie par :
n
Y
∀ s ∈ Nn , GX (s) = GX (s1 , ..., sn ) = E( sX
i ).
i

i=1
 
X1
 
Exemple 5.2. Soit X =  X2  
 un vecteur aléatoire de densité
X3
−x1
fX (x1 , x2 , x3 ) = C(x2 − x3 )e 1{0<x3 <x2 <x1 } .
1. Déterminer C
!
X1
2. Déterminer la densité du vecteur
X2
3. Déterminer les lois marginales
4. Calculer E(X) et ΣX .

5. Indépendance et conditionnement
 
X1
 . 
Définition 5.10 (Indépendance). Soit X =  . 
 .  un vecteur aléatoire. Les compo-
Xn
santes X1 , X2 , ..., Xn sont indépendantes si la loi conjointe PX est le produit des lois margi-
nales PX1 , PX2 , ..., PXn i.e. PX = PX1 ⊗ PX2 ⊗ ... ⊗ PXn .
Autrement dit P(X1 ∈ B1 , X2 ∈ B2 , ..., Xn ∈ Bn ) = P(X1 ∈ B1 ) · P(Xn ∈ Bn ) · · · P(Xn ∈ Bn )
où ∀ i ∈ {1, 2, .., n}, Bi ∈ BR
 
X1
 . 
Théorème 5.2. Soit X =  . 
 .  un vecteur aléatoire. Il y a équivalence entre
Xn
(i) X1 , X2 , ..., Xn sont indépendantes
(ii) FX (x1 , ..., xn ) = FX1 (x1 ) · FX2 (x2 ) · · · FXn (xn )
(iii) fX (x1 , ..., xn ) = fX1 (x1 ) · fX2 (x2 ) · · · fXn (xn )
(iv) ∀ g1 , g2 , ..., gn mesurables positives, g1 ◦ X1 , g2 ◦ X2 , ..., gn ◦ Xn sont indépendantes
(v) ϕX (a1 , ..., an ) = ϕX1 (a1 ) · ϕX2 (a2 ) · · · ϕXn (an ).

Corollaire 5.1. Si X1 , X2 , ..., Xn sont indépendants alors


(1) E(X1 · X2 · · · Xn ) = E(X1 ) · E(X2 ) · · · E(Xn )

42 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

 
σ11 0

(2) ΣX =  .. 
 . 

0 σnn
 
a1
 . 
(3) V (at X) = at ΣX a, ∀ a =  . 
 . 
an
(4) ϕ Xi (t) = ϕX1 (t) · ϕX2 (t) · · · ϕXn (t), ∀ t ∈ R.
P

Proposition 5.2. Soit X1 , X2 , ..., Xn des v.a.r indépendantes alors


Xn Xn
(1) Si Xi P(λi ), i = 1, ..., n alors Xi P( λi ).
i=1 i=1
Xn Xn
(2) Si Xi γ(ai , ρ), i = 1, ..., n alors Xi γ( ai , ρ).
i=1 i=1
n
X Xn n
X
(3) Si Xi N (mi , σi2 ), i = 1, ..., n alors Xi N( mi , σi2 ).
i=1 i=1 i=1
 
X1
 . 
Définition 5.11 (Loi conditionnelle). Soit X =  . 
 .  un vecteur aléatoire.
Xn
   
Xi Xi
 .1   .p+1 
Soit Y =  .   . 
 .  et Z =  .  deux groupes de composantes de X.
Xi p Xin
On appelle loi conditionnelle de Y sachant Z = z, lorsqu’elle existe, la loi de probabilité
définie par
PY|Z=z (B) = lim P(Y ∈ B|z < Z ≤ z + dz).
dz−→0

On a aussi
P(Y ∈ B, Z ∈]z, z + dz])
PY|Z=z (B) = lim .
dz−→0 P(Z ∈]z, z + dz])
Fonction de repartition conditionnelle

P(Y1 ∈] − ∞, y1 ], ..., Yp ∈] − ∞, yp ], Z ∈]z, z + dz])


FY|Z=z (y) = PY|Z=z (Y1 ≤ y1 , ..., Yp ≤ yp ) = lim .
dz−→0 P(Z ∈]z, z + dz])

Donc
∂ n−p
∂z1 ...∂zn−p
F  (y, z)
Y
Z
FY|Z=z (y) = .
fZ (z)
Densité conditionnelle
f  (y, z)
Y
Z
fY|Z=z (y) = (Y continu). Si Y est discret, fY|Z=z (y) = P(Y = y|Z = z).
fZ (z)

43 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

 
X1
 . 
Théorème 5.3 (Fondamental). Soit X =  . 
 .  un vecteur aléatoire. La densité
Xn
conjointe est liée aux densités conditionnelles par

fX (x1 , ..., xn ) = fX1 (x1 ) · fX2 |X1 =x1 (x2 ) · · · fXn |X1 =x1 ,...,Xn =xn (xn )
!
Y
Théorème 5.4. Soit X = . Alors Y et Z sont indépendants ssi fZ|Y=y (z) = fZ (z).
Z

Définition 5.12 (Espérance  conditionnelle).


  
! X1 Xp+1
 . 
..  et Z =  ... .
Y  
Soit X = avec Y =    
Z
Xp Xn
• On appelle espérance conditionnelle de Y sachant Z = z la loi moyenne
 
Z ϕ1 (z)
 . 
EZ=z (Y) = E(Y|Z = z) = ydPY|Z=z (y) = ϕ(z) =  .
 .

p

R
ϕp (z)

avec ϕi (z) = E(Yi |Z = z)


• On appelle espérance conditionnelle de Y sachant Z l’expression E(Y|Z) = ϕ(Z).
ϕ(Z) est définie par ϕ(Z)(ω) = ϕ(z) = E(Y|Z = z).

Remarque.  
Z1
 . 
Si B ∈ B p , Y = 1B et Z =  . 
 . , alors
Zn−p
(1) Si Z est continu, on a

P(B ∩ [z < Z ≤ z + dz])


E(Y|Z = z) = P(B|Z = z) = lim P(B|z < Z ≤ z + dz) = lim .
dz−→0 dz−→0 P(Z ∈]z, z + dz])

(2) Si Z est discret, alors

P(B ∩ [Z = z])
E(Y|Z = z) = P(B|Z = z) = .
P(Z = z)

Exemple 5.3. Soit X1 , ..., Xn n variables aléatores indépendantes de même loi P(λ). On
n
X
pose Y = 1[X1 =x1 ] et Z = Xi .
i=1
1. Calculer E(Y |Z = x).
2. Calculer E(X1 |Z).

44 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

!
Y
Théorème 5.5. Soit X = . Alors pour g : Rp −→ R, on a
Z
R
(1) E(g(Y)) = Rp g(y)dPY (y) = E(EZ (g(Y))) = E(E(g(Y)|Z))
(2) E(AY|Z) = AE(Y|Z)
(3) E(g(Y)|Y) =g(Y), PY− p.s.  
(4) V ar(Y) = E V ar(Y|Z) + V ar E(Y|Z)
!
Y
Exercice 5.1. Soit un vecteur aléatore tel que PY |Z=z = P(z) et Z γ(1, 1).
Z
!
Y
1. Déterminer la densité (conjointe) de .
Z
2. Calculer E(Y |Z), E(Z|Y ) et E(Z −Y ).

6. Vecteurs aléatoires Gaussiens

6.1. Généralités
 
X1
 . 
Définition 5.13. X =  . 
 .  est un vecteur gaussien (vecteur multinormal, ou variable
Xn
Xn
t
multinormale) si toute combinaison linéaire de ses composantes a X = ai Xi est une
i=1  
m1
 . 
variable aléatoire normale. On note X N (m, Σ) pour dire que E(X) = m =  . 
 .  et
mn
t t t
V ar(X) = Σ i.e. Y = a X N (a m, a Σa)
 
X1
 . 
Exemple : Si X1 , ..., Xn sont indépendantes et gaussiennes, alors X =  . 
 .  est un
Xn
vecteur gaussien.

Proposition 5.3. SiX N (m, Σ) alors chaque composante Xi suit une loi normale
m1
 . 
N (mi , σii ) avec m =  .  et Σ = (σij )1≤i,j≤n .
 . 
mn
1 t
iat m− a Σa
Théorème 5.6. Si X N (m, Σ) alors ϕX (a) = e 2

Théorème 5.7. Soit X N (m, Σ).


Σ est une matrice diagonale ssi les v.a. X1 , X2 , ..., Xn sont indépendantes.

45 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

Théorème 5.8Z (Fondamental).


1 t n 1
(i) ∀ m ∈ Rn , e− 2 (x−m) A(x−m) dx = (2π) 2 (detA)− 2 si A est symétrique définie positive.
Rn
(ii) Si X N (m, Σ) avec Σ regulière, alors X admet pour densité
1 1 t −1 (x−m)
fX (x) = n 1 e− 2 (x−m) Σ .
(2π) (detΣ)
2 2

 
X1
 . 
(iii) Si X =  . 
 .  a pour densité
Xn
− 12
P
aij (xi −mi )(xj −mj )
fX (x) = Ke i,j

 
m1
 . 
alors X est un vecteur multinormal et E(X) = m =  . 
 . , V ar(X) = Σ = (σij ) avec
mn
s
1 detA
A = (aij ) = Σ−1 et K = n 1 =
(2π) 2 (detΣ) 2 (2π)n
Théorème 5.9 (Loi conditionnelle).
Soit X N (m, Σ) non dégénérée partitionnée en deux v.a. Y et Z à p et n − p composantes
resp. Alors !
  Σ11 Σ12
(i) PY|Z=z = N mY + Σ12 Σ−1 −1
22 (z − mZ ), Σ11 − Σ12 Σ22 Σ21 avec Σ =
Σ21 Σ22
V ar(Y) = Σ11 , V ar(Z) = Σ22 , Cov(Y, Z) = Σ12 , Σ21 = Σt12 et E(Y) = mY .
(ii) E(Y|Z) = E(Y) + Σ12 Σ−1
22 (Z − E(Z))

6.2. Lois dérivées d’un vecteur Gaussien


Définition 5.14(Loi de Khi-deux).
X1
 . 
Soit X =  .  N (0, In ).
 . 
Xn
Xn
2 t
Alors ||X|| = X X = Xi2 suit une loi de Khi-deux à n degrés de liberté notée χ2 (n).
i=1
 
X1
 . 
Proposition 5.4. Soit X =  .  N (0, Σ). Si Σ est inversible alors Xt Σ−1 X χ2 (n).
 . 
Xn
Remarque.
Si Xi N (0, 1) alors Xi2 γ( 21 , 21 ). Donc χ2 (n) = γ( n2 , 21 ).
Si Y1 χ2 (n1 ) et Y2 χ2 (n2 ) et si Y1 et Y2 sont indépendantes alors Y1 + Y2 χ2 (n1 + n2 ).

46 Dr. Jean Marc OWO


CHAPITRE 5. VECTEURS ALÉATOIRES

Définition 5.15 (Loi de Student).


Soit X N (0, 1) et Y χ2 (n). On suppose que X et Y sont indépendantes.
X
Alors T = q suit une loi de student à n dégrés de liberté. On note T T (n).
Y
n

Définition 5.16 (Loi de Fisher-Snédecor).


Soit Y1 χ2 (n1 ) et Y2 χ2 (n2 ). On suppose que Y1 et Y2 sont indépendantes.
Y1
Y 1 n2
Alors F = nY21 = . suit une loi de Fisher-Snédecor à n1 et n2 dégrés de liberté.
n2
Y 2 n1
On note F F (n1 , n2 ).

47 Dr. Jean Marc OWO


Chapitre 6

Convergences

1. Convergence en loi
Définition 6.1. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur un même
espace probabilisé (Ω, F, P), de fonctions de repartitions (Fn )n≥0 et F . On dit que (Xn )
converge en loi vers X si (Fn (x))n≥0 converge vers F (x) en tout point x de continuité de F .
L
On note Xn −→ X

Exemple 6.1.
L
(1) Xn N (0, n1 ) =⇒ Xn −→ X = 0.
L
(2) Xn U[a− 1 ,b+ 1 ] =⇒ Xn −→ X U[a,b] .
n n

Proposition 6.1. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur (Ω, F, P),
de fonctions caracteristiques (ϕXn )n≥0 et ϕX .
L
a) Alors Xn −→ X ⇐⇒ ∀ t ∈ R, ϕXn (t) −→ ϕX (t)
L
b) Xn −→ X ⇐⇒ E(h(Xn )) −→ E(h(X)), pour toute fonction h bornée et continue par
morceaux.

La proposition suivante assure que la famille des lois gauss iennes est stable pour la
convergence en loi.

Proposition 6.2. Soit (Xn )n≥0 une suite de v.a et X une v.a gaussiennes de loi N (mn , σn2 ).
La suite converge en loi si et seulement si mn −→ m ∈ R et σn −→ σ ∈ [0, +∞[.
n−→ +∞ n−→ +∞
Et la loi limite est la loi gaussienne N (m, σ 2 ).

2. Convergence en probabilité
Définition 6.2. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur (Ω, F, P).
On dit que (Xn ) converge en probabilité vers X si ∀ ε > 0, P(|Xn − X| > ε) −→ 0.
P
On note Xn −→ X

48
CHAPITRE 6. CONVERGENCES

Proposition 6.3. Soit (Xn )n≥0 une suite de v.a et X une v.a toutes définies sur (Ω, F, P).
P L
a) Alors Xn −→ X =⇒ Xn −→ X
L P
b) Xn −→ a ∈ R =⇒ Xn −→ a.

3. Convergence presque sure


Définition 6.3. On dit que (Xn )n≥0 converge presque sureement vers X si
P({ω : Xn (ω) −→ X(ω)}) = 1. Ce qui équivaut à P({ω : Xn (ω) 6−→ X(ω)}) = 0.
p.s
On note Xn −→ X

Proposition 6.4.
p.s P
Xn −→ X =⇒ Xn −→ X.

4. Théorèmes limites
Théorème 6.1 (Loi faible des grands nombres). Soit (Xn )n≥0 une suite de v.a telle
n
1X P
que E(Xi ) = m et Cov(Xi , Xj ) = δij σ 2 . Alors Xi −→ m
n i=1

Théorème 6.2 (Loi forte des grands nombres). Soit (Xn )n≥0 une suite de v.a indé-
n
1X p.s
pendantes de même loi avec E(Xi ) = m, alors Xi −→ m
n i=1

Théorème 6.3 (Limite centrale). Soit (Xn )n≥0 une suite de v.a indépendantes de même
loi avec E(Xi ) = m et V ar(Xi ) = σ 2 . Alors
√  L
n X̄n − m −→ N (0, σ 2 ).
n

 
X̄n − m L 1X
n −→ N (0, 1), où X̄n = Xi .
σ n i=1

Théorème 6.4. Soit (Xn )n≥0 une suite de v.a indépendantes telle que
√ L
n (Xn − m) −→ N (0, σ 2 ).
√ L
Si g : R −→ R est dérivable, alors n (g(Xn ) − g(m)) −→ N 0, [g 0 (m)]2 σ 2


4.1. Forme multidimensionnelle


Théorème 6.5 (Limite centrale pour les vecteurs aléatoires). Soit (Xn )n≥0 une suite
! indépendants de même loi avec E(Xi ) = m et V ar(Xi ) = Σ. Alors
de vecteur aléatoires
n
√ 1 X L
n Xi − m −→ N (0, Σ).
n i=1

49 Dr. Jean Marc OWO


CHAPITRE 6. CONVERGENCES

Théorème 6.6. Soit (Xn )n≥0 une suite de vecteur aléatoires indépendants à valeurs dans
√ L
Rp telle que n (Xn − m) −→ N (0, Σ). Si g : Rp  −→ Rq est différentiable,  alors
∂g1 ∂gq
∂x1
(m) · · · ∂x1 (m)
√ L . ..
..
 
n (g(Xn ) − g(m)) −→ N 0, Gt ΣG avec G = Jg (m)t = 

 ··· . 

∂g1 ∂gq
∂xp
(m) · · · ∂xp (m)
(p×q)

50 Dr. Jean Marc OWO

Vous aimerez peut-être aussi