Académique Documents
Professionnel Documents
Culture Documents
Introduction générale i
1 Espaces probabilisés 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2.1 Operation sur les ensembles . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Expériences aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4.1 Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 Vocabulaire probabiliste des événements . . . . . . . . . . . . . . . 9
1.4.3 Espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.4 Événements presque sûr . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Probabilité sur un ensemble fini . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Probabilité uniforme sur un ensemble fini . . . . . . . . . . . . . . 15
1.5.2 Rappel : Formules classiques de dénombrement . . . . . . . . . . . 16
1.6 Application : Modèle de l’urne . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.1 Tirage sans remise . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.2 Tirage avec remise . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 23
2 Variables aléatoires 30
2.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.1 Définitions et propriètés . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.2 Loi de probabilité d’une variable aléatoire . . . . . . . . . . . . . . 32
2.1.3 Espérance d’une variable aléatoire réelle . . . . . . . . . . . . . . . 33
2.1.4 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Variables aléatoires réelles discrètes . . . . . . . . . . . . . . . . . . . . . . 34
2.2.1 Fonction génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Variables aléatoires réelles à densité . . . . . . . . . . . . . . . . . . . . . 36
2.3.1 Fonction caractéristique d’une v.a réelle . . . . . . . . . . . . . . . 37
2.4 Lois de probabilités usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . 38
ii
TABLE DES MATIÈRES iii
3 Vecteurs aléatoires 42
3.1 V.a et lois de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.1.1 Loi de probabilité d’une v.a . . . . . . . . . . . . . . . . . . . . . . 42
3.1.2 Fonction de répartition d’une v.a . . . . . . . . . . . . . . . . . . . 42
3.2 V.a discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3 V.a absolument continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4 Moments d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 46
3.4.1 Espérance d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . 47
3.4.2 Covariance de deux v.a réelles . . . . . . . . . . . . . . . . . . . . . 49
3.5 Fonction carctéristique d’une v.a . . . . . . . . . . . . . . . . . . . . . . . 50
3.6 V.a indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.7 Somme de v.a réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.7.1 Shéma de Bernoulli et autres exemples . . . . . . . . . . . . . . . . 52
3.8 Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.9 Espérance conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
Espaces probabilisés
1.1 Introduction
Depuis toujours l’homme est confronté directement ou indirectement à la notion de
hasard (mot d’origine arabe : az-zhar) qu’il le perçoit à travers des mots comme maktoub,
la chance, probable, les jeux de hasard, les paris ou à travers de nombreuses disciplines
comme la science de la vie, les sciences humaines et de la physique (mouvement des
particules ...) la météorologie, la médecine, l’économie (marchés boursiers...) la théorie du
signal la production agricole ou industrielle. La description ou l’analyse des lois du hasard
par une approche scientifique et plus précisément par des modèles mathématiques, a
donné lieu à l’élaboration d’une discipline mathématique appelée probabilité. Celle-ci s’est
beaucoup développée ces dernières années pour devenir incontournable dans plusieurs
branches scientifiques.
1.2 Ensembles
Définition 1.2.1 1. Un ensemble est une collection bien determiné d’objets appelé
éléments de l’ensemble.
2. Si E est un ensemble si x est un e élément de E on dit que x appartient à E,
x ∈ E.
3. Si x n’est pas un élément de E on dit que x n’appartient pas à E, x ∈
/ E.
4. Un ensemble qui contient un seul d’ élément est appelée singleton.
5. Un ensemble qui contient une paire d’éléments est appelée paire.
6. Un ensemble qui ne contient aucun élément est appelé l’ensemble vide notée ∅.
Inclusion-égalité :
1. Soient E et F deux ensembles donnée l’ensemble E est dit inclus dans l’ensemble
F ssi tous les éléments de E sont éléments de F et on écrit E ⊂ F
E ⊂ F ⇔ ∀x ∈ E ⇒ x ∈ F.
2. Si E ⊂ F, on dit alors que E est une partie où ensemble de F.
1
CHAPITRE 1. ESPACES PROBABILISÉS 2
A ∩ B = {x ∈ E | x ∈ A et x ∈ B}
Réunion :
Soient E un ensemble et A et B deux parties de E
A ∪ B est l’ensemble des éléments de E qui sont dans A ou dans B.
A ∪ B = {x ∈ E | x ∈ A ou x ∈ B}
Complémentaire :
Soient E un ensemble et A une partie de E le complémentaire de A dans E notée CEA ou
A est l’ensemble des éléments de E qui ne sont pas des e éléments de A,
CEA = {x ∈ E | x∈
/ A}
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)
5. Complémentaire :
CEE = ∅, CE∅ = E
CA
CE E = A
CEA∩B = CEA ∪ CEB
CEA∪B = CEA ∩ CEB
CHAPITRE 1. ESPACES PROBABILISÉS 3
Produit cartésienne :
Soient E et F deux ensembles données, l’ensemble E × F appelée produit cartésien de E
et F est définie par :
E × F = {(x, y) | x ∈ E et y ∈ F }
Partition :
Une partition de E est une collection des parties non vide A1 , · · · , An de E telle que :
1. A1 ∪ · · · ∪ An = E et
2. Les (Aj )j sont deux à deux disjoints c’est à dire Ai ∩ Aj = ∅ si i 6= j.
Une partition peut avoir un nombre infini des parties {Aj }∞
j=1
Exemple 1.2.4 Supposons qu’on a jeté une pièce de monnaie trois fois. L’ensemble S
contiendra huit résultats possibles S1 , S2 , · · · , S8 .
S1 : P F F, S2 : P F F, S3 : F P F, S4 : F F P,
S5 : F P P, S6 : P F P, S7 : P P F, S8 : P P P.
On définit quatre ensembles : A l’ensemble que au moins un coté face est obtenue, soit B
l’ensemble qu’un coté face est obtenu au second jet, soit C l’ensemble qu’un coté pile est
obtenu au troisième jet et soit D l’ensemble qu’aucun coté face n’est obtenu.
A = {S1 , S2 , S3 , S4 , S5 , S6 , S7 }, B = {S1 , S2 , S4 , S6 }, C = {S4 , S5 , S6 , S8 }, D = {S8 }.
B ⊂ A, Ac = D, B ∩ D = ∅, B ∩ C = {S4 , S6 }, (B ∪ C)c = {S3 , S7 },
A ∩ (B ∪ C) = {S1 , S2 , S4 , S5 , S6 }
Exemple 1.3.1
Expérience Ω
Lancer une pièce {Pile, face }
Relever l’état d’une case mémoire {0, 1}
Interroger un électeur avant un référendum {Oui, Non}
Lancer un dé {1, 2, · · · , 6}
Compter les clients d’une file d’attente N
Observer une durée de fonctionnement d’une machine R+
Observer le nb d’articles défectueux dans un lot de 15 article {0, 1, 2, · · · , 15}
2. Événement. Un événement est une proposition (propriété) dépendant du résultat
d’une expérience aléatoire dont on peut dire si elle est vraie ou non, une fois
l’expérience réalisée. Ainsi dans l’expèrience qui consiste à lancer un dè et à noter
la valeur de la face visible, la proposition ”la face apparente du dé est paire” est
un événement ; cette proposition est vraie si on a observé l’une des faces {2, 4, 6}
et fausse dans le cas contraire. Par contre ”la pièce tombe sur la tranche” n’est pas
un événement. On dit qu’un événement A est réalisé au cours d’une expérience
lorsque l’issue de celle-ci rend la proposition vraie.
En termes mathématiques, à chaque événement A, on associe alors un sous-
ensemble de Ω formé des issues qui permettent de dire que A est vraie, cette
partie notée aussi A est elle-même appelée événement
ω∈A
être répétée dans les mêmes conditions. Soit nA le nombre de fois où l’événement
A s’est réalisé au bout de n expériences aléatoires identiques et on désigne par
nA
n la fréquence de réalisation de l’événement A. On constate expérimentalement
que lorsque n augmente nnA a tendance à se stabiliser autour d’une certaine valeur
alors intuitivement, et par passage à la limite la probabilitè de A peut être définie
par :
nA
P(A) = lim .
n→+∞ n
Définition 1.4.1 Soit A un sous-ensemble de P(Ω). On dit que A est une tribu sur Ω,
si A vérifie les propriétés suivantes :
(i) Ω ∈ A.
(ii) Si A ∈ A alors Ac ∈ A.
S+∞
(iii) Si (An )n∈N est une suite d’éléments de A alors n=1 An ∈ A.
Exemple 1.4.2 1. A = {∅, Ω} est la tribu grossière sur Ω (c’est la petite tribu sur
Ω).
2. P(Ω) est une tribu sur Ω.
3. Soit (Ai )i∈I une partition finie ou dénombrable de Ω alors A = {∪j∈J Aj , J ∈ P(I)}
est une tribu sur Ω.
A1 = A
An = B pour tout n ≥ 2
Définition 1.4.5 On appelle espace probabilisable tout couple (Ω, A) où Ω est un en-
semble non vide et où A est une tribu sur Ω. On appelle événement tout élément de
A.
Exemple 1.4.6 (Ω, P(Ω)) est un espace probabilisable (c’est l’espace probabilisable qu’on
associe toujours à Ω lorsque Ω est fini ou dénombrable).
Exercice 1.4.7 Soit A une tribu sur Ω. Soit (An )n∈N une suite d’éléments de A. On
pose
+∞
\ [ +∞
[ \
lim sup An = An , lim inf An = An
m=0 n≥m m=0 n≥m
vérifier que
CHAPITRE 1. ESPACES PROBABILISÉS 7
Rappel
On dit qu’un ensemble E est dénombrable s’il est fini ou en bijection avec N c-à-d si l’on
peut énumérer ses points en une suite. C’est le cas de l’ensemble N lui même, de Z, de Q
∗
ou des entiers pairs. Ce n’est pas le cas de {0, 1}N de R ni des intervalles [a, b].
Remarque 1.4.8 Si l’ensemble Ω est dénombrable, un événement A ∈ P(Ω) est dit
élémentaire lorsqu’il ne se réalise que pour une seule issue de l’expérience : A = {ω} où
ω ∈ Ω. Ainsi tout événement de P(Ω) est une réunion finie ou dénombrable d’événements
élémentaires.
Exemple 1.4.9 Pour l’épreuve qui consiste à lancer deux dés, l’espace d’état est
et la tribu associée à Ω est P(Ω). Ainsi {(i, j)} est un événement élémentaire et l’événement
A ”la somme des lancers est paire” est composé de 18 événements élémentaires :
A = {(1, 1), (1, 3), (1, 5), (2, 2), (2, 4), (2, 6), (3, 1), (3, 3), (3, 5), (4, 2), (4, 4)(4, 6),
(5, 1), (5, 3), (5, 5), (6, 2), (6, 4), (6, 6)}
Proposition 1.4.10 Soit (Ai )i∈I une famille de tribus sur un ensemble non vide Ω.
Alors ∩i∈I Ai est aussi une tribu sur Ω.
Exercice 1.4.17 Soit (xn )n∈N une suite décroissante de limite x et soit (yn )n∈N une
suite croissante de limite y. Montrer que
+∞
[
]x, y[= (] − ∞, yn ]∩] − ∞, xn ]c )
n=0
La tribu borélienne BRd est srictement incluse dans P(Rd ). Il existe donc des parties
de Rd qui ne sont pas dans BRd . Mais dans la partique, tous les ensembles que nous serons
amenés à utiliser dans Rd seront en fait des boréliens.
(P est σ-additive).
P
Remarque 1.4.21 ii) entraı̂ne en particulier que la série n≥0 P(An ) est convergente.
Définition 1.4.23 On appelle espace probabilisé tout triplet (Ω, A, P), où (Ω, A) est un
espace probabilisable et où P est une mesure de probabilité sur (Ω, A).
La modélisation probabiliste consiste donc à décrire une expérience aléatoire par la donnée
d’un espace probabilisé.
Notation
Soient (Ω, A, P) un espace probabilisé et A un événement de A. La notation P(A) se lit
probabilité de A ou probabilité que l’événement A se produit.
Exemple 1.4.24 Soit B[a,b] = [a, b] ∩ BR la tribu trace de Borel associèe à Ω = [a, b].
L’application P : B[a,b] −→ [0, 1] dèfinie par
l(A)
P(A) = pour tout A ∈ B[a,b] ,
l(Ω)
où l(A) désigne la longueur (mesure de Lebesgue) de A est une mesure de probabi-
d−c
lité. Elle est caractérisée par P([c, d]) = b−a pour tout [c, d] ⊂ [a, b], et elle correspond
à l’expérience aléatoire : choix d’un point au hasard sur l’intervalle [a, b].
Exemple 1.4.25 Soit BQd [ai ,bi ] = di=1 [ai , bi ] ∩ BRd la tribu trace de Borel associée à
Q
i=1
Ω = di=1 [ai , bi ]. L’application P : BQd [ai ,bi ] −→ [0, 1] définie par
Q
i=1
v(A)
P(A) = pour tout A ∈ BQd [ai ,bi ] ,
v(Ω) i=1
où v(A) désigne le volume (mesure de Q Lebesgue) de A est une mesure de probabilité. Elle
d
(d −c )
est caractérisée par P( i=1 [ci , di ]) = Qdi=1 i i pour tout di=1 [ci , di ] ⊂ di=1 [ai , bi ], et
Qd Q Q
i=1 (bi −ai )
elle correspond à l’expérience aléatoire : choix d’un point au hasard sur le pavé di=1 [ai , bi ].
Q
X λn e−λ
P(A) =
n!
n∈A
Exercice 1.4.27 Soient Q1 et Q2 deux probabilités définie sur le même espace probabi-
lisable (Ω, A).
1. Soit α ∈ [0, 1]. Montrer que l’application P définie par
Remarque 1.4.28 Du point de vue de l’analyse, une mesure de probabilité n’est autre
qu’une mesure positive bornée telle que la valeur en Ω vaut 1. Ainsi toutes les propriétés
des probabilités se déduisent simplement des propriétés des mesures positives bornées,
néanmoins on rappelle quelques propriétés élémentaires qui sont fondamentales dans les
calculs des probabilités d’événements.
A1 = Ω
An = ∅ pour tout n ≥ 2
Bi = Ai pour 1 ≤ i ≤ n
Bi = ∅ pour i ≥ n + 1
Comme P( +∞
S P+∞
n=1 Bn ) = S P(Bn ) (puisque
n=1 les Bn sont deux à deux disjoints)
et P(∅) = 0, alors on a P( ni=1 Ai ) = ni=1 P(Ai ).
P
3. Comme A ∪ B = A ∪ (B ∩ Ac ) et B = (A ∩ B) ∪ (B ∩ Ac ), on a alors
3. Soit (An )n≥1 une partition finie ou infinie dénombrable de Ω. Alors pour tout
B ∈ A,
+∞
X
P(B) = P(An ∩ B).
n=1
Démonstration 1.4.33 1. Soit (Bn )n≥1 la suite d’éléments de A deux à deux dis-
joints définie par,
B0 = A0 = ∅
Bn = An \An−1 pour tout n ≥ 1.
Les événements Bn sont deux à deux disjoints, ainsi en utilisant la propriété de σ−additivité,
on a
+∞ +∞
! ! +∞
[ [ X
P An = P Bn = P(Bn ).
n=0 n=0 n=0
P
La série n≥0 P(Bn ) est convergente et sa somme est
+∞
X n
X
P(Bn ) = lim P(Bi )
n→+∞
n=0 i=0
= lim P(∪ni=0 Bi ) = lim P(An ).
n→+∞ n→+∞
Bn = An ∩ B
pour tout n ≥ 1.
Remarque 1.4.34 Dire que (An )n≥1 une partition finie ou infinie dénombrable de Ω est
équivalent à dire que lorsque notre expérience aléatoire sera réalisée, un et un seul des
événements A1 , A2 , · · · se réalisera.
Exemple 1.4.35 Si on jette n fois une pièce de monaie l’espace d’état est
Ω = {P, F }n
c-à-d l’ensemble des uplets de longueur infinie. C’est un ensemble infini. Soit A” on ne
tire pas de pile” et soit An ” on ne tire pas de pile lors des n premiers tirages”. On a
alors P(An ) = 21n , An+1 ⊂ An (la réalisation de An+1 implique la réalisation de An ) et
A = +∞
T
n=1 An et par suite
P(A) = lim P(An )
n→+∞
CHAPITRE 1. ESPACES PROBABILISÉS 14
Proposition 1.4.36 Soit (Ω, A, P) un espace probabilisé. Soit (An )n≥1 une suite d’éléments
de A. Alors
+∞
! +∞
[ X
P An ≤ P(An ).
n=1 n=1
B 0 = A0 = ∅
Bn = An \(A0 ∪ A1 ∪ · · · ∪ An−1 ) pour tout n ≥ 1.
Ainsi,
Sn Sn S+∞ S+∞
1. les Bn sont deux à deux disjoints et i=1 Bi = i=1 Ai d’où n=1 Bn = n=1 An .
2. pour tout i ∈ N, Bi ⊂ Ai et donc P(Bi ) ≤ P(Ai ).
S+∞ P+∞
D’aprés
S+∞ la propriété
P+∞ de la σ−additivité on a P( n=1 B n ) = n=1 P(Bn ) et par suite
P( n=1 An ) ≤ n=1 P(An ), ce deuxième terme pouvant éventuellement être supérieur à
1 et même être infini.
Exemple 1.4.38 Soit Ω un ensemble non vide fini ou dénombrable. Soit ((αn , ωn ))n≥1
une suite d’éléments de R × Ω telle que :
(i) αn ≥ 0, pour tout n ∈ N∗ ;
(ii) la série n≥1 αn est convergente et l’on a +∞
P P
n=1 αn = 1.
Alors l’application P : P(Ω) −→ [0, 1] définie par
∞
X X
P(A) = αn εωn (A) = αn pour tout A ∈ P(Ω)
n=1 n/ωn ∈A
Exercice 1.4.39 Soit (Ω, A) un espace probabilisable, et soit Q : A −→ [0, 1] une appli-
cation telle que
1. Q(Ω) = 1.
2. Q(A ∪ B) = Q(A) + Q(B) pour tout A, B ∈ A disjoints.
Inversement, étant donnée une famille finie (pi )1≤i≤N de réels, il lui correspond une pro-
babilité P (unique) telle que P({ωi }) = pi pour tout i = 1, · · · N , si seulement si
N
X
pi ≥ 0 et pi = 1
i=1
Conséquence
Si P est une probabilité uniforme sur Ω fini de cardinal N , alors
1 1
∀ω ∈ Ω, P({ω}) = = .
N cardΩ
CHAPITRE 1. ESPACES PROBABILISÉS 16
(card(A))n .
De telles suites sont appelées aussi ””arrangements avec répétitions de N objets pris n
n”, deux éléments ui et uj pouvant être égaux pour i 6= j. Dans le langage fonctionnel,
on peut dire que l’ensemble AB de toutes les applications d’un ensemble B de cardinal
n, dans un ensemble A de cardinal N , a pour cardinal N n .
N!
AnN = N (N − 1) · · · (N − n + 1) = .
(N − n)!
Coefficients multinomiaux.
Soient un entier k tels que 1 ≤ k ≤ N , et soient la suite d’entiers (n1 , n2 , · · · , nk ) telle
que
n1 ≥ 0, n2 ≥ 0, · · · nk ≥ 0 et n1 + n2 + · · · + nk = N.
Le nombre de suites de longueur N , contenant n1 fois 1, n2 fois 2, · · ·, nk fois k est égal
au coefficient multinomial
N!
n1 !n2 ! · · · nk !
correspondre une boule différente, donc le tirage est une application injective
de l’ensemble {1, 2, · · · , n} dans l’ensemble U . Il conduit à observer une suite
(n, N )−injective. L’espace d’état de cette épreuve est donc Ω = l’ensemble des
applications injectives de {1, 2, · · · , n} dans U de cardinal AnN .
2. Soit les boules sont tirées simultanèment (on ne note que le résultat global) ou
elle sont tirées successivement mais on juge que leur ordre d’apparition n’a pas
d’importance, on peut alors considérer un tirage comme un sous ensemble à n
éléments de l’ensemble à N éléments. Dans ce cas on prendra, pour l’espace d’état
l’ensemble des parties à n éléments d’un ensemble à N éléments et card(Ω) = CN n.
Exemple 1.6.1 Dans une course, il y a 14 cheveux au départ, vous n’êtes pas joueur et
vous estimez que chacun d’eux à la même chance de gagner.
a) Calculer le nombre N des tiercés possibles, càd le nombre des arrivées possibles des 14
cheveux aux première, deuxième et troisième ( dans l’ordre)
N = A314 = 14.13.12 = 2184
b) Calculer la probabilié de gagner le tiercé à l’aide d’un seul ticket.
1
- Dans l’ordre : 2184 .
- Dans l’ordre où dans le désordre : C13 = 21846
14
Exemple 1.6.2 On considére l’arrivée d’une course de chevaux, avec dix partants, numéroté
de 1 à 10. On note l’ordre d’arrivée. On suppose que les concurrents sont de force égale et
qu’il n’y a pas d’ex-aequos. L’espace d’état Ω est l’ensemble des injections de {1, 2, · · · , 10}
dans lui-même et donc cardΩ = 10!.
Soit l’événement A = { le numèro 10 arrive dernier }, on a alors
cardA card(ω ∈ Ω : ω(10) = 10)
P(A) = = =
cardΩ cardΩ
nombre d’injections de {1, 2, · · · , 9} dans lui même
=
10!
9!
=
10!
Si l’on s’intéresse à l’événement A = { le numèro 10 arrive dans les trois premiers }, on
peut considérer Ak = { le numéro 10 arrive à la k-ième place } pour k = 1, 2, 3 de sorte
que A = A1 ∪ A2 ∪ A3 . Les Ak sont deux à deux disjoints, on a
3
P(A) = P(A1 ) + P(A2 ) + P(A3 ) = .
10
Exemple 1.6.3 Le jeu du loto consiste à choisir 6 numéros distincts parmi {1, 2, · · · , 49}.
On suppose que les boules qui portent les 49 numéros sont toutes parfaites et on s’intéresse
qu’aux résultats des 6 boules. L’espace Ω est
Ω = {{a1 , a2 , · · · , a6 } 1 ≤ ai ≤ 49, les ai sont deux à deux diffèrents}
Il est naturel de considérer que tous les tirages possibles sont équiprobables, donc P est la
probabilité uniforme sur Ω. Par conséquent
1 1
P( on gagne le premier prix avec un bulletin) = = 6
cardΩ C49
CHAPITRE 1. ESPACES PROBABILISÉS 19
Plus généralement pour un tirage sans remise d’une urne de K catégories, on procède de
la même façon, l’urne est composée de Nk boules de la catégorie Ck pour 1 ≤ k ≤ K ,
tout prélèvenement peut comporter des boules de chaque catégorie. On note An1 ,n2 ,···,nK
l’événement ”on extrait n1 boules de la catégorie C1 , · · · , nK boules de la catégorie CK ,
la probabilité de l’événement An1 ,n2 ,···,nK est :
n1 n2 nK
CN C · · · CN
1 N2 K
P(An1 ,n2 ,···,nK ) = n
CN
PK
telle que pour tout k ∈ {1, 2, · · · , K}, 0 ≤ nk ≤ Nk et k=1 nk = n ≤ N.
Plus généralement pour un tirage avec remise d’une urne de K catégories, on procéde de
la même façon, l’urne est composée de Nk boules de la catégorie Ck pour 1 ≤ k ≤ K ,
tout prélevenement peut comporter des boules de chaque catégorie. On note An1 ,n2 ,···,nK
l’événement ”on extrait n1 boules de la catégorie C1 , · · · , nK boules de la catégorie CK ,
la probabilité de l’événement An1 ,n2 ,···,nK est :
nK
n2
P(An1 ,n2 ,···,nK ) = Cnn1 Cn−n1
· · · Cn−n pn1 pn2 2 · · · pnKK
1 −n2 ···nk−1 1
PK
telle que pour tout k ∈ {1, 2, · · · , K}, 0 ≤ nk ≤ Nk et k=1 nk = n ≤ N ou encore
n!
P(An1 ,n2 ,···,nK ) = pn1 1 pn2 2 · · · pnKK
n1 !n2 ! · · · nK !
Exemple
On jette trois fois une pièce de monnaie parfaite. On peut représenter l’espace d’état par
Ω = {P, F }3 (l’ensemble des applications de {1, 2, 3} dans {P, F }) donc cardΩ = 23 . Il
CHAPITRE 1. ESPACES PROBABILISÉS 21
est naturel de considérer que tous les tirages possibles sont équiprobables, donc P est la
probabilité uniforme sur Ω et
card( on sort exactement une fois P ) 3
P(on sort exactement une fois P ) = = .
cardΩ 8
1
P(on sort au moins une fois P ) = 1 − P( on sort trois fois F ) = 1 − .
8
1.7 Indépendance
Définition 1.7.1 Soit (Ω, A, P) un espace probabilisé.
1. Deux événements A et B de A sont dits indépendants si seulement si
P(A ∩ B) = P(A)P(B)
2. Les événements (Ai )i∈I où I est une famille quelconque, sont dits indépendants
dans leur ensemble (ou mutuellement indépendants) si pour toute partie finie J ⊂
I, \ Y
P( Ai ) = P(Ai )
i∈J i∈J
Ainsi dire que A est indépendant de B c’est dire que la réalisation de B n’apporte donc
aucune information supplémentaire sur l’éventuelle réalisation de A.
2. Les seuls événements indépendants d’eux mêmes sont les événements de probabilité
0 ou 1. En effet, P(A ∩ A) = P(A)P(A) alors P(A)(1 − P(A)) = 0.
3. Les événements (Ai )1≤i≤n sont mutuellement indépendants si
\ Y
P( Ai ) = P(Ai ) pour tout J ⊂ {1, 2, · · · n} / card(J) ≥ 2.
i∈J i∈J
Exemple 1.7.4 On lance 3 fois un dé. Si Ai est un événement qui ne dépend que du
ième tirage i ∈ {1, 2, 3}, alors A1 , A2 et A3 sont indépendants.
CHAPITRE 1. ESPACES PROBABILISÉS 22
Remarque 1.7.8 Lorsqu’on veut calculer la probabilité qu’au moins un événement, parmi
un groupe de plusieurs événements indépendants se réalise, on utilise la propriété de
complémentaire. En effet, soient A, B et C des événements indépendants on a
P(A ∪ B ∪ C) = 1 − P(Ac ∩ B c ∩ C c )
= 1 − (1 − P(A))(1 − P(B))(1 − P(C))
CHAPITRE 1. ESPACES PROBABILISÉS 23
Exemple 1.7.10 On désigne comme d’habitude par φ(n) la fonction d’Euler de la théorie
des nombres, c’est à dire φ(n) est le nombre des entiers plus petits que n et qui sont
premiers avec n. Alors
Y 1
φ(n) = n (1 − )
p
p : p/n
où le produit est sur tous les facteurs premiers p de n. Pour redémontrer cette for-
mule, on considère le modèle probabiliste suivant : on choisit au hasard un nombre parmi
{1, 2, · · · , n} avec équiprobabilité. Pour tout nombre premier p, soit
Soient p1 , p2 , · · · , pm les facteurs premiers de n. Montrons d’abord que Ap1 , Ap2 , · · · , Apm
sont des événements indépendants. D’aprés la proposition précédente, il suffit de montrer
que P(Api1 ∩ · · · ∩ Apik ) = P(Api1 ) · · · P(Apik ). Or il est clair que
n n/pi 1
P(Api ) = P( le nombre est un élément de ∈ {pi , 2pi , 3pi , · · · , pi }) = =
pi n pi
tandis que
n n/q 1
P(Api1 ∩ · · · ∩ Apik ) = P( le nombre est un élément de ∈ {q, 2q, 3q, · · · , q}) = =
q n q
φ(n)
D’autre part, P(Acpi ∩ · · · ∩ Acpi ) = n , d’où l’identité.
1 k
réalisation de cet événement. Cette probabilité peut donc être modifiée, en plus ou en
moins, si une information supplémentaire est donnée. En particulier si une information dit
qu’un événement B s’est réalisé au cours de l’épreuve, on pourra modifier la probabilité
qu’on accorde à l’événement A. C’est cette nouvelle probabilité qui sera appelée proba-
bilité conditionnelle de A ”conditionnée par B” ou ”sachant B” (ou encore sachant que
l’événement B s’est réalisé la probabilité que l’événement A se soit réalisé). En particulier
la probabilité conditionnelle de B sachant B est égale à 1 puisque l’on sait que B est réalis.
Exemple 1.7.11 On lance à 2 reprises un dé. Quelle est la probabilité d’obtenir au moins
une fois la valeur 6. Ω = {(i, j) / 1 ≤ i, j ≤ 6} et où P est la probabilité uniforme sur Ω :
card(A) 1
P(A) = pour tout A ∈ P(Ω), et P({(i, j)}) = pour tout (i, j) ∈ Ω.
card(Ω) 36
A = {(1, 6), (2, 6), (3, 6), (4, 6), (5, 6), (6, 6), (6, 5), (6, 4), (6, 3), (6, 2), (6, 1)}
11
et P(A) = 36 . Maintenant, on lance le dé deux fois et on annonce que la somme des deux
lancers est 8. Étant donnée cette information, quelle est la probabilité d’obtenir au moins
un 6 ? On note B l’événement ”la somme des deux lancers est 8”, on alors
B = {(2, 6), (3, 5), (4, 4), (5, 3), (6, 2)}
2 2/36 P(A ∩ B)
= =
5 5/36 P(B)
Définition 1.7.12 Soient A, B ∈ A deux événements, tel que P(B) > 0. On appelle
probabilité conditionnelle de A sachant B le nombre réelle noté P(A/B) défini par :
P(A ∩ B)
P(A/B) =
P(B)
Soient A et B ∈ A deux événements, tels que P(B) > 0 et P(A) > 0. Alors
Proposition 1.7.13 1. Soient A et B deux événements tels que P(B) > 0. Les
événements A et B sont indépendants si et seulement si P(A/B) = P(A).
P(A)
2. Soient A et B deux événements tels que A ⊂ B et P(A) > 0. Alors P(A/B) = P(B)
et P(B/A) = 1.
CHAPITRE 1. ESPACES PROBABILISÉS 25
P(A ∩ B) P(A)P(B)
P(A/B) = = = P(A).
P(B) P(B)
P(A∩B)
Inversement, si P(A/B) = P(A) alors P(B) = P(A) et donc P(A ∩ B) =
P(A)P(B).
P(A)
2. A ∩ B = A alors P(A/B) = P(B) et P(B/A) = 1
P(A ∩ B)
P(A/B) = pour tout A∈A
P(B)
est une nouvelle probabilité sur A, appelé probabilité conditionnelle si B, on la note aussi
PB .
(An ∩ B)n≥1 estPune suite d’éléments dans A disjoints deux à deux, ainsi
puisque S
on a P( +∞
n=1 An /B) =
+∞
n=1 P(An /B)
Tout événement B tel que P(B) > 0 définit un nouvel espace probabilisé (Ω, P(Ω), P(./B)).
Ainsi toutes les propriétés usuelles des probabilités sont également valides pour les pro-
babilités conditionnelles. Par exemple, on a :
1. P(A/B) = 1 − P(Ac /B)
2. P(A ∪ C/B) = P(A/B) + P(C/B) − P(A ∩ C/B)
Exemple 1.7.17 Soit (Ω, P(Ω), P) un espace probabilisé où Ω est fini et où P est la
probabilité uniforme sur Ω. Soient A et B deux événement tel que P(B) > 0. On a alors
card(A ∩ B)
P(A/B) =
cardB
Le calcul de P(A/B) souligne bien que le conditionnement par B entraı̂ne une restriction
sur Ω, B devenant un événement sûr à sa place, et que les seuls cas favorables sont les
ceux réalisant A ∩ B.
CHAPITRE 1. ESPACES PROBABILISÉS 26
Remarque 1.7.18 Comme tout événement B tel que P(B) > 0 définit une probabilité
P(./B) = PB , il est possible par un deuxième conditionnement définir une nouvelle proba-
bilité conditionnelle PB (./A) par rapport à un événement A tel que P(A) > 0 à condition
que P(A ∩ B) > 0. En effet, pour tout C ∈ A, on a
PB (C ∩ A) P(C ∩ A ∩ B) P(B) P(C ∩ A ∩ B)
PB (C/A) = = = = P(C/A ∩ B).
PB (A) P(B) P(A ∩ B) P(A ∩ B)
De même PA (C/B) = P(C/A ∩ B), donc dans deux conditionnements successifs, l’ordre
des conditionnements n’intervient pas et conditionner deux fois de suites revient à condi-
tionner par l’intersection des événements correspondants.
Exemple 1.7.20 Un panier contient 5 boules noires et 3 boules blanches. On tire deux
boules au hasard sans remise de l’urne. Quelle est la probabilité d’obtenir deux boules
noires ? On pose
A = l’événement ”obtenir une boule noire au premier tirage”
B = l’événement ”obtenir une boule noire au deuxième tirage”
Alors la probabilité désirée est P(A ∩ B) et on a
54
P(A ∩ B) = P(A)P(A/B) =
87
Proposition 1.7.21 (Théorème des probabilités composées) Si A1 , · · · , An sont
des événements tels que P(A1 ∩ · · · ∩ An ) > 0, alors on a
Exemple 1.7.23 Une urne contient initialement r boules rouges et b boules blanches.
On tire une boule à la fois
- si la boule est blanche, on le remet et on rajoute c boules blanches.
- si la boule est rouge, on le remet et on rajoute c boules rouges.
Quelle est la probabilité d’avoir une boule rouge à chaque fois au cours des trois premiers
tirages ?
Ai : l’événement obtenir une boule rouge au ième tirage.
r + 2c r+c r
P(A1 ∩ A2 ∩ A3 ) = P(A3 /A1 ∩ A2 )P(A2 /A1 )P(A1 ) =
r + 2c + b r + c + b r + b
CHAPITRE 1. ESPACES PROBABILISÉS 27
Exemple 1.7.24 Un panier contient 5 boules blues, 6 boules blanches et 7 boules rouges.
On tire 4 boules au hasard sans remise du panier. Quelle est la probabilité d’obtenir 4
boules de la même couleur ? On pose
D = l’événement ”obtenir 4 boules de même couleur”
A = l’événement ”obtenir 4 boules blues”
B = l’événement ”obtenir 4 boules blanches”
C = l’événement ”obtenir 4 boules rouges”
alors on a D = A ∪ B ∪ C. Comme les événement A, B et C sont deux à deux disjoints
on a :
P(D) = P(A) + P(B) + P(C)
D’aprés la règle de multiplication on a
5 4 3 2
P(A) =
18 17 16 15
6 5 4 3
P(B) =
18 17 16 15
7 6 5 4
P(C) =
18 17 16 15
Proposition 1.7.25 Soit (Bi )i∈I une partition finie ou infinie de Ω (l’ensemble d’indice
I est finie ou infinie) constituée d’événements vérifiant P(Bi ) > 0. Alors pour tout A ∈ A,
X
P(A) = P(A/Bi )P(Bi ).
i∈I
Démonstration
S 1.7.26 Comme (Bi )i∈I est une partition de Ω, alors on a :
A = i∈I (A ∩ Bi ) pour
P tout A ∈ A, et les A ∩ Bi sont deux-à-deux disjoints.
Pa P(A) = i∈I P(A ∩ Bi ) et par suite
Ainsi, on
P(A) = i∈I P(A/Bi )P(Bi ) puisque P(A ∩ Bi ) = P(A/Bi )P(Bi ).
Exemple 1.7.27 On lance une pièce de monnaie jusqu’à ce qu’on obtienne une pile.
Puis, on lance un dé un nombre de fois égal au nombre de fois qu’on a lancé la pièce
de monnaie. Quelle est la probabilité d’obtenir au moins un six avec le dé ? On pose A :
l’èvènement ”obtenir au moins un six avec le dé” et pour n ∈ N∗ En = l’événement ”la
première pile survient au nème lancer de la pièce”. D’autre part on a :
1
P(En ) = , ∀n ∈ N∗
2n
D’autre part on a
5n
P(A/En ) = 1 − P(Ac /En ) = 1 − , ∀n ∈ N∗
6n
CHAPITRE 1. ESPACES PROBABILISÉS 28
La suite (En )n∈N∗ forme une partition, d’où d’aprés la probabilité totale on a
+∞
X
P(A) = P(A/En )P(En )
n=1
+∞
X 5 1
= (1 − ( )n ) n
6 2
n=1
+∞ +∞
X 1 X 5 5
= ( )n − ( )n = 1 −
2 12 7
n=1 n=1
P(A/Bi )P(Bi )
P(Bi /A) = P .
j∈I P(A/Bj )P(Bj )
i ∩A) i )P(Bi )
Démonstration 1.7.29 Par définition, on a P(Bi /A) = P(B P(A) = P(A/B
P(A) d’où le
résultat en remplaçant dans le dénominateur P(A) par sa valeur d’aprés la proposition
précédente.
Exemple 1.7.30 Dans une population donnée, tout individu à la probabilité 0, 25 d’être
porteur d’un virus V. on dispose d’un test, on sait que si un individu n’est pas prteur d’un
virus V il à 9 chances sur 10 de répondre négativement au test alors que s’il est porteur
de V, il à 85 chance sur 100 de répondre positivement.
Un sujet de la population subit le test et le résultat est négatif, quelle est la probabilité
que le sujet soit porteur du virus V ?
V : l’événement être porteur de virus.
T : l’événement répondre positivement au test de dépésitage.
Les données sont : P(V ) = 0, 25, P(T c /V c ) = 0, 9 et P(T /V ) = 0, 85.
c /V )P(V )
Nous cherchons P(V /T c ) = P(T P(T c) or P(T c /V ) = 1 − P(T /V ) = 1 − 0, 85 = 0, 15 et
P(T c ) = P(T c /V )P(V ) + P(T c /V c )P(V c ) = 0, 15.0, 25 + 0, 9.0, 75.
Donc P(V /T c ) = 0, 053
X ( 56 )n 21n
= P 5 m 1
n=5 m=1 ( 6 ) 2m
( 5 )n
P
5 4
= P n=5 12
5 m = ( 12 )
m=1 ( 12 )
Exemple 1.7.32 Soit Ω un ensemble de N boules blanches et M boules noires. Ces boules
sont réparties entre deux urnes U1 et U2 . U1 contient n boules blanches et m boules noires.
U2 contient N − n boules blanches et M − m boules noires. On choisit au hasard une urne
U1 avec une probabilité p et U2 avec une probabilité 1 − p. On tire une boule au hasard,
les divers tirages sont équiprobables, dans l’urne choisie qui demeure inconnue. Sachant
qu’elle est blanche, quelle est la probabilité pour qu’elle provienne de l’urne U1 ? Soit les
événements A : ”la boule tirée est blanche” et B : ”la boule provient de U1 ”. On cherche
donc P(B/A). Comme {B, B c } est une partition alors
P(A/B)P(B)
P(B/A) = .
P(A/B)P(B) + P(A/B c )P(B c )
n N −n
Or P(A/B) = n+m et P(A/B c ) = N −n+M −m , d’où
pn(N − n + M − m)
P(B/A) = .
pnN − n + M − m) + (1 − p)(N − n)(n + m)
Chapitre 2
Variables aléatoires
En particulier si E est une partie de R (resp de Rd ) la variable aléatoire est dite réelle
(resp un vecteur aléatoire).
Comme on vient de le voir, toute variable aléatoire est une application, par contre toute
application n’est pas nécessairement une variable aléatoire. Du point de vue analyse, une
variable aléatoire n’est autre qu’une application mesurable.
Ac = X −1 (B c ) ∈ σ(X).
30
CHAPITRE 2. VARIABLES ALÉATOIRES 31
3. Soit (An )n∈N une suite d’éléments de σ(X), il existe alors une suite (Bn )n∈N une
suite d’éléments de B tel que An = X −1 (Bn ) pour tout n ∈ N, comme ∪+∞ n=1 An =
X −1 (∪+∞
n=1 n B ) et ∪+∞
B
n=1 n ∈ B, alors on a ∪+∞
A
n=1 n ∈ σ(X).
Remarque 2.1.5 La tribu σ(X) est la plus petite tribu d’éléments de A rendant X une
variable aléatoire, elle représente l’information portée par X sur le résultat de l’expérience
aléatoire.
Proposition 2.1.6 Soient (Ω, A, P) un espace probabilisé et (E, σ(C)) un espace proba-
bilisable où C est une famille de parties de E. L’application X : Ω −→ E est une variable
aléatoire de (Ω, A) dans (E, σ(C)), si seulement si X −1 (C) ⊂ A.
En effet,
1. on a C ⊂ σ(C), d’où X −1 (C) ⊂ X −1 (σ(C)). Comme ce dernier ensemble est une
tribu, on a alors σ(X −1 (C)) ⊂ X −1 (σ(C)).
2. Soit
D = {B ⊂ E / X −1 (B) ∈ σ(X −1 (C))}.
On a alors X −1 (D) ⊂ σ(X −1 (C)) et vérifions que D est une tribu sur E :
(a) On a X −1 (E) = Ω ∈ σ(X −1 (C)), d’où E ∈ D.
(b) Soit (B S suite d’éléments de D, alors S
S n )n∈N une
X −1 ( n Bn ) = n X −1 (Bn ) ∈ σ(X −1 (C)), d’où n Bn ∈ D.
(c) Soit B ∈ D, alors X −1 (B c ) = (X −1 (B))c ∈ σ(X −1 (C)). D’où B c ∈ D.
Comme C ⊂ D, donc σ(C) ⊂ D et par suite
Conséquence
Soit (Ω, A, P) un espace probabilisé. Si l’ensemble Ω est quelconque et A est strictement
incluse dans P(Ω), alors pour que l’application X : Ω −→ E où E = R (resp E = Rd )
il faut que pour tout x ∈ R, X −1 (] − ∞, x]) ∈ A,
puisse définir une variable aléatoire, Q
(resp pour tout x1 , · · · , xd ∈ R, X ( di=1 ] − ∞, xi ]) ∈ A).
−1
CHAPITRE 2. VARIABLES ALÉATOIRES 32
est une mesure de probabilité sur (E, B) appelée loi de probabilité de la variable aléatoire
X ou encore sa distribution. On dit aussi que X suit la loi de probabilité PX .
Démonstration 2.1.10 Toutes les propriétés à vérifier découlent des propriétés élémentaires
suivantes X −1 (∅) = ∅, X −1 (E) = Ω, X −1 (B c ) = (X −1 (B))c , X −1 (∪i∈I Ai ) = ∪i∈I X −1 (Ai )
et enfin X −1 (∩i∈I Ai ) = ∩i∈I X −1 (Ai ).
Définition 2.1.14 Soit X une variable aléatoire réelle quelconque. On dit qu’elle est
intégrable si E(|X|) < +∞. Dans ce cas, on définit son Espérance(finie) par
∀x, y ∈ R tq x ≤ y ona :
Changement de variable :
Proposition 2.2.5 Soient X une variable aléatoire discrète et ϕ : R → R une fonction
mesurable. Alors la loi de Y, la variable aléatoire Y = ϕ(X) est donnée par
PY (B) = PX (ϕ−1 (B)), ∀B ∈ BRP .
Ainsi, ∀y ∈ Y (Ω), P(Y = y) = {x∈X(Ω) | y=ϕ(x)} P(X = x)
En sommant sur k, et en prenant la limite quand n tend vers l’infin, on obtient alors que
X
E(X) = xP(X = x)
x∈X(Ω)
En
P conclusion, on obtient que si X est une variable aléatoire discrète intégrable, i.e. si
x∈X(Ω) |x|P(X = x) < +∞, alors son Espérance est définie par :
X
E(X) = xP(X = x)
x∈X(Ω)
CHAPITRE 2. VARIABLES ALÉATOIRES 35
Exemple 2.2.8
P Soit X : la variable aléatoire : le résultat d’un lancer d’un dé à 6 faces
⇒ E(X) = 6k=1 k6 = 72
Conséquence :
Si x∈X(Ω) |x|n P(X = x) < +∞, alors X n est intégrable et on a :
P
X
E(X n ) = xn P(X = x)
x∈X(Ω)
Proposition 2.2.12 Soit X une variable aléatoire discrète à valeurs dans N, alors :
1. GX est une fonction entière sur [0, 1], de rayon de convergence ≥ 1.
2. GX est continue sur [0, 1] et de classe C ∞ sur [0, 1[.
(n)
GX (0)
3. GX détermine la loi de X et ∀n ∈ N, P(X = n) = n!
Proposition 2.2.13 Soit X une variable aléatoire discrète à valeurs dans N. Alors GX
admet une dérivée à gauche en s = 1 ssi E(X) existe et est finie, et l’on a : E(X) = G0X (1).
Conséquence
R +∞ n : R +∞
Si −∞ |x |f (x)dx < +∞, alors X admet un moment d’ordre n et E(X n ) = −∞ xn f (x)dx
R +∞ R
Exemple 2.3.4 Si A ∈ B(R), E(1A (X)) = −∞ 1A (x)f (x)dx = A f (x)dx = P(X ∈ A).
En particulier si A = R ⇒ E(1) = 1
Exemple 2.3.5 Déterminer la valeur de a pour que la fonction f définie sur R, soit une
d.d.p. d’une v.a.r. X, dans chacun des cas suivants :
a
(1) f (x) = 3x+1 si x > 0 et f (x) = 0 si x ≤ 0.
(2) f (x) = x2a+x pour x ∈ R.
3
Définition 2.3.8 Soit X une variable aléatoire réelle ( discrète ou absolument continue)
de carré intégrable ( E(X 2 ) est fini). On appelle variance de X, le réel
Proposition 2.3.9 Soit X une variable aléatoire réelle de carré intégrable. Alors on a :
1. ∀a ∈ R, E((X − a)2 ) ≥ V(X).
2. ∀a, b ∈ R, V(aX + b) = a2 V(X) et σ(aX + b) = |a|σ(X).
3. Si V(X) = 0, alors il existe a ∈ R tel que X = a p.s.
Changement de variable
Exercice 2.3.11 Soit X une variable aléatoire continue de fonction densité f définie
par :
λ(4x − 2x2 ), si 0 < x < 2;
f (x) =
0, si non.
1. Déterminer λ
2. Calculer P(X > 1)
Remarque 2.3.14 Soit X une v.a réelle et (a, b) ∈ R2 , alors ΦaX+b (t) = eibt ΦX (at)
où fb est la transformée de Fourier de fX . OnRsait dans certains cas inverser la transfor-
mation de Fourier. Ainsi si fb est intégrable ( R |fb(t)|dt < +∞), alors on peut retrouver
la fonctionR fX à l’aide de la transformée de Fourier inverse de fb :
iux du
fX (x) = R e fb(−u) 2Π , pour tout x ∈ R.
Ainsi si ΦX est intégrable, on peut retrouver la densité de la loi à partir de la fonction
caractéristique.
Remarque 2.3.17 Soit X une v.a.r admet des moments d’ordre ≤ n, alors ΦX est de
classe C n et
(n)
ΦX (t) = (i)n E(X n eitX ), ∀t ∈ R
Exemple 2.3.19 Soit X une v.a.r de fonction caractéristique ΦX définie par ΦX (t) =
t
e3(e −1) . Calculer P(X = 3)
Exemple 2.4.2 Soit X une v.a.r qui suit une loi uniforme sur [a, b]. Sachant que
E(X) = 4 et V(X) = 12 calculer a et b.
Exemple 2.4.3 Soit X une v.a.r qui suit une loi uniforme sur [−1, 32 ].
Déterminer la fonction d.d.p fY de la v.a.r Y = X 2 .
Exemple 2.4.4 Soit X une v.a.r qui suit une loi uniforme sur [a, b].
Déterminer la loi de Y = −X.
Exemple 2.4.5 Soit X une v.a.r qui suit une loi uniforme sur ] − 1, 1[.
1
Déterminer la fonction d.d.p fY de la v.a.r Y = e X .
2. Loi normales N (m, σ) soient m ∈ R et σ ∈ R∗+ . Une v.a X à valeurs dans R
est dite de loi normale de paramètres m et σ notée N (m, σ) si elle admet pour
densité 2
fX (x) = σ√12Π exp(− (x−m)
2σ 2
), ∀x ∈ R
X−m
Remarque 2.4.6 La v.a X est de loi normales N (m, σ) ssi la v.a U = σ est
de loi normale N (0, 1) appelée normale centré, si donc de densité
2
fU (u) = √12Π exp(− u2 ), ∀u ∈ R
Propriéts 2.4.7 Soit U une v.a de loi normale N (0, 1) et soit X une v.a de loi
normale N (m, σ)
(a) fU est paire et admet un maximum pour u = 0, qui vaut fU (0) = √12Π .
f ”U (u) = 0 ssi u = ±1.
Ru 2
(b) Les valeurs de FU (u) = √12Π −∞ exp(− t2 )dt sont lues on utilisons les tables
numériques : FU (1, 96) = 0, 975 et FU (0) = 0, 5
(c) Pour tout u ∈ R, FU (−u) = 1 − FU (u).
(d) Pour tout (a, b) ∈ R2 tels que a < b, on a
b−m a−m
P(a < X ≤ b) = FU ( ) − FU ( )
σ σ
Exemple 2.4.8 Soit X une v.a.r. qui suit une loi N (µ, σ).
Sachant que
P(X ≤ −2) = 0, 0062 et P(X > 15) = 0, 0401. Calculer µ et σ.
Exemple 2.4.9 Soit X une v.a.r. qui suit une loi N (µ, σ),
telle que P(X ≥ 3) = 0, 08413 et P(X ≥ 9) = 0, 0228. Calculer µ et σ.
Exemple 2.4.10 En utilisant Φ la fonction √
de répartition de la loi N (0, 1) caculer
2+ 2 2
une valeur approchée à 10−4 prés de 2 e−x +4x−2 dx.
R
CHAPITRE 2. VARIABLES ALÉATOIRES 41
3. Loi exponentielle Soit λ ∈ R∗+ . Une v.a X à valeurs dans ]0, +∞[ est dite de loi
exponentielle de paramètre λ notée E(λ) si elle admet pour densité
f (x) = λe−λx 1]0,+∞[ (x), ∀x ∈ R
(a) Pour tout x ∈ R :
FX (x) = (1 − e−λx )1R∗+ (x)
λa −λx a−1
fX (x) = e x 1R∗+ (x)
Γ(a)
R +∞
On rappelle que la fonction Γ est définie sur R∗+ par Γ(a) = 0 e−x xa−1 dx et
que ∀a > 0, Γ(a + 1) = aΓ(a) et donc Γ(n) = (n − 1)! pour tout n ∈ N∗ .
Exemple 2.4.12 Soit X une v.a.r qui suit une loi normale centrée réduite et soient
Y = |X| et Z = X 2 ;
1. Déterminer la fonction d.d.p de la v.a.r Z et E(Z).
2. Déterminer la fonction d.d.p de la v.a.r Y et E(Y ).
Exemple 2.4.13 Soit X une v.a.r. qui suit une loi N (0, 1). On pose Y = eX+1 . Déterminer
la fonction d.d.p. de la v.a.r. Y et l’éspérance E(Y ).
Exemple 2.4.15 X est dite suit la loi de Gauchy de paramètre a > 0 : si la densité de
X est donnée par f (x) = Πa x2 +a
1 1
2 . Calculer la loi de X .
Exercice 2.4.16 Soit X une v.a.r continue de fonction de répartition F. Soit Y = F (X).
Déterminer la loi de Y
Indication :
∀x ∈ R, F (x) ∈ [0, 1]
P(∅), si y ≤ 0;
FY (y) = P(F (X) ≤ y) = −1 −1
P(X ≤ F (y)) = F ◦ F (y) = y, si y ∈]0, 1[;
P(Ω) = 1, si y ≥ 1.
Chapitre 3
Vecteurs aléatoires
On suppose dans la suite que toutes les v.a sont définies sur le même espace probabilisé
(Ω, A, P).
42
CHAPITRE 3. VECTEURS ALÉATOIRES 43
(b)
lim FX (x1 , · · · , xd ) = 1
x1 →+∞,···,xd →+∞
Proposition 3.2.2 Soit X = (X1 , X2 , · · · , Xd ) une v.a discrète dans Rd . La loi de la v.a
X est caractérisée par la donnée de l’ensemble
Lois marginales :
On peut déterminer la loi marginale de Xi à partir de la loi de X = (X1 , X2 , · · · , Xd ).
Quitte à permuter i par 1, il suffit de calculer la loi marginale X1 .
Proposition 3.2.3 Soit X = (X1 , X2 , · · · , Xd ) une v.a discrète vectorielle. Pour tout
y ∈ R, on a
X
P(X1 = y) = P(X1 = y, X2 = x2 , · · · , Xd = xd )
x2 ∈X2 (Ω),···,xd ∈Xd (Ω)
Exemple 3.2.5 On considère le lancer de deux dés, modèlisé par l’espace probabilisé
Ω = ({1, 2, · · · , 6})2 muni de la probabilité uniforme. Si X est la v.a.d qui représente le
résultat du premier dé et Y celui du second, on a pour ω = (ω1 , ω2 ) ∈ Ω, X(ω) = ω1 et
Y (ω) = ω2 .
On a : £(X) = £(Y ), c’est la loi uniforme sur {1, 2, · · · , 6}.
1
Mais on a P(X = 5, X = 6) = 0 et P(X = 5, Y = 6) = 36 .
Ainsi les v.a.d (X, Y ) et (X, X) n’ont pas la même loi alors que toutes les lois marginales
sont ègales.
Définition 3.3.1 Soit PX est absolument continue, s’il existe une fonction réelle
f : Rd → R, telle que
(i) f ≥ 0, mesurable.
(ii) f est intégrable sur Rd et
Z +∞ Z +∞
··· f (x1 , · · · , xd )dx1 · · · dxd = 1.
−∞ −∞
Indication :
Domaine du couple (X, Y ) : Ω = {(x, y) ∈ R2 / x ≥ y ≥ 1}
Lorsque (x, y) varient dans Ω : u = xy ≥ 1, v = xy ≥ 1 et uv = y 2 ≥ 1 donc u ≥ v. D’autre
√
part x = h1 (u, v) = uv et y = h2 (u, v) = uv et donc det Jh(u,v) = −1
p
2v , d’où
1
u2 v
, si u ≥ v ≥ 1;
f(U,V ) (u, v) =
0, sinon.
Indication :
Ω = {(x, y) ∈ R2 / 0 < y < x + 1}
RR R +∞ 2 R +∞ −( x+1 ) 1
R2 f (x, y)dxdy = 0 y ( y−1 e 2 dx)dy = 1 ⇔ k = 32
u = x − y + 1 et v = 12 y ⇒ x = h1 (u, v) = u + 2v − 1 et y = h2 (u, v) = 2v
(x, y) varie dans Ω ⇔ u > 0 et v > 0
det Jh (u, v) = 2 d’où
(
1 2 −( u+2v )
4v e , si u > 0 et v > 0
2
f(U,V ) (u, v) =
0, sinon.
on a alors
X
E(g(X)) = g(x1 , · · · , xd )P(X1 = x1 , · · · , Xd = xd )
x1 ∈X1 (Ω)···xd ∈Xd (Ω)
on a alors Z +∞ Z +∞
E(g(X)) = ··· g(x)fX (x)dx1 · · · dxd
−∞ −∞
Exercice 3.4.3 Soit ϕ une fonction réelle convexe : Pour tout x, y ∈ R, et t ∈ [0, 1],
ϕ(tx + (1 − t)y) ≤ tϕ(x) + (1 − t)ϕ(y).
Il existe une unique caractérisation des fonctions convexes, pour tout a ∈ R, il existe
λa ∈ R tel que
ϕ(a) + λa (x − a) ≤ ϕ(x)
1. On suppose X est une variable aléatoire réelle intégrable. Montrer que
ϕ(E(X)) ≤ E(ϕ(X)), dés que E(ϕ(X)) a un sens.
2. En déduire que si X 2 est intégrable, alors (E(X))2 ≤ E(X 2 )
E(X)
P(X ≥ a) ≤
a
2. Inégalité de Tchebychev : ∀a > 0, on a :
E(X 2 )
P(|X| ≥ a) ≤
a2
3. Inégalité de Jensen : On suppose que X est intégrable. Soit ϕ une fonction
convexe. Si E(ϕ(X)) existe alors on a :
ϕ(E(X)) ≤ E(ϕ(X)).
V(X)
P({|X − E(X)| ≥ a}) ≤
a2
Corollaire 3.4.6 Soit X une v.a positive p.s (i.e P(X ≥ 0) = 1). Si E(X) = 0 alors X
est nulle p.s (i.e P(X = 0) = 1.)
Définition 3.4.9 Soit X = (X1 , X2 , · · · , Xd ) une v.a à valeurs dans Rd tel que les v.a
réelles X1 , · · · , Xd admettent des espérances finies. On appelle Espérance du vecteur X
le vecteur de Rd
E(X) = (E(X1 ), E(X2 ), · · · , E(Xd )).
Ainsi en
utullisant
l’écriture
matricielle,
on a
X1 E(X1 )
[X] = . et E([X]) = .
Xd E(Xd )
CHAPITRE 3. VECTEURS ALÉATOIRES 49
Proposition 3.4.12 Soient X et Y deux v.a réelles admettant des moments d’ordre 2,
alors
1. cov(aX + b, cY + d) = ac cov(X, Y ) pour tout réels a, b, c et d.
2. cov(X + Y, Z) = cov(X, Z) + cov(Y, Z)
3. V(X + Y ) = V(X) + V(Y ) + 2cov(X, Y ).
Proposition 3.4.15 Soient X et Y deux v.a réelles admettant des moments d’ordre 2.
Alors
1. −1 ≤ ρ(X, Y ) ≤ 1.
2. ρ(aX + b, cY + d) = ac
|ac| ρ(X, Y ) pour tous réels a, c ∈ R∗+ et b, d ∈ R.
Matrices de covariance
Définition 3.4.17 Soit X = (X1 , X2 , · · · , Xd ) une v.a à valeurs dans Rd tel que les v.a
réelles X1 , · · · , Xd admettent des moments d’ordre 2.
On appelle matrice de covariance la matrice réelle d’ordre d définie par
ΣX = (cov(Xi , Xj ))1≤i,j≤d
CHAPITRE 3. VECTEURS ALÉATOIRES 50
V(X1 ) · · · cov(X1 , Xd )
cov(X2 , X1 ) · · · cov(X2 , Xd )
ΣX =
··· ··· ···
cov(Xd , X1 ) ··· V(Xd )
En utilisant l’écriture matricielle,
ΣX = E(([X] − E([X])([X] − E([X])t ) = E([X][X]t ) − E([X])(E([X]))t où [X]t est le
transposée du vecteur [X].
Conséquence
Soit X = (X1 , X2 , · · · , Xd ) une v.a de matrice de covariance ΣX . Alors
1. Pour tout α ∈ R, ΣαX = α2 ΣX .
2. Pour tout u ∈ Rd , Σu+X = ΣX .
3. (ΣX )t = ΣX
4. Soit une matrice A ∈ Mq×d et Y une v.a à valeurs dans Rq tel que Y = AX, alors
ΣY = AΣX At
Proposition 3.4.18 Soient X1 , X2 , · · · , Xn n v.a réelles admettant des moments d’ordre
2, alors
V(X1 + · · · + Xn ) = ni=1 V(Xi ) + 2 1≤i<j≤n cov(Xi , Xj )
P P
h1 (X1 ), · · · , hn (Xn )
sont indépendantes.
Exercice 3.6.7 On considère le lancer de deux dés à 6 faces. Soit X = (X1 , X2 ) le couple
de v.a.d. réprésentant le résultat du premier dé et du second dé.
Calculer la loi de la somme des deux faces S = X1 + X2 . Calculer la loi de max(X1 , X2 )
et du vecteur aléatoire Y = (max(X1 , X2 ), min(X1 , X2 )).
Proposition 3.6.8 Soit (X1 , · · · , Xn ) une v.a absolument continu à valeurs dans Rn .
Alors Les v.a X1 , · · · , Xn réelles sont indépendantes si pour tout (x1 , · · · , xn ) ∈ Rn :
n
Y
f(X1 ,···,Xn ) (x1 , · · · , xn ) = fXi (xi )
i=1
Indépendance et espérance
Conséquences
Soient X et Y deux v.a réelles indépendantes admettant un moment d’ordre 2. Alors
1. cov(X, Y ) = ρ(X, Y ) = 0.
2. V(X + Y ) = V(X) + V(Y ).
Remarque 3.6.10 La réciproque est fausse : deux variables aléatoires peuvent être non
corrélées sans être indépendantes.
Exemple 3.6.11 Soit X une variable aléatoire de loi uniforme sur {1, · · · , 6}. On pose
Y = 1{X∈{1,6}} . Montrer que cov(X, Y ) = 0, mais X et Y ne sont pas indépendants.
Exemple 3.7.6 Soient X et Y deux v.a.r indépendantes qui suivent une loi uniforme
sur [0, 2].
On pose Z = X + Y et T = X − Y
Déterminer les fonctions d.d.p fZ et fT .
1
4 z, si 0 < z ≤ 2;
1
fZ (z) = fX ∗ fY (z) = (4 − z), si 2 < z ≤ 4;
4
0, sinon.
X + Y = B(n + m, p).
Conséquence
Soit (X1 , · · · , Xd ) un vecteur gaussien. Alors chaque composante Xk est une v.a réelle de
loi normale.
Exemple 3.8.2 Soit X1 , · · · , Xd des v.a gaussiennes indépendantes. On supoose que la
loi de Xk est la loi gaussienne N (mk , σk ). Alors le vecteur X = (X1 , · · · , Xd ) est un vec-
teur gaussien. En effet, soit a = (a1 , · · · , ad ) ∈ Rd . On calcule la fonction caractéristique
de ha, Xi :
d d a2 2 2
k σk u
Pd Y Y
Φha,Xi (u) = E[e iu k=1 ak Xk
]= E[e iuak Xk
]= eiuak mk − 2 =
k=1 k=1
CHAPITRE 3. VECTEURS ALÉATOIRES 54
ha, ΣX aiu2
exp(iuha, mi − ),
2
où m = (m1 , · · · , md ) et ΣX = Diag(σ12 , · · · , σd2 ) est une matrice diagonale. On en déduit
que la loi de ha, Xi est la loi gaussienne N (ha, mi, ha, ΣX ai). Donc X est un vecteur
gaussien.
P hs, Xi est de
Or par définition, P loi gaussienne. On calcule les paramètres de cette loi :
E[hs, Xi] = E[ dk=1 sk Xk ] = dk=1 sk E[Xk ] = hs, mi, où m = E[X],
et par bilinéarité
Pd: P
V(hs, Xi) = V( k=1 sk Xk ) = 1≤k,l≤d sk sl (E[Xk Xl ] − E[Xk ]E[Xl ]) = hs, ΣX si.
On en déduit, que :
hs,ΣX si
Φhs,Xi (1) = eihs,mi− 2 .
Il reste à vérifier que la matrice ΣX est symétrique (évident d’aprés sa construction) et
positive. On remarque que hs, ΣX si = V(hs, Xi), et cette quantité est toujours positive.
La démonstrartion de la réciproque est similaire à la démonstration de l’exemple 3.8.2.
Proposition 3.8.5 Soit (X1 , · · · , Xd ) un vecteur gaussien à valeurs dans Rd . Les com-
posantes X1 , · · · , Xd sont indépendantes ssi la matrice de covariance ΣX est diagonale.
Qd
Démonstration 3.8.6 On montre que Φ(X1 ,···,Xd ) (s1 , · · · , sd ) = i=1 ΦXi (si )
Exemple 3.8.8 Soit X une variable aléatoire réelle de loi N (0, 1). Soit ε une variable
aléatoire discrète indépendante de X et telle que P(ε = 1) = P(ε = −1) = 21 . On pose
Y = εX.
1) Déterminer la fonction de répartition de Y en fonction de FX . En déduire la loi de Y.
2) Calculer ρ(X, Y ).
CHAPITRE 3. VECTEURS ALÉATOIRES 55
Attention
E(Y /X = x) est un nombre réel et E(Y /X) est une v.a réelle et E(Y /X)(ω) dépend de ω
car la valeur de X(ω) dépend de ω.
Remarque 3.9.5 E(Y /X)(Ω) = {E(Y /X = x) / x ∈ X(Ω)}
Exercice 3.9.6 Soient A et B deux événements tq 0 < P(B) < 1. Calculer la loi de 1A
sachant 1B . Caculer E(1A /1B ).
Proposition 3.9.7 Soit X une v.a discrète et Y une v.a quelconque.
1. Soit g une fonction mesurable tq la v.a g(X, Y ) est intégrable alors on a
E[E(g(X, Y )/X)] = E(g(X, Y ))
en particulier E[E(Y /X)] = E(Y )
2. Si X et Y sont indépendantes, alors pour toute fonction mesurable u tq u(Y ) est
intégrable, on a :
E(u(Y )/X) = E(u(Y ))
3. Pour toute fonction mesurable u telle que u(X) est intégrable, on a :
E(u(X)/X) = u(X)
4. Soit u une fonction mesurable telle que u(Y ) est intégrable et soit v une fonction
réelle mesurable bornée alors on a :
E(v(X)u(Y )/X) = v(X)E(u(Y )/X)
{X=x} E(g(X,Y )1 )
Démonstration 3.9.8 1. On pose h(x) = E(g(X, Y )/X = x) = P(X=x)
P P
E[E(g(X,
P Y )/X)] = E(h(X)) = x∈X(Ω) h(x)P(X = x) = x∈X(Ω) E(g(x, Y )1{X=x} ) =
E( x∈X(Ω) g(x, Y )1{X=x} ) = E(g(X, Y )).
E(u(Y )1{X=x} )
2. h(x) = P(X=x) comme X et Y sont indépendantes alors h(x) = E(u(Y ))
E(u(X)1{X=x} ) E(u(x)1{X=x} ) E(1{X=x} )
3. h(x) = P(X=x) = P(X=x) = u(x) P(X=x) = u(x)
E(v(X)u(Y )1{X=x} ) E(v(x)u(Y )1{X=x} )
4. h(x) = P(X=x) = P(X=x) =
E(u(Y )1{X=x} )
v(x) P(X=x) = v(x)E(u(Y )/X = x)
Cas de v.a réelle absolument continues
Soit (X, Y ) un couple de v.a réelles de densité f(X,Y ) et de densité marginales fX et fY .
Définition 3.9.9 On appelle densité de Y conditionnelle à [X = x], la fonction fY /X=x (.)
définie par : (
f(X,Y ) (x,y)
fY /X=x (y) = fX (x) , si fX (x) > 0;
0, sinon.
De même, on appelle densité de X conditionnelle à [Y = y], la fonction fX/Y =y (.) définie
par : fY /X=x (.) définie par :
(
f(X,Y ) (x,y)
fX/Y =y (x) = fY (y) , si fY (y) > 0;
0, sinon.
CHAPITRE 3. VECTEURS ALÉATOIRES 57
Convention : R
On pose P(Y ∈ A/X = x) = A fY /X=x (y)dy
Espérance conditionnelle :
Soit (X, Y ) Rune v.a et soit g : R2 → R une fonction mesurable réelle telle que g(X, Y ) est
intégrable ( |g(x, y)|f(X,Y ) (x, y)dxdy < +∞).
Définition 3.9.11 On appelle espérance de g(X, Y ) conditionnelle sachant [X = x] le
réel Z
E(g(X, Y )/X = x) = g(x, y)fY /X=x (y)dy
R
R
Remarque 3.9.12 E(Y /X = x) = R yfY /X=x (y)dy elle peut s’intrèpreter comme l’espérance
de Y par rapport à la loi de probabilité de densité fY /X=x .
Définition 3.9.13 On appelle espérance de g(X, Y ) sachant X la v.a réelle définie par :
E(g(X, Y )/X)(ω) = h(X(ω))
où h : R → R, x 7→ h(x) = E(g(X, Y )/X = x)
Indication :
on a la densité de X est donnée par fX (x) = R f(X,Y ) (x, y)dy = λe−λx 1{0<x} , on en
R
déduit que, pour x > 0, fY /X=x (y) = x1 1{0<y<x} . c’est la densité de la loi uniforme sur
[0, x].
On dit que conditionnellement à X, Y suit une loi uniforme sur [0, X]. Comme ϕ est
bornée, ϕ(Y ) est intégrable et on a :
1 X
Z
E(ϕ(Y )/X) = ϕ(y)dy
X 0
Exercice 3.9.15 Soient X1 , X2 des v.a.c uniformes sur [0, 1] indépendantes. Calculer
la loi de X1 sachant S = X1 + X2 .
Pour cela on pourra calculer d’abord la loi du couple (X1 , S). Remarquer que la loi de X1
sachant S est la loi uniforme sur l’intervalle [S − 1, S] ∩ [0, 1].
Soit (Xn )n∈N une suite de variables aléatoires définie sur l’espace probabilisè (Ω, A, P).
On se propose dans ce chapitre d’étudier avec précision la notion ”Xn est voisin de X
pour n assez grand” et plus généralement l’étude de divers types de convergences d’une
suite de variables aléatoires (g(Xn ))n∈N .
On suppose dans la suite que toutes les variables aléatoires réelles ou suite de variables
aléatoires sont définies sur le même espace probabilisé (Ω, A, P).
ou encore P({ω/ limn→+∞ Xn (ω) = X(ω)}) = 1. Une suite de v.a vectorielles (Xn,1 , · · · , Xn,d )n∈N
converge p.s si les suites coordonnées (Xn,i )n∈N pour i ∈ {1, · · · , d} converge p.s.
En d’autres termes l’ensemble des points de divergence au sens classique de l’analyse est
de probabilité nulle.
Proposition 4.1.2 Soit (Xn )n∈N une suite de v.a qui converge p.s vers X. Soit h une
fonction continue. Alors la suite (h(Xn ))n∈N converge p.s vers h(X).
58
CHAPITRE 4. CONVERGENCE DE SUITES DE VARIABLES ALÉATOIRES 59
P.s 1 P.s 1
Exemple 4.1.4 Si Xn → X et si P(X = 0) = 0, alors la suite Xn → X
Théorème 4.1.5 (Convergence dominée) Soit Y une v.a réelle positive telle que
E(Y ) < +∞. Soit (Xn )n∈N une suite de v.a (réelles ou vectorielles) telles que pour tout
n ∈ N, |Xn | ≤ Y (on dit que les v.a Xn sont dominées par la v.a Y ). Si la suite (Xn )n∈N
converge p.s vers X, alors X est intégrable et l’on a
Application Soit X une v.a et Y une v.a.d. Soit ϕ une fonction mesurable bornée. Alors
on a X
E(ϕ(X, Y )) = E(ϕ(X, y)1{Y =y} ).
y∈Y (Ω)
On
S considère une suite croissante P (Ωn )n∈N∗ de sous ensemble finis telle que
n∈N∗ Ωn = Y (Ω) On pose Zn = P y∈Ωn ϕ(X, y)1{Y =y} .
La v.a Zn est dominée par kϕk∞ y∈Ωn 1{Y =y} P ≤ kϕk∞ .
De plus la suite (Zn )n∈N∗ converge p.s vers y∈Y (Ω) ϕ(X, y)1{Y =y} = ϕ(X, Y ). par le
théorème de convergence dominée, on obtient
X
E(ϕ(X, y)1{Y =y} ) = lim E(Zn ) = E( lim Zn ) = E(ϕ(X, Y ))
n→+∞ n→+∞
y∈Y (Ω)
Théorème 4.1.6 (Convergence monotone). Soit (Xn )n∈N∗ une suite croissnte de v.a
réelles positives. On a alors
2. On dit que la suite (Xn )n∈N converge en probabilité vers une variable aléatoire X,
P P
et on écrit Xn → X, si Xn − X → 0,
(pour tout ε > 0, limn→+∞ P(|Xn − X| > ε) = 0).
Exemple 4.1.8 Soit (Xn )n∈N la suite de variables aléatoires réelles telles que pour tout
n ∈ N∗ , la variable aléatoire réelle Xn suit la loi de Bernoulli B( n1 ), P(Xn = 1) = n1 et
P(Xn = 0) = 1 − n1 . Pour tout ε > 0, on a P(|Xn | > ε) ≤ P(|Xn | > 0) = n1 . D’où par
passage à la limite lorsque n tend vers +∞, on a limn→+∞ P(|Xn | > ε) = 0 et par suite
P
Xn → 0.
Remarque 4.1.9 1)Il est facile de voir que les résultats usuels sur les limites (unicités,
linéarité,...) sont valables dans les deux cas.
2) Lorsque E(Xn ) = a, il suffit de montrer que limn→+∞ V(Xn ) = 0, pour établir
la convergence en probabilité de Xn vers a. En effet, d’aprés l’inégalité de Bienaymé-
Tchebycheff, pour tout ε > 0, on a
V(Xn )
P(|Xn − E(Xn )| > ε) < .
ε2
P
par passage à la limite lorsque n tend vers +∞, on en déduit que Xn − E(Xn ) → 0.
Exemple 4.1.10 Soit (Xn )n∈N une suite de variables aléatoires indépendantes définie
sur l’espace probabilisé (Ω, A, P) de loi de Bernoulli B(p), associées à une suite d’épreuves :
si Xn prend la valeur 1, on dit qu’il y a succés ; sinon on a un échec. Soit Sn =
X1 + · · · + Xn , le nombres de succés durant les n premières épreuves et soit Sn /n la
proportions des succés parmi ces n épreuves. La variable aléatoire Sn suit la loi Bino-
miale B(n, p), et donc
Sn Sn p(1 − p)
E = p et V =
n n n
D’aprés l’inégalité Bienaymé-Tchebycheff, pour tout ε > 0, on a
Sn p(1 − p)
P | − p)| > ε ≤
n nε2
Théorème 4.1.11 (lois faibles des grands nombres) Soit (Xn )n∈N une suite de va-
riables aléatoires réelles indépendantes toutes de mme loi ayant une espérance m et une
variance σ 2 . On a
1 P
(X1 + · · · + Xn ) → m.
n
CHAPITRE 4. CONVERGENCE DE SUITES DE VARIABLES ALÉATOIRES 61
Proposition 4.1.13 Soit (Xn )n∈N une suite de variables aléatoires. Si la suite (Xn )n∈N
converge presque sûrement vers une variable aléatoire X, alors la convergence a lieu
P.s P
également en probabilité (Xn → X alors Xn → X).
Proposition 4.1.14 Soit (Xn )n∈N une suite de variables aléatoires. Si la suite (Xn )n∈N
converge en probabilité vers une variable aléatoire X, alors il existe une suite extraite
(XΦ(n) )n∈N qui converge presque sûrement vers une variable aléatoire X.
Remarque 4.1.15 Soit (Xn )n∈N une suite de variables aléatoires réelles admettant des
moments d’ordre 1 et soit X une variable aléatoire admettant un moment d’ordre 1.
P
Si limn→+∞ E(|Xn − X|) = 0 alors Xn → X.
En effet, d’aprés l’inégalité de Markov, on a
1
P (|Xn − X| ≥ ε) ≤ E(|Xn − X|)
ε
Proposition 4.1.16 Soient (Xn )n∈N une suite de variables aléatoires réelles définie et
f une fonction continue de Rd dans R.
P.s P.s
1. Si Xn → X, alors f (Xn ) → f (X).
P P
2. Si Xn → X, alors f (Xn ) → f (X).
Théorème 4.1.17 (Loi forte des grands nombres) Soit (Xn )n∈N une suite de va-
riables aléatoires réelles indépendantes et de même loi admettant un moment d’ordre 1,
et on note m = E(Xn ). On a alors
1 P.s
Xn = (X1 + · · · + Xn ) → m
n
(on a donc aussi la convergence en probabilité).
Remarque 4.1.18 Soit (Xn )n∈N une suite de variables aléatoires réelles indépendantes
et de même loi admettant un moment d’ordre 1, et on note m = E(Xn ). On a alors
lim E (X n − m) = 0.
n→+∞
lim E (X n − m)2 = 0.
n→+∞
Si une telle limite est prouvée, on utilisera ce résultat pour considérer que, si n est ”assez
grand” (tout dépend de la précision voulue), on peut remplacer la fonction de répartition
Fn de la variable aléatoire Xn par la fonction de répartition F jugée plus simple ou
de calculs plus faciles. La loi limite qui va jouer le plus grand rôle, tant du point de vue
théorique que pratique, est la loi normale centrée réduite qui a une fonction de répartition
FN (0,1) continue sur R mais dont l’écriture n’est que sous forme intégrale
Z x
1 t2
FN (0,1) (x) = √ e− 2 dt.
2π −∞
Pour avoir la convergence en loi vers la loi normale centrée réduite d’une suite de variables
aléatoires (Xn )n≥1 , il suffit que pour tout intervalle [a, b],
lim P(a < Xn ≤ b) = FN (0,1) (b) − FN (0,1) (a).
n→+∞
Remarque 4.1.20 La convergence en loi ne peut impliquer aucun autre type de conver-
gence, car elle ne concerne que les lois.
Pour une suite (Xn )n∈N de variables aléatoires discrètes, la convergence en loi vers une
variable discrète s’exprime par limn→+∞ P(Xn = x) = P(X = x). C’est ainsi qu’on a
établit la convergence de la loi Binomiale vers la loi de Poisson. Une suite de variables
aléatoires discrètes peut ce pendant converger en loi vers une variable aléatoire absolu-
ment continue.
Soit (Xn )n∈N une suite de variables aléatoires absolument continue dont (fn )n∈N est la
suite de densité correspondantes et X une variable aléatoire de densité f , alors
loi
Xn → X, si et seulement si lim fn (x) = f (x).
n→+∞
Proposition 4.1.21 Soient (Xn )n∈N une suite de variables aléatoires réelles définie et
f une fonction continue de Rd dans R.
loi loi
1. Si Xn → X, alors f (Xn ) → f (X).
P loi
2. Si Xn → X, alors Xn → X.
3. Soit h une fonction de N à valeurs dans R telle que limn→+∞ h(n) = +∞ et
vérifiant
loi
h(n)(Xn − a) → N (0, 1).
Soit g une fonction dérivable de R à valeurs dans R, alors
loi
h(n)(g(Xn ) − g(a)) → N (0, g 02 (a)).
CHAPITRE 4. CONVERGENCE DE SUITES DE VARIABLES ALÉATOIRES 64
Exemple 4.1.23 1. Soit (Xn )n∈N une suite de variables aléatoires. Pour tout n ∈ N∗
la variable Xn suit la loi Binomiale B(m, pn ) telle que limn→+∞ pn = p. Soit X
une variable aléatoire de loi de B(m, p). Pour tout k ∈ N, on a
k k
lim P(Xn = k) = lim Cm pn (1 − pn )m−k = Cm
k k
p (1 − p)m−k = P(X = k).
n→+∞ n→+∞
Remarque 4.1.25 Soient (Xn )n∈N une suite de variables aléatoires définie sur l’espace
probabilisé (Ω, A, P) et (ΦXn )n∈N la suite de fonction caractéristiques correspondantes. Si
(ΦXn )n∈N converge simplement vers une fonction (complexe) Φ sur R, et si cette fonction
est continue en 0, alors c’est la fonction caractéristique d’une variable aléatoire X et
loi
Xn → X.
Exemple 4.1.26 Soit (Xn )n∈N une suite de variables aléatoires. Pour tout n ∈ N∗ la
variable Xn suit la loi normale N (mn , σn ) telle que limn→+∞ mn = m et
limn→+∞ σn = σ > 0. Soit X une variable aléatoire de loi normale N (m, σ). On a alors
t2 σn
2
t2 σ 2
lim ΦXn (t) = lim eitmn − 2 = eitm− 2 = ΦX (t)
n→+∞ n→+∞
Exemple 4.1.27 La suite (Xn )n∈N∗ , où Xn est de loi uniforme sur {0, n1 , · · · , n−1
n },
converge en loi vers U[0,1] . Il suffit d’appliquer somme de Reimann.
Exercice 4.1.28 Soit (Xn )n∈N une suite de variables aléatoires de loi exponentielle de
paramètre λn . Étudier la convergence en loi dans les trois cas suivants :
1. limn→+∞ λn = λ ∈]0, +∞[, (Xn )n∈N converge en loi vers E(λ) convergence do-
minée.
2. limn→+∞ λn = +∞, (Xn )n∈N converge en loi vers X = 0 (changement de variable
et convergence dominée).
3. limn→+∞ λn = 0, on supoose qu’il ya convergence en loi alors ΦXn (t) → ΦX (t),
∀t ∈ R, or limn→+∞ ΦXn (t) = limn→+∞ λnλ−it n
= 1{t=0} n’est pas continue en
0. ce n’est pas donc une fonction caractéristique d’une variable aléatoire pas de
convergence en loi.
On peut utiliser les fonctions de répartitions.
Remarque 4.1.29 Si (Xn )n∈N converge en loi vers X et (Yn )n∈N converge en loi vers
Y ceci n’implique pas que (Xn + Yn )n∈N converge en loi vers X + Y et ((Xn , Yn ))n∈N
converge en loi vers (X, Y ).
résultat, qui peut sembler miraculeux, montre pourquoi la loi normale joue un rôle aussi
important en probabilités. Il fait l’objet du théorème suivant, appelé théorème central
limite, ou de la limite centrale.
Théorème 4.2.1 Soit (Xn )n∈N une suite de variables aléatoires réelles indépendantes et
de même loi admettant un moment d’ordre 2, et on note m = E(Xn ) et σ 2 = V(Xn ) > 0,
alors les variables aléatoires
(X1 + · · · + Xn ) − nm
√
σ n
converge en loi vers une variable aléatoire U de loi N (0, 1), ou encore pour tout x ∈ R,
Z x
(X1 + · · · + Xn ) − nm 1 t2
lim P √ ≤ x = FU (x) = √ e− 2 dt.
n→+∞ σ n 2π −∞
Ce résultat général justifie la place privilégiée qu’occupe la loi normale en calcul des pro-
babilité et en statistique.
Sn − E(Sn ) (X1 + · · · + Xn ) − nm
Un = = √
σSn σ n
puisque les Xk sont indépendantes. D’autre part comme elles ont même loi, alors
n n
it t
ΦUn (t) = E exp √ (Xk − m) = ΦX−m ( √ ) .
σ n σ n
Or X − m est une variable aléatoire d’espérance nulle et de variance σ 2 donc ΦX−m est
0 00
de classe C 2 et ΦX−m (0) = iE(X − m) = 0 et ΦX−m (0) = −E((X − m)2 ) = −σ 2 . Ainsi
d’aprés la formule de Taylor à l’ordre 2 de ΦX−m , on a
u2 σ 2
ΦX−m (u) = 1 − + u2 ε(u)
2
avec limu→0 ε(u) = 0. D’où
t2 t2
t t
ΦX−m √ =1− + ε √ .
σ n 2n nσ 2 σ n
Par conséquent, on a
t2
0 t
log(ΦUn (t)) = n log 1 − 1+ε √
2n n
CHAPITRE 4. CONVERGENCE DE SUITES DE VARIABLES ALÉATOIRES 67
0
avec limn→+∞ ε √t = 0. Comme log(1 − x) ∼0 −x, alors
n
2
t2
t 0 t 2 00 t
log(ΦUn (t)) ∼n→+∞ n − 1+ε √ =− −t ε √
2n n 2 n
t2
00
avec limn→+∞ ε √t
n
= 0, d’où le résultat puisque limn→+∞ ΦUn (t) = e− 2 .
Exemple 4.2.4 Suite à l’annulation d’un match de football, un guichet procède à cer-
taines heures au remboursement des places. Le prix moyen d’une place est de 5D avec un
écart type de 3D . Quelle est la probabilité pour qu’à une heure donnée, le guichet disposant
de 650D puisse rembourser les 120 personnes qui s’y présentent.
Pour tout i ∈ {1, · · · , 120}, soit Xi = ”le montant à rembourser d’une place de la ième
personne. Alors
P120 les Xi sont indépendantes et de même loi avec E(Xi ) = 5D et σXi = 3D .
Soit X120 = i=1 Xi le montant à rembourser, alors
X120 − 120 × 5 650 − 120 × 5 650 − 120 × 5
P(X120 ≤ 650) = P √ ≤ √ = FN (0,1) √ .
3 120 3 120 3 120
Théorème 4.2.5 Soit (Xn )n∈N une suite de vecteurs aléatoires à valeurs dans Rd indépendants
et de même loi . On suppose que les composantes des Xn = (X1,n , · · · , Xd,n ) admettent
un moment d’ordre 2, et on note m = E(Xn ) le vecteur espérance et Σ = (σij ) la matrice
des covariance de Xn , alors les vecteurs aléatoires
n
!
1 X
√ Xk − nm
n
k=1
Dans le cas où la matrice de covariance Σ s’écrit sous la forme Σ = AAt , alors
n
!
1 −1 X
√ A Xk − nm
n
k=1
où (Xn )n∈N est une suite de variables aléatoires réelles indépendantes et de même loi
admettant un moment d’ordre 2. Ainsi
1
( nk=1 Xk − nm) suit approximativement une loi normale N (0, 1).
P
1. σ√ n
Pn 2
2. k=1 Xk suit approximativement une loi normale N (nm, nσ ).
2
3. n1 nk=1 Xk suit approximativement une loi normale N (m, σn ).
P
P(a < √Xn −np ≤ b) = Φ(b) − Φ(a) dès que n ≥ 30 avec np ≥ 5 et n(1 − p) ≥ 5.
np(1−p)
Exemple 4.3.2 Une épreuve consiste à lancer une pièce de monnaie équilibrée 800 fois
et à noter le nombre de fois où face est apparue. On note N la variable aléatoire égale
au nombre de faces observées. Quelle est la probabilité que ce nombre soit compris entre
390 et 420.
La variable aléatoire N suit la loi B(800; 1/2) alors np = 400 et np(1 − p) = 200
390 − 400 N − 400 420 − 400
P(390 < N ≤ 420) = P √ < √ ≤ √ w P(−0, 707 ≤ U ≤ 1, 414)
200 200 200
d’où
P(390 ≤ N ≤ 420) w Φ(1, 414) − Φ(−0, 707) w 0, 6815.
Xn − nλ
lim P(a < √ ≤ b) = Φ(b) − Φ(a).
n→+∞ nλ
En partique,√lorsque n est assez garnd, la variable aléatoire Xn suit approximativement
la loi N (nλ, nλ) et l’on a
n −nλ
X√
P(a < nλ
≤ b) = Φ(b) − Φ(a) dés que nλ ≥ 18.
En effet, puisque pour chaque valeur de x, 1{Xk ≤x} sont des variables aléatoires de Ber-
noulli indépendantes avec