Vous êtes sur la page 1sur 34

Probabilités II (20 h CM+TD)

Licence 3

Génie Civil, Génie des Procédés & Génie


Mécanique

Dr. Ténan YEO


yeo.tenan@yahoo.fr
Table des matières

1 Étude élémentaire des probabilités discrètes 1


1.1 Expériences et évènements aléatoires . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 La notion de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Évènements indépendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Indépendance de deux évènements . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Indépendance de plusieurs événements . . . . . . . . . . . . . . . . . 6
1.3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 Définition et propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . 8

2 Suites d’expériences aléatoires 9


2.1 Le modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.1.1 Le modèle abstrait – le processus de Bernoulli . . . . . . . . . . . . . . 9
2.2 La loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.1 Le nombre de succès . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.3 Loi géométrique et loi binomiale négative . . . . . . . . . . . . . . . . . . . . 11
2.3.1 Loi du temps du premier succès . . . . . . . . . . . . . . . . . . . . . . 11
2.3.2 Propriété caractéristique de la loi géométrique : perte de mémoire . . 12
2.3.3 Loi binomiale négative . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3.4 Stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4.1 Convergence du modèle binomial vers la loi de Poisson . . . . . . . . . 13
2.4.2 Convergence de la loi géométrique vers la loi exponentielle . . . . . . 14

3 Variables aléatoires 16
3.0.1 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.0.2 Loi de probabilités : densité de probabilités et fonction de répartition . 17
3.1 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.1.1 Fonction de répartition conjointe . . . . . . . . . . . . . . . . . . . . . 18
3.1.2 Loi conjointe : Cas des v.a. discrètes . . . . . . . . . . . . . . . . . . . 18
3.2 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3 Espérance d’une fonction d’une variable aléatoire . . . . . . . . . . . . . . . . 20
3.4 Variance et Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.5 Moments d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . 24

i
TABLE DES MATIÈRES ii

4 Variables aléatoires continues 25


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.3 Exemples de densités continues de probabilité . . . . . . . . . . . . . . . . . . 26
4.3.1 Loi uniforme sur [a, b] . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.3.3 Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3.4 Loi normale ou loi de Gauss-Laplace . . . . . . . . . . . . . . . . . . . 29
4.4 Couples de variables aléatoires : loi conjointe et loi marginale . . . . . . . . . 30
4.4.1 Lois conjointes et lois marginales, conditionnement : cas discret . . . . 30
4.4.2 Lois marginales, conditionnement : cas continu . . . . . . . . . . . . . 31
Chapitre 1

Étude élémentaire des probabilités discrètes

Ce chapitre constitue une révision de la Licence 1. Le lecteur est prié de le passer entièrement
en revue.

1.1 Expériences et évènements aléatoires


1.1.1 Définitions
Définition 1.1 Une expérience E est qualifiée d’aléatoire si elle vérifie les conditions suivantes :
(i) On ne peut pas prévoir son résultat ;
(ii) On connait tous les résultats possibles ;
(iii) Répétée dans des conditions identiques, elle peut donner lieu à des résultats différents.
Remarque 1.1 Avant toute expérimentation, on peut décrire l’ensemble des résultats possibles
de l’expérience aléatoire.
Définition 1.2 Soit E une expérience aléatoire. On appelle univers, et l’on note souvent Ω, l’en-
semble des résultats possibles de E. Si Ω est non vide. On notera P(Ω) l’ensemble des parties de
Ω.
Définition 1.3 On appelle événement associé à une expérience aléatoire, toute partie A de Ω.

Remarque 1.2 1. L’événement A = Ω est appelé événement certain. II se réalise toujours.


2. L’événement A = ∅ est appelé événement impossible. II ne se réalise jamais.
3. L’événement A = {ω} constitué d’un seul élément de Ω est appelé événement élémentaire.
Désignons par Ω l’ensemble des issus d’une certaine expérience. Ω est appelé espace des
évènements élémentaires.

Exemple 1.1 On lance une pièce de monnaie symétrique une fois. L’ensemble des issus possibles
est
Ω = {Pile, Face} = {P, F} = {0, 1} = {échec, succès}.

1
1.1. EXPÉRIENCES ET ÉVÈNEMENTS ALÉATOIRES 2

Ici Card(Ω)=2.
La pièce étant symétrique les issus sont équiprobables et on attribuera la probabilité 1/2 à cha-
cune d’elle.
Exemple 1.2 On lance une pièce de monnaie symétrique trois fois de suite. L’ensemble des issus
possibles est

Ω = {PPP, PPF, PFF, FPF, PFP, FPP, FFP, FFF} = {000, 001, 011, 101, 101, 100, 110, 111}.

Ici Card(Ω)=23 = 8.
Dans ce chapitre, nous supposerons que Ω est toujours fini ou dénombrable c’est -à-dire
discret.
Définition 1.4 Les événements étant des ensembles, on utilisera 3 opérateurs définies sur les
ensembles :
1. L’union : l’événement A ∪ B se réalise si A se réalise ou B se réalise
2. L’intersection : A ∩ B se réalise si A se réalise et B se réalise
3. Le complémentaire : Ā se réalise si A ne se réalise pas.

On utilise parfois simultanément le langage de la théorie des ensembles et celui des probabili-
tés. Le dictionnaire suivant donne la correspondance entre les notions fréquemment utilisées.

Théorie des ensembles Probabilités


A sous-ensemble A événement
A = ∅ ensemble vide A événement impossible
A = Ω ensemble fondamental Ω événement certain
A ⊂ B inclusion A entraîne B
A ∩ B intersection A et B, conjonction de A et B
A ∪ B réunion A ou B, au moins un de A et B
Ac complémentaire de A Contraire de A
A\B différence A et contraire de B
A∆B différence symétrique Exactement un événement de A ou B
A ∩ B = ∅ ensembles disjoints A et B sont des événements incompatibles
(Ai )i∈I partition de Ω (Ai )i∈I système complet d’événement

1.1.2 La notion de probabilité


Si Ω est fini, de cardinal N, i.e. Ω = {ω1 , ω2 , .., ωN }, toute probabilité sur Ω est déterminée par
la donnée de N nombres réels pi compris entre 0 et 1 et telle que : p1 + p2 + . . . + pN = 1.
En effet, si on pose pi = probabilité que ωi soit réalisé, il est clair que ces deux propriétés
sont satisfaites et que l’on peut calculer la probabilité de tout événement A par la formule
très simple
P(A) = ∑ pi
i : ωi ∈A

On vérifie sur cette formule les propriétés fondamentales suivantes de P :


1.1. EXPÉRIENCES ET ÉVÈNEMENTS ALÉATOIRES 3

1. P(A) ∈ [0, 1]
2. P(Ω) = 1
3. Si A et B sont des événements incompatibles, alors P(A ∪ B) = P(A) + P(B).
Ces trois propriétés vont servir d’axiomes dans le cas général où Ω n’est pas fini.
L’exemple fondateur de la théorie est le cas équiprobable (pour Ω fini) : tous les résultats
1 1
possibles (i.e. tous les ωi ) ont la même probabilité pi = = .
N card(Ω)
Donc dans ce cas équiprobable la probabilité d’un événement A est donnée par :
card(A) nombre de cas favorables
P(A) = = .
card(Ω) nombre de cas possibles
Exemple 1.3 On lance une pièce de monnaie symétrique trois fois de suite. L’ensemble des issus
possibles est
Ω = {PPP, PPF, PFF, FPF, PFP, FPP, FFP, FFF} = {000, 001, 011, 101, 010, 100, 110, 111}.
Ici Card(Ω)=23 = 8. La pièce étant symétrique toutes les issus sont équiprobables et on attribuera
la probabilité 1/8 à chacune des d’elle. Si à présent, on s’intéresse à la probabilité d’un sous-
ensemble A de Ω qu’on appellera évènement, on lui attribuera la probabilité
Card(A) Card(A)
P(A) = = .
Card(Ω) 8
Par conséquent l’évènement selon lequel on a obtenu au moins 2 fois piles (P) est le sous-ensemble
Card(A) 4 1
A = {PPF, PFP, PPP, FPP}, et sa probabilité est P(A) = = = .
Card(Ω) 8 2
Exemple 1.4 On lance un dé symétrique 2 fois de suite. L’ensemble des issues possibles est :
Ω = {(i, j) | 1 ≤ i, j ≤ 6}.
Ici Card(Ω) = 6 × 6 = 36.
Chaque évènement élémentaire ω = (i, j) étant équiprobable, on pose donc
P({ω}) = P(ω) = 1/36.
Soit A l’évènement selon lequel la somme des points est égale à 8 (i + j = 8), alors
A = {(i, j) ∈ Ω | i + j = 8}
= {(2, 6), (6, 2), (3, 5), (5, 3), (4, 4)};
donc
Card(A) 5
P(A) = = .
Card(Ω) 36

Exemple 1.5 On repartie au hasard 3 boules différentes désignées par les lettres a, b et c dans
trois urnes. Soit Ω l’ensemble des issus possibles ; alors Card(Ω)= 33 = 27.
On suppose tous que les évènements élémentaires équiprobables de probabilité P(ω) = 1/27.
Soit A l’évènement selon lequel "Aucune urne n’est vide". Alors :
Card(A) = 3 × 2 × 1 = 3! = 6
et par suite
6
P(A) = = 2/9.
27
1.1. EXPÉRIENCES ET ÉVÈNEMENTS ALÉATOIRES 4

1.1.3 Généralisation
Définition 1.5 Soit Ω l’univers fini ou dénombrable. Une probabilité P est application de P(Ω)
dans [0, 1] vérifiant
(i) P(Ω) = 1 ;
(ii) pour toute famille (Ai )i∈N d’éléments de P(Ω), deux à deux disjoints, on a :
!
[
P An = ∑ P(An).
n∈N n∈N

La propriété (ii) est l’additivité dénombrable.

Définition 1.6
1. Le couple {Ω, P(Ω)} est appelé espace probabilisable.
2. Le triplet {Ω, P(Ω), P} est appelé espace probabilisé.

Propriété 1.1 Si P est une probabilité sur Ω, alors :


1) P(∅) = 0
2) P(A) = 1 − P(A)
3) Si A ⊂ B, alors P(A) ≤ P(B)
4) P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

Exercice 1.1 On lance un dé truqué numéroté de 1 à 6 tel que P1 = P2 = P3 = P4 = P5 = 71 et


P6 = 27 où Pi est la probabilité d’apparition du numéro i, i ∈ {1, 2, 3, 4, 5, 6}. Soit A l’évènement
"obtenir un nombre supérieur ou égal à 400 et B : 00 obtenir un multiple de 2 " .
1. Calculer la probabilité des évènements A et B.
2. Déterminer les ensembles A ∩ B et A ∪ B puis calculer P(A ∩ B) et P(A ∪ B)
3. Comparer P(A) + P(B) − P(A ∩ B) et P(A ∪ B)
4. Calculer la probabilité de l’évènement C : "obtenir un nombre impair".
5. Calculer P(B) + P(C).

Exercice 1.2 Soit A et B deux évènements tels que P(A) = 0.45 ; P(B) = 0.60 et P(A ∪ B) = 0.80
calculer P(A ∩ B) et P(A).
Corollaire 1.1 (Additivité dénombrable)
Si les évènements A1 , A2 , · · · , An sont deux à deux incompatibles, alors :
!
n
[ n
P Ai = ∑ P(Ai ).
i=1 i=1
1.2. ÉVÈNEMENTS INDÉPENDANTS 5

1.2 Évènements indépendants


1.2.1 Indépendance de deux évènements
Nous allons introduire la notion d’indépendance. Commençons par deux exemples où l’intui-
tion de la notion d’indépendance est évidente.
Exemple 1.6

1. On jette 2 pièces honnêtes. Soient A : "la première donne pile" et B : "la seconde donne pile".
A et B sont indépendants.
2. On tire 2 cartes. Soient A : "la première donne pique" et B : "la seconde donne pique". Si
on tire sans remise A et B ne sont pas indépendants, si on tire avec remise A et B sont
indépendants.
Définition 1.7 Soient P une probabilité sur un espace probabilisable et A, B des évènements. A
et B sont indépendants si et seulement si :

P(A ∩ B) = P(A)P(B).

Il est très facile de vérifier que cette définition est compatible avec l’intuition donnée dans les
exemples précédents.
Exemple 1.7 On jette deux dés. Considérons les événements :
A : "la somme est 7",
B : "le premier dé donne 4"
C : "la différence est paire".
Ici l’ensemble fondamental est bien entendu
n o
Ω = (i ; j) avec i , j ∈ {1, 2, 3, 4, 5, 6} .

Les événements A, B et C sont les sous-ensembles de Ω donnés par

A = {(1, 6), (2, 5), (3, 4), (4, 3), (5, 2), (6, 1)}
B = {(4, 6), (4, 5), (4, 4), (4, 3), (4, 2), (4, 1)}
C = {(1, 1), (1, 3), (1, 5), (2, 2), (2, 4), (2, 6), . . . , (6, 2), (6, 4), (6, 6)}.

Ainsi card(A) = 6 , card(B) = 6 et card(C) = 18.


En faisant l’hypothèse d’équiprobabilité, on calcule aisément

P(A) = 1/6, P(B) = 1/6, P(C) = 1/2, P(A ∩ B) = 1/36, P(A ∩C) = 0, P(B ∩C) = 1/12.

A et B sont indépendants, A et C sont dépendants et B et C sont indépendants. On voit que la


relation d’indépendance n’est pas transitive (A et B sont indépendants, B et C sont indépendants,
mais A et C ne sont pas indépendants).
1.2. ÉVÈNEMENTS INDÉPENDANTS 6

1.2.2 Indépendance de plusieurs événements


On prolonge la notion d’indépendance de deux évènements au cas des suites d’évènements.
Soit (Ai )1≤i≤N une suite d’événements.
Définition 1.8 On dit que les évènements (Ai )1≤i≤N sont indépendants deux à deux si et seule-
ment si, pour tout (i, j) et i 6= j, Ai et A j sont indépendants.
Pour prolonger la notion d’indépendance aux cas de trois évènements on devra imposer une
condition supplémentaire non comprise dans la définition de l’indépendance deux à deux, à
savoir :
P (A1 ∩ A2 ∩ A3 ) = P (A1 ) · P (A2 ) · P (A3 ) .
Pour une suite de N évènements on a la définition suivante.
Définition 1.9 On dit que les évènements (Ai )1≤i≤N sont indépendants (ou mutuellement indé-
pendants) si et seulement si pour toute sous-suite d’évènements distincts, on a :

P (Ai1 ∩ Ai2 ∩ · · · ∩ Aik ) = P (Ai1 ) · P (Ai2 ) · · · P (Aik ) .

Des évènements peuvent être indépendants deux à deux sans être indépendants mutuelle-
ment. Si N évènements sont mutuellement indépendants ils sont indépendants deux à deux.
Proposition 1.1 Soit (Ai )1≤i≤N une suite d’évènements mutuellement indépendants.
1. Pour chaque i, 1 ≤ i ≤ N, posons Bi = Ai ou Bi = Ai c . Alors (Bi )1≤i≤N est une suite d’évène-
ments mutuellement indépendants.
2. Toute sous-famille de (Ai )1≤i≤N est constituée des évènements mutuellement indépendants.

Proposition 1.2 Soit (Ai )1≤i≤N une suite d’évènements mutuellement indépendants. Alors

P (A1 ∪ A2 ∪ . . . ∪ AN ) = 1 − [1 − P (A1 )] · [1 − P (A2 )] · . . . · [1 − P (AN )]

Preuve : On passe au complémentaire de A1 ∪ A2 ∪ . . . ∪ AN et on applique la règle de de


Morgan (∪Ai )c = Aci . Les évènements Aci sont mutuellement indépendants. Donc
T

P (A1 ∪ A2 ∪ . . . ∪ AN ) = 1 − P ((A1 ∪ A2 ∪ . . . ∪ AN )c )
= 1 − P (Ac1 ∩ Ac2 ∩ . . . ∩ AcN )
= 1 − P (Ac1 ) · P (Ac2 ) · . . . P (AcN ) .

Exemple 1.8 On suppose qu’une personne est soumise N fois à un risque p d’accident où
0 < p < 1. Quelle est la probabilité d’avoir au moins un accident ? Pour répondre à cette question
on pose Ai = " la ième expérience provoque un accident" et on suppose que les Ai sont mutuellement
indépendants. Avec p = P (Ai ) on a

P(”au moins un accident”) = P (A1 ∪ A2 ∪ . . . ∪ AN ) = 1 − (1 − p)N .


1.3. PROBABILITÉS CONDITIONNELLES 7

1.3 Probabilités conditionnelles


Dans de nombreuses applications les probabilités conditionnelles constituent un outil pré-
cieux pour calculer des probabilités inconnues à partir de probabilités données.

1.3.1 Définition et propriété


Définition 1.10 Soient (Ω, P(Ω), P) un espace probabilisé et A, B des événements quelconques
tel que P(B) > 0. On note
P(A ∩ B)
P(A | B) =
P(B)
la probabilité de A conditionnellement à B ou la probabilité de A sachant B.
Les formules suivantes sont souvent très utiles pour calculer des probabilités d’intersections

P(A ∩ B) = P(A | B) · P(B)


P(A ∩ B) = P(B | A) · P(A)

Les probabilités conditionnelles ont des propriétés suivantes :


Propriété 1.2
1. Pour tout événement B fixe tel que P(B) > 0, P(· | B) est une probabilité sur Ω.
2. Si A et B sont des évènements indépendants et P(B) > 0, alors P(A|B) = P(A).

Exemple 1.9 On jette deux dés. Considérons les événements


A : «la somme est 5»
B : «le premier dé donne 3»
C : «le premier dé donne au moins 3».
Calculer P(A | B) et P(A | C).
4 1
On a P(A) = =
36 9
1 1 1
P(B) = , P(A ∩ B) = P({3, 2}) = , donc P(A | B) = .
6 36 6
La probabilité conditionnelle de A sachant que B est réalisé a augmenté : P(A | B) > P(A). Avec
4 1 4 2 2 1
P(A) = = , P(C) = = , P(A ∩C) = P({3, 2}, {4, 1}) = = .
36 9 6 3 36 18
1
On trouve P(A | C) = .
12
La probabilité conditionnelle de A sachant que C est réalisé a diminué : P(A | C) < P(A).
Exemple 1.10 Dans une de Terminale D de 36 élèves, 23 ont 18 ans, 29 sont des filles et 17
filles ont 18 ans. On choisit au hasard un élève de cette classe.
1.3. PROBABILITÉS CONDITIONNELLES 8

1. Calculer la probabilité des évènements suivants :


A : 00 l’élève a 18 ans ",
B : 00 l’élève est une fille",
C : 00 l’élève est une fille de 18 ans"
2. Si l’élève est une fille, quelle est la probabilité pour qu’elle ait 18 ans ?
P(A ∩ B)
3. Comparer le résultat de la question 2 et .
P(A)

1.3.2 Formule des probabilités totales


Soient (Ω, P(Ω), P) un espace probabilisé et A, B des événements quelconques. Les événe-
ments B et Bc forment un système complet d’événements et

P(A) = P(A ∩ B) + P (A ∩ Bc )

Si B et Bc sont de probabilité non nulle on peut utiliser des probabilités conditionnelles pour
calculer les probabilités d’intersections. Donc

P(A) = P(A | B) · P(B) + P (A | Bc ) · P (Bc )

Cette formule se généralise au cas d’un système complet d’évènement


Théorème 1.1 (formule des probabilités totales)
Soient (Ω, P(Ω), P) un espace probabilisé et (Ai )1≤i≤n un système complet d’évènements, tous de
probabilité non nulle. Alors, pour tout événement B, on a :

P(B) = P (B | A1 ) · P (A1 ) + P (B | A2 ) · P (A2 ) + . . . + P (B | An ) · P (An ) .

Exemple 1.11 On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une
pièce au hasard et on la lance trois fois. Quelle est la probabilité d’obtenir trois piles ?

Théorème 1.2 (formule de Bayes)


Soient (Ω, P(Ω), P) un espace probabilisé et (Ai )1≤i≤n un système complet d’évènements, tous de
probabilité non nulle. Alors, pour tout évènement B de probabilité non nulle, on a, pour tout k,
1≤k≤n
P (B | Ak ) · P (Ak )
P (Ak | B) = .
P (B | A1 ) · P (A1 ) + P (B | A2 ) · P (A2 ) + . . . + P (B | An ) · P (An )

Exemple 1.12 On dispose de deux pièces. L’une est honnête, l’autre a deux piles. On choisit une
pièce au hasard et on la lance trois fois. Quelle est la probabilité que la pièce choisie est la pièce
honnête si on a tiré trois piles ?
Chapitre 2

Suites d’expériences aléatoires

2.1 Le modèle
Nous commençons par introduire un modèle abstrait, qui généralise le jeu «pile ou face».

2.1.1 Le modèle abstrait – le processus de Bernoulli


Considérons une suite d’essais d’une même expérience aléatoire que l’on répète indéfiniment
de telle sorte que les conditions soient toujours identiques et que les résultats des différents
essais soient sans influence mutuelle. Supposons que l’expérience n’a que deux résultats pos-
sibles, succès ou échec, et la probabilité du succès soit un nombre p dans l’intervalle [0, 1].
Nous appelons une telle suite d’essais un processus de Bernoulli. Il s’agit d’un cas particulier
simple du concept plus général de suite d’expériences aléatoires indépendantes.
Il est commode d’écrire 1 ou 0 au lieu de « succès » ou «échec ». On peut donc décrire les
résultats d’une suite d’expériences par une suite de 0 et de 1 que l’on notera (Xi ) où Xi vaut 0
ou 1 suivant que la i-ième expérience est un échec ou un succès. On dit que (Xi ) est une suite
de variables aléatoires indépendantes.
L’espace fondamental d’un essai est l’ensemble {0, 1}. Le processus de Bernoulli dépend d’un
seul paramètre p, la probabilité du succès, et on a

P (Xi = 1) = p et P (Xi = 0) = 1 − p.

Définition 2.1 On dit que Xi suit une loi de Bernoulli de paramètre p où p est la probabilité
de succès. On écrit
Xi B(p) ou Xi B(1, p).

Si on fait un nombre d’essais n < ∞, l’ensemble fondamental du processus de Bernoulli est


donné par Ω = {0, 1}n . Ω est l’ensemble de toutes les suites finies de longueur n (ou de n
uplets) de 0 et de 1 , donc card(Ω) = 2n . En utilisant l’indépendance des essais on trouve que
la probabilité d’une suite est donnée par

P (X1 = x1 , X2 = x2 , . . . , Xn = xn ) = pnombre de 1 (1 − p)nombre de 0 = p#1 (1 − p)#0 = p#1 (1 − p)n−#1 .

9
2.2. LA LOI BINOMIALE 10

où xi ∈ {0, 1}. En particulier, si p = 1/2, chaque suite a la même probabilité 1/2n . Dans le cas
où le nombre d’expériences est infini l’ensemble fondamental du processus de Bernoulli est

donné par E = {0, 1}N . Ω est l’ensemble de toutes les suites infinies indexées par 0 et 1.

2.2 La loi binomiale


2.2.1 Le nombre de succès
On définit
X = X1 + . . . + Xn
où Xi prend des valeurs dans {0, 1}. Donc Sn est égal au nombre de succès pendant les n
premières expériences. La loi de X est donnée par
P (X = k) = Ckn pk (1 − p)n−k , ∀ k ∈ {0, 1, · · · , n}.
Pour établir cette loi il faut d’abord remarquer que chaque suite de longueur n comportant
k succès a pour probabilité pk (1 − p)n−k . Évidemment il y a Cnk possibilités de placer k succès
parmi les n tirages.
Notons, qu’une application de la formule du binôme de Newton, donne que la somme de tous
les P (X = k) est 1 :
n n
∑ P (X = k) = ∑ Cnk pk (1 − p)n−k = (p + (1 − p))n = 1.
k=0 k=0

Définition 2.2 On dit qu’une variable aléatoire X suit une loi binomiale de paramètre (n, p)
où n désigne le nombre d’expériences et p est la probabilité de succès dans un essai. On écrit
X B(n, p).

Exemple 2.1 On tire (avec remise) 5 boules dans une urne contenant 10 blanches, 15 noires et
25 rouges. Quelle est la probabilité de tirer 3 boules blanches ?
On décide ici que le tirage d’une boule blanche est un succès et que le tirage d’une boule rouge ou
10 1
d’une boule noire est un échec. Ainsi la probabilité p de succès pour chaque tirage est p = = .
50 5
Les tirages s’effectuant avec remise, nous sommes dans le cadre des tirages indépendants, i.e. d’un
processus de Bernoulli. Le nombre X de boules blanches tirées lors de 5 tirages avec remise suit
1
donc une loi binomiale de paramètres n = 5 et p = . Alors
5
 3  2
3 1 4 32
P (X = 3) = C5 = .
5 5 625

Exercice 2.1 Un système de communication comporte 5 composants. Chacun d’entre eux fonc-
tionnera, indépendamment des autres, avec une probabilité 0.7. Le système total pourra fonc-
tionner si au moins la moitié de ces composants sont opérationnels. Calculer la probabilité que
le système ne fonctionne pas.
2.3. LOI GÉOMÉTRIQUE ET LOI BINOMIALE NÉGATIVE 11

2.3 Loi géométrique et loi binomiale négative


On considère un processus de Bernoulli de paramètre p. On s’intéresse au nombre T d’essais
jusqu’au premier succès.

2.3.1 Loi du temps du premier succès


On introduit un temps aléatoire T , défini comme temps du premier succès dans une suite
infinie d’expériences de Bernoulli, i.e. T = min (k : Xk = 1) = min (k : Sk = 1), où Sk = Xl + . . . +
Xk .
Nous vérifierons ci-dessous que ce temps est fini avec probabilité 1 . Pour tout k notons Ak
l’événement {Xk = 1} . L’évènement {T = k} est égal à (A1 )c ∩ . . . ∩ (Ak−1 )c ∩ Ak . On calcule
alors la loi de probabilité de T .

P(T = 1) = p
P(T = 2) = (1 − p) · p
P(T = k) = (1 − p)k−1 · p

d’où l’on peut déduire, par exemple, que

P(T > k) = ∑ P(T = j) = ∑ (1 − p) j−1 · p = (1 − p)k


j>k j>k

Définition 2.3 On dit que T suit une loi géométrique de paramètre p où p est la probabilité
de succès dans un essai. On écrit

T G (p) ou T Geom(1, p).

T est appelé variable aléatoire géométrique ou plus brièvement variable géométrique.

Exemple 2.2 On jette un dé équilibré jusqu’à un «6» sort.


Quelle est la probabilité qu’on lance le dé au plus trois fois ?
 
1
Soit T le temps jusqu’à un «6» sort. On a T G . La probabilité cherchée est donc
6

1 5 1 5 5 1 91 ∼
P(T ≤ 3) = P(T = 1) + P(T = 2) + P(T = 3) = + · + · · = = 0.4212962963
6 6 6 6 6 6 216
On peut aussi calculer cette probabilité en passant par le complémentaire :
 3
5 125 91
P(T ≤ 3) = 1 − P(T > 3) = 1 − = 1− = .
6 216 216
2.3. LOI GÉOMÉTRIQUE ET LOI BINOMIALE NÉGATIVE 12

2.3.2 Propriété caractéristique de la loi géométrique : perte de mémoire


La loi géométrique est caractérisée par une propriété très importante, la propriété de «perte
de mémoire», i.e. par

P(T > j + k | T > j) = P(T > k)


pour tous les entiers j et k positifs. Ainsi sachant qu’il n’y a pas eu de succès jusqu’au temps j
(inclus), la probabilité qu’il y ait un succès dans les k essais suivants est indépendante de j. En
particulier, cette probabilité est identique à celle de n’avoir aucun succès dans les k premiers
essais.
Pour vérifier cette propriété on utilise l’identité P(T > k) = (1 − p)k .

2.3.3 Loi binomiale négative


On s’intéresse maintenant au nombre Tr d’essais jusqu’aux r premiers succès.
On définit Tr = min (k : Sk = r), où Sk = Xl + . . . + Xk . En particulier, T1 est une variable géomé-
trique. On voit que le support de Tr est l’ensemble {r, r + 1, r + 2, . . .}. Si Tr = n, alors le n-ième
essai est un succès et le nombre de succès dans les (n − 1) premières expériences est égal à
(r − 1). Par conséquent, on a l’égalité des évènements suivants :

{Tr = n} = {Xn = 1 et Sn−1 = r − 1} .

En utilisant l’indépendance de Xk et Sk−1 on trouve

P (Tr = n) = P (Sn−1 = r − 1) · P (Xn = 1) = Cr−1


n−1 p
r−1
(1 − p)n−r · p

La loi de Tr est alors donnée par

P (Tr = n) = Cr−1 r
n−1 p (1 − p)
n−r
, ∀n ∈ {r , r + 1 , r + 2 , . . .}.

Définition 2.4 On dit que Tr suit une loi binomiale négative de paramètres p et r, où r désigne
le nombre de succès à achever et où p est la probabilité de succès dans un essai. On écrit

Tr BN (r, p).

P (Tr = k) = Cr−1 r
k−1 p (1 − p)
k−r
, ∀k ∈ {r , r + 1 , r + 2 , . . .}.

Tr est appelé variable aléatoire binomiale négative ou plus brièvement variable binomiale néga-
tive.

Exemple 2.3 (problème des points)


Deux joueurs A et B jettent un dé honnête. Si le résultat est un «6» c’est le joueur A qui marque
un point, sinon c’est B qui marque un point.
2.4. THÉORÈMES LIMITES 13

Quelle est la probabilité que A marque 2 points avant que B marque 9 points ?
1
Les deux joueurs réalisent des épreuves indépendantes dont la probabilité du succès est p = .
6
Nous cherchons la probabilité que r = 2 succès apparaissent avant m = 9 échecs, i.e. que le
deuxième succès survient au plus tard à la (r + m − 1) = 10-ième épreuve. Donc cette probabilité
est égale à P (T2 ≤ 10) et l’on a
10 10  2  k−2
1 1 5 10389767 ∼
P (T2 ≤ 10) = ∑ P (T2 = k) = ∑ Ck−1 = = 0.5154832513
k=2 k=2 6 6 20155392

2.3.4 Stabilité
La loi binomiale négative satisfait une propriété de stabilité. En particulier, chaque variable
binomiale négative s’écrit comme somme de variables géométriques indépendantes.
Proposition 2.1 Soient Y1 , . . . ,Yr des variables géométriques indépendantes de paramètre p.
Alors, la variable aléatoire Tr = Y1 + . . . +Yr suit une loi binomiale négative BN (r , p).
Corollaire 2.1 Soient Tr BN (r , p) et Ts BN (s , p) deux variables binomiales négatives
indépendantes. Alors, Tr + Ts suit une loi BN (r + s , p).

2.4 Théorèmes limites


Nous présentons des résultats concernant le comportement asymptotique des lois probabilités
liées au processus de Bernoulli et ses généralisations. Ces résultats, appelés théorèmes limites,
permettront de simplifier considérablement le calcul de probabilités.

2.4.1 Convergence du modèle binomial vers la loi de Poisson


Lorsque le nombre d’essai est grand et la probabilité du succès est petite alors la loi de
nombres de succès s’approche d’une loi très importante en calcul de probabilités, la loi de
Poisson.
Définition 2.5 On dit que X suit une loi de Poisson de paramètre λ > 0, si

λk
P(X = k) = exp(−λ ) ·
k!
On écrit
X P(λ ).

Remarque 2.1 La loi de Poisson sert à modéliser une suite de réalisations successives non
simultanées, et indépendantes. Le paramètre λ est le nombre moyen de réalisations dans un
intervalle de temps donné.
De plus la loi de Poisson est utilisée de façon fondamentale pour modéliser certains phénomènes
rares et d’une manière générale dans les problèmes de file d’attente (quand on veut modéliser
2.4. THÉORÈMES LIMITES 14

par exemple le nombre de clients qui se présentent à un guichet, le nombre d’arrivées à un poste
de douane dans un intervalle de temps donné, il est naturel d’utiliser une loi de Poisson. Le
paramètre λ est le nombre moyen d’arrivées dans l’intervalle de temps considéré.) De même, le
nombre d’absents par jour dans une entreprise, le nombre annuel de sinistres dans un portefeuille
d’assurance, peuvent être décrits par une loi de Poisson.

Propriété 2.1 La somme de deux variables aléatoires indépendantes de lois de Poisson P(λ ) et
P(µ) suit la loi de Poisson P(λ + µ).

Proposition 2.2 Soit X une variable aléatoire binomiale de paramètres (n, p). Si n → ∞ et p → 0
tel que n · p → λ , alors pour tout entier positif k
λk
P (X = k) −→ exp(−λ ) · .
k!

Ainsi une variable de Poisson modélise le nombre de succès dans un très grand nombre d’ex-
λ
périences indépendantes où la probabilité de succès est petite (p ∼ ). L’approximation pois-
n
sonnienne fonctionne en fait assez bien même si n n’est pas très grand.

Exemple 2.4 On jette deux dés 12 fois et on considère le nombre U de double six. La variable U
1 12
satisfait une loi binomiale de paramètres n = 12 et p = , donc on pose λ = .
36 36
Comparer les probabilités exactes et les probabilités calculées en utilisant la loi de Poisson.
k (U = k) exp(−λ ) · λ k /k!
0 0.7131592556 0.7165313106
1 0.2445117448 0.2388437702
2 0.0384232742 0.0398072950
3 0.0036593594 0.0044230328

2.4.2 Convergence de la loi géométrique vers la loi exponentielle


Soit T une variable géométrique de paramètre p. Rappelons que T signifie le nombre d’essais
jusqu’au premier succès ou le temps du 1er succès. Comme précédemment on considère le
cas N → ∞ et p → 0 tel que N p → λ pour un λ > 0. Alors, pour tout t réel positif, on a
P(T /N > t) = P(T > tN) = (1 − p)tN ∼ (1 − λ /N)tN = (1 − λt/tN)tN −→ exp(−λt).
Définition 2.6 On dit que X suit une loi exponentielle de paramètre θ > 0, si pour tout t réel
positif
P(X > t) = exp(−θt) ,

ou de façon équivalente P(X = x) = θ e−θ x , ∀ x ≥ 0.


La loi exponentielle est parmi les lois les plus souvent rencontrées dans la pratique de l’in-
génieur. Mentionnons quelques applications de la loi exponentielle : la durée du fonctionne-
ment ou la durée de vie d’un équipement technique, la désintégration radioactive et les temps
d’attente de clients devant un guichet.
2.4. THÉORÈMES LIMITES 15

Proposition 2.3 Soit T une variable aléatoire géométrique de paramètre p. Si N → ∞ et p → 0


tel que N p → θ , alors pour tout t réel positif, on a

P(T /N > t) −→ exp(−θt).

Propriété 2.2 Une variable aléatoire de loi exponentielle est une variable sans mémoire ; c’est-
à-dire :
P(X > t + s | X > s) = P(X > t) , ∀t , s ∈ R+ .

Remarque 2.2 À cause de la propriété d’absence de mémoire, la loi exponentielle est utilisée
quand on veut modéliser la durée de vie d’un composant électronique, ou le temps entre les
arrivées de deux clients successifs dans une file d’attente (il y a en particulier des liens très forts
λ
entre les lois exponentielles et les lois de Poisson). Le paramètre θ = , où λ est le nombre moyen
τ
d’arrivées dans l’intervalle de temps de longueur τ. C’est donc le nombre moyen d’arrivées par
unité de temps.
Chapitre 3

Variables aléatoires

Nous introduisons les notions de variable aléatoire et de fonction de répartition.


Soit Ω un ensemble fondamental et P une probabilité définie sur Ω.

3.0.1 Variables aléatoires


Définition 3.1 Une variable aléatoire (réelle) X est une fonction X : Ω → E (E ⊂ R ou Z ou N),
i.e. pour tout ω ∈ Ω, X(ω) ∈ E.
Exemple 3.1 On jette deux pièces équilibrées. On peut décrire l’ensemble fondamental de cette
expérience par Ω = {(P, P), (P, F), (F, P), (F, F)}, la lettre F représentant «face» et P représentant
«pile». Ici on s’intéresse au nombre X de piles qui apparaissent et on définit l’ensemble fondamen-
tal par l’image de X, i.e. E = {0 piles, 1 pile, 2 piles } ou simplement E = {0, 1, 2}. Alors, la loi
de probabilité de X est donnée par
1
P(X = 0) = P(0 piles ) = P({(F, F)}) =
4
1
P(X = 1) = P(1 pile) = P({(P, F), (F, P)}) =
2
1
P(X = 2) = P(2 piles) = P({(P, P)}) =
4
Donc X associe à chaque résultat possible de l’expérience un nombre réel, i.e. X est une fonction
à valeurs réelles définie sur l’ensemble fondamental Ω. X est appelé variable aléatoire ou plus
précisément une variable aléatoire réelle.
On peut interpréter X comme une observable dépendant du hasard. Si le résultat de l’expé-
rience est ω, alors la variable aléatoire X prend la valeur X(ω). Souvent on prend directement
l’ensemble E des valeurs comme l’ensemble fondamental de l’expérience. Pour tout événe-
ment A dans Ω la variable aléatoire X peut être restreinte en une application de l’ensemble
A dans la partie des nombres réels J = X(A) = {X(ω), ω ∈ A}. En particulier, l’ensemble fon-
damental Ω d’une expérience aléatoire correspond à l’ensemble E de tous les tous les valeurs
possibles de X, i.e. E = X(Ω).

16
17

Définition 3.2 (variables aléatoires discrètes) Une variable aléatoire X : Ω → E est dite dis-
crète si E = {x1 , x2 , . . .} est un sous ensemble discret des nombres réels.

3.0.2 Loi de probabilités : densité de probabilités et fonction de répartition


Soit X une variable aléatoire réelle définie sur un espace probabilisé (Ω, P(Ω), P). On a
défini dans le chapitre précédent un ensemble caractéristique de X, l’ensemble de ses valeurs
possibles noté E = {X(ω), ω ∈ Ω}. Rappelons que E est un sous-ensemble des nombres réels.
Maintenant il faut se donner sa loi de probabilité. Pour une variable aléatoire discrète on peut
définir une densité de probabilités fX (x) par
fX (x) = P(X = x).
Définition 3.3 Si X : Ω −→ E est une variable aléatoire discrète, alors la distribution de pro-
babilité de X est la donnée des nombres : P (X = xi ). La fonction fX (x) = P(X = x) est appelée
fonction de masse.

Exemple 3.2 On jette un dé équilibré. Soit X le nombre des points obtenu. La fonction de masse
fX (x) est donnée par
1
fX (x) = P(X = x) = pour x ∈ {1, 2, 3, 4, 5, 6}.
6

Définition 3.4 Soit X : Ω −→ E une variable aléatoire réelle. Sa fonction de répartition FX (t)
est définie par
FX (t) = P(X ≤ t) pour tout t réel .

La fonction de répartition détermine aussi la distribution. Si X et Y sont deux variables aléa-


toires telles que FX (t) = FY (t), alors X et Y ont la même distribution de probabilités. La fonc-
tion de répartition FX (t) vérifie les propriétés suivantes :
Proposition 3.1 Soit X : Ω → E une variable aléatoire et FX (t) sa fonction de répartition. Alors :
a. lim FX (t) = 0,
t→−∞
b. lim FX (t) = 1 ;
t→+∞
c. si s < t alors FX (s) ≤ FX (t) ;
d. F est continu à droite, i.e. pour tout t réel, lim FX (t + s) = FX (t) ;
s→0+
e. P(X > s) = 1 − FX (s) ;
f. P(s < X ≤ t) = FX (t) − FX (s).

Exemple 3.3 (suite) :


On jette un dé équilibré. Soit X le nombre des points obtenus. La fonction de répartition FX (t) est
donnée par par 
 0 si t <1
k

FX (t) = si k ≤ t < k + 1 pour k = 1, 2, 3, 4, 5
 6
si 6≤t

1
3.1. COUPLES DE VARIABLES ALÉATOIRES 18

Étant donné une variable aléatoire discrète à valeurs dans E = {x1 , x2 , . . .}, sa fonction de ré-
partition n’est pas continue en les points xi et elle constante entre xi−1 et xi , pour tout i. Donc,
en général, la fonction de répartition d’une variable aléatoire discrète peut être représentée
par une fonction en escalier.

3.1 Couples de variables aléatoires


On considère des événements relatifs à deux variables aléatoires X et Y sur un espace proba-
bilisé. Pour traiter de tels problèmes on va introduire les notions de fonctions de répartitions
conjointes et de lois conjointes d’un couple de variables aléatoires (X,Y ). Souvent le couple
(X,Y ) est appelé vecteur aléatoire (à deux dimensions).

3.1.1 Fonction de répartition conjointe


Définition 3.5 La fonction de répartition conjointe FX,Y (s,t) pour tout couple de variables aléa-
toires (X,Y ) est définie par FX,Y (s,t) = P(X ≤ s , Y ≤ t) pour tout couple (s , t) de nombres réels.

3.1.2 Loi conjointe : Cas des v.a. discrètes


Si X et Y sont des variables aléatoires discrètes, alors la distribution (ou la loi) de probabilité
conjointe du couple (X,Y ) est la donnée des nombres : P X = xi , Y = y j .
Si on définit
fX,Y (x, y) = P(X = x , Y = y)
alors la loi de probabilité marginale de X s’en déduit ainsi :

fX (x) = P(X = x) = ∑ fX,Y (x, y) (on somme sur toutes les valeurs prises par Y )
y

et de manière similaire la loi de probabilité marginale de Y est

fY (y) = P(Y = y) = ∑ fX,Y (x, y) (on somme sur toutes les valeurs prises par X).
x

Définition 3.6 Les variables X et Y sont indépendantes si pour tout x , y , on a

P(X = x , Y = y) = P(X = x) × P(Y = y).

Exemple 3.4 Soit X et Y deux variables aléatoires à valeurs dans N telles que pour tout (i , j) ∈
N2
α
P(X = i , Y = j) = i+ j
2

1. Déterminer α.
2. Déterminer les lois marginales de X et de Y .
3. Les variables X et Y sont-elles indépendantes ?
3.2. ESPÉRANCE 19

3.2 Espérance
Définition 3.7 Soit X : Ω −→ E une variable aléatoire réelle discrète définie sur un espace pro-
babilisé (Ω, P(Ω), P). L’espérance de X, notée E(X), est définie par

E(X) = ∑ x · P(X = x).


x∈E

La quantité E(X) est parfois aussi appelée valeur moyenne de X.


Exemple 3.5 (Espérance d’une variable uniforme discrète)
Une variable aléatoire X suit une loi uniforme discrète si elle prend ses valeurs dans un ensemble
1
fini {x1 , . . . , xN } avec des probabilités P (X = xi ) = pour i = 1, . . . , N.
N
L’espérance de X est
N N
1 1 N x1 + · · · xN
E(X) = ∑ xi P(X = xi ) = ∑ xi = ∑ xi = .
i=1 i=1 N N i=1 N

C’est la moyenne arithmétique des xi .

x1 + · · · xN
E(X) =
N

Exemple 3.6 (Espérance d’une variable de Bernoulli)


Soit X B(p), alors on sait que P(X = 1) = p et P(X = 0) = 1 − p. Donc
1
E(X) = ∑ kP(X = k) = 0 × P(X = 0) + 1 × P(X = 1) = 0 × (1 − p) + 1 × p = p.
k=0

E(X) = p

Exemple 3.7 (Espérance d’une variable binomiale)


Soit X B(n, p), alors on sait que X a pour fonction de masse P(X = k) = Ckn · pk · (1 − p)n−k
pour k = 0, 1, . . . , n.
X est la somme de n variables aléatoires indépendantes X1 , · · · , Xn , suivant toutes la loi de Ber-
noulli de paramètre p. Donc

E(X) = E(X1 + X2 + · · · + Xn )
= E(X1 ) + E(X2 ) + · · · + E(Xn )
= p+ p+···+ p
= np.

E(X) = np
3.3. ESPÉRANCE D’UNE FONCTION D’UNE VARIABLE ALÉATOIRE 20

Exemple 3.8 (Espérance d’une variable géométrique)


Soit X G (p), alors X a pour distribution P(X = k) = (1 − p)k−1 p pour tout k = 1, 2, 3, . . ..
L’espérance de X est donnée par

1
E(X) =
p

Exemple 3.9 (Espérance d’une loi de Poisson)


λk
La distribution de X est donnée par P(X = k) = e−λ pour k = 0, 1, 2, . . ..
k!
On a
E(X) = λ

Propriété 3.1 (propriétés élémentaires de l’espérance)


L’espérance vérifie les propriétés suivantes :
1. Linéarité : Soient X et Y deux variables aléatoires et a, b des nombres réels. Alors

E(aX + bY ) = aE(X) + bE(Y ).

2. Positivité : Soit X une variable aléatoire telle que X ≥ 0. Alors

E(X) ≥ 0.

3. Monotonie : : Soient X et Y deux variables aléatoires telles que X ≥ Y , alors

E(X) ≥ E(Y ).

4. Espérance d’une constante : Si X = c où c est une constante réelle, alors

E(X) = E(c) = c.

3.3 Espérance d’une fonction d’une variable aléatoire


Considérons une variable aléatoire X, discrète ou continue, et sa distribution de probabilité.
Supposons qu’on veuille calculer l’espérance d’une fonction de X, disons ϕ(X). Remarquons
que ϕ(X) est une variable aléatoire dont la distribution peut être calculer à partir de celle de
X. Si on a pu déterminer cette distribution, on trouve E(ϕ(X)) en appliquant la définition de
l’espérance. Dans le théorème suivant nous montrons qu’il y a une façon de calculer E (ϕ(X))
sans passer par la distribution de ϕ(X).
3.4. VARIANCE ET COVARIANCE 21

Théorème 3.1 (théorème de transfert)


Si X est une variable aléatoire discrète à valeurs xk , k ≥ 1, alors pour toute fonction réelle ϕ, on
a
E (ϕ(X)) = ∑ ϕ (xk ) P (X = xk )
k
sous la condition que la somme soit absolument convergente.

Proposition 3.2 (Inégalité de Cauchy-Schwarz)


Soit X et Y deux variables aléatoires réelles. On a
q
E(XY ) ≤ E(X 2 ) × E(Y 2 ).
Proposition 3.3 (Inégalité de Markov)
Soit X une variable aléatoire positive. Pour tout a > 0, on a

E(X)
P (X ≥ a) ≤ .
a

3.4 Variance et Covariance


La variance d’une variable aléatoire X nous permet de mesurer les variations de X autour de
l’espérance.
Définition 3.8 Soit X une variable aléatoire. La variance de X est définie par :

Var(X) = E (X − E(X))2 .
 

En utilisant la propriété de linéarité de l’espérance on peut établir la formule suivant pour la


variance qui est en général plus commode :

Var(X) = E(X 2 ) − [E(X)]2 .

Définition 3.9 L’écart-type d’une variable aléatoire X est la racine carrée de la variance :
p
σX = Var(X).

Proposition 3.4 (Inégalité de Bienaymé-Tchebychev)


Soit X une variable aléatoire. Pour tout a > 0, on a
 Var(X)
P X − E(X) ≥ a ≤ .
a2
3.4. VARIANCE ET COVARIANCE 22

Exemple 3.10 On considère une variable aléatoire suivant un loi uniforme sur l’ensemble {1, 2, . . . , 9}.
1. Calculer son espérance et sa variance.
2. Majorer la quantité P(|X − 5| ≥ 4) grâce à l’inégalité de Bienaymé-Tchebychev.

Exemple 3.11 On lance 300 fois un dé équilibré. Si Y est le nombre de 6 obtenus au cours de
ces lancers, minorer P(43 < Y < 57).

Définition 3.10
1. La covariance de deux variables aléatoires X et Y , notée Cov(X, y), est définie comme suit :

Cov(X,Y ) = E [(X − E(X))(Y − E(Y ))] = E(XY ) − E(X)E(Y ).

2. Si Cov(X,Y ) = 0, on dit que les variables X et Y ne sont pas corrélés.


3. Pour mesurer la dépendance des deux variables aléatoires X et Y on définit la corrélation
de X et Y par
Cov(X,Y )
ρ(X,Y ) = .
σX × σY

Proposition 3.5 En utilisant l’inégalité de Cauchy-Schwarz on obtient une borne sur la corréla-
tion de deux variables aléatoires X et Y :

−1 ≤ ρ(X,Y ) ≤ 1.

Propriété 3.2 (propriétés de la variance et de la covariance)


La variance a des propriétés suivantes :
1. Homogénéité : Pour tout λ réel

Var(λ X) = λ 2 Var(X).

2. Positivité
Var(X) ≥ 0.
et Var(X) = 0 si et seulement si X = E(X), i.e. X est une variable aléatoire constante.
3. Variance de la somme des deux variables aléatoires : en général, la variance n’est pas
additive. On a
Var(X +Y ) = Var(X) + Var(Y ) + 2 Cov(X , Y ).
Si les variables X et Y ne sont pas corrélées, i.e. Cov(X , Y ) = 0, la variance est additive.
4. Linéarité de la Covariance : la covariance Cov(X,Y ) est linéaire en chaque composante,
i.e.
Cov (a1 X1 + a2 X2 , Y ) = a1 Cov (X1 , Y ) + a2 Cov (X2 , Y ) .
3.4. VARIANCE ET COVARIANCE 23

Exemple 3.12 (Variance d’une variable uniforme discrète)


Soit X une variable aléatoire qui suit une loi uniforme discrète sur {1, . . . , N}.
1
P (X = k) = pour k = 1, . . . , N.
N
Var(X) = E(X 2 ) − [E(X)]2 .
N +1
On sait déjà que E(X) = ; il ne reste qu’à calculer E(X 2 ). On a
2
N
E(X 2 ) = ∑ k2P(X = k)
k=1
N
1
= ∑ k2 N
k=1
1 N 2
= ∑k
N k=1
1 N(N + 1)(2N + 1)
= ×
N 6
(N + 1)(2N + 1)
= .
6
D’où
N + 1 2 N2 − 1
 
(N + 1)(2N + 1)
Var(X) = − = .
6 2 12

N2 − 1
Var(X) =
12

Exemple 3.13 (Variance d’une variable de Bernoulli)


Supposons que X B(p).
P(X = 1) = p , P(X = 0) = 1 − p. On sait que E(X) = p.
On a
E(X 2 ) = 02 P(X = 0) + 12 P(X = 1) = p.
Donc

Var(X) = p − p2 = p(1 − p).

Var(X) = p(1 − p)

Exemple 3.14 (Variance d’une variable de loi binomiale)


3.5. MOMENTS D’UNE VARIABLE ALÉATOIRE 24

Supposons qu X B(n, p). On peut calculer sa variance en partant du fait que X est la somme
de n variables de Bernoulli, toutes indépendantes, i.e. X = X1 + · · · + Xn .
En utilisant les propriétés de la variance, on obtient

Var(X) = Var (X1 + · · · + Xn )


= Var (X1 ) · · · + Var (Xn ) (car les Xi sont indépendantes)
= p(1 − p) + · · · + p(1 − p)
= np(1 − p).

Var(X) = np(1 − p)

Exemple 3.15 (Variance d’une variable de loi géométrique)


Si X G (p), alors
1− p
Var(X) =
p2

Exemple 3.16 (Variance d’une variable de Poisson)


Si X P(λ ), alors
Var(X) = λ

3.5 Moments d’une variable aléatoire


Définition 3.11
1. Pour tout entier positif k, on appelle moment d’ordre k de X et on note mk

mk = E(X k ).

2. Le moment centré d’ordre k de X noté mc,k est la valeur


h i
k
mc,k = E (X − m1 ) .

Remarque 3.1
1. L’espérance est le moment d’ordre 1 : m1 = E(X).
2. La variance est la moment centré d’ordre 2 : mc,2 = Var(X).

Exemple 3.17 (Variable aléatoire de Bernoulli de paramètre p)


On a X k = X et par conséquent E X k = p tout k entier.
 

Le moment centré d’ordre k de X est donné par


h i
mc,k = E (X − p) = (1 − p)k p + (1 − p)(−p)k .
k
Chapitre 4

Variables aléatoires continues

4.1 Introduction
Les deux chapitres précédents ont été consacré à l’étude des variables aléatoires discrètes,
c-à-d à valeurs dans un ensemble dénombrable. Néanmoins dans de nombreuses situations,
nous sommes amenés à considérer des variables aléatoires à valeurs réelles ou à valeurs dans
des espaces plus généraux. Par exemple, on peut parler d’une v.a X prenant des valeurs dans
[0, 1]. Dans ces conditions, on peut se contenter de supposer que Ω est dénombrable et on ne
peut plus définir la probabilité de sous-ensemble de Ω.
On se propose de définir les v.a. comme des applications définies sur Ω, mais dans le cadre
général.

4.2 Loi d’une variable aléatoire


Définition 4.1 On appelle densité de probabilité sur R toute fonction positive
f : R −→ [0, 1]
Z +∞
x 7−→ f (x) telle que f (x)dx = 1.
−∞

Définition 4.2 On dit qu’une v.a. X : Ω −→ R admet pour densité continue de probabilité f (x)
si pour tout intervalle I =]a, b[, −∞ ≤ a ≤ b ≤ +∞, on a
Z b
P(a < X < b) = f (x)dx.
a

Dans ces conditions , on dira aussi que la loi de X a pour densité f (x).
Remarque 4.1 (Importante)
Il convient de distinguer entre les v.a.r discrètes de X pour lesquelles les quantités f (x) = P(X = x)
ne sont pas nulles et définissent ce qu’on appelle densité discrète de X et les v.a.r à densité continue
pour lesquelles P(X = x) = 0, ∀ x ∈ R.

25
4.3. EXEMPLES DE DENSITÉS CONTINUES DE PROBABILITÉ 26

Propriété 4.1 Soit X une variable aléatoire continue et FX sa fonction de répartition. On a

P(a < X ≤ b) = P(a < X ≤ b) = P(a ≤ X ≤ b) = FX (b) − FX (a).

Théorème 4.1
1. X est une v.a.r de densité f (x) sur R si et seulement pour toute fonction g : R −→ R continue
bornée, on a : Z +∞
E [g(X)] = g(x) f (x)dx.
−∞
Z +∞
2. En particulier E(X) = x f (x)dx.
−∞
Z +∞
2
3. E(X ) = x2 f (x)dx.
−∞
4. Var(X) = E(X 2 ) − [E(X)]2
Théorème 4.2
1. Si X est une variable aléatoire, et a une constante, on a

Var(X + a) = Var(X).

Var(aX) = a2 Var(X).
2. L’inégalité de Markov et l’inégalité de Bienaymé-Tchebychev sont encore vraies dans les cas
des variables aléatoires continues.

4.3 Exemples de densités continues de probabilité


4.3.1 Loi uniforme sur [a, b]
Définition 4.3 On dit qu’une variable aléatoire X suit une loi uniforme sur [a, b] si sa densité de
probabilité est donnée par :

1
1

 si x ∈ [a, b]
f (x) = 1[a,b] (x) = b − a
b−a 
0 sinon.
On note X U ([a, b]).

Proposition 4.1 Si X U ([a, b]). alors


b+a
• E(X) = ;
2
(b − a)2
• Var(X) = .
12
4.3. EXEMPLES DE DENSITÉS CONTINUES DE PROBABILITÉ 27

Preuve :
Z +∞
• E(X) = x f (x)dx
−∞
Z b
1
= x dx
a b−a
Z b
1
= xdx
b−a a
 2 b
1 x
=
b−a 2 a
b2 − a2 b+a
= = .
2(b − a) 2

Z +∞
2
• E(X ) = x2 f (x)dx
−∞
Z b
1
= x2 dx
a b−a
Z b
1
= x2 dx
b−a
a
 3 b
1 x
=
b−a 3 a
b3 − a3 b2 + ab + a2
= = .
3(b − a) 3

Var(X) = E(X 2 ) − [E(X)]2


b2 + ab + a2 b+a 2
 
= −
3 2
(b − a) 2
= .
12


4.3.2 Loi exponentielle


Définition 4.4 (Rappel) On dit qu’une variable aléatoire X suit une loi exponentielle de para-
mètre λ > 0 si sa densité de probabilité est donnée par :

λ e−λ x si x ∈ R+
−λ x
f (x) = λ e 1R+ (x) =
0 sinon.

On note X E (λ ).
4.3. EXEMPLES DE DENSITÉS CONTINUES DE PROBABILITÉ 28

Proposition 4.2 Si X E (λ ), alors


1
• E(X) = ;
λ
1
• Var(X) = 2 .
λ

Preuve :
Z +∞
• E(X) = x f (x)dx
−∞
Z +∞
= xλ e−λ x dx
0
Z +∞
= λ xe−λ x dx
0

En intégrant par parties, on trouve


h i+∞ Z +∞ 1
• E(X) = −xe−λ x + e−λ x dx = .
0 0 λ

Z +∞
• E(X 2 ) = x2 f (x)dx
−∞
Z +∞
= x2 λ e−λ x dx
0
Z +∞
= λ x2 e−λ x dx
0

En intégrant par parties, on trouve


h i+∞ Z +∞ 2
2 −λ x
2
• E(X ) = −x e +2 xe−λ x dx = .
0 0 λ2
D’où  
2 1 1
Var(X) = 2 − 2
= 2.
λ λ λ


4.3.3 Loi Gamma


Avant de définir la loi gamma, nous introduisons d’abord la fonction gamma.
Définition 4.5 (La fonction gamma) La fonction gamma est la fonction Γ définie par :
Z +∞
Γ(a) = xa−1 e−x dx , ∀a > 0.
0

Propriété 4.2 (Quelques propriétés de la fonction gamma)

• ∀a > 0, Γ(a + 1) = aΓ(a). (à l’aide d’une intégration par parties)


4.3. EXEMPLES DE DENSITÉS CONTINUES DE PROBABILITÉ 29

• ∀n ∈ N, Γ(n + 1) = n!
Z +∞
Γ(a)
• ∀a > 0 , ∀c > 0, xa−1 e−cx dx = . (à l’aide d’un changement de variable)
0 ca
Définition 4.6 On dit qu’une variable aléatoire X suit une loi gamma de paramètre (a, c) si sa
densité de probabilité est donnée par :
 a
c −cx a−1
ca −cx a−1

 e x si x ≥ 0
f (x) = e x 1R+ (x) = Γ(a)
Γ(a) 
0 sinon

On note X G (a , c).
Proposition 4.3 X G (a , c) alors
a
• E(X) = ;
c
a
• Var(X) = 2 .
c
Remarque 4.2
• X G (1 , λ ), on retrouve la loi exponentielle de paramètre λ . Ainsi, la loi exponentielle est
cas particulier de la loi gamma.
• La loi Gamma peut décrire des phénomènes de durée de vie, en assurance pour l’étude du
temps écoulé entre deux sinistres dans des portefeuilles à risques hétérogènes ou encore pour
prendre en compte cette hétérogénéité.
• Le paramètre c est le nombre de réalisations (évènements) par unité de temps. Si a est un entier
alors a est le nombre d’intervalle entre les deux réalisations.

Propriété 4.3 La somme de deux lois Gamma indépendantes G (r, λ ) et G (s, λ ) suit la loi Gamma
G (r + s, λ ).

4.3.4 Loi normale ou loi de Gauss-Laplace


Définition 4.7 On dit qu’une variable aléatoire X suit une loi normale de paramètre (m, σ 2 ) si
sa densité de probabilité est donnée par :
 
1 1 2
f (x) = √ exp − 2 (x − m) , ∀x ∈ R
σ 2π 2σ

On note X N (m , σ 2 ).

Remarque 4.3 X N (0 , 1), on dit alors que X suit la loi normale centrée réduite (ou loi
normale standard).
4.4. COUPLES DE VARIABLES ALÉATOIRES : LOI CONJOINTE ET LOI MARGINALE 30

F IGURE 4.1 – courbe de la densité de la loi normale centrée réduite

Proposition 4.4 X N (m , σ 2 ) alors


• E(X) = m
• Var(X) = σ 2 .

Propriété 4.4
X −m
• Si X N (m , σ 2 ) alors la nouvelle variable aléatoire Y = N (0 , 1).
σ
• Inversement, si X N (0 , 1) alors la variable aléatoire Z = σ X + m N (m , σ 2 ).
Proposition 4.5 Soient X1 N (m1 , σ12 ) et X2 N (m2 , σ22 ) deux variables gaussiennes indé-
pendantes. Alors X1 + X2 N (m1 + m2 , σ12 + σ22 ).

4.4 Couples de variables aléatoires : loi conjointe et loi marginale


Définition 4.8 (Fonction de répartition conjointe)
Soient X et Y deux variables aléatoires réelles définies sur un même espace probabilisé (Ω, P(Ω), P).
On appelle fonction de répartition conjointe de X et Y, ou fonction de répartition du couple (X, Y),
la fonction FX,Y de deux variables définie par

FX,Y (x, y) = P(X 6 x , Y 6 y).

4.4.1 Lois conjointes et lois marginales, conditionnement : cas discret


Définition 4.9 (Loi conjointe)
4.4. COUPLES DE VARIABLES ALÉATOIRES : LOI CONJOINTE ET LOI MARGINALE 31

Si X et Y prennent des valeurs xi et y j en nombre fini ou dénombrable, la loi conjointe du couple


(X, Y), notée PX,Y , est entièrement définie par l’ensemble des nombres
 
PX,Y xi , y j = P X = xi , Y = y j .

On note pi, j = P (X = xi , Y = y j .
Définition 4.10 (Lois marginales)
On appelle lois marginales les lois de probabilité de X et de Y prises séparément,
• Loi marginale de X : P (X = xi ) = ∑ pi, j := pi ,
j

• Loi marginale de Y : P (Y = yi ) = ∑ pi, j := p j .


i

Définition 4.11 Soient X et Y sont deux variables aléatoires discrètes.


• La loi conditionnelle de X sachant Y est définie par

P(X = x , Y = y)
P(X = x | Y = y) = .
P(Y = y)

• La loi conditionnelle de Y sachant X est définie par

P(X = x , Y = y)
P(Y = y | X = x) = .
P(X = x)

4.4.2 Lois marginales, conditionnement : cas continu


Proposition 4.6 Soit un couple de variables aléatoires (X,Y ) de fonction de densité fX,Y , alors,
les lois marginales de X et de Y sont respectivement
Z Z
fX (x) = fX,Y (x, y)dy et fY (y) = fX,Y (x, y)dx.
R R

Proposition 4.7 Deux variables aléatoires continues X et Y sont indépendantes si et seulement


si tout couple (u, v) de réels, on a :

fX,Y (x, y) = fX (x) · fY (y).

Vous aimerez peut-être aussi