Vous êtes sur la page 1sur 41

Université Abdelmalek Essaadi

Faculté des Sciences et Techniques de Tanger


Département de Mathématiques

Introduction au calcul des Probabilités


Mohamed Fihri

Tanger, le 16 mars 2020


Table des matières

1 Analyse Combinatoire 4
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Principe élémentaire de comptage . . . . . . . . . . . . . . . . 4
1.3 Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Arrangements et Combinaisons . . . . . . . . . . . . . . . . . 5
1.4.1 Arangements . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.2 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . 6
1.4.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2 Théorie des Probabilités 8


2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Expérience et événement aléatoires . . . . . . . . . . . . . . . 8
2.3 Bases axiomatiques des probabilités . . . . . . . . . . . . . . . 10
2.3.1 Tribu et espace probabilisable . . . . . . . . . . . . . . 10
2.3.2 Espace probabilisé . . . . . . . . . . . . . . . . . . . . 10
2.3.3 Evénements équiprobables . . . . . . . . . . . . . . . . 11
2.4 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . 11
2.5 Evénements indépendants . . . . . . . . . . . . . . . . . . . . 13

3 Variables Aléatoires 15
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . 16

4 Variables aléatoires discrètes 19


4.1 Definition d’une variable aléatoire discrète . . . . . . . . . . . 19
4.2 Loi d’une variable alétoire discrète . . . . . . . . . . . . . . . . 19
4.3 Moments d’une variable aléatoire discrète . . . . . . . . . . . . 20
4.3.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.3.2 Moment d’ordre k et moment centré d’ordre k . . . . . 21
4.3.3 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2
TABLE DES MATIÈRES

4.4 Inégalité de Bienaymé-Tchebychev . . . . . . . . . . . . . . . 22


4.5 Lois discrètes usuelles . . . . . . . . . . . . . . . . . . . . . . . 22
4.5.1 Loi Uniforme . . . . . . . . . . . . . . . . . . . . . . . 23
4.5.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . 23
4.5.3 Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . 23
4.5.4 Loi Géométrique . . . . . . . . . . . . . . . . . . . . . 25
4.5.5 Distribution de Poisson . . . . . . . . . . . . . . . . . . 26

5 Variables aléatoires continues 29


5.1 Definition d’une variable aléatoire continue . . . . . . . . . . . 29
5.2 Loi d’une variable alétoire continue . . . . . . . . . . . . . . . 29
5.3 Fonction d’une variable aléatoire continue . . . . . . . . . . . 30
5.4 Moments d’une variable aléatoires continue . . . . . . . . . . . 30
5.4.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.4.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.4.3 Moment d’ordre r et moment centré d’ordre r . . . . . 32
5.5 Lois continues usuelles . . . . . . . . . . . . . . . . . . . . . . 32
5.5.1 Loi Uniforme . . . . . . . . . . . . . . . . . . . . . . . 32
5.5.2 Loi Exponentielle . . . . . . . . . . . . . . . . . . . . . 33
5.5.3 Loi de Cauchy . . . . . . . . . . . . . . . . . . . . . . . 34
5.5.4 Loi Normale (un cas spécial) . . . . . . . . . . . . . . . 35
5.5.5 Lois dérivées de la loi normale . . . . . . . . . . . . . 38
5.6 Approximation des lois par la loi normale . . . . . . . . . . . . 40
5.6.1 Approximation de la loi binomiale par la loi normale . 40
5.6.2 Approximation de la loi de Poisson par la loi normale . 41
5.6.3 Approximation de la loi de Khi-deux par la loi normale 41
5.6.4 Approximation de la loi de Student par la loi normale . 41

M. Fihri (3/41) FST – Tanger


Chapitre 1

Analyse Combinatoire

1.1 Introduction
En théorie des probabilités, on est souvent devant des situations où il est
indispensable de dénombrer les probabilités pour qu’un événement donné
se réalise. Pour cela, nous allons étudier les plus courantes méthodes de
dénombrement.
Avant de parler des permutations et des combinaisons, il est utile d’in-
troduire une technique de comptage assez générale

1.2 Principe élémentaire de comptage


Considérant une expérience qui se réalise en n étapes et telle que les
résultats d’une étape soient indépendants des étapes précédentes. Pour i =
1, ..., n, on note mi le nombre de résultats possible à la ième étape.

Résultat 1.2.1. Le nombre total des résultats possible à la fin d’une telle
expérience est égal à :

m = m1 × m2 × ... × mn . (1.1)

Exemple 1.2.1. Dans un restaurant, un menu comprend :


— Une entrée : 2 choix : salade, soupe/
— Un plat principal : 3 choix : viande, poulet, poisson/
— Un dessert : 2 choix : glace, fruit.
De combien de façon peut-on former un menu ?

4
CHAPITRE 1. ANALYSE COMBINATOIRE

1.3 Permutation
Exemple 1.3.1. Les permutations possible des lettres A, B et C sont : ABC,
ACB, BAC, BCA, CAB et CBA. Soient 6 permutations au total.

Résultat 1.3.1 (Permutation sans répétition). Le nombre de permutations


de n objets distincts est égal à

n! = n × (n − 1) × ... × 3 × 2 × 1. (1.2)

Exemple 1.3.2. Les permutations possible des lettres A, A, B, B et B sont :


AABBB, ABABB, ABBAB, ABBBA, BAABB, BABAB, BABBA, BBAAB,
BBBAA. Soient 10 permutations au total.

Résultat 1.3.2 (Permutation avec répétition). Soit E un ensemble à n


éléments comportant n1 éléments de type T1 (indiscernables entre eux), n2
éléments de type T2 (indiscernables entre eux), ... et nr éléments de type Tr
(indiscernables entre eux). Alors, le nombre de possibilités pour ranger les
élément de E est donné par :
n!
avec n = n1 + n2 + ... + nr . (1.3)
n1 !n2 !...nr !

1.4 Arrangements et Combinaisons


Considérons une urne contenant n boules numérotées de 1 à n. L’expérience
consiste à tirer p boules de cette urne. Quel est le nombre de résultats pos-
sibles ?
Pour répondre à cette question on distingue les différentes situations sui-
vantes :
1. Tirage sans remise
(a) l’ordre des résultats est pris en considération.
(b) l’ordre des résultats n’est pas pris en considération.
2. Tirage avec remise
(a) l’ordre des résultats est pris en considération.
(b) l’ordre des résultats n’est pas pris en considération.

Définition 1.4.1. Lorsque l’ordre des résultats est pris en compte, on parle
d’ arrangements.
Lorsque l’ordre des résultats n’est pas pris en compte, on parle decombinaisons.

M. Fihri (5/41) FST – Tanger


CHAPITRE 1. ANALYSE COMBINATOIRE

1.4.1 Arangements
Arangements sans répétition
Considérons n objets discernables O1 , O2 , ..., On . Pour former un p−uplet
Oi1 , Oi2 , ..., Oip -sachant que tous les Oij sont distincts-, on passe par p
étapes, à la ième étape le nombre de réalisations possible est égale à n−(i−1).
On a le résultat suivant :

Résultat 1.4.1. Le nombre d’arrangement sans répétition de p objets choisis


parmi n est noté Apn et est donné par
n!
Apn = n(n − 1)(n − 2)...(n − (p − 1)) = . (1.4)
(n − p)!

Arangements avec répétition



Avec n objets discernables O1 , O2 , ..., On . Pour former un p−uplet Oi1 , Oi2 , ..., Oip
-où les Oij ne sont pas forcément distincts-, on passe par p étapes et à
chaque étape le nombre de réalisations possible est égale à n. On a le résultat
suivant :

Résultat 1.4.2. Le nombre d’arrangement avec répétition de p objets choisis


parmi n est égal à np .

1.4.2 Combinaisons
Combinaisons sans répétition
Reprenant l’exemple de l’urne du début de la section. On choisit, sans
remise, p boules et sans que l’ordre intervient. Quel est alors le nombre de
résultats possibles ?
On sait que si l’ordre intervient, on aura Apn cas possibles. Dans ce cas
chaque groupe de p numéro engendre p! combinaisons ordonnée. Pour obtenir
le nombre de combinaisons non ordonnées, il suffit de diviser Apn par p!. On
a donc le résultat suivant :

Résultat 1.4.3. Le nombre de possibilités de choisir p objets parmi n dis-


tincts est noté Cnp et est donné par
Apn n!
Cnp = = . (1.5)
p! p!(n − p)!
On a : Cn0 = Cnn = 1 et Cn1 = Cnn−1 = n.

M. Fihri (6/41) FST – Tanger


CHAPITRE 1. ANALYSE COMBINATOIRE

Combinaisons avec répétition


Définition 1.4.2. Soient p et n deux entiers, une suite (p1 , p2 , ..., pn ) d’en-
tiers positifs ou nuls satisfaisant la relation
p = p1 + ... + pn
est appelée décomposition de p en p1 + p2 + ... + pn .
Résultat 1.4.4. Le nombre de combinaison avec répétitions est égale au
nombre de décomposition de p objets pris parmi n est noté Knp et est égal à
p
Knp = Cn+p−1 . (1.6)
Définition 1.4.3. Le nombre de possibilités de répartir p objets identiques
p
dans n cases est égal à Knp = Cn+p−1 .
Exemple 1.4.1. Soit f une fonction à 2 variables dérivable. Le nombre de
dérivées partielles d’ordre 3 de f est égal à K23 = C2+3−1
3
=4
Exemple 1.4.2 (Le nombre de pièces dans un jeu de dominos). Un domino
est une 2-combinaison avec répétition de l’ensemble E = {blanc, 1, 2, 3, 4, 5, 6}.
Chaque domino est représenté par deux résultats de E. Le nombre de pièce
dans un jeu de domino est donc K72 = C7+2−1 2
= 28
Exemple 1.4.3. Une université désire répartir 10 enseignants sur 3 facultés.
De combien de façons peut-on répartir ces enseignants ?

1.4.3 Exemple
On considère trois objets : a, b et c (n = 3), on veut sélectionner p = 2
objets parmi a, b et c. On a les cas suivants :
1. Sans répétition et sans ordre
(a,b), (a,c) et (b,c)
C32 = 3
2. Sans répétition et avec ordre
(a,b), (a,c), (b,c), (b,a), (b,c) et (c,a)
A23 = 6
3. Avec répétition et sans ordre
(a,b), (a,c), (b,c), (a,a), (b,b) et (c,c)
K32 = C3+2−1
2
= C42 = 6
4. Avec répétition et avec ordre
(a,b), (a,c), (b,c), (b,a), (b,c) et (c,a) (a,a), (b,b) et (c,c)
32 = 9

M. Fihri (7/41) FST – Tanger


Chapitre 2

Théorie des Probabilités

2.1 Introduction
Les origines de la théorie des Probabilités remontent au 17ème siècle en
manipulant la notion du hasard en mathématique. L’élaboration axiomatique
de la théorie des Probabilités a été établie par Kolmogorov (1933).

2.2 Expérience et événement aléatoires


Une expérience est dite aléatoire lorsque ses résultats dépendent du
hasard . Même si l’ensemble des résultats possibles d’une expérience aléatoire
est connu, il est impossible de prédire avec certitude une issue.
Exemple 2.2.1. On sait d’avance, qu’en lançant un dé à six faces numérotées
de 1 à 6, on ne peut pas prédire avec certitude le résultat.
Définition 2.2.1. L’ensemble des résultats possible d’une expérience aléatoire
est noté Ω et est appelé ensemble 1 fondamental ou univers des pos-
sibles.
Exemple 2.2.2. – Jet d’une pièce de monnaie : Ω = {P, F }
– Lancer d’un dè : Ω = {1, 2, 3, 4, 5, 6}
On cite 3 types d’ensembles fondamentaux :
1. Ensemble fondamental fini : Lancer d’un dè : Ω = {1, 2, 3, 4, 5, 6}.
2. Ensemble fondamental infini denombralble : Imaginons de manière
abstraite un lancer d’une pièce de monnaie jusqu’à l’obtention de pile
P.
1. aussi appelé espace

8
CHAPITRE 2. THÉORIE DES PROBABILITÉS

Ω = {P, F P, F F P, F F F P, ...}
3. Ensemble fondamental infini non denombralble : Durée de vie
d’une ampoule.

Ω = [0, +∞[
Remarque 2.2.1. On peut scinder les espaces fondamentaux en deux type :
1. Discret : fini, infini dénombrable.
2. Continu : infini et non dénombrable.
Définition 2.2.2 (Événement, événement élémentaire). 1. On appelle événement
tout sous-ensemble de Ω.
2. On appelle événementualité ou événement élémentaire tout sin-
gleton de Ω et on le note par ω.
Exemple 2.2.3. Jet d’un dè, Ω = {1, 2, 3, 4, 5, 6} = {ω1 , ω2 , ω3 , ω4 , ω5 , ω6 }
1. ∀i, {ωi } est un événement élémentaire.
2. A = {1, 2} est un événement, formulé par la phrase : ”Obtenir 1 ou
2”.
Remarque 2.2.2. 1. l’ensemble Ω est un événement lui même et est
appelé événement certain.
2. l’ensemble vide ∅ est un événement et est appelé événement impos-
sible.

Opérations sur les événement


Soient A et B deux événements (i.e. deux sous-ensembles de Ω), on a les
opérations suivantes :
1. Le complémentaire de l’événement A dans Ω, noté Ā, c’est l’événement
contraire de A.
2. La réunion de A et B (noté A ∪ B) est un événement. Il se réalise si,
et seulement si, au moins l’un des événements A et B se réalise.
3. L’intersection de A et B (noté A ∩ B) est un événement. Il se réalise
si, et seulement si, les deux événements A et B se réalisent.
4. Lorsque A ⊂ B, la réalisation de A implique la réalisation de B.
Définition 2.2.3. Lorsque A ∩ B = ∅, on dit que les événement A et B sont
incompatibles ou disjoints.
Exemple 2.2.4. Jet d’un dè, Ω = {1, 2, 3, 4, 5, 6}. Les événements A =
{1, 2} et B = {4, 5, 6} sont ”disjoints”.

M. Fihri (9/41) FST – Tanger


CHAPITRE 2. THÉORIE DES PROBABILITÉS

2.3 Bases axiomatiques des probabilités


Dans de nombreuses situations les événements d’intérêt ne constituent
qu’un sous-ensemble de P(Ω). Ce sous-ensemble doit posséder certaines pro-
priétés qui garantissent les opérations sur les événements.

2.3.1 Tribu et espace probabilisable


Définition 2.3.1 (Tribu). Soient Ω un ensemble non vide et F un sous-
ensemble de P(Ω). On dit que F est une tribu (ou σ−algère) de Ω si
1. Ω ∈ F,
2. F est stable par passage au complémentaire : A ∈ F ⇒ Ā ∈ F,
S
3. F est stable pour une réunion dénombrable : ∀(An )n ⊂ F, n An ∈
F.

On remarque que siTF est une tribu, alors elle est stable pour une inter-
section dénombrable : n An ∈ F.

Exemple 2.3.1. – F = P(Ω) est une tribu.


– F = {∅,
 Ω} est appelée tribu triviale.
– F = ∅, A, Ā, Ω est appelée tribu de Bernoulli (ou tribu engendrée
par A).
– Soient Ω ⊂ R et I(Ω) = {I : I ⊂ Ω est un intervalle}, alors la tribu
engendrée par I(Ω), notée BΩ , est appelée tribu borelienne de Ω.

Définition 2.3.2 (Espace probabilisable). Soient Ω un ensemble non vide


et F une tribu de Ω. Le couple (Ω, F) est appelé espace probabilisable (ou
mesurable).

2.3.2 Espace probabilisé


Définition 2.3.3 (Probabilité). Soit (Ω, F) un espace probabilisable. On
dit qu’une fonction P : F → [0, 1] est une probabilité si elle vérifie les
axiomes suivantes :
1. (normalisation) P(Ω) = 1 ;
S
(σ−additivité) ∀(An )n ⊂ F et ∀i 6= j : Ai ∩ Aj = ∅, on a P ( n An ) =
2. P
n P (An ).

Exemple 2.3.2. Soit Ω = {ω1 , ω2 , ..., ωn } un espace fondamental à n éléments


(card(Ω) = n). Prenons F = P(Ω), alors l’application

M. Fihri (10/41) FST – Tanger


CHAPITRE 2. THÉORIE DES PROBABILITÉS

P : F −→ [0, 1]
card(A)
A 7−→ P(A) := n

est une probabilité et est appelée probabilité uniforme.

Définition 2.3.4 (Espace probabilisé). Soient (Ω, F) un espace probabi-


lisable et P : F → [0, 1] une probabilité, alors le triplet (Ω, F, P) est appelé
espace probabilisé (ou mesuré).

Propriétés 2.3.1. Pour tout A, B ∈ F :


1. P(A ∪ B) = P(A) + P(B) − P(A ∩ B),
2. P(Ā) = 1 − P(A),
3. P(∅) = 0,
4. si B ⊂ A, on note A \ B = A ∩ B̄, On a

P(B) ≤ P(A) et P(A \ B) = P(A) − P(B),


5. ∀(ASn )n∈N une
 suite croissante (resp.
T décroissante)
 dans F, alors :
P n∈N An = lim P(An ) (resp. P n∈N An = lim P(An ) )
n→∞ n→∞

Remarque 2.3.1. – P(A) = 0 ; A = ∅ ;


– P(A) = 1 ; A = Ω.

2.3.3 Evénements équiprobables


Pour certaines expérience, l’ensemble fondamental est fini (Ω = {ω1 , ω2 , ..., ωn })
et les événements élémentaires ont la même probabilité : P(ω1 ) = P(ω2 ) =
... = P(ωn ) = p = 1/n (on dira aussi que les ωi sont équiprobable).

2.4 Probabilité conditionnelle


Dans cette section, on va étudier le calculs des probabilités avec disposi-
tion d’information supplémentaire concernant le résultat de l’expérience. On
parle alors de probabilités conditionnelles.
On Considère maintenant un événement A, il est intuitif que l’utilisation
de l’information ’B est réalisée’ (c’est à dire P(B) > 0) peut changer le
calcul de la probabilité de A.

M. Fihri (11/41) FST – Tanger


CHAPITRE 2. THÉORIE DES PROBABILITÉS

Définition 2.4.1. La probabilité de A, sachant B, notée P(A/B) ou


PB (A) est appelée probabilité conditionnelle, elle est définie :

PB : F −→ [0, 1]
P(A∩B)
A 7−→ PB (A) := P(B)

Remarque 2.4.1. L’application PB est une probabilité sur F et vérifie toutes


les propriétés d’une probabilité.

Théorème 2.4.1 (Théorème des probabilités composées ou règle de la mul-


tiplication).

P(A ∩ B) = P(B/A)P(A) = P(A/B)P(B).

En voici une généralisation

P(A1 ∩ A2 ∩ ... ∩ Am ) = P(Am /A1 ∩ A2 ∩ ... ∩ Am−1 ) × P(Am−1 /A1 ∩ A2 ∩ ... ∩ Am−2 )
× ... × P(A2 /A1 )P(A1 ).

Définition 2.4.2 (Système complet/Partition). On dit que les événements


A1 , . . . , A
Skk forment une partition de Ω, si
(i) i Ai = Ω,
(ii) ∀i 6= j : Ai ∩ Aj = ∅.

Théorème 2.4.2 (Formule de probabilité totale). Soit A1 , . . . , Ak un système


complet d’évènements. Alors
k
X k
X
P(B) = P(B ∩ Aj ) = P(Aj )P(B/Aj ).
j=1 j=1

Théorème 2.4.3 (Formule de Bayes). Soit A1 , . . . , Ak un système complet


d’évènements. Soit E un évènement de probabilité non nulle. Alors

P(Aj ∩ E) P(Aj )P(E/Aj )


P(Aj /E) = = Pk .
i=1 P(Ai )P(E/Ai )
P(E)

Proposition 2.4.1. Soient A et B deux événements tels que P (B) > 0,


alors
P(A ∩ B) P(A)P(B/A)
P(A/B) = = .
P(B) P(A)P(B/A) + P(Ā)P(B/Ā)

M. Fihri (12/41) FST – Tanger


CHAPITRE 2. THÉORIE DES PROBABILITÉS

Exemple 2.4.1. Une urne contient 5 boules noires et 3 boules blanches


(U [5N, 3B]). Quelle est la probabilité d’extraire 2 boules blanches en 2 ti-
rages (Tirage sans remise) ?
On note par B1 , l’événement : ”obtenir une boule blanche au premier
tirage” et B2 l’événement : ”obtenir une boule blanche au deuxième tirage”.
La probabilité cherchée est P(B1 ∩ B2 ) et vaut P(B1 )P(B2 /B1 ).
Or P(B1 ) = 3/8 et P(B2 /B1 ) = 2/7 car lorsqu’une boule blanche est sortie
au premier tirage, il ne reste plus que 7 boules au total, dont 2 seulement sont
blanches. On conclut que P(B1 ∩ B2 ) = 83 × 27 = 28 3
.

Exemple 2.4.2. Considérons deux urnes U1 [10N, 2B] et U2 [5N, 3B] ; Quelle
est la probabilité d’extraire 1 boule blanche ? sachant que la probabilité de tirer
une boule de l’urne U1 est égale à celle de l’urne U2 et vaut 1/2.
On note par B l’événement : ”obtenir une boule blanche” , U1 : ”le tirage
est effectué de l’urne 1” et U2 : ”le tirage est effectué de l’urne 2”.

2.5 Evénements indépendants


Intuitivement, deux événement A et B sont indépendants si la réalisation
de l’un n’a aucun effet sur la réalisation de l’autre

Définition 2.5.1. On dit que l’événement A est indépendant de l’événement


B si
P (A/B) = P(A).

Comme conséquence de la définition, l’événement A est indépendant de


l’événement B si, et seulement si, P (A ∩ B) = P(A) × P(B)
On a aussi : P (B/A) = P(B).

Définition 2.5.2. Une famille (Ai )1≤i≤n de n événements d’un même es-
pace probabilisé (Ω, F, P) est dite indépendante si pour toute partie I de
{1, 2, ..., n}
!
\ Y
P Ai = P(Ai )
i∈I i∈I

Exemple 2.5.1. Reprenons l’exemple 2.4.1 en considérant que le tirage est


avec remise.

Exemple 2.5.2. Jetons un dé équilibré et considérons les événements :


– A : ”Le résultat est impair”,
– B : ”Le résultat est au moins égal à 5”.

M. Fihri (13/41) FST – Tanger


CHAPITRE 2. THÉORIE DES PROBABILITÉS

Ω = {1, 2, 3, 4, 5, 6},
A = {1, 3, 5}, P(A) = 1/2
B = {5, 6}, P(B) = 1/3
A ∩ B = {5}, P(A ∩ B) = 1/6
alors, P(A ∩ B) = P(A) × P(B) et donc A et B sont indépendants.

Exemple 2.5.3 (l’indépendance n’est pas transitive). Soit Ω = {ω1 , ω2 , ω3 , ω4 },


telle que :
P({ω1 }) = P({ω2 }) = 1/10 et P({ω3 }) = P({ω4 }) = 4/10.
Considérons les événements :
– A = {ω1 , ω2 },
– B = {ω2 , ω3 } et
– C = {ω3 , ω4 }.
P(A∩B) = P(ω2 ) = 1/10 = P(A)×P(B) et donc A et B sont indépendants.
P(B∩C) = P(ω3 ) = 4/10 = P(B)×P(C) et donc B et C sont indépendants.
P(A ∩ C) = P(∅) = 0 6= P(A) × P(C) et donc A et C ne sont pas
indépendants.

M. Fihri (14/41) FST – Tanger


Chapitre 3

Variables Aléatoires

3.1 Introduction
Dans une expérience aléatoire, on s’intéresse à une donnée numérique
résultat de cette expérience. Par exemple, lors de lancé de deux dés, on
s’intéresse à la somme des résultats trouvés (et non pas au détail du déroulement
du lancement). Donc une variable aléatoire (va) est une application qui
à tout résultat du hasard associe une certaine quantité numérique.
La notion des variables aléatoires est très utile en calcul des probabilités
et en statistique. Elle permet de travailler sur R. Les variables aléatoires sont
des objets centraux en théorie des probabilités. Elles jouent le même rôle que
les fonctions en analyse.

3.2 Définition
Définition 3.2.1. Soit (Ω, F) un espace mesurable. On appelle variable
aléatoire réelle sur Ω tout application

X : Ω −→ R
telle que :
∀x ∈ R, {ω ∈ Ω X(ω) ≤ x} ∈ F.

On note {ω ∈ Ω X(ω) ≤ x} = {X ≤ x}.


{X ∈ I} et{X ≤ x} sont des événements.

Remarque 3.2.1. L’ensemble Ω étant fini, pour toute fonction X définie sur
Ω, l ?ensemble X(Ω) des valeurs prises par X est lui aussi fini, de cardinal
inférieur ou égal à celui de Ω.

15
CHAPITRE 3. VARIABLES ALÉATOIRES

Exemple 3.2.1. on jette une pièce de monnaie deux fois, Ω = {P P, P F, F P, F F }.


Soit la variable aléatoire désignant ”le nombre de pile obtenu”.
X ∈ {0, 1, 2} (X(Ω) = {0, 1, 2}) et
P(X = 0) = P(F F ) = 1/4.
P(X = 1) = P(F P, P F ) = 2/4.
P(X = 2) = P(P P ) = 1/4.
Exemple 3.2.2. On lance deux dés équilibrés. Montrer que la variable X
définie par X : ”Somme des points obtenus” est une variable aléatoire.
C’est à dire, il faut montrer que ∀x ∈ R, l’ensemble {ω ∈ Ω X(ω) ≤
x} ∈ F = P(Ω).
X ∈ {2, 3, ..., 12}
– Si x < 2 alors {X ≤ x} = ∅ ∈ F.
– Si x > 12 alors {X ≤ x} = Ω ∈ F.
– Si 2 ≤ x ≤ 12 alors {X ≤ x} = ∪i≤x (X = i) ∈ F.
Proposition 3.2.1. Soient X et Y deux variables aléatoires, k ∈ R et n ∈ N.
Alors
1. X + Y est une variable aléatoire ;
2. X − Y est une variable aléatoire ;
3. XY est une variable aléatoire ;
4. kX est une variable aléatoire ;
5. X n est une variable aléatoire ;
6. de plus, si X ne s’annule jamais, 1/X est un variable aléatoire.
Exemple 3.2.3. soit A une partie de F, la fonction indicatrice 1A est une
variable aléatoire.
Remarque 3.2.2. On peut scinder les variables aléatoires en deux types :
. variables aléatoires discrètes.
. variables aléatoires continues.

3.3 Fonction de répartition


Définition 3.3.1. Soit X une variable aléatoire définie sur (Ω, F, P). L’ap-
plication
F : R −→ [0, 1]
x 7−→ F (x) := P(X ≤ x)
s’appelle la fonction de répartition de la variable aléatoire X.
On pose
FX (x) = P (X ≤ x).

M. Fihri (16/41) FST – Tanger


CHAPITRE 3. VARIABLES ALÉATOIRES

Proposition 3.3.1. La fonction de répartition F est une fonction croissante


et continue à droite et on a : lim F (x) = 0 et lim F (x) = 1.
x→−∞ x→+∞

Figure 3.1 – Fonction de répartition d’une v.a. X et lecture des probabilités.

Exemple 3.3.1. Jet d’une pièce de monnaie équilibrée. Ω = {P, F } et


P(P ) = P(F ) = 1/2
Soit X : Ω −→ R avec :

1 si ω = P
X(ω) = ,
0 si ω = F

alors, 
 0 si x<0
F (x) = P(X ≤ x) = 1/2 si 0≤x<1 ,
1 si x≥1

Théorème 3.3.1. ∀a < b ∈ R,

P(a < X ≤ b) = F (b) − F (a).

En prenant la limite pour b à l’infini, on obtient

P(X > a) = 1 − F (a).

Démonstration. On a ] − ∞, b] =] − ∞, a]∪]a, b], donc P(X ∈] − ∞, b]) =


P(X ∈] − ∞, a]) + P(X ∈]a, b])

M. Fihri (17/41) FST – Tanger


CHAPITRE 3. VARIABLES ALÉATOIRES

La fonction de répartition caractérise la loi d’une variable aléatoire.

Exemple 3.3.2. On lance une pièce de monnaie. Si on obtient pile on gagne


50DH, si face on perd 10DH.
Considérons la variable aléatoire : ” Gain réalisé après une partie”
X ∈ {−10, 50}.

 si x < −10 : FX (x) = P(X ≤ x) = 0
si −10 ≤ x < 50 : FX (x) = 1/2 ,
si x ≥ 50 FX (x) = 1

Tracer la fonction de répartition de cet exemple.

Exemple 3.3.3. Une urne contient 2 boules blanches et 10 boules noires.


Un certain jeu permet de gagner 50DH si on en tire une boule blanche et
de perdre 20Dh si on en tire une boule noire. On tire successivement deux
boules de l’urne, on considère la variable aléatoire :”Gain réalisé après deux
tirages”.
Tracer la fonction de répartition de cet exemple.

Définition 3.3.2 (Indépendance). Deux variables aléatoires X et Y défnie


sur (Ω, F) sont indépendantes si et seulement si pour tous réels t et t0

P([X ≤ t] ∩ [Y ≤ t0 ]) = P(X ≤ t) × P(Y ≤ t0 ).

La fonction de répartition permet de définir le quantile d’ordre α.

Définition 3.3.3. Soit α ∈ [0, 1] fixé. Le quantile d’ordre α de la distribution


de X est le nombre

xα = inf{x ∈ R : F (x) ≥ α}.

S’il existe un unique nombre c tel que F (c) = α, alors xα = c. Mais la


définition ci-dessus permet de définir xα même dans les cas où il n’y a pas
de tel c.
Terminologie
. x1/2 est la médiane,
. x1/4 et x3/4 sont les 1er et 3ème quartiles,
. xi/10 , i = 1, 2, ..., 9, sont les déciles,
. xi/100 , i = 1, 2, ..., 99, sont les percentiles.

M. Fihri (18/41) FST – Tanger


Chapitre 4

Variables aléatoires discrètes

4.1 Definition d’une variable aléatoire discrète


Définition 4.1.1. Soit (Ω, F) un espace probabilisable, une variable aléatoire
X est discrète si l’ensemble des valeurs prises X(Ω) peut être indexé par une
partie de N : X(Ω) = {xi }i∈I où I ⊂ N et pour tout i ∈ I, l’ensemble
{X = xi } est un événement ({X = xi } ∈ F).
Remarque 4.1.1. ◦ On distingue les variables aléatoires discrètes fi-
nies et infinies pour lesquelles I est finie ou non.
◦ X est dite discrète si elle prend un nombre fini ou dénombrable de
valeurs.
◦ Si X est une variable aléatoire discrète à valeur dans {x1 , x2 , ..., xn }
(X(Ω) = {x1 , x2 , ..., xn }), alors

{X ≤ x} ={X = x1 } ∪ {X = x2 }... ∪ {X = xj }, xj ≤ x
(4.1)
= ∪xi ≤x {X = xi }

X
FX (x) =P({X ≤ x}) = P(∪xi ≤x {X = xi }) = P({X = xi }) (4.2)
xi ≤x

4.2 Loi d’une variable alétoire discrète


Définition 4.2.1. Soit (Ω, F, P) un espace probabilisé et X une variable
aléatoire discrète, on dit que l’on connait la loi de X si l’on connait
◦ X(Ω) = {xi , i ∈ N} (ou X(Ω) = {x1 , x2 , ..., xn }),
◦ pour tout xi ∈ X(Ω), pi = P (X = xi ).
Les probabilités pi vérifient :

19
CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

. Pni=1 pi = 1, pour X(Ω) = {x1 , x2 , ..., xn },


P

. i=1 pi = 1, pour X(Ω) = {xi , i ∈ N}.

Exemple 4.2.1. On jette deux dés équilibrés (Ω = {(1, 1), (1, 2), ..., (6, 6)} –
card(Ω) = 36) et on note S : ” la somme des résultats obtenus ”. S est une
variable aléatoire discrète. S(Ω) = {2, 3, ..., 12}.

Figure 4.1 – Representation graphique de la loi de l’exemple 4.2.1.

Proposition 4.2.1. Soit X une variable aléatoire discrète sur Ω. Si g est


une application définie sur X(Ω), alors Y = g(X) est une variable aléatoire
discrète.

4.3 Moments d’une variable aléatoire discrète


4.3.1 Espérance
Définition 4.3.1. Soit (Ω, F, P) un espace probabilisé et X une variable
aléatoire discrète,
◦ si X(Ω) est fini et (xi , pi )1≤i≤n la loi de X, alors l’espérance de X est
X
E(X) = xi p i .
1≤i≤n

◦ si X(Ω) est infini et (xi , pi )i∈N la loi de X, alors X admet une espérance
si la série de terme général (xi pi ) est absolument convergente. Dans
ce cas l’espérance de X est
X
E(X) = xi p i .
i∈N

M. Fihri (20/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

Proposition 4.3.1. On a
◦ Si X = a, alors E(X) = a.
◦ ∀A ∈ A, E(1A ) = P(A).
◦ (Linéarité) E(X + λY ) = E(X) + λE(Y ) Si toutes les espérances
existent.
◦ (Positivité) Si X ≥ 0, alors E(X) ≥ 0.
◦ (Croissance) Si X ≥ Y , alors E(X) ≥ E(Y ).
◦ |E(X)| ≤ E(|X|).
Proposition 4.3.2 (Théorème de transfert). La variable aléatoire Y = g(X)
admet une espérance si et seulement si la série de terme général g(xi )P (X =
xi ) est absolument convergente. On a alors
X
E(g(X)) = g(xi )P(X = xi ).
i∈I

Avec ce théorème il n’est pas nécessaire de connaitre la loi de Y .


Définition 4.3.2. La variable aléatoire Y = X − E(X) est appelée variable
aléatoire centrée. Son espérance est égale à zéro.

4.3.2 Moment d’ordre k et moment centré d’ordre k


Définition 4.3.3. On appelle moment d’ordre k de la variable aléatoire X,
le nombre X
E(X k ) = xki × P(X = xi ).
i∈I

On appelle moment centré d’ordre k de la variable aléatoire X, le nombre


X
E (X − E(X))k = (xi − E(X))k × P(X = xi ).
i∈I

4.3.3 Variance
Définition 4.3.4. Soit (Ω, F, P) un espace probabilisé et X une variable
aléatoire discrète d’espérance E(X), alors on appelle variance de X le nombre
X
V(X) = E (X − E(X))2 = (xi − E(X))2 × P(X = xi ).
i∈I
p
L’écart type est la racine carré de la variance. On écrit σ(X) = V(X)
Proposition 4.3.3 (Koenig). On a
V(X) = E(X 2 ) − (E(X))2

M. Fihri (21/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

Proposition 4.3.4. On a
— la variance si elle existe est positive,
— la variance est quadratique : pour tout réel λ, V(λX) = λ2 V(X).
— V(X + µ) = V(X) pour tout réel µ.

4.4 Inégalité de Bienaymé-Tchebychev


Théorème 4.4.1. Inégalité de Markov Soit X une variable aléatoire
réelle définie sur un espace probabilisé (Ω, F, P ) telle que X(Ω) ⊂ R+ et
possédant une espérance m = E(X), alors on a,
E(X)
∀λ > 0, P [X ≥ λ] ≤ .
λ
Théorème 4.4.2. Inégalité de Bienaymé-Tchebychev Soit X une va-
riable aléatoire réelle définie sur un espace probabilisé (Ω, F, P ) possédant
une espérance m = E(X) et une variance σ 2 = V(X), alors on a

σ2
∀ > 0, P [|X − m| ≥ ] ≤ .
2
Preuve. On applique l’inégalité de Markov pour la variable Y = (X−m)2
et λ = 2
Remarque 4.4.1. Ce théorème exprime que plus la variance est faible,
moins X s’éloigne de m.
Pour une autre interprétation on pose  = kσ si σ > 0, on obtient
1
P [|X − m| ≥ kσ] ≤ .
k2
Ceci doit se lire ”il y a moins d’une chance sur k 2 que X prenne une
valeur au delà de k fois l’écart-type par rapport à l’espérance”.
Corolaire 4.4.1. Si V(X) = 0 alors P(X = E(X)) = 1.

4.5 Lois discrètes usuelles


De nombreuses situations pratiques peuvent être modélisées à l’aide de
variables aléatoires qui sont régies par des lois spécifiques. Il importe donc
d’étudier ces modèles probabilistes qui pourront nous permettre par la suite
d’analyser les fluctuations de certains phénomènes en évaluant, par exemple,
les probabilités que tel événement ou tel résultat soit observé.

M. Fihri (22/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

4.5.1 Loi Uniforme


Définition 4.5.1. On dit que X suit une loi uniforme sur {1, · · · , n}, si
1
P(X = i) = , pour tout i ∈ {1, · · · , n}.
n
Cette loi est associée à une expérience dont toutes les issues sont également
probables.
Proposition 4.5.1. Si X ∼ U{1,··· ,n} , alors

n+1 n2 − 1
E(X) = , V(X) = .
2 12

4.5.2 Loi de Bernoulli


Définition 4.5.2. Une variable aléatoire discrète qui ne prend que les valeurs
1 et 0 avec les probabilités respectives p et q = 1 − p est appelée variable de
Bernoulli. On note X ∼ B(p).
Exemple 4.5.1. Une urne contient deux boules rouges et trois boules vertes.
On tire une boule de l’urne. La variable aléatoire X représentant ”la boule
tirée est rouge” est une variable de Bernoulli.
On a : p(X = 1) = 2/5 = p, p(X = 0) = 3/5 = q.
Proposition 4.5.2. Si X ∼ B(p), alors

E(X) = p, V(X) = pq.

Plus généralement, on utilisera une variable de Bernoulli lorsqu’on ef-


fectue une épreuve qui n’a que deux issues : le succès ou l’échec. Une telle
expérience est alors appelée épreuve de Bernoulli. On affecte alors 1 à la
variable en cas de succès et 0 en cas d’échec.

4.5.3 Loi Binomiale


a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues :
le succès avec une probabilité p ou l’échec avec une probabilité q.
b) On répète n fois cette épreuve.
c) Les n épreuves sont indépendantes entre elles, ce qui signifie que la pro-
babilité de réalisation de l’événement “succès” est la même à chaque épreuve
et est toujours égale à p.
Dans cette situation, on s’intéresse à la variable X = “nombre de succès
au cours des n épreuves”.

M. Fihri (23/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

Appelons Xi les variables de Bernoulli associées à chaque épreuve. Si la


i-ème épreuve donne un succès, Xi vaut 1. Dans le cas contraire Xi vaut 0.
La somme de ces variables comptabilise donc le nombre de succès au cours
des n épreuves. On a donc X = X1 + X2 + · · · + Xn . X peut prendre n + 1
valeurs : 0, 1, . . . , n.
Cherchons la probabilité d’obtenir k succès, c’est-à-dire P(X = k).
La probabilité d’avoir k succès suivis de n − k échecs est pk q n−k car ces
résultats sont indépendants les uns des autres.
La probabilité d’avoir k succès et n − k échecs dans un autre ordre de
réalisation est toujours pk q n−k . Donc tous les événements élémentaires qui
composent l’événement (X = k) ont même probabilité.
Combien y en a-t-il ’ Autant que de façons d’ordonner les k succès par
rapport aux n − k échecs ’ ? ?. Il suffit de choisir les k places des succès parmi
les n possibles et les n − k échecs prendront les places restantes. Or il y a Cnk
manières de choisir k places parmi n.
Finalement, on obtient

P(X = k) = Cnk pk q n−k .

Définition 4.5.3. On dit que la variable aléatoire X suit une loi binomiale
de paramètres n et p (On note X ∼ B(n, p)) si

P(X = k) = Cnk pk q n−k , ∀k = 0, 1, . . . , n.

Remarque 4.5.1. L’adjectif binomial vient du fait que lorsqu’on somme


toutes ces probabilités, on retrouve le développement du binôme de Newton,
n
X
Cnk pk q n−k = (p + q)n = 1.
k=0

Proposition 4.5.3. Si X ∼ B(n, p), alors

E(X) = np, V(X) = npq.

Proposition 4.5.4 (Somme de deux variables binomiales). Si X1 et X2


sont des variables indépendantes qui suivent des lois binomiales B(n1 , p)
et B(n2 , p) respectivement, alors X1 +X2 suit une loi binomiale B(n1 +n2 , p).

M. Fihri (24/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

Figure 4.2 – Répartition des probabilités de B(n, p), pour n = 8 et p =


.1, .2, .5, .8, .9

4.5.4 Loi Géométrique


a) On effectue une épreuve de Bernoulli. Elle n’a donc que deux issues :
le succès avec une probabilité p ou l’échec avec une probabilité q = 1 − p.
b) On répète l’épreuve jusqu’à l’apparition du premier succès.
c) Toutes les épreuves sont indépendantes entre elles.
Dans cette situation, on s’intéresse à la variable X = “nombre de fois
qu’il faut répéter l’épreuve pour obtenir le premier succès”.

Remarque 4.5.2. On est donc dans les mêmes hypothèses que pour la loi
binomiale, mais le nombre d’épreuves n’est pas fixé à l’avance. On s’arrête
au premier succès.

L’ensemble des valeurs prises par X est infini, X(Ω) = {1, 2, 3, . . .} = N∗ .


On cherche la probabilité d’avoir recours à n épreuves pour obtenir le
premier succès.
Ce succès a une probabilité de réalisation de p. Puisque c’est le premier, il
a été précédé de n−1 échecs qui ont chacun eu la probabilité q de se produire.
Étant donné l’indépendance des épreuves, on peut dire que la probabilité de
réalisation de n − 1 échecs suivis d’un succès est le produit des probabilités
de réalisation de chacun des résultats,

P(X = n) = q n−1 p.

M. Fihri (25/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

Définition 4.5.4. On dit que la variable aléatoire X suit une loi géométrique
de paramètre p. On note X ∼ G(p), si

P(X = k) = q k−1 p, ∀k ∈ N∗ .

Proposition 4.5.5. Si X ∼ G(p), alors

E(X) = 1/p, V(X) = q/p2 .

Figure 4.3 – Répartition des probabilités de G(p), pour p = .8, .5, .2.

4.5.5 Distribution de Poisson


Beaucoup de situations sont liées à l’étude de la réalisation d’un événement
dans un intervalle de temps donné (arrivée de clients qui se présentent à un
guichet d’une banque en une heure, apparitions de pannes d’un réseau infor-
matique en une année, arrivée de malades aux urgences d’un hôpital en une
nuit,....). Les phénomènes ainsi étudiés sont des phénomènes d’attente.
Pour décrire les réalisations dans le temps d’un événement donné, on
peut :
— Soit chercher le nombre de réalisations de l’événement dans un in-
tervalle de temps donné qui est distribué suivant une loi de Poisson.
— Soit chercher le temps entre deux réalisations successives de l’événement
qui est distribué suivant une loi exponentielle (voir chapitre suivant).

M. Fihri (26/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

Définition 4.5.5. La variable aléatoire X suit une loi de Poisson de pa-


ramètre λ > 0 noté P(λ) si X(Ω) = N et

e−λ λk
P(X = k) =
k!
Proposition 4.5.6. Si X ∼ P(λ), alors

E(X) = V(X) = λ.

Figure 4.4 – Répartition des probabilités de P(λ), pour λ = 1, 5, 10.

Proposition 4.5.7. Si X1 et X2 sont des variables aléatoires indépendantes


qui suivent des lois de Poisson de paramètres respectifs λ1 et λ2 , alors X1 +X2
suit une loi de Poisson de paramètre λ1 + λ2 .

La loi de Poisson peut être interprétée comme un cas limite d’une loi
binomiale.

Approximation de la loi binomiale par la loi de Poisson


La loi binomiale dépend de deux paramètres n et p. Bien qu’il existe
quelques tables, elle n’est pas simple à utiliser.
La loi de Poisson ne dépend que d’un paramètre ce qui la rend plus pra-
tique. Il faut donc avoir toujours présent à l’esprit que, lorsque les conditions
le permettent, on peut avoir intérêt à remplacer une loi binomiale par une
loi de Poisson.

M. Fihri (27/41) FST – Tanger


CHAPITRE 4. VARIABLES ALÉATOIRES DISCRÈTES

Lorsque n est grand et p petit, de telle façon que le produit np = λ reste


petit par rapport à n, la loi binomiale B(n, p) peut être approchée par la loi
de Poisson P(λ).
Cette approximation s’appliquant lorsque p est petit, la loi de Poisson est
appelée la loi des événements rares.

Résultat 4.5.1. En pratique, l’approximation est valable si n > 30, p ≤ 0.1


et np ≤ 5.
Dans ce cas, si X ∼ B(n, p), alors X ∼ P(np).

Figure 4.5 – Approximation d’une binomiale par une Poisson.

M. Fihri (28/41) FST – Tanger


Chapitre 5

Variables aléatoires continues

5.1 Definition d’une variable aléatoire conti-


nue
Définition 5.1.1. Une variable aléatoire est dite continue si elle peut prendre
toutes les valeurs d’un intervalle fini ou infini.

Exemple 5.1.1. la variable aléatoire X représentant la durée de vie d’une


ampoule est continue.

5.2 Loi d’une variable alétoire continue


Définition 5.2.1 (Densité). Une variable aléatoire est dite continue ou à
densité si il existe une fonction f définie de R dans R vérifiant
— f est positive sur R,
— f est continue sauf peut-être en un nombre fini de points où elle admet
une
R +∞limite à gauche et une limite à droite.
— −∞ f (x)dx = 1,
On dit que f est une densité de X.

Définition 5.2.2. Pour tous réels a ≤ b avec éventuellement a = −∞ et


b = +∞ Z b
P(a ≤ X ≤ b) = f (x)dx.
a

Remarque 5.2.1. Réciproquement pour toute fonction f vérifiant les pro-


priétés ci dessus, il existe une variable aléatoire X définie sur un espace
probabilisé convenable et admettant f comme densité.

29
CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Définition 5.2.3 (Fonction de répartition). Soit X une variable aléatoire


de densité f . La fonction de répartition de f notée FX est définie pour tout
réel x par :
x
Z
FX (x) = f (t)dt.
−∞
La fonction FX est continue dérivable et on a :
FX0 (x) = f (x).
Proposition 5.2.1. Soit X une variable aléatoire de densité f , pour tout
réel x
P (X = x) = 0.
Pour tous réels a ≤ b
Z b
P (a < X < b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a ≤ X ≤ b) = F (b)−F (a) = f (x)dx.
a

5.3 Fonction d’une variable aléatoire conti-


nue
Soit X une variable aléatoire continue de densité f et de fonction de
répartition F . Soit φ une fonction continue définie sur X(Ω), alors Y = φ(X)
est une variable aléatoire.
Exemple 5.3.1. Soit X une variable aléatoire de densité f , calculer la den-
sité de
1. Y = aX + b,
2. Z = X 2 ,
3. T = eX . [Exercice TD]

5.4 Moments d’une variable aléatoires conti-


nue
5.4.1 Espérance
RDéfinition
+∞
5.4.1. Soit X une variable aléatoire de densité f , telle que
−∞
tf (t)dt converge. On appelle espérance ou moyenne de X le réel défini
par Z +∞
E(X) = tf (t)dt.
−∞
Si E(X) = 0, la variable X est dite centrée.

M. Fihri (30/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Proposition 5.4.1. Soient X et Y deux variables aléatoires continues d’espérances


supposées connues, alors
◦ E(λX) = λE(X), pour tout réel λ.
◦ E(X + Y ) = E(X) + E(Y )
◦ X ≤ Y =⇒ E(X) ≤ E(Y )

Théorème 5.4.1 (Théorème de transfert). Soit X une variable aléatoire de


densité f et φ une fonction continue sur un intervalle contenant X(Ω) alors
E(φ(X)) existe et Z +∞
E(φ(X)) = φ(t)f (t)dt
−∞

si et seulement si l’inégrale est absolument convergente.

5.4.2 Variance
Définition 5.4.2. Soit X une variable aléatoire de densité f , si la variable
aléatoire (X − E(X))2 admet une espérance on a
Z +∞
2
(t − E(X))2 f (t)dt.

V(X) = E (X − E(X)) =
−∞

L’écart-type est la racine carrée de la variance.


Si la variance vaut 1, on dit que la variable X est réduite.

Proposition 5.4.2. On a

V(X) = E(X 2 ) − (E(X))2 .

Proposition 5.4.3. Soit X une variable aléatoire de densité f , alors


◦ V(X) ≥ 0,
◦ V(aX) = a2 V(X), pour tout réel a,
◦ V(X + b) = V(X), pour tout réel b,

Proposition 5.4.4. Soit X une variable aléatoire d’espérance µ et d’écart-


type σ > 0, alors la variable aléatoire Y = X−m
σ
est centrée réduite. (i.e.
E(Y ) = 0 et V(Y ) = 1)

Proposition 5.4.5. Si X et Y deux variables aléatoires indépendantes qui


admettent une variance, alors

V(X + Y ) = V(X) + V(Y ).

M. Fihri (31/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

5.4.3 Moment d’ordre r et moment centré d’ordre r


Définition 5.4.3. Soit X une variable aléatoire à densité f , soit r un entier
naturel ≥ 1. On appelle moment d’ordre r
Z +∞
r
E(X ) = tr f (t)dt.
−∞

On appelle moment centré d’ordre r


Z +∞
r
E((X − m) ) = (t − m)r f (t)dt.
−∞

5.5 Lois continues usuelles


5.5.1 Loi Uniforme
Définition 5.5.1. On dit qu’une variable aléatoire continue X suit une loi
uniforme sur [a, b] (−∞ < a < b < +∞) si sa densité de probabilité est :
1
f (x) = 1[a,b] (x).
b−a
On note X ∼ U[a,b] .

Proposition 5.5.1. Si X ∼ U[a,b] , alors sa fonction de répartition est :



 0 si x < a
x−a
F (x) = si x ∈ [a, b]
 b−a
1 sinon
Proposition 5.5.2. Si X ∼ U[a,b] , alors

a+b (b − a)2
E(X) = et V(X) = .
2 12

M. Fihri (32/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Figure 5.1 – Fonction de répartition (F ) et fonction de densité (f ) de X ∼


U[0,1] .

5.5.2 Loi Exponentielle


Définition 5.5.2. La loi exponentielle de paramètre λ décrit la distribution
d’une variable continue X qui ne prend que des valeurs positives selon la
fonction de densité
f (x) = λe−λx 1R+ (x).
On la note E(λ).

Proposition 5.5.3. Si X ∼ E(λ), alors


1 1
E(X) = et V(X) = 2 .
λ λ
Proposition 5.5.4. Si X ∼ E(λ), alors

F (x) = 1 − e−λx 1R+ (x).

M. Fihri (33/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Figure 5.2 – Fonction de répartition (F ) et fonction de densité (f ) de X ∼


E(λ), λ = 1, 1/2 et 1/4.

Cette distribution est souvent utilisée pour modéliser la durée de vie de


certains composants.
La distribution exponentielle est ”sans mémoire”, dans le sens où,
pour h > 0, on a

P (X > t + h|X > t) = P (X > h).

En effet si X suit une loi exponentielle de paramètre λ, alors

P (X > t) = e−λt ,

donc
P (X > t + h, X > t) P (X > t + h) e−λ(t+h)
P (X > t+h|X > t) = = = = e−λh = P (X > h).
P (X > t) P (X > t) e−λt

La probabilité que le composant survive h unités de temps supplémentaires


ne dépend donc pas de l’âge du composant (le composant ”ne vieillit pas”).

5.5.3 Loi de Cauchy


Définition 5.5.3. Une variable aléatoire X suit une loi de Cauchy si elle
admet une densité f dépendant des deux paramètres x0 et a (a > 0) et définie

M. Fihri (34/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

par
1
f (x) = h i
x−x0 2

πa 1 + a
 
1 a
=
π (x − x0 )2 + a2
x0 est un paramètre de position et a est un paramètre d’échelle, c’est-à-dire
d’étalement.
On note X ∼ C(x0 , a).
Remarque 5.5.1. ◦ x0 est le mode et la médiane.
◦ L’espérance et la variance de cette loi n’existent pas.
◦ On peut en déduire une expression centrée et réduite (par la médiane
et par l’étalement)
1
f (x) =
π (1 + x2 )
et on note X ∼ C(1)
Proposition 5.5.5. Si X ∼ C(x0 , a), alors sa fonction de répartition est de
la forme  
1 x − x0 1
F (x) = arctan + .
π a 2

Figure 5.3 – Fonction de répartition et densité de X ∼ C(x0 , γ)

5.5.4 Loi Normale (un cas spécial)


On rencontre souvent des phénomènes complexes qui sont le résultat de
causes nombreuses, d’effet faible, et plus ou moins indépendantes.

M. Fihri (35/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Un exemple typique est celui de l’erreur commise sur la mesure d’une


grandeur physique. Cette erreur résulte d’un grand nombre de facteurs tels
que : variations incontrôlables de la température ou de la pression, turbulence
atmosphérique, vibrations de l’appareil de mesure, etc. Chacun des facteurs
a un effet faible, mais l’erreur résultante peut ne pas être négligeable. Deux
mesures faites dans des conditions que l’expérimentateur considère comme
identiques pourront alors donner des résultats différents.
Donc dès que nous seront dans une situation où la distribution dépend
de causes
◦ en grand nombre et indépendantes,
◦ dont les effets s’additionnent,
◦ dont aucune n’est prépondérante,
alors nous serons en présence de la distribution normale.
C’est le cas, par exemple en
◦ Métrologie, pour la distribution des erreurs d’observation ou pour
la distribution de phénomènes aléatoires tels que la température et la
pression.
◦ Biologie, pour la distribution de caractères biométriques comme la
taille ou le poids d’individus appartenant à une population homogène.
◦ Technologie, pour la distribution des cotes des pièces usinées.
◦ Economie, pour les fluctuations accidentelles d’une grandeur économique
(production, ventes) autour de sa tendance.

Définition 5.5.4. On dit qu’une variable aléatoire continue suit une loi nor-
male 1 si l’expression de sa fonction de densité de probabilités est de la forme :
1 1 x−µ 2
f (x) = √ e− 2 ( σ ) , x ∈ R.
σ 2π
La loi dépend des deux réels µ et σ appelés paramètres de la loi normale. On
la note N (µ, σ 2 ).

Proposition 5.5.6. Si X ∼ N (µ, σ 2 ), alors

E(X) = µ, V(X) = σ 2 , σ(X) = σ.

Propriétés 5.5.1. La densité de probabilités de la loi normale a la forme


d’une”courbe en cloche”. Elle est symétrique par rapport à la droite verticale
d’abscisse x = µ. Son allure dépend de σ (figure 5.4).

1. Les lois normales sont aussi appelées lois de Gauss ou lois gaussiennes, ou encore
lois de Laplace-Gauss (de Moivre-Laplace-Gauss)

M. Fihri (36/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Figure 5.4 – Densités de la loi normale pour différentes valeurs d’espérances


et pour différentes valeurs d’écart-types

Remarque 5.5.2. L’axe des abscisses est une asymptote et l’aire sous la
courbe à l’extérieur de l’intervalle [µ − 3σ, µ + 3σ] est négligeable. On a

P(µ − σ < X < µ + σ) = 0.6826


P(µ − 2σ < X < µ + 2σ) = 0.9544
P(µ − 3σ < X < µ + 3σ) = 0.9974.

(cas particulier µ = 0, σ = 1, voir figure 5.5)

Figure 5.5 – Densité de X ∼ N (0, 1)

Proposition 5.5.7. Soient X1 et X2 deux variables indépendantes. Si X1


suit N (µ1 , σ12 ) et X2 suit N (µ2 , σ22 ), alors X1 + X2 suit N (µ1 + µ2 , σ12 + σ22 ).

M. Fihri (37/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Proposition 5.5.8 (Loi normale centrée réduite). Si X ∼ N (µ, σ 2 ), alors


X −µ
Z= ∼ N (0, 1)
σ
On utilise le résultat de la proposition 5.5.8 pour calculer les probabilités.
En effet la loi normale centrée et réduite (N (0, 1)) est tabulée à l’aide de sa
fonction de répartition. Elle donne les valeurs de
Z t
1 2
Φ(t) = P(Z ≤ t) = √ e−u /2 du, t ∈ R.
−∞ 2π
Voir la table de la loi normale.

5.5.5 Lois dérivées de la loi normale


La loi du χ2 de Pearson
Définition 5.5.5 (loi du χ2 ). Si X1 , X2 , . . . , Xn sont n variables aléatoires
indépendantes qui suivent toute la loi normale centrée réduite, alors la quan-
tité X = X12 + X22 + · · · + Xn2 est une variable aléatoire distribuée selon la
loi du χ2 à n degrés de liberté. On note X ∼ χ2 (n). n est appelé nombre de
degrés de liberté

Figure 5.6 – densité de X ∼ χ2 (n) pour n = 1, 2, ..., 6.

Proposition 5.5.9. Si X ∼ χ2 (n), alors


E(X) = n, V(X) = 2n.
Proposition 5.5.10 (Somme de deux variables qui suivent une loi du χ2 ).
Si X1 ∼ χ2 (n1 ) et X2 ∼ χ2 (n2 ) sont indépendantes, alors X1 + X2 ∼
χ2 (n1 + n2 ).

M. Fihri (38/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

La loi de Fisher-Snedecor
Définition 5.5.6 (Loi de Fisher). Si X1 et X2 sont deux variables aléatoires
indépendantes qui suivent toutes les deux une loi de khi-deux de degrés de
X1 /n1
. = X2 /n2 est une variable
liberté respectifs n1 et n2 , alors la quantité F
aléatoire qui suit la loi de Fisher-Snedecor à n1 et n2 degrés de liberté. On
note F ∼ F (n1 , n2 ).

Remarque 5.5.3. Cette variable ne prend que des valeurs positives.

Figure 5.7 – Densité de F pour (n1 , n2 ) = (2, 6), (4, 6), (10, 10).

La loi de Student
Définition 5.5.7 (Loi de Student). Soient X et Y deux variables aléatoires
indépendantes, la première étant distribuée selon une loi normale centrée
réduite N (0, 1) et la deuxième

selon une loi de khi-deux à n degrés de liberté.
X n
La quantité T . = √Y est une variable aléatoire qui suit une loi de
Student à n degrés de liberté. On note T ∼ T (n).

M. Fihri (39/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES

Figure 5.8 – Densité de T (n) pour n = 1, 3 et densité de la loi normale


standard.

Proposition 5.5.11. Si T ∼ T (n), alors


E(T ) = 0 si n > 1
,
n
V ar(T ) = si n > 2.
n−2

5.6 Approximation des lois par la loi normale


Théorème 5.6.1 (Théorème central limite). Hypothèses : Soit une suite
de variables aléatoires X1 , X2 , . . . , Xn indépendantes et identiquement dis-
tribuées (iid). Leurs espérances mathématiques m1 = m2 = . . . = mn = m
et leurs variances V(X1 ) = V(X2 ) = ... = V(Xn ) = σ 2 existent toutes. Alors
quand n est assez grand, on a
n
X
Xi ∼ N (nm, nσ 2 ).
i=1

Démonstration. Admis.
On admet les approximations suivantes :

5.6.1 Approximation de la loi binomiale par la loi nor-


male
Résultat 5.6.1. On approche la loi B(n, p) par la loi N (np, npq) dès que

M. Fihri (40/41) FST – Tanger


CHAPITRE 5. VARIABLES ALÉATOIRES CONTINUES


 n ≥ 30
np ≥ 5 .
npq ≥ 5

5.6.2 Approximation de la loi de Poisson par la loi nor-


male
Résultat 5.6.2. On approche la loi P(λ) par la loi N (λ, λ) dès que λ ≥ 16.

5.6.3 Approximation de la loi de Khi-deux par la loi


normale
Résultat 5.6.3. On approche la loi χ2 (n) par la loi N (n, 2n) dès que n ≥ 30.

5.6.4 Approximation de la loi de Student par la loi


normale
Résultat 5.6.4. On approche la loi T (n) par la loi N (0, 1) dès que n ≥ 30.

(Fin du Cours/)

M. Fihri (41/41) FST – Tanger

Vous aimerez peut-être aussi