Vous êtes sur la page 1sur 55

Sommaire

C OURS 1 DÉNOMBREMENT PAGE 3


I PRINCIPE DE MULTIPLICATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1 Principe de multiplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
II ARRANGEMENTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
III PERMUTATIONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1 Permutations sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2 Permutations sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
IV COMBINAISONS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1 Combinaisons sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

C OURS 2 CALCUL DES PROBABILITÉS PAGE 8


I VOCABULAIRES DES ÉVÉNEMENTS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
II CALCUL DES PROBABILITÉS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5 Indépendances des événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

C OURS 3 VARIABLES ALÉATOIRES RÉELLES DISCRÈTES PAGE 16


I GÉNÉRALITÉS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
II LOI DE PROBABILITÉS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
III FONCTION DE RÉPARTITION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
IV INDÉPENDANCE DE DEUX VARIABLES ALÉATOIRES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
V ESPÉRANCE, VARIANCE ET ÉCART TYPE D’UNE V.A.D. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
VI LOI DISCRÈTES FONDAMENTALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

C OURS 4 VARIABLES ALÉATOIRES RÉELLES CONTINUES PAGE 26


I DENSITÉ DE PROBABILITÉ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
II FONCTION DE RÉPARTITION D4UNE V.A.C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
III ESPÉRANCE, VARIANCE ET ÉCART TYPE D’UNE V.A.C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
IV LOIS CONTINUES FONDAMENTALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Loi de Laplace-Gauss ou loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4 Théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

1
PROBABILITÉS ET STATISTIQUE: GC S2 PROF .A.ABBADI
C OURS 5 COUPLES ALÉATOIRES PAGE 39
I COUPLES ALÉATOIRES DISCRÈTES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
5 Covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
II VECTEURS ALÉATOIRES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1 Matrice de variance-covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3 Variance d’une somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
III COUPLES ALÉATOIRES CONTINUES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1 Fonction densité de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2 Lois marginales et lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3 INDÉPENDANCES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4 Lois dérivées de la loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

C OURS 6 ÉCHANTILLONNAGE & ESTIMATION PAGE 50


I ÉCHANTILLONNAGE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1 Distribution d’échantillonnage de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2 Distribution d’échantillonnage de la proportion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3 Distribution d’échantillonnage de la variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
II ESTIMATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2 Estimation par intervalle de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3 Estimation par IC de la moyenne µ de la population . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Détermination de la taille de l’échantillon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5 Estimation par IC de la proportion p de la population . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2
6 Estimation par IC de la variance σ de la population . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

2
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
01 DÉNOMBREMENT

I PRINCIPE DE MULTIPLICATION
Le but de dénombrement est d’apprendre à compter le nombre d’éléments d’un ensemble fini de grande
taille.

Définition
Soit Ω un ensemble fini. Le cardinal de Ω, noté

c ar d (Ω) = |Ω| = ♯Ω,

est le nombre d’éléments contenus dans l’ensemble Ω .

Ainsi, si A et B sont deux sous ensembles de Ω alors,

1 c ar d (A) É c ar d (Ω).

2 c ar d (A) = c ar d (Ω) ⇒ A = Ω.

3 c ar d (A ∪ B ) = c ar d (A) + c ar d (B ) − c ar d (A ∩ B ).
© ª
4 c ar d (A × B ) = c ar d (A) × c ar d (B ), où A × B = (x, y)/x ∈ A, y ∈ B dit produit cartésien de A et B .

1. Principe de multiplication
Il permet de compter le nombre de résultats d’expériences qui peuvent se décomposer en une succession de
sous-expériences.

On suppose qu’une expérience est la succession de m sous-expériences.


Si la i ème expérience a n i résultats possibles pour i = 1; . . . ; n, alors le nombre total de résultats possibles de
l’expérience globale est
m
Y
n= ni
i =1

Exemple
Vous achetez une valise à code de 4 chiffres. Combien de possibilités avez-vous de choisir un code?

L’expérience de combiner un code de 4 chiffre peut se décomposer en 4 sous-expériences dont chacune


on a 10 possibilités de choisir un chiffre.
On a m = 4, n 1 = 10, n 2 = 10, n 3 = 10 et n 4 = 10.
Donc le nombre total de code possible est n = 10 × 10 × 10 × 10 = 104 .

3
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
II ARRANGEMENTS
Définition
Étant donné un ensemble E de cardinal n. On appelle arrangement de p éléments toute suite ordonnée
pris parmi ces n éléments.

Proprietés
✍ Arrangements avec répétitions: Lorsqu’il s’agit d’une expérience avec remise, le nombre
d’arrangements possibles se calcule à l’aide de la formule suivante:

p
An = n p .

✍ Arrangements sans répétitions: Lorsqu’il s’agit d’une expérience sans remise, le nombre
d’arrangements possibles se calcule à l’aide de la formule suivante:

p n!
An = = n(n − 1) . . . (n − p + 1).
(n − p)!

où la notation k ! pour tout entier positif k, correspond au produit de tous les entiers stricte-
ment positifs inférieurs ou égaux à k et dit la factorielle de k.

Exemple
On choisit au hasard deux lettres dans l’ensemble {D, E , F ,G}.
Avec répétitions: Si l’expérience aléatoire est réalisée avec remise, il y a 4 éléments possibles pour le
1er événement et 4 éléments possibles pour le 2ème événement.

Les arrangements possibles sont donc les suivants:

(D, D), (D, E ), (D, F ), (D,G), (E , D), (E , E ), (E , F ), (E ,G),

(F , D), (F , E ), (F , F ), (F ,G), (G, D), (G, E ), (G, F ), (G,G).


Il y a donc un total de 16 résultats possibles.
On peut simplifier le dénombrement des résultats possibles en multipliant le nombre d’éléments
possibles pour chaque événement: 4 × 4 = 16 arrangements possibles.
Avec la formule précédente où n = 4 et p = 2, on effectue le calcul: n p = 42 = 16 arrangements possibles.

Sans répétitions: Si l’expérience aléatoire est réalisée sans remise, il y a 4 éléments possibles
pour le 1er événement et 3 éléments possibles pour le 2ème événement. Les arrangements possibles
sont donc les suivants:
(D, E ), (D, F ), (D,G), (E , D), (E , F ), (E ,G),
(F , D), (F , E ), (F ,G), (G, D), (G, E ), (G, F ).
Il y a donc un total de 12 résultats possibles.

On peut simplifier le dénombrement des résultats possibles en multipliant le nombre d’éléments


possibles pour chaque événement: 4 × 3 = 12 arrangements possibles.

4
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
4! 24
Avec la formule précédente où n = 4 et p = 2, on effectue le calcul: A 42 = = = 12 arrangements
(4 − 2)! 2
possibles.

III PERMUTATIONS
1. Permutations sans répétition
Définition
La permutation d’un ensemble d’éléments est une disposition ordonnée de tous les éléments de cet
ensemble.

Proprietés
Le nombre de permutations d’un ensemble de n éléments est n !.

• Si n = 0 on prend 0! = 1.

• Si n est plus grand on l’approxime par la formule de Stirling

p ³ n ´n
n! ≃ 2.π.n.
e

Exemple
On tire quatre billes d’un sac contenant une bille rouge (R), une bille bleue (B), une bille jaune (J) et une
bille verte (V). Les résultats possibles sont:

(R, B , J ,V ), (R, B ,V , J ), (R, J , B ,V ), (R, J ,V , B ), (R,V , B , J ), (R,V , J , B ),

(B , R, J ,V ), (B , R,V , J ), (B , J , R,V ), (B , J ,V , R), (B ,V , R, J ), (B ,V , J , R),


(J , R, B ,V ), (J , R,V , B ), (J , B , R,V ), (J , B ,V , R), (J ,V , R, B ), (J ,V , B , R),
(V , R, B , J ), (V , R, J , B ), (V , B , R, J ), (V , B , J , R), (V , J , R, B ), (V , J , B , R).
Il y a donc 24 permutations possibles pour cet ensemble.

Pour simplifier le calcul des permutations possibles, il suffit de multiplier le nombre d’éléments possi-
bles pour chaque événement. Dans ce cas-ci, le calcul sera 4 × 3 × 2 × 1 = 24 arrangements possibles.

Avec la formule précédente où n = 4, on effectue le calcul: n ! = 4! = 24 arrangements possibles.

2. Permutations sans répétition


Définition
r
X
Étant donné un ensemble E de cardinal n = n i . On appelle (n 1 ; n 2 ; . . . ; n r )-permutation avec répéti-
i =1
tion de E une disposition ordonnée de n éléments.

5
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Parmi ces n éléments, l’élément a 1 se répète n 1 fois, l’élément a 2 se répète n 2 fois, ..., et l’élément a r se répète
n r fois.
© ª
(a 1 , a 1 , . . . , a 1 ); (a 2 , a 2 , . . . , a 2 ); . . . ; (a r , a r , . . . , a r ) .
| {z } | {z } | {z }
n1 n2 nr

Le nombre de permutation avec répétition est

n!
P n1 ,n2 ,...,nr =
n 1 !n 2 !. . . . .n r !

Exemple
Combien de mots différents peut-on écrire en permutant les lettres de mots "finance".
Le nombre de mots qu’on peut former est le nombre des (1, 1, 2, 1, 1, 1)-permutation avec répétition de
l’ensemble de lettres de mot "finance". Donc
7! 7!
P 1,1,2,1,1,1 = = = 2520.
1!1!2!1!1!1! 2!

IV COMBINAISONS
1. Combinaisons sans répétition
Définition
Étant donné un ensemble de n éléments. On appelle combinaison de p éléments tout ensemble de p
éléments pris parmi les n éléments sans remise.

Proprieté
Parmi ces n éléments, le nombre de combinaison de p éléments sans répétition est

p
p An n!
Cn = =
p ! p !(n − p)!

p
Si p > n on a C n = 0.
à !
n p
On utilise aussi la notation = Cn .
p

Exemple
Combien de choix de 3 étudiants au hasard pour représenter un groupe de ses collègues formé de 10
étudiants.
Le nombre de choix est le nombre des combinaisons de 3 éléments pris parmi 10 sans répétition. C’est

3 10.8.9
C 10 = = 120.
3.2.1

6
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Proprietés
p n−p
• Cn = Cn .

• C n0 = C nn = 1.

• Si n Ê 1, C n1 = C nn−1 = n.
n(n − 1)
• Si n Ê 2, C n2 = C nn−2 = .
2
p p p−1
• Si 0 É p É n − 1, C n = C n−1 +C n−1 .

• Binôme de Newton ou formule de binôme:


n n
p p
∀a, b ∈ R, ∀n ∈ N, (a + b)n = C n a n−p b p = C n a p b n−p .
X X
p=0 p=0

• Combinaisons avec répétition: Le nombre de combinaison de p éléments avec répétition est

p (n + p − 1)!
C n+p−1 = .
p !(n − 1)!

p p p−1
D’après la formule C n = C n−1 + C n−1 , on peut tracer un triangle dit triangle de Pascal qui sert à développer le
binôme de Newton.
n = 0: 1
n = 1: 1 1
n = 2: 1 2 1
n = 3: 1 3 3 1
n = 4: 1 4 6 4 1

Par exemple, pour n = 4, on a

(a + b)4 = 1a 4 + 4a 3 b + 6a 2 b 2 + 4ab 3 + 1b 4 .

7
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
02 CALCUL DES PROBABILITÉS

Le but des probabilités est d’essayer de rationaliser le hasard:


Quelles sont les chances d’obtenir un résultat suite à une expérience aléatoire? Quelles chances ai-je d’obtenir
"pile" en lançant une pièce de monnaie? Quelles chances ai-je d’obtenir "6" en lançant un dé? Quelles
chances ai-je de valider la grille gagnante du loto?...

I VOCABULAIRES DES ÉVÉNEMENTS


Définition
• Chaque résultat possible et prévisible d’une expérience aléatoire est appelé éventualité liée à
l’expérience aléatoire.

• L’ensemble formé par les éventualités est appelé univers, il est très souvent noté Ω.

• Un événement d’une expérience aléatoire est une partie quelconque de l’univers Ω.

• Un événement ne comprenant qu’une seule éventualité est un événement élémentaire.

• L’événement composé de toutes les éventualités est appelé événement certain.

• Pour tout événement A il existe un événement noté A et appelé événement contraire de A qui est
composé des éléments de Ω qui ne sont pas dans A.

Exemple
Lancer d’un dé à six faces :

➔ "obtenir 2" est une éventualité de cette expérience aléatoire.

➔ Univers : Ω = {1; 2; 3; 4; 5; 6}.

➔ A = "obtenir un 5" est un événement élémentaire que l’on peut noter A = {5},

➔ B = "obtenir un numéro pair" est un événement que l’on peut noter B = {2; 4; 6}.

➔ "obtenir 7" est un événement impossible,

➔ "obtenir un nombre positif" est un événement certain.

➔ B = "obtenir un nombre impair" est l’événement contraire de B ,

Dans toute la suite du cours, on suppose que Ω l’univers associé à une expérience aléatoire est fini, et A et B
deux événements associés à cet univers.

8
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Définition
• Intersection d’événements : événement constitué des éventualités appartenant à A et à B noté
A ∩ B (se lit "A inter B " ou "A et B "),

• Réunion d’événements : événement constitué des éventualités appartenant à A ou à B noté A ∪B


(se lit "A union B " ou "A ou B ").

Remarque
Si A ∩ B = ∅, on dit que les événements sont disjoints ou incompatibles.

Exemple
On considère l’ensemble des chiffres Ω = {1; 2; 3; 4; 5; 6}.
On note A l’événement "obtenir un chiffre pair" et B l’événement "obtenir un chiffre strictement in-
férieur à six".

➔ A ∩ B = "obtenir un chiffre pair et inférieure strictement à six" : A ∩ B = {2; 4},

➔ A ∪ B = "obtenir un chiffre pair ou inférieur strictement à six" : A ∪ B = {1; 2; 3; 4; 5}.

II CALCUL DES PROBABILITÉS

1. Introduction
Lorsqu’on fait une expérience aléatoire, on peut la renouveler un certain nombre de fois et calculer à chaque
fois la fréquence (au sens statistique) d’un événement particulier. Celle-ci correspond au rapport du nombre
de fois où l’événement se produit au nombre de fois où l’expérience est réalisée. Si l’on renouvelle l’expérience
un très grand nombre de fois (à l’aide d’une calculatrice ou d’un tableur par exemple), on voit cette fréquence
qui variait beaucoup se stabiliser autour d’une valeur.

Le calcul des probabilités se propose de déterminer cette fréquence théorique dans ce dernier cas, où l’expérience
aléatoire est renouvelée un très grand nombre de fois... Ce qui nous amène à considérer la définition suivante.

Définition
La probabilité d’un événement A est noté p(A) et correspond au rapport :

nombre d′ issues favorables c ar d (A)


p(A) = =
nombre d′ issues possibles c ar d (Ω)

Remarque
On peut utiliser cette définition classique de probabilité seulement pour les expériences où les événe-

9
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
ments élémentaires qui sont équiprobables, c’est-à-dire les probabilités des événements élémentaires sont
égales.
1
Pour chaque événement élémentaire ω, on a p(ω) = .
c ar d (Ω)

Définition axiomatique des probabilités:

Définition
Soient P (Ω) l’ensemble des parties de Ω et A une partie de P (Ω) telle que:

☞ Ω∈A.

☞ ∀A ⊂ Ω, A ∈ A ⇒ A ∈ A .

☞ ∀A, B ∈ A , A ∪ B ∈ A .

Le couple (Ω, A ) est dit espace probabilisable.

Sur cet espace on définit une fonction p de A vers [0, 1] vérifiant:

➤ p(Ω) = 1,

➤ ∀A, B ∈ A , A ∩ B = ∅ ⇒ p(A ∪ B ) = p(A) + p(B ).

Le triplet Ω, A , p est dit espace probabilisé.


¡ ¢

En tous cas, on a la proposition suivante.


Proprietés
♦ p(∅) = 0.

♦ 0 É p(A) É 1.

♦ p(A) = 1 − p(A).

♦ A ⊂ B ⇒ p(A) É p(B ).

♦ p(A ∪ B ) = p(A) + p(B ) − p(A ∩ B ).

Exemple
On considère l’ensemble Ω des entiers de 1 à 20. On choisit l’un de ces nombres au hasard.
A est l’événement : "le nombre est multiple de 3 ":
➔ A = {3; 6; 9; 12; 15; 18},
B est l’événement : "le nombre est multiple de 2" :
➔ B = {2; 4; 6; 8; 10; 12; 14; 16; 18; 20},
Calcul des probabilités :

10
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
6 3
➔ p(A) = = = 0, 3.
20 10
3 7
➔ p(A) = 1 − p(A) = 1 − = = 0, 7.
10 10
10 1
➔ p(B ) = = = 0, 5.
20 2
3
➔ p(A ∩ B ) = = 0, 15.
20
6 10 3 13
➔ p(A ∪ B ) = p(A) + p(B ) − p(A ∩ B ) = + − = = 0, 65.
20 20 20 20

2. Probabilité conditionnelle
La notion de probabilité conditionnelle permet de tenir compte dans une prévision d’une information com-
plémentaire. Par exemple, si je tire au hasard une carte d’un jeu, j’estime naturellement à une chance sur
quatre la probabilité d’obtenir un cœur, mais si j’aperçois un reflet rouge sur la table, je corrige mon estima-
tion à une chance sur deux. Cette seconde estimation correspond à la probabilité d’obtenir un cœur sachant
que la carte est rouge. Elle est conditionnée par la couleur de la carte, donc, conditionnelle.

Définition
Soit A un événement tel que p(A) > 0. On appelle probabilité conditionnelle d’un événement B par
rapport à l’événement A, ou encore, la probabilité de B sachant A, le nombre

p (A ∩ B )
p A (B ) = p (B |A) =
p(A)

Remarque
Dans ces conditions, p(A) s’appelle probabilité à priori de A et p(B |A) s’appelle probabilité à posteriori de
¡ B.
l’événement
L’espace Ω, A , p A est un espace probabilisé.
¢

Exemple
On considère l’expérience aléatoire consistant à lancer un dé à 6 faces, équilibré. On suppose que toutes
les faces sont équiprobables, et on définit les événements :
• A : "la face obtenue porte un numéro pair" ;

• B : "la face obtenue porte un numéro multiple de 3".


Déterminons la probabilité d’obtenir un numéro multiple de 3, sachant qu’on a un numéro pair.

Il s’agit de calculer la probabilité conditionnelle p (B |A).

11
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
➔ On a A = {2, 4, 6}, B = {3, 6} et alors A ∩ B = {6}.
3 1 1
➔ Comme on est en situation d’équiprobabilité, on a, p(A) = = et p(A ∩ B ) = donc:
6 2 6

1
p(A ∩ B ) 6 1
p A (B ) = = = .
p(A) 1 3
2

3. Formule des probabilités totales


Définition
Si A 1 , A 2 , . . . et A n sont des parties non vides de Ω telles que

A1 ∪ A2 ∪ · · · ∪ An = Ω
½

A i ∩ A j = ∅, i ̸= j

on dit que (A i )1Éi Én est un système complet d’événements.

Proprieté
Pour tout événement B , on a la formule:

n
X n
X
p(B ) = p(B ∩ A k ) = p(B |A k )p(A k )
k=1 k=1

Remarque
Cas particulier n = 2: Si on prend A = A 1 , A 2 = A, alors

p(B ) = p(A ∩ B ) + p(A ∩ B ) = p(B |A)p(A) + p(B |A)p(A)

B : (A ∩ B )
p A (B )

A
p(A)
p A (B )
B : (A ∩ B )

B : (A ∩ B )
p A (B )
p(A)
A

p A (B )
B : (A ∩ B )

12
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Exemple
On suppose que l’on a dans un magasin des machines provenant de 2 usines différentes A et B : 70%
viennent de A et 30% viennent de B . Parmi celles qui viennent de A, 20% présentent un défaut ; parmi
celles qui viennent de B , 10% présentent un défaut.

➔ Déterminons le pourcentage de machines dans le magasin qui présentent un défaut.


On note D l’événement "la machine est défectueuse" et A (resp. B ) "la machine vient de l’usine A
(resp. B ).

B : (A ∩ B )
p A (B ) = 0, 2
A
p(A) = 0, 7
p A (B ) = 0, 8
B : (A ∩ B )

p A (B ) = 0, 1 B : (A ∩ B )
p(A) = 0, 3
A
p A (B ) = 0, 9
B : (A ∩ B )

On a p(A) = 0, 7, p(B ) = 0, 3, p(D|A) = 0, 2et P (D|B ) = 0, 1. D’après la formule des probabilités


totales, on a

p(D) = p(D|A)p(A) + p(D|B )p(B )


= 0.2 × 0, 7 + 0, 1 × 0, 3 = 0, 14 + 0, 07 = 0, 17.

➔ Une machine donnée présente un défaut. Quelle est la probabilité qu’elle provienne de l’usine B ?
On cherche p(B |D). On a

p (D ∩ B ) p(D|B )p(B ) 3
p (B |D) = = = ≈ 0, 176.
p(D) p(D) 17

4. Formule de Bayes
À la suite d’une expérience, un événement B peut apparaître. Cependant cet événement peut apparaître
comme conséquence de n événements A 1 , A 2 , . . . et A n qui forment un système complet d’événements (c’est-
à-dire, B peut apparaître simultanément avec un et seulement un des événements A i , i . . . n. Supposons que
l’on connaisse les probabilités des événements A 1 , A 2 , . . . et A n (qui s’appellent également probabilités à pri-
ori des événements A 1 , A 2 , . . . et A n ) et que l’on connaisse aussi la probabilité d’apparition de l’événement B
comme conséquence de l’événement A i , c’est-à-dire p(B |A i ), i = . . . , n.

En supposant qu’à la suite de l’expérience l’événement B se soit produit, la formule de Bayes permet de
trouver séparément pour chaque i = 1, . . . , n, la probabilité que l’événement A i soit apparue à cause de
l’événement B , c’est-à-dire la probabilité p(A i |B ), i = 1, . . . , n (ces probabilités s’appellent aussi les proba-
bilités à posteriori des événements A 1 , A 2 , . . . et A n .

En comparant les probabilités p(A i |B ) et p(A i ) on peut connaître l’effet de l’événement B sur la probabilité
de l’événement A i lorsqu’on sait que l’événement B s’est produit.

13
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Proprieté
Pour tout événement B , on a la formule:

p(A i )p(B |A i )
p(A i |B ) = Pn , i = 1, . . . , n
k=1
p(B |A k )p(A k )

La formule de Bayes est connue aussi sous le nom de la formule des hypothèses ou des causes.

Exemple
On considère deux urnes U1 et U2 dont la première est composée de 2 boules blanches et d’ une boule
noire et la deuxième est composée d’une boule noire et de 5 boules noires.
On pige une boule de l’urne U1 et on l’introduit dans l’urne U2 . On extrait ensuite une boule de l’urne U2 .

➔ Sachant que la boule tirée de l’urne U2 est blanche, trouver la probabilité que la boule transférée
était noire.
On applique la formule de Bayes. Soit B l’événement "la boule pigée de l’urne U2 est blanche"
et A l (respectivement A 2 ) l’événement "la boule transférée de l’urne U1 à l’urne U2 est blanche
(respectivement noire)", alors

2 1
p(A 1 ) = , p(A 2 ) = ,
3 3

2 1
p(B |A 1 ) = , p(B |A 2 ) = .
7 7
d’où
1 1
× 1
p(A 2 |B ) = 3 7 = .
2 2 1 1 5
× + ×
3 7 3 7

5. Indépendances des événements


Définition
On dit que deux événements A et B sont indépendants, si

p(A ∩ B ) = p(A) × p(B )

Remarque
Si deux événements A et B sont indépendants, alors la réalisation de l’un n’a pas d’influence sur la réalisa-
tion de l’autre, ç-à-d p(B |A) = p(B ) et p(A|B ) = p(A).

Exemple
On jette trois fois une pièce de monnaie bien équilibrée, ce qui donne:

Ω = F F F ,F F P,F PF ,F PP,PF F ,PF P,PPF ,PPP .


© ª

14
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
On considère les événements A = "le premier jet donne face", B = "le second jet donne face" et C =
"deux jets consécutifs donnent face".

➔ Indépendance de A et B :
4 1
➔ p(A) = p ({F F F , F F P , F P F , F P P }) = = ,
8 2
4 1
➔ p(B ) = p ({F F F , F F P , P F F , P F P }) = = ,
8 2
2 1
➔ p(A ∩ B ) = p ({F F F , F F P }) = = .
8 4
1 1 1
Puisque p(A) × p(B ) = × = = p(A ∩ B ), les événements A et B sont donc indépendants.
2 2 4

➔ Indépendance de A et C :
3
➔ p(C ) = p ({F F F , F F P , P F F }) = ,
8
2 1
➔ p(A ∩C ) = p ({F F F , F F P }) = = .
8 4
1 3 3
Puisque p(A) × p(C ) = × = ̸= p(A ∩ C ), les événements A et C ne sont donc pas indépen-
2 8 16
dants.

15
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
03 VARIABLES ALÉATOIRES RÉELLES DISCRÈTES

I GÉNÉRALITÉS
Une variable aléatoire est une fonction définie sur l’ensemble des éventualités, c’est-à-dire l’ensemble des
résultats possibles d’une expérience aléatoire. On s’intéressera aux valeurs prises x i par une variable aléatoire
X , événement noté (X = x i ), et plus particulièrement à la probabilité d’obtenir ces valeurs P (X = x i ). C’est à
peu près la même chose qu’une variable statistique sauf que dans le cas d’une variable statistique on évalue
un comportement réalisé (moyenne, etc) alors que dans le cas de variables aléatoires on suppose un com-
portement futur ou théorique (Dans ce cas, on parle d’espérance plutôt que de moyenne par exemple). Les
variables aléatoires sont utilisées pour modéliser le résultat d’un mécanisme non-déterministe.
Dans tout se qui suit, soit (Ω, A , p) un espace probabilisé (voir la définition au chapitre 2). En général, on
prend A = P (Ω) ensemble des parties de Ω.

Définition
Nous appelons variable aléatoire réelle (v.a.r.) toute
−1
ª X à valeurs dans R telle que:
application
Pour tout intervalle I de R, l’ensemble X (I ) = ω | X (ω) ∈ I est un événement de A .
©

Cette définition nous assure que X −1 (I ) est un événement dont on peut calculer la probabilité.
Notations:
• Nous notons X (Ω) l’ensemble des valeurs prises par la v.a.r X définie sur l’espace probabilisé (Ω, A , p)
.

• X −1 (x) = ω ∈ Ω, X (ω) = x se note X = x = (X = x).


© ª © ª

• X −1 ] − ∞, a] = ω ∈ Ω, X (ω) É a se note X É a = X É a .
¡ ¢ © ª © ª ¡ ¢

• X −1 ]a, b] = ω ∈ Ω, a < X (ω) É b se note a < X É b = a < X É b .


¡ ¢ © ª © ª ¡ ¢

S’il existe une suite des réelles (x i )i ∈N distinctes telle que X (Ω) = {x i , i ∈ N} alors la v.a.r X est dite discrète
(Elle prend un nombre fini ou infini dénombrable de valeurs)

Exemple
On lance une pièce de monnaie bien équilibrée trois fois successives. Ce qui donne:

Ω = F F F ,F F P,F PF ,F PP,PF F ,PF P,PPF ,PPP .


© ª

Soit X la v.a.r©discrèteªdéfinie sur Ω par: ∀ω ∈ Ω, X (ω) = nombre de pile.


On a X (Ω) = 0, 1, 2, 3 . Et si ω est l’événement "PFP", alors X (ω) = 2.

Exemple
ω∈ A
½
1;
Soit A un événement de Ω. On définie la v.a.r X telle que: X (ω) =
0; ω∉ A
La v.a.r X est dite v.a.r indicatrice de l’événement A, et on la note 1 A .

16
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Exemple
Un jeu de hasard consiste à lancer un dé équilibré à 6 faces. Le lanceur gagne la somme double de la
valeur de la face obtenue si celle-ci est paire, sinon, il perd le double de la valeur indiquée par le dé.
On appelle X le gain, positif ou négatif, du joueur après un lancer.

➔ Ici, l’ensemble des issues possibles est Ω = 1; 2; 3; 4; 5; 6 ,


© ª

➔ on a défini une v.a.r discrète X telle que:


X (1) = −2, X (2) = 4, X (3) = −6, X (4) = 8, X (5) = −10 et X (6) = 12.

Exemple
On lance un dé bien équilibré plusieurs fois ªet soit X la v.a.r discrète égale au nombre de fois avant
d’obtenir le numéro 6. On a X (Ω) = 0, 1, 2, . . . = N.
©

II LOI DE PROBABILITÉS
Définition
Soit X une v.a.r discrète telle que X (Ω) est fini de cardinal n. Nous appelons loi de probabilité ou
distribution de X la probabilité P = P X qui à chaque élément x i pris par X , i = 1, . . . , n, on associe la
probabilité p i de l’événement " X = x i ":
¡ ¢
p i = P X {X = x i }

Remarque
n
X
Les probabilités p i , i = 1, . . . , n sont tous positives et vérifient: p i = 1.
i =1
Définir la loi de probabilité d’une expérience aléatoire reviendra à :

• déterminer toutes les valeurs possibles x i , i = 1, . . . , n prises par X ;

• calculer les probabilités p i , i = 1, . . . , n des événements correspondants ;

• regrouper les résultats dans un tableau du type :

Valeurs x i prises par X x1 ... xn


¡ ¢
Probabilité correspondante p i = P X {X = x i } p1 ... pn

• Si une v.a.r X suit une loi L , on note X ⇝ L .

Exemple
Reprenons l’exemple I. On a x 1 = 0, x 2 = 1, x 3 = 2 et x 4 = 3.
¡ ¢ ¡© ª¢ 1
➔ p 1 = P X {X = 0} = p F F F = ,
8
¡ ¢ ¡© ª¢ 3
➔ p 2 = P X {X = 1} = p P F F , F F P , F P F = ,
8

17
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
¡ ¢ ¡© ª¢ 3
➔ p 3 = P X {X = 2} = p P P F , P F P , F P P = ,
8
¡ ¢ ¡© ª¢ 1
➔ p 4 = P X {X = 3} = p P P P = .
8

Regroupons les résultats dans le tableau:

xi 0 1 2 3
1 3 3 1
pi
8 8 8 8

Exemple
On reprend l’énoncé de l’exemple I. La loi de X est donnée par :

xi −10 −6 −2 4 8 12
1 1 1 1 1 1
pi
6 6 6 6 6 6

III FONCTION DE RÉPARTITION


La fonction de répartition d’une v.a.r caractérise la loi de probabilité de cette v.a.r.

Définition
Soit X une v.a.r. On appelle fonction de répartition de X la fonction F = F X de R dans [0, 1] définie par :

∀x ∈ R
¡ ¢
F X (x) = P X (X É x) = P X ] − ∞, x] ,

La fonction de répartition F nous permet de calculer pour tout intervalle I ⊂ R, la probabilité P (X ∈ I ). Cepen-
dant, elle possède les propriétés suivantes.

Proprietés
On suppose que les valeurs de l’univers Ω sont telles que x 1 < x 2 < · · · < x n .

1 F est croissante sur R,

2 F est continue à droite en tout point,

3 lim F (x) = 0,
x→−∞

4 lim F (x) = 1,
x→+∞

18
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
5 P (a < X É b) = P (]a, b]) = F (b) − F (a),

6 P (X > a) = 1 − P (X É a) = 1 − F (a),

7 P (X = a) = lim+ F (x) − lim− F (x) = F (a) − lim− F (x).


x→a x→a x→a
Par conséquent, pour tout a où F est continue on a P (X = a) = 0.

Remarque
ª Ω sont
On suppose toujours que les valeurs de l’univers [ telles queª x 1 < x 2 < · · · < x n < . . . . Alors, on peut
exprimer F en remarquant que ∀x ∈ R,
© ©
X Éx = X = x i , et de cette égalité on déduit
i ∈N,x i Éx

à !
[ X
F (x) = P (X É x) = P {X = x i } = P (X = x i )
i ∈N,x i Éx i ∈N
x i Éx

Exemple
On reprend l’énoncé de l’exemple I. La fonction de répartition F associée est donnée par :


 0; x ∈] − ∞, 0[



 1
; x ∈ [0, 1[



 8


1 3 4

F (x) = + = ; x ∈ [1, 2[


 8 8 8
3 4 7


x ∈ [2, 3[


 + = ;
8 8 8




1; x ∈ [3, +∞[

IV INDÉPENDANCE DE DEUX VARIABLES ALÉATOIRES


Définition
Soient X et Y deux v.a.r discrètes dans un même univers Ω.
On dit que X et Y sont indépendantes si pour tout x ∈ X (Ω) et y ∈ Y (Ω) les deux événements {X = x} et
{Y = y} sont indépendants.
Autrement dit: ¡ ¢
P {X = x} ∩ {Y = y} = P (X = x)P (Y = y)

Exemple
On lance deux dés équilibrés à six faces (un rouge, et un bleu). On appelle X le numéro de la face du dé
bleu, et Y le numéro de la face du dé rouge. On appelle S la somme des faces obtenues.

➔ Les variables X et Y sont indépendantes.

➔ Les variables X et S ne sont pas indépendantes.

➔ Les variables Y et S ne sont pas indépendantes.

19
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
V ESPÉRANCE, VARIANCE ET ÉCART TYPE D’UNE V.A.D.
Définition
On appelle espérance d’une v.a.r discrète X le réel noté E (X ) qui vaut :

n
X
E (X ) = p 1 x 1 + p 2 x 2 + . . . + p n x n = p i xi
i =1

Ce nombre important en probabilités représente la valeur moyenne de la v.a.r discrète X .

Exemple
On reprend l’énoncé de l’exemple I. La loi de X est donnée par :

xi −10 −6 −2 4 8 12
1 1 1 1 1 1
pi
6 6 6 6 6 6
On a
n
X 1 1 1 1 1 1
E (X ) = p i x i = (−10) × + (−6) × + (−2) × + 4 × + 8 × + 12 × = 1.
i =1 6 6 6 6 6 6

Concrètement, cela signifie "qu’en moyenne", le joueur gagne 1 point.

Définition
Soit X une v.a.r discrète d’espérance E (X ).

➤ On appelle variance de la v.a.r X le réel noté V (X ) qui vaut :

£ ¤2 £ ¤2 £ n
¤2 X £ ¤2
V (X ) = p 1 x 1 − E (X ) + p 2 x 2 − E (X ) + · · · + p n x n − E (X ) = p i x i − E (X )
i =1

➤ On appelle écart-type de X le réel noté σ(X ) ou σX défini par :


p
σ(X ) = V (X )

Exemple
Calcul de la variance et l’écart-type pour le jeu de dé de l’exemple I:
1 1 1 1 1 1 358 179
➔ V (X ) = [−10 − 1]2 + [−6 − 1]2 + [−2 − 1]2 + [4 − 1]2 + [8 − 1]2 + [12 − 1]2 = = .
6 6 6 6 6 6 6 3

20
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
r
179
➔ σ(X ) = σx = ≃ 7, 72.
3

Remarque

• L’espérance E (X ) est la moyenne des valeurs pondérées par les probabilités p i .

• La variance permet de caractériser l’étalement des valeurs de la v.a.r X autour de sa moyenne E (X ).

• On peut démontrer que la variance de la v.a.r X vaut aussi :

n
x i2 p i − E (X )2
X
V (X ) =
i =1

À partir de v.a.r existantes, on peut en créer de nouvelles. Avec des notations usuelles on obtient:

• Pour tout a et b de R: a X + b : ω 7→ a X (ω) + b,

• X + Y : ω 7→ X (ω) + Y (ω).

• X .Y : ω 7→ X (ω) × Y (ω).

Proprietés
Soit X et Y deux v.a.r.
n
Pour toute fonction φ on a E (φ(X )) = φ(x i )p i .
X
1
i =1

2 E (X + Y ) = E (X ) + E (Y ).

3 E (a X ) = aE (X ), V (a X ) = a 2V (X ), ∀a ∈ R.

4 Si X = c est constante, alors E (c) = c, V (c) = 0.

5 Si X et Y sont indépendantes, alors E (X .Y ) = E (X ) × E (Y ), et V (X + Y ) = V (X ) + V (Y ).

VI LOI DISCRÈTES FONDAMENTALES

1. Loi de Bernoulli
Définition
Une expérience de Bernoulli est une expérience qui n’a que deux issues possibles, l’une appelée succès
qui a pour probabilité p, l’autre appelée échec qui a pour probabilité q = 1 − p.
Définir une loi de Bernoulli de paramètre p qu’on note B(p), c’est associer une loi de probabilité dis-
crète à cette expérience aléatoire en faisant correspondre la valeur 1 à l’apparition d’un succès et 0 à
celle d’un échec.

21
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
xi 1 0

p(X = x i ) p 1−p

Exemple
Si on lance un dé et qu’on nomme succès l’apparition de la face 6, on obtient la loi de Bernoulli suivante
:

xi 1 0
1 5
p(X = x i )
6 6

Proprietés
Soit X une variable aléatoire suivant une loi de Bernoulli B(p), alors :

♦ L’espérance de X vaut E (X ) = p.

♦ La variance de X vaut V (X ) = p q.

Exemple
1 5
Dans l’exemple précédent, on obtient E (X ) = et V (X ) = .
6 36

2. Loi binomiale
Définition
La loi binomiale de paramètres n et p, notée B(n; p) est la loi de probabilité du nombre de succès dans
la répétition de n expériences de Bernoulli de paramètre p identiques et indépendantes.
Elle est définie par :
P (X = k) = C nk × p k × q n−k , ∀ 0 É k É n

Exemple
On lance 2 fois un dé bien équilibré. On s’intéresse à l’apparition de la face 6.µChaque
¶ lancer est une
1 1
expérience de Bernouilli de paramètre . On obtient donc une loi binomiale B 2; .
6 6

nombre de succès 0 1 2
25 10 1
probabilité
36 36 36

22
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Proprietés
Soit X une v.a.r suivant une loi Binomiale B(n, p), alors :

♦ L’espérance de X vaut E (X ) = np.

♦ La variance de X vaut V (X ) = np q.

Exemple
1 5
Dans l’exemple précédent, on obtient E (X ) = et V (X ) = .
3 18

3. Loi de Poisson
La loi de Poisson apparaît comme loi limite universelle dans de nombreuses situations et joue un rôle fonda-
mental dans les phénomènes de temps d’attente et de répartition aléatoire de points dans l’espace.

La loi de Poisson modélise des situations où l’on s’intéresse au nombre d’occurrences d’un événement dans
un laps de temps déterminé ou dans une région donnée. Par exemple:
• Nombre d’appels téléphoniques qui arrivent à un standard en x minutes,

• nombre de clients qui attendent à la caisse d’un magasin,

• nombre de défauts de peinture par m 2 sur la carrosserie d’un véhicule, . . .

Définition
La variable aléatoire X suit une loi de Poisson de paramètre λ, notée P (λ) avec λ > 0 lorsque sa loi de
probabilité vérifie :
λk
P (X = k) = e −λ , ∀k ∈ N
k!

Exemple
On considère la variable aléatoire X mesurant le nombre de clients se présentant au guichet 1 d’un
bureau de poste par intervalle de temps de durée 10 minutes entre 14h30 et 16h30.
On suppose que X suit la loi de Poisson de paramètre λ = 5.

➔ Pour λ = 5, la table de la loi de Poisson nous donne :


k 0 1 2 3 4 5 6 7 8 9 10 11

P (X = k) 0, 007 0, 034 0, 084 0, 140 0, 176 0, 176 0, 146 0, 104 0, 065 0, 036 0, 018 0, 008

➔ La probabilité qu’entre 14h30 et 14h40, 10 personnes exactement se présentent à ce guichet vaut :


P (X = 10) = 0, 018.

23
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
➔ La probabilité qu’entre 15h20 et 15h30, au maximum 3 personnes se présentent à ce guichet vaut :
P (X É 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) = 0, 265.

➔ La probabilité qu’entre 16h00 et 16h10, 8 personnes au moins se présentent à ce guichet vaut :


P (X Ê 8) = 1 − P (X < 8) = 1 − [P (X = 0) + P (X = 1) + · · · + P (X = 7)] = 1 − 0, 867 = 0, 133.

Proprieté
Soit X une v.a.r suivant une loi de Poisson de paramètre λ, alors l’espérance et la variance sont égales
et valent E (X ) = V (X ) = λ.

Exemple
Dans l’exemple précédent, on obtient E (X ) = V (X ) = 5.

Remarque

• La loi de Poisson décrit bien la loi binomiale pour n tendant vers l’infini et p tendant vers zéro, avec le
produit np tendant vers une constante λ qui est le paramètre de la loi de Poisson. Elle modélise donc
les expériences de Bernoulli avec une très faible probabilité de succès, mais avec un grand nombre
d’essais, du même ordre de grandeur que l’inverse de la probabilité de succès.

• En pratique, cette approximation est faite dès que n > 20, p < 0.1 et np É 5.

Exemple
La probabilité de gagner au tiercé est de 1/1000. Quelle est la probabilité de gagner k fois en jouant
2000 fois?

Nous modélisons cette situation par une expérience binomiale de paramètre n = 2000 et p = 1/1000.
Puisque n > 20, p < 0.1 et λ = np = 2 É 5, alors

2k
P (X = k) ≃ e −2 .
k!
Dans le tableaux suivant, on peut comparer quelques valeurs des deux lois:

k 0 1 2 3 4 5
B (2000; 1/1000), P (X = k) 0.13520 0, 27067 0, 27081 0, 18053 0, 09022 0, 03605
P (2), P (X = k) 0, 13534 0, 27067 0, 27067 0, 18045 0, 09022 0, 03609

L’avantage de la loi de Poisson est qu’elle est bien plus rapide à calculer, puisqu’elle ne fait pas intervenir de
coefficients binomiaux.

24
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
25
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
04 VARIABLES ALÉATOIRES RÉELLES CONTINUES

I DENSITÉ DE PROBABILITÉ
Une variable aléatoire est dite continue si elle peut prendre toutes les valeurs d’un intervalle. En particulier,
dans le cas où la variable aléatoire peut prendre toute valeur réelle (son ensemble de définition contient un
intervalle de R), on parle de variable aléatoire réelle.
Dans ce cas, il ne s’agira plus de calculer une probabilité d’apparition d’une valeur donnée mais d’un inter-
valle.Citons quelques exemples:

• temps d’attente pour avoir le bus

• longueur de cheveux

• Duré de vie d’un objet

• moyenne des tailles de 20 étudiants pris au hasard, . . .

On introduit une définition d’une variable aléatoire continue par densité de probabilité.

Définition
On appelle densité de probabilité sur R toute fonction f définie sur R telle que:

1 f est positive et continue sur R sauf en nombre finis de points,


Z +∞
2 f (x)d x = 1.
−∞

Soit f une densité de probabilité sur R. Une variable aléatoire X suit la loi de densité f si, pour tout
intervalle I , la probabilité de l’événement (X ∈ I ) est donnée par:
Z
p(X ∈ I ) = f (x)d x
I

Si I = [a; b], on a
Z b
p(a É X É b) = f (x)d x
a

On dit aussi que X est une variable aléatoire (v.a.r) continue de densité f .

Proprietés
Pour tous réels a et b:

• p(X = a) = 0,

• p(a É X É b) = p(a É X < b) = p(a < X É b) = p(a < X < b),

26
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
• p(X > a) = 1 − p(X É a) et p(a < X < b) = p(X < b) − p(X É a).

Exemple
Montrons que la fonction f 1 définie par

 0 si x < 0
f 1 (x) = 1 si 0 É x É 1
0 si x > 1

est une fonction de densité de probabilité.

➔ La fonction f 1 est positive et continue sauf en 0 et 1.


Z +∞ Z 1 Z 1
➔ Puisque f 1 est nulle en dehors de l’intervalle [0, 1] alors f 1 (x)d x = f 1 (x)d x = 1d x = 1.
−∞ 0 0

Donc, f 1 est bien une densité de probabilité.


Montrer que la fonction f 2 définie par

0 si x É −1



x +1 si −1 < x É 0

f 2 (x) =

 −x + 1 si 0<x É1

0 si x >1

est une fonction de densité de probabilité.

II FONCTION DE RÉPARTITION D4UNE V.A.C


Définition
Soit X une v.a.r continue de densité f . On définit la fonction de répartition F de X la fonction de F : R →
R telle que
Z x
F (x) = p(X É x) = f (t )d t
−∞

Comme dans le cas discret, la fonction F vérifie les assertions suivantes.

27
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Proprietés

1 F est croissante sur R,

2 F ′ (x) = f (x) pour tout x ∈ R,


Z b
3 p(a É X É b) = f (t )d t = F (b) − F (a),
a
Z a
4 P (X > a) = 1 − P (X É a) = 1 − f (t )d t = 1 − F (a).
−∞

Exemple
La fonction de répartition F liée à la densité de probabilité f définie par:
½
0; x ∉ [0, 1]
f (x) =
2x; x ∈ [0, 1]

est telle que:



 0; x ∈] − ∞, 0]
F (x) = x 2 ; x ∈ [0, 1]
x ∈ [1, +∞[

1;

III ESPÉRANCE, VARIANCE ET ÉCART TYPE D’UNE V.A.C.


Définition
Soit X une v.a.r continue et f sa densité.

➤ On appelle espérance de X le réel, noté E (X ), défini par la relation


Z +∞
E (X ) = x f (x) d x
−∞

➤ On appelle variance de X le réel, noté V (X ), qui, s’il existe, est défini par la relation
Z +∞
V (X ) = [ x − E (X ) ]2 f (x) d x
−∞

➤ On appelle écart-type de X le réel, noté σX ou σ(X ) défini par la relation


p
σX = V (X )

Remarque Z +∞
2 2 2
On peut montrer qu’on a V (X ) = E (X ) − [E (X )] avec E (X ) = x 2 f (x) d x.
−∞

28
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Exemple
On peut s’amuser à calculer l’espérance, la variance et l’écart-type pour la fonction f 2 définie dans
l’exemple I:

➔ L’espérance:
Z +∞
E (X ) = x f 2 (x) d x
Z−∞
−1 Z 0 Z 1 Z +∞
= x ×0 dx + x(x + 1) d x + x(−x + 1) d x + x ×0 dx
Z−∞ −1 0 1
0 Z 1
2
= (x + x) d x + (−x 2 + x) d x
−1 0
· 3 ¸0 ¸1
x2
· 3
x x x2
= + + − +
3 µ 2 −1¶ µ 3 ¶2 0
1 1 1 1
= 0 − − + + − + − 0 = 0.
3 2 3 2
➔ La variance:
Z +∞
V (X ) = [ x − E (X ) ]2 f 2 (x) d x
Z−∞
0 Z 1
2
= x (x + 1) d x + x 2 (−x + 1) d x
Z−1
0 Z 10
3 2
= (x + x )d x + (−x 3 + x 2 )d x
·−14 ¸0 · 04 ¸1
x x3 x x3
= + + − +
4 µ 3 ¶−1 µ 4 ¶ 3 0
1 1 1 1 1
= 0− − + − + −0 =
4 3 4 3 6
p 1
➔ L’écart-type: σX = V (X ) = p .
6

Proprietés
Soit X une v.a.r continue de densité de probabilité f et admettant une espérance et une variance,
alors pour tous a; b ∈ R :

♦ E (a X + b) = aE (X ) + b.

♦ E (X + Y ) = E (X ) + E (Y ) et E (X − Y ) = E (X ) − E (Y ).
Z +∞
♦ E (h(X )) = h(x) f (x) d x si cet intégral existe.
−∞

♦ V (b) = 0 et V (a X + b) = a 2V (X ).

♦ σ(a X + b) = |a|σ(X ).

Si de plus X et Y sont indépendantes,

♦ E (X Y ) = E (X ) × E (Y ).

♦ V (X + Y ) = V (X ) + V (Y ) et V (X − Y ) = V (X ) + V (Y ).

29
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Définition
X − E (X )
Si une v.a.r continue X d’espérance E (X ) et un écart-type σ X , alors la v.a.r X ∗ = est dite v.a.r
σX
continue centrée réduite.

Remarque
D’après la propriété III, on a E (X ∗ ) = 0 et σ(X ∗ ) = 1.

IV LOIS CONTINUES FONDAMENTALES


1. Loi uniforme
Il s’agit ici de la loi la plus simple pour les v.a.r à densité. Elle correspond au fait de choisir au hasard un réel
dans un segment [a, b].

Définition
Soient a et b deux réels tels que a < b. On dit qu’une v.a.r X suit la loi uniforme sur [a, b], et on note
X ⇝ U ([a, b]), si elle admet pour densité la fonction f définie par :

1
; x ∈ [a, b]

f (x) = b − a
 0; x ∉ [a, b]

Proprietés
Si X ⇝ U ([a, b]), alors

♦ La fonction de répartition F de X est donnée par



 0; x Éa
x −a

F (x) = ; a <x <b
 b−a

1; x Êb

a +b
♦ L’espérance de X est E (X ) = .
2

(b − a)2
♦ La variance de X est V (X ) =
12

30
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Exemple
Omar et Ali se donnent rendez-vous entre 12h et 14h. Proche du lieu fixé, Ali arrivera assurément à
12h30. Quant à Omar, son arrivée dépend des conditions de circulation routière: il arrivera entre 12h et
13h

➔ La v.a.r continue X donnant l’heure d’arrivée de Omar suit la loi uniforme sur [12, 13].

➔ Calculons la probabilité que Omar arrive avant Ali, dont l’arrivée est programmée à 12h30.
Omar arrive avant Ali si et seulement si Omar arrive avant 12h30, c’est-à-dire entre 12h et 12h30.
La probabilité recherchée est donc:

¡ ¢ ¡ ¢ 12, 5 − 12
p X É 12, 5 = p 12 É X É 12, 5 = = 0, 5.
13 − 12

➔ Calculons la probabilité que Ali attende Omar plus de 10 minutes.


Ali attend Omar plus de 10 minutes si et seulement si Omar arrive après 12h40, c’est-à-dire entre
³ 40 ´ 38
12h40 et 13h. Comme 12h40 représente 12 + h= h, la probabilité recherchée est :
60 3

38
38 ¢ ³ 38 ´ 13 −
¡
p XÊ =p É X É 13 = 3 = 1.
3 3 13 − 12 3

2. Loi exponentielle
La loi exponentielle s’applique bien aux matériels électroniques, c’est-à-dire aux matériels fonctionnant pra-
tiquement sans usure, aux matériels subissant des défaillances brutales ou à des systèmes complexes dont les
composants ont des lois de fiabilité différentes. Elle permet de décrire la période de fonctionnement durant
laquelle le taux de défaillance est constant ou presque constant.

Définition
Soit λ un réel strictement positif. On dit qu’une v.a.r X suit la loi exponentielle de paramètre λ et on
note X ⇝ E (λ), si elle admet pour densité la fonction f définie par :
½
0; x <0
f (x) =
λe −λx ; x Ê0

Proprietés
Si X ⇝ E (λ), alors

♦ La fonction de répartition F de X est donnée par


½
0; x É0
F (x) =
1 − e −λx ; x Ê0

31
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
1
♦ L’espérance de X est E (X ) = .
λ

1
♦ La variance de X est V (X ) =
λ2

Exemple
On suppose que le temps, en heures, nécessaire pour réparer une machine est une v.a.r T suivant une
loi exponentielle de paramètre λ = 0, 5.

➔ La probabilité pour que le temps de réparation dépasse 2 heures est:

p(T > 2) = 1 − p(T < 2) = 1 − F (2) = e −1 = 0, 368

➔ Sachant que la réparation a déjà dépassé 9 heures, quelle est la probabilité qu’elle prenne au moins
10 heures?
On obtient:
¡ ¢ ¡ ¢
¢ p (T > 10) ∩ (T > 9) p T > 10 1 − F (10) e −5
= −4,5 = e −0,5 = 0, 606.
¡
p T > 10|T > 9 = ¡ ¢ = ¡ ¢ =
p T >9 p T >9 1 − F (9) e
¡ ¢ ¡ ¢
La loi exponentielle étant une loi sans mémoire (si t 1 É t 2 alors p T > t 2 |T > t 1 = p T > t 2 − t 1 .

3. Loi de Laplace-Gauss ou loi normale


• La loi normale est une des lois de probabilité la plus utilisée. Elle dépend de deux paramètres, la
moyenne µ, paramètre de position, et l’écart-type σ, paramètre mesurant la dispersion de la variable
aléatoire autour de sa moyenne.

• Elle s’applique à de nombreux phénomènes, en physique, en économie (erreurs de mesure). De plus,


elle est la forme limite de nombreuses distributions discrètes.

• Elle représente la loi de distribution d’une v.a.r X dépendant d’un grand nombre de facteurs agissant
sous forme additive, chacun ayant une variance faible par rapport à la variance résultante.

• Elle peut représenter la fin de vie des dispositifs subissant un phénomène de vieillissement, usure, cor-
rosion,. . .

Définition
Soient µ ∈ R et σ > 0. On dit qu’une v.a.r X suit la loi de Laplace-Gauss ou loi normale de paramètre
(µ, σ) et on note X ⇝ N (µ, σ), si elle admet pour densité la fonction f définie par:

1 (x−µ)2

∀x ∈ R, f (x) = p e 2σ2
σ 2π

32
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Proprietés
Si X est une v.a.r suivant la loi normale N (µ; σ) alors


E (X ) = µ et σ(X ) = σ
Ainsi les paramètres d’une loi normale sont en fait son espérance mathématique et son
écart-type.

♦ Pour tous a et b réels tels que a É b :

1
Z b 1 x−µ 2
¡ ¢
p(a É X É b) = p e− 2 σ dx
σ 2π a

Remarque
Dans les figures 4.1, on peut observer :

• que la courbe admet comme axe de symétrie la droite d’équation x = m = µ, (on dit que cette courbe
est une courbe en cloche ou courbe de Gauss)
1
• que le maximum de la courbe est atteint en m, espérance de X (valant p ),
σ 2π
• et que plus σ est grand, plus la courbe s’étale autour de la moyenne, en accord avec la signification
de l’écart-type.

Figure 4.1: Distribution normale

33
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Loi normale centrée réduite N (0; 1):
La v.a.r T qui suit la loi normale de paramètres µ = 0 et σ = 1 est une v.a.r centrée réduite. Sa densité de
probabilité est définie sur R par
1 1 2
Pour tout x ∈ R, f (x) = p e − 2 x

La fonction de répartition d’une v.a.r suivant la loi N (0; 1) est telle que (voir figure 4.2-(1))

1
Z x 1 2
Pour tout x ∈ R, F (x) = p(T É x) = p e− 2 t d t
2π −∞

On la note parfois par Π ou Φ et sa variable par z.

Figure 4.2: La fonction de répartition de la loi N (0; 1)

Remarque
X −µ
On a vu que si une v.a.r X suit la loi normale N (µ; σ), alors la v.a.r T = suit la loi normale centrée
σ
réduite N (0; 1). En particulier, on a E (T ) = 0 et σ(T ) = 1.
Ce résultat est très importante, puisqu’alors il nous suffit d’étudier la loi normale centrée réduite puis de
procéder à un changement de variable pour obtenir n’importe quelle loi normale!

Proprietés
Soit T la v.a.r suivant la loi normale N (µ; σ) centrée réduite.

♦ p(T Ê x) = 1 − F (x) . (voir figure 4.3-(2))

♦ Si x est positif : F (−x) = 1 − F (x) . (voir figure 4.3-(3))

♦ Pour tous a; b ∈ R, avec a É b: p(a É T É b) = F (b) − F (a) . (voir figure 4.3-(4))

♦ Pour tout x Ê 0, p(−x É T É x) = 2F (x) − 1 . (voir figure 4.3-(5))

Utilisation de la table de la loi normale

Exemple
Le formulaire ne donne que les valeurs de la loi normale centrée réduite et pour des valeurs positives.
En voici un extrait pour comprendre la méthode de lecture :

34
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Figure 4.3: Propriétés de la loi N (0; 1)

t 0, 05 0, 06 0, 07
1, 1 0, 8749 0, 8770 0, 8790
1, 2 0, 8944 0, 8962 0, 8980
1, 3 0, 9115 0,9131 0, 9147

➔ Calcul de p(T É 1, 36) :


Le nombre situé à l’intersection de la colonne 0, 06 et de la ligne 1, 3 est la valeur de la fonction de
répartition de T pour t = 1, 3 + 0, 06 = 1, 36.
Ainsi, F (1, 36) = p(T É 1, 36) = 0, 9131.

➔ Calcul de p(T Ê 1, 25) :


p(T Ê 1, 25) = 1 − F (1, 25) = 1 − 0, 8944 = 0, 1056.

➔ Calcul de p(T É −1, 17) :


p(T É −1, 17) = F (−1, 17) = 1 − F (1, 17) = 1 − 0, 8790 = 0, 121.

➔ Calcul de p(1, 15 É T É 1, 37) :


p(1, 15 É T É 1, 37) = F (1, 37) − F (1, 15) = 0, 9147 − 0, 8749 = 0, 0398.

Exemple
Soit une v.a.r X qui suit la loi normale de paramètres µ = 12 et σ = 3.
X − µ X − 12
On pose T = = .
σ 3
Calcul de p(X < 16) :
16 − 12 4
➔ X < 16 ⇐⇒ T < ⇐⇒ T < .
3 3
➔ Donc, p(X < 16) = p(T < 1, 33) = F (1, 33).

35
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
➔ On lit sur la table F (1, 33) = 0, 9082 donc : p(X < 16) = 0, 9082.

Calcul de p(9 < X < 15) :

➔ p(9 < X < 15) = p(−1 < T < 1)


= 2F (1) − 1.

➔ Or, F (1) = 0, 8413 donc : p(9 < X < 15) = 2 × 0, 8413 − 1 = 0, 6828.

Remarque
Si X suit la loi normale de paramètres m et σ, alors

• P (m − σ É X É m + σ) ≈ 0, 68.

• P (m − 2σ É X É m + 2σ) ≈ 0, 95.

Démonstration :
X −m
T= ⇐⇒ X = m + σT .
σ
Donc, pour t > 0, P (−t É T É t ) = P (−σt É σT É σt )
= P (m − σt É m + σT É m + σt )
= P (m − σt É X É m + σt ).
Ainsi, en particulier :
P (m − σ É X É m + σ) = P (−1 É T É 1) = 2Π(1) − 1 = 2 × 0, 8413 − 1 ≈ 0, 68.
P (m − 2σ É X É m + 2σ) = P (−2 É T É 2) = 2Π(2) − 1 = 2 × 0, 9772 − 1 ≈ 0, 95.

Opérations de v.a.r suivant une loi normale

Proprietés
Soit X une v.a.r suivant la loi normale N (µ; σ). Alors, pour tous a; b ∈ R :

♦ La v.a.r a X + b suit la loi normale N (aµ + b ; |a|σ),


Si de plus Y suit une loi normale N (µ′ ; σ′ ) et indépendante de X , alors
p
♦ La v.a.r X + Y suit une loi normale N (µ + µ′ ; σ2 + σ′2 ),

36
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
p
♦ La v.a.r X − Y suit une loi normale N (µ − µ′ ; σ2 + σ′2 ).

Exemple p
Si X suit la loi N (1; 3) et Y suit la loi N (−1; 1), alors :
p
➔ La v.a.r −2X + 5 suit la loi normale N (3; 2 3),

➔ La v.a.r X + Y suit une loi normale N (0; 2),

➔ La v.a.r X − Y suit une loi normale N (2; 2).

4. Théorème central limite


La distribution normale a été introduite par le mathématicien français De Moivre en 1733, il l’utilisa comme
approximation de la loi binomiale B(n; p) pour n grand. Ce résultat fut ensuite généralisé par Laplace et par
d’autres mathématiciens pour devenir le théorème central limite ou théorème de la limite centrale qui donne
les conditions dans lesquelles une v.a.r tend vers une variable normale.
La version la plus simple du théorème central limite est la suivante:
Soit (X n )nÊ1 une suite de n v.a.r indépendantes, de même loi de probabilité, d’espérance mathématique µ et
de variance σ2 . On considère la v.a.r Yn définie par:
n 1X n
Xi − µ
X
X i − nµ
i =1 n i =1
Yn = p = σ .
σ n p
n
La loi de la v.a.r Yn converge vers la loi N (0, 1) quand n tend vers l’infini.

a - Correction de continuité
Lorsque l’on approxime la loi d’une v.a.r. discrète X par une loi normale, de fonction de répartition F , cela
revient à considérer X comme une v.a.r continue qui prend toutes les valeurs réelles, et l’intervalle [k −0, 5; k +
0, 5[ est l’ensemble de ces valeurs qui s’arrondissent à k.

On remplacera donc p([X = 0]) par F (0.5) et p([X = k]) par F (k + 0.5) − F (k − 0.5).

(Si X est à valeur dans 0, . . . , n, on procède de même, sauf pour p([X = n]) que l’on remplace par 1−F (n −0.5).

b - Première application : approximation de la loi binomiale


Soit X la v.a.r = nombre de succès lors de la réalisation de n épreuves indépendantes, la probabilité de succès
pour chaque épreuve étant égale à p. La loi de la v.a.r:
X − np
p
np(1 − p)
tend vers la loi N (0, 1) quand n tend vers l’infini.

En pratique, cette approximation est valable dès que les quantités np et np(1 − p) sont supérieures à 5.

37
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Exemple
Un contrôle au calibre, effectué depuis plusieurs mois sur le diamètre des pièces usinées par une
machine outil, indique que le pourcentage de pièces "défectueuses" est égal à 8%.

Un échantillon de 100 pièces de la production est prélevé et le diamètre de ces pièces est vérifié. Soit X
la v.a.r = " nombre de pièces défectueuses" dans un échantillon de 100 pièces.
La variable X suit la loi binomiale B(100; 0, 08).

Comme, np = 100 × 0, 08 = 8 > 5 et n(1 − p) = 8 × 0, 92 = 7, 36 > 5, on peut utiliser l’approximation par


la loi normale N (8; 2, 713).
Les paramètres sont en effet: la moyenne µ = np = 8 et la variance est égale à np(1 − p) = 7, 36 =
(2, 713)2 .

En utilisant cette approximation, on peut calculer, par exemple, la probabilité d’avoir au moins 10 pièces
classées défectueuses dans un échantillon de 100 pièces, soit p(X Ê 10) qui devient avec la correction
de continuité p(X Ê 9, 5):
X − 8 9, 5 − 8 X −8
µ ¶ µ ¶
p(X Ê 9, 5) = p Ê = 0, 55 = 1 − p Ê 0, 55 = 0.29.
2, 713 2.713 2, 713

c - Deuxième application: approximation de la loi de Poisson


Soit X une v.a.r suivant la loi de Poisson P (λ), la v.a.r Y définie par:
X −λ
Y = p .
λ
converge vers la loi N (0; 1) quand λ tend vers l’infini.

L’approximation est satisfaisante si le paramètre λ est supérieur à 15.

Exemple
Un magasin reçoit 25 réclamations en moyenne par jour. Supposant poissonnienne la loi de survenance
25k −25
de ces réclamations, on a p(X = k) = e .
k!
Puisque on a λ = 25 > 15, on peut approximer cette loi de Poisson P (25) par la loi normale N (25; 5).
Si on veut calculer la probabilité pour que le premier lundi du mois prochain soient enregistrées 25
réclamation, alors

2525 −25 0, 5 −0, 5


p(X = 25) = e ≈ F (25, 5) − F (24.5) = Φ( ) − Φ( ) = 2Φ(0, 1) − 1 ≈ 0, 0796.
25! 5 5

38
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
05 COUPLES ALÉATOIRES

I COUPLES ALÉATOIRES DISCRÈTES

1. Loi conjointe
Définition
On appelle couple aléatoire un couple (X , Y ) de variables aléatoires définies sur le même espace prob-
abilisé (Ω, A , p). Le couple (X , Y ) est aussi appelé vecteur aléatoire de dimension 2.
Soit (X , Y ) un couple aléatoire discret, on pose
© ª
X (Ω) × Y (Ω) = (x i , y j ) i ∈I , j ∈J .

La loi conjointe du couple (X , Y ) est définie par

∀i ∈ I , ∀j ∈ J, p i j = p(X = x i , Y = y j ).

Exemple
Une urne contient 4 boules blanches, 2 noires et 4 rouges. On tire 3 boules sans remise. Soit X le nombre
de boules blanches et Y le nombre de boules noires. Quelle est la loi conjointe du couple (X , Y ) ? On
représente la loi du couple par un tableau à double entrée.
On a X (Ω) = {0, 1, 2, 3} et Y (Ω) = {0, 1, 2}. On obtient le tableau

Y
0 1 2
X
0 4/120 12/120 4/120
1 24/120 32/120 4/120
2 24/120 12/120 0
3 4/120 0 0

Proprieté
On a
∀i ∈ I , ∀j ∈ J, p i j Ê 0,
et X XX XX
pi j = pi j = p i j = 1.
i ∈I , j ∈J i ∈I j ∈J j ∈J i ∈I

39
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
2. Fonction de répartition
Définition
On appelle fonction de répartition du couple aléatoire (X , Y ) la fonction F (X ,Y ) définie sur R2 par:

∀x ∈ R, ∀y ∈ R, F (X ,Y ) (x, y) = p(X É x, Y É y).

Exemple
Calculer P (a < X É b, c < Y É d ) en fonction de F (a, c) , F (a, d ), F (b, c) et F (b, d ).
On obtient p(a < X É b, c < Y É d ) = F (a, d ) + F (b, d ) − F (a, c) − F (b, c).

3. Lois marginales
Définition
Soit (X , Y ) un couple aléatoire discret, on pose
X X
∀i ∈ I , pi . = pi j et ∀j ∈ J, p. j = pi j .
j ∈J i ∈I

La famille (x i , p i . )i ∈I définit la loi de X dite loi marginale de X.


La famille (y j , p . j ) j ∈J définit la loi de Y dite loi marginale de Y.

Exemple
Les lois marginales dans le premier exemple avec l’urne sont données au tableau suivant.

Y
0 1 2 pi .
X
0 4/120 12/120 4/120 20/120
1 24/120 32/120 4/120 60/120
2 24/120 12/120 0 36/120
3 4/120 0 0 4/120
p. j 56/120 56/120 8/120 1

4. Indépendance
Définition
Soit (X , Y ) un couple aléatoire discret. Les variables X et Y sont indépendantes si

∀i ∈ I , ∀ j ∈ J , P (X = x i , Y = y j ) = P (X = x i )P (Y = y j ).

Dans ce cas la loi conjointe est le produit des marginales.

40
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Proprieté
lien avec l’indépendance entre événements: Soit A et B deux événements, A et B sont indépendants
si et seulement si les variables aléatoires 1 A et 1B sont indépendantes.

Exemple
Une urne contient a boules noires et b boules blanches. On tire deux fois une boule et on note X i la
variable qui vaut 1 si la boule tirée au ième tirage est blanche et 0 sinon. Étudier l’indépendance de X 1
et de X 2 si le tirage se fait avec remise puis dans le cas où le tirage se fait sans remise.

• Tirage avec remise:


b
– P (X 1 = 1) =
a +b
b
– P (X 2 = 1) =
a +b
¡ ¢ ³ b ´2
– P X 1 = 1, X 2 = 1 =
a +b
et de même pour les autres, donc X 1 et X 2 sont indépendantes.

• Tirage sans remise:


b
– P (X 1 = 1) =
a +b
b(b − 1) + ab b
– P (X 2 = 1) = =
(a + b)(a + b − 1) a + b
¡ ¢ b(b − 1)
– P X 1 = 1, X 2 = 1 = ,
(a + b)(a + b − 1)
donc X 1 et X 2 ne sont pas indépendantes.

Exemple
Étudier l’indépendance

1 1
• si p i j = pour tout entier i , j .
e2 i ! j !
1 i+j
• si p i j = pour tout entier i , j .
2e 2 i ! j !

Dans le premier cas, il y a indépendance; p i j = p i p j .

i +1 j +1
Dans le second cas, il n’y a pas indépendance; p i = et p j =
2i !e 2 j !e

41
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
5. Covariance
Proprieté
Soit (X , Y ) un couple aléatoire discret tel que X et Y ont une variance. La variable aléatoire X Y a une
espérance et on a
(E (X Y ))2 É E (X 2 )E (Y 2 ).
Il y a égalité si et seulement si Y est une fonction quasi affine de X , çàd, il existe deux réels a et b tels
que P (Y = a X + b) = 1.

Définition
On appelle covariance de X et de Y le réel défini par

C ov (X , Y ) = E ((X − E (X ))(Y − E (Y ))) = E (X Y ) − E (X )E (Y ).

On appelle coefficient de corrélation de X et de Y (si σ X σY ̸= 0) :

C ov (X , Y )
ρ(X , Y ) = .
σ X σY

On dit que X et Y sont non corrélés si C ov (X , Y ) = 0.

Proprietés
Soit (X , Y ) un couple aléatoire discret tel que X et Y ont une variance. Soit a et b deux réels, on a:

• C ov (X , X ) = V ar (X ),

• C ov (X , Y ) = C ov (Y , X ),

• C ov (a X + b Z , Y ) = aC ov (X , Y ) + bC ov (Z , Y ),

• |ρ(X , Y )| É 1

• |ρ(X , Y )| = 1 ⇐⇒ Y est presque sûrement une fonction affine de X .

Proprieté
Variance d’une somme:
Soit (X , Y ) un couple aléatoire discret tel que X et Y ont une variance,

V ar (X + Y ) = V ar (X ) + V ar (Y ) + 2C ov (X , Y ).

42
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Exemple
On tire au hasard 2 boules en même temps d’une urne qui contient une boule blanche, 3 noires et 6
jaunes.

1 Donner la loi conjointe du couple (X , Y ), où X et Y représentent respectivement le nombre des


boules blanches ou noires obtenues

2 Donner les lois marginales des X et Y

3 Déterminer la fonction de répartition conjointe du couple (X , Y )

4 Calculer C ov (X , Y ) et ρ (X , Y )

5 Vérifier si X et Y sont indépendantes ou non

Solution:

1 L’ensemble des valeurs possibles pour le couple (X , Y ) est {(0, 0), (1, 0), (0, 1), (1, 1), (0, 2), (1, 2)}.

C 62 5
p 00 = p (X = 0, Y = 0) = 2
= ,
C 10 15

C 11C 61 2
p 10 = p (X = 1, Y = 0) = 2
= ,
C 10 15

C 61C 31 6
p 01 = p (X = 0, Y = 1) = 2
= ,
C 10 15

C 31C 11 1
p 11 = p (X = 1, Y = 1) = 2
= ,
C 10 15

C 32 1
p 02 = p (X = 0, Y = 2) = 2
= ,
C 10 15

p 12 = p (X = 1, Y = 2) = 0.

Il s’ensuite que la loi conjointe du couple (X , Y ) est

Y
0 1 2 pi ·
X
5 6 1 12
0
15 15 15 15
2 1 3
1 0
15 15 15
7 7 1
p· j 1
15 15 15

2 A partir du tableau, on a:

43
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
xi 0 1 yj 0 1 2
X: Y:
12 3 7 7 1
pi · p· j
15 15 15 15 15

3 Suivant les différentes positions de x et y par rapport à 0, 1, et 2, on calcul la fonction de répartition


conjointe du couple (X , Y ):



 0; x < 0 ou y < 0,



 5
; 0 É x < 1 et 0 É y < 1,





 15
11




 ; 0 É x < 1 et 1 É y < 2,
15




12

F (X ,Y ) (x, y) = ; 0 É x < 1 et y Ê 2,


 15

 14
; x Ê 1 et 0 É y < 1,






 15
1; x Ê 1 et 1 É y < 2,







 1; x Ê 1 et y Ê 2.

4 Calculons d’abord, E (X ), E (X 2 ), E (Y ), E (Y 2 ), E (X Y ), σ X et σY .

1 2
E (X ) = E (X 2 ) = =⇒ σ X = ,
5 5
p
3 2 11 2 21
E (Y ) = , E (Y ) = =⇒ σY = ,
5 15 15

et puisque

xi y j 0 1
XY :
14 1
15 15

1
alors, E (X Y ) = .
15
Par suite,

4 C ov (X , Y ) 1
C ov (X , Y ) = E (X Y ) − E (X )E (Y ) = − ,ρ (X , Y ) = = − p ≈ −0.218.
75 σ X σY 21

5 Puisque C ov (X , Y ) ̸= 0, les v.a. X et Y sont dépendantes. On peut aussi voir que

5 12 7
= p (X = 0, Y = 0) ̸= p (X = 0) × p (Y = 0) = × .
15 15 15

44
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
II VECTEURS ALÉATOIRES

1. Matrice de variance-covariance
Définition
Matrice de variance-covariance:
Soit (X 1 , · · · , X n ) un vecteur de n variables aléatoires discrètes. On appelle matrice de variance-
covariance la matrice carrée d’ordre n dont les termes sont C ov (X i , X j ). C’est une matrice symétrique.

2. Indépendance mutuelle
Définition
indépendance mutuelle: Soit (X 1 , · · · , X n ) un vecteur de n variables aléatoires discrètes, on dit que
les variables aléatoires sont mutuellement indépendantes si pour tout n-uplet (x 1 , · · · , x n ) de X 1 (Ω) ×
· · · X n (Ω) on a
µn ¶
[X i = x i ] = Πni=1 p ([X i = x i ]) .
\
p
i =1

Proprieté
Lien avec l’indépendance entre événements:
Soit (A i )1Éi Én une famille d’ événements. Les A i sont mutuellement indépendants si et seulement si
les variables aléatoires 1 A i sont mutuellement indépendantes.

Proprieté
Si (X 1 , · · · , X n ) un vecteur de n variables aléatoires discrètes mutuellement indépendantes, alors pour
toute fonction φ et ψ, les variables aléatoires φ(X 1 , · · · , X p ) et ψ(X p , · · · , X n ) sont indépendantes.

3. Variance d’une somme


Proprieté
Variance d’une somme: Soit (X 1 , · · · , X n ) un vecteur de n variables aléatoires discrètes, on a
à !
n
X n
X X
V ar Xi = V ar (X i ) + 2 C ov (X i , X j ).
i =1 i =1 1Éi < j Én

Exemple
Variance de la binomiale: Soit X une v.a. suivant une loi binomiale B(n, p). On interprète X comme la
somme de n variables aléatoires indépendantes X i suivant une loi de Bernouilli de paramètre p. Donc
n
X i ∼ B(1, p)
X
X= Xi avec 1 É ∀i É n,
i =1

45
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
d’où E (X ) = np et V ar (X ) = np q par indépendance des X i .

III COUPLES ALÉATOIRES CONTINUES


Définition
Soient X et Y deux variables aléatoires contenues définies sur le même espace probabilisé (Ω, A , p).
La loi de couple (X , Y ) sera définie à partir de sa fonction de répartition :

F X ,Y (x, y) = p (X , Y )−1 (] − ∞, x[×] − ∞, y[) = p X < x; Y < y .


¡ ¢ ¡ ¢

Proprietés
On a

1 F X ,Y est totalement croissante au sens large, ç-à-d que les fonctions partielles F X ,Y (x, .) et
F X ,Y (., y) sont croissantes pour tous réels x et y .

2 F X ,Y (x, .) et F X ,Y (., y) sont continues à gauche

3 lim F X ,Y (x, y) = lim F X ,Y (x, y) = 0 et lim F X ,Y (x, x) = 1.


x→−∞ y→−∞ x→+∞

1. Fonction densité de probabilité


Définition
Soient X et Y deux variables aléatoires définies sur le même espace probabilisé (Ω, A , p). S’il existe une
fonction positive f de R2 dans R, telle que pour tous réels x et y ,
Z x Z y
F X ,Y (x, y) = f (u, v )d ud v ,
−∞ −∞

alors f est dite densité de probabilité du couple (X , Y ).

Proprietés
On a
Z Z
1 Pour tout A élément de A , alors p((X , Y ) ∈ A) = f (u, v )d ud v . En particulier,
A
Z Z
f (u, v )d ud v = 1
R2

∂2 F
2 En tout point (x 0 , y 0 ) où f est continue, f (x 0 , y 0 ) = (x 0 , y 0 )
∂x∂y
Z Z
3 X et Y ont comme densités respectives f X (x) = f (x, y)d y et f Y (Y ) = f (x, y)d x
R R

46
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Z Z Z Z
4 E (X ) = x f (x, y)d xd y et E (Y ) = y f (x, y)d xd y
R2 R2
Z Z
¡ ¢
5 E h(X , Y ) = h(x, y) f (x, y)d xd y
R2
Z Z Z Z
2
¡ ¢2
6 V (X ) = (x − E (X )) f (x, y)d xd y et V (Y ) = y − E (Y ) f (x, y)d xd y
R2 R2

Remarque
Lorsque les quantités sont définies, on pose, comme dans le cas discret,
C ov (X , Y )
C ov (X , Y ) = E (X Y ) − E (X )E (Y ), r (X , Y ) = .
σ X σY

2. Lois marginales et lois conditionnelles


Les lois marginales de X et Y sont connues par leur fonction de répartition

F X (x) = p(X < x) = p(X < x, Y ∈ R) = lim F X ,Y (x, y),


y→+∞

F Y (y) = p(Y < y) = p(X ∈ R, Y < y) = lim F X ,Y (x, y).


x→+∞

Soit (X , Y ) un couple aléatoire de densité de probabilité f . Soit f X la densité de probabilité de X et un réel x tel
que f X (x) ̸= 0. La loi conditionnelle de Y liée par la condition (X = x) est définie par sa densité de probabilité

f (x, y)
f x (y) = .
f X (x)

3. INDÉPENDANCES
Définition
Les variables X et Y sont indépendantes si pour tous x et y réels

F X ,Y (x, y) = F X (x) × F Y (y).

Proprietés
On a

1 X et Y sont indépendantes si et seulement si pour tous x et y réels f (x, y) = f X (x) × f Y (y). Et


dans ce cas C ov (X , Y ) = 0

2 X et Y sont indépendantes si et seulement si pour tous couples d’intervalles réels [a, a ′ [ et


[b, b ′ [, on a
³ ¢´ ³ ´ ¢´
p (X , Y )−1 [a, a ′ [×[b, b ′ [ = p X −1 ([a, a ′ [ × p(Y −1 [b, b ′ [
¡ ¡

3 X et Y sont indépendantes si et seulement si les lois conditionnelles sont identiques aux lois

47
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
marginales (En particulier, F x (y) ne dépendra pas de x)

Exemple
Soient c ∈ R et f (X ,Y ) une fonction telle que:
( 2 2
c x ye −x −y ; x ∈ R+ , y ∈ R+ ,
f (X ,Y ) (x, y) =
0; sinon.

1 Calculer c pour que la fonction f (X ,Y ) soit une densité de probabilité du couple (X , Y )

2 Déterminer la fonction de répartition conjointe du couple (X , Y )

3 Trouver les densités marginales des X et Y

Solution

1 Il faut remarquer d’abord que f (X ,Y ) doit être positive, ainsi c Ê 0. De plus

c
Z Z Z Z
−x 2 2
1= f (X ,Y ) (x, y)d xd y = c xe dx ye −y d y = ⇒ c = 4.
R R R R 4

2 La fonction de répartition conjointe du couple (X , Y ) est donnée par

Z x Z y Z x
2
Z y
2
F X ,Y (x, y) = f (X ,Y ) (u, v )d ud v = 4 ue −u d u ve −v d v =
−∞ −∞
³ ´³ ´ −∞ −∞
2 2
1 − e −x 1 − e −y , ∀x, y ∈ R+ ,

et pour x, y ∈ R− , on a F X ,Y (x, y) = 0.

Pour les fonctions de répartitions marginales, il suffit de prendre la limite. En effet

³ 2
´³ 2
´ ³ 2
´
F X (x) = lim F X ,Y (x, y) = lim 1 − e −x 1 − e −y 1R+ ×R+ (x, y) = 1 − e −x 1R+ (x).
y→+∞ y→+∞

De même
³ 2
´³ 2
´ ³ 2
´
F Y (y) = lim F X ,Y (x, y) = lim 1 − e −x 1 − e −y 1R+ ×R+ (x, y) = 1 − e −y 1R+ (y).
x→+∞ x→+∞

3 Pour les fonctions de densité marginales, on a

2
f X (x) = F X′ (x) = 2xe −x 1R+ (x),

et
2
f Y (y) = F Y′ (y) = 2ye −y 1R+ (y).

48
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
4. Lois dérivées de la loi normale
Définition
1 Si X 1 , . . . , X n sont des de v.a. indépendantes et identiquement distribuées suivants la loi N (0, 1),
n
X i suit une loi dite loi du Khi-deux à n degrés de liberté et notée χ2 (n).
X
alors la v.a.
i =1
2 Soit une v.a. U qui suit une loi normale N (0, 1) et X une v.a. qui suit indépendamment de U une
U
loi du Khi-deux χ2 (n) à n degrés de liberté. Alors, la v.a. Tn = q suite une loi dite loi de Student
X
n
t (n) à n degré de liberté.

3 Soient X et Y deux v.a. suivant indépendamment des lois du Khi-deux à n et p degrés de liberté
X
n
respectivement. Alors la variable aléatoire Y
suit une loi dite de Fischer-Snedecor à n degrés de
P
liberté au numérateur et p degrés de liberté au dénominateur et est notée F (n, p).

Remarque
Ces trois dernières lois seront utiles dans la théorie des tests.
L’expression explicite des densités de ces lois n’est pas à connaître (sauf pour la loi normale).
Des tables statistiques et des logiciels permettent de les manipuler.

Figure 5.1: De gauche à droite, les graphes des densités des lois Khi2, Student et de Fischer.

Proprietés

1 Si X suit une loi Khi-deux χ2 (n), alors E (X ) = n et V ar (X ) = 2n.

2 Si X et Y deux v.a. indépendantes suivant des lois Khi-deux χ2 (n) et χ2 (p), alors X + Y suit la
loi Khi-deux χ2 (n + p).
n
3 Si X suivant une loi de Student t (n) à n Ê 3 degré de liberté, alors E (X ) = 0 et V ar (X ) = .
n −2
4 Si X une v.a. qui suit une loi de Fischer F (n, p), alors
p
p Ê 3 =⇒ E (X ) = ,
p −2

2p 2 (n + p − 2)
p Ê 5 =⇒ E (X ) = .
n(p − 2)2 (p − 4)

49
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
06 ÉCHANTILLONNAGE & ESTIMATION

I ÉCHANTILLONNAGE

1. Distribution d’échantillonnage de la moyenne


a - Théorème central limite 1

Proprieté

Lorsque la variance σ2 de la population est connue et que l’échantillon prélevé est grand (n Ê 30),
alors

1X n σ X̄ − µ
X̄ = X i ∼ N (µ, p ), i .e., Z= ∼ N (0, 1).
n i =1 n pσ
n

Remarque

☞ Le théorème précédant est vrai aussi lorsque la variance est connue, l’échantillon est petit et que la
variable aléatoire X suit une loi normale N (µ, σ).

☞ Lorsque la variance σ2 de la population est inconnue et l’échantillon prélevé est grand (n Ê 30), alors

s X̄ − µ
X̄ ∼ N (µ, p ), i .e., ∼ N (0, 1).
n ps
n

Exemple
Après la correction d’une épreuve d’examen comportant un grand nombre de candidats, on constate
que les notes ont pour moyenne 12 et pour écart-type 3. On se propose de prélever un échantillon
aléatoire non exhaustif de 100 notes.
Quelle est la probabilité d’avoir la moyenne d’un tel échantillon entre 12.5 et 12.9 ?

Solution
On a µ = 12, n = 100 Ê 30, et σ2 = 32 = 9 connue alors,
3 X̄ − 12
X̄ ∼ N (12, p ) ⇒ Z = ∼ N (0, 1).
n p3
100
Par suite,
³ 12.5 − 12 X̄ − 12 12.9 − 12 ´
P (12.5 É X̄ É 12.9) = P É É
p3 p3 p3
100 100 100
³ ´
= P 1.66 É Z É 3
= Φ(3) − Φ(1.66)
= 0.99865 − 0.95154 = 0.04711.
La probabilité que la moyenne de cet échantillon soit entre 12.5 et 12.9 est alors 4.71 %.

50
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
b - Théorème central limite 2:
Si la variance de la population est inconnue, si la variable X suit une distribution normale N (µ, σ), et si la
taille de l’échantillon est petite (n < 30), alors

X̄ − µ
T= ∼ t (n − 1) : Loi de Student à n-1 degré de liberté (ddl).
ps
n

Exemple
Pour estimer le montant hebdomadaire moyen dépensé par les familles de certaines personnes pour
leur épicerie, on tire un échantillon aléatoire de 25 personnes. On suppose que les montants dépen-
sés sont distribués normalement avec une moyenne 120 et une variance inconnue. Si la variance de
l’échantillon de taille 25 est 36, calculer la probabilité que la moyenne de l’échantillon soit supérieure à
123.

Solution
On a n = 25 < 30 et la variance de la population est inconnue, (on connaît la variance de l’échantillon
s 2 = 36), donc

X̄ − µ X̄ − 120
T= = ∼ t (25 − 1) = t (24).
ps p6
n 25

Par suite
 
X̄ − 120 123 − 120 
P ( X̄ > 123) = P  > = P (T > 2.5) ≃ P (T > 2.492) = 0.01.
p6 p6
25 25

2. Distribution d’échantillonnage de la proportion


Théorème
Si p est la proportion de la population, alors pour un échantillon de taille grande (n > 30) on a
s
³ p(1 − p) ´ p̄ − p
p̄ ∼ N p, i .e., Z=q ∼ N (0, 1).
n p(1−p)
n

Exemple
Selon une étude sur le comportement du consommateur, 25% d’entre eux sont influencés par la mar-
que, lors de l’achat d’un bien.
Si on interroge 100 consommateurs pris au hasard, quelle est la probabilité pour qu’au moins 35 d’entre
eux se déclarent influencés par la marque ?
³ 0.35 − 0.25 ´
P (p̄ Ê 0.35) = P Z Ê q = 1 − P (Z É 2.31) = 0.0104.
0.25(1−0.25)
100

Il y a environ une chance sur 100 pour que plus de 35 consommateurs dans un échantillon de taille 100
se disent influencés par la marque lorsque l’ensemble de la population contient 25% de tels consom-
mateurs.

51
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
3. Distribution d’échantillonnage de la variance
Théorème
Si σ2 est la variance de la population et S 2 est la variance échantillonnale d’un échantillon de taille n,
(n − 1)S 2
alors Y 2 = suit la loi khi-deux à ν = n − 1 ddl dont la table statistique nous donne les valeurs
σ2
de x tel que P (Y 2 > x) = α.

Exemple
Pour α = 0.05, n = 10, on a ν = 10 − 1 = 9 et x = 16.9190.

II ESTIMATION
1. Estimation ponctuelle
Pour un échantillon de taille n, on prend:

• X̄ est un estimateur de la moyenne µ :


1X n
X̄ = Xi .
n i =1

• S 2 est un estimateur de la variance σ2 :


1 X n
S2 = (X i − X̄ )2 .
n − 1 i =1

• p̄ est un estimateur de la proportion p.

2. Estimation par intervalle de confiance


Les estimations ponctuelles, bien qui sont utiles, ne fournissent aucune information concernant la précision
des estimations, c’est-à-dire qu’elles ne tiennent pas compte de l’erreur possible dans l’estimation due aux
fluctuations d’échantillonnage.

La théorie des intervalles de confiance (IC) consiste à construire, autour de l’estimation ponctuelle, un inter-
valle qui aura une grande probabilité (1 − α) de contenir la vraie valeur du paramètre.

3. Estimation par IC de la moyenne µ de la population


1er cas: Lorsque la taille de l’échantillon est grande (n Ê 30) et la variance de la population de X est connue,
on obtient un intervalle de confiance pour µ au seuil de confiance (1 − α) de la forme:

σ σ ¤ α
avec Φ(z α ) = 1 −
£
IC (1−α)% = x̄ − z α p ; x̄ + z α p ,
n n 2
³ ´
i .e., P µ ∈ IC (1−α)% = (1 − α).

• Ceci est aussi vrai pour de petits échantillons lorsque la variable aléatoire X suit une loi normale et que
la variance de X est connue.

52
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
• Lorsque la taille de l’échantillon est grande (n Ê 30) et la variance de la population de X est inconnue,
on obtient un intervalle de confiance pour µ au seuil de confiance (1 − α) de la forme:

£ s s ¤
IC (1−α)% = x̄ − z α p ; x̄ + z α p .
n n

Exemple
On a observé la taille de n = 200 hommes marocains adultes. Après calcul , on a obtenu une moyenne
de x̄ = 168cm. On suppose que la variance connue vaut σ = 1.
Donner un intervalle de confiance à 95% de la vraie moyenne de la population.

Solution
0.05
Puisque α = 0.05 (5%), alors Φ(z α ) = 1 − = 0.975, par suite z α = 1.96.
2
Finalement IC 95% = [167.86; 168.14], i.e., P (µ ∈ [167.86; 168.14]) = 0.95.
2me cas: Lorsque la taille de l’échantillon est petite (n < 30) et X suit une loi normale de variance inconnue,
on obtient un intervalle de confiance pour µ au seuil de confiance (1 − α) de la forme:

£ s s ¤
IC (1−α)% = x̄ − t α p ; x̄ + t α p
n n

α
t α se déduit de la table Student comme suit: P (T > t α ) = .
2

Exemple
Un reporter pour un journal étudiant est en train de rédiger un article sur le coût du logement près
du campus. Un échantillon de 10 appartements (trois et demi) dans un rayon de 1 km de l’université
a permis d’estimer le coût moyen du loyer mensuel à 350 par mois et un écart type de 30. Quel est
l’intervalle de confiance de 95% pour la moyenne des loyers mensuels? Supposons que les loyers suivent
une loi normale.

Solution
α
Pour un coefficient de confiance de 0.95, on a α = 0.05, et = 0.025.
2
On a n − 1 = 10 − 1 = £9 degrés de liberté,
¤ alors la table de la distribution Student nous donne t α = 2.262.
Finalement IC 95% = 328.54; 371.46 . i.e., nous sommes confiants à 95% que la moyenne des loyers men-
suels (le vrai paramètre de la population µ), se trouve entre 328.54 et 371.46

4. Détermination de la taille de l’échantillon


Quelle est la taille n de l’échantillon qui permettrait d’affirmer qu’en utilisant un estimateur ponctuel, l’erreur
commise pour un coefficient de confiance (1 − α) serait moindre que la marge d’erreur E ?
σ
Si par exemple on fixe E = z α p , l’erreur maximale commise pour un coefficient de confiance (1 − α), alors
n
h z .σ i2
α
la taille de l’échantillon sera n = .
E

Exemple
Si on fixe une marge d’erreur E = 500, alors pour un écart type de σ = 5000 et pour z α = 1.96, on trouve
n = 384. i.e., on a besoin d’un échantillon de taille n = 384 pour arriver à une précision de ±500 à un
seuil de confiance de 95%.

53
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
5. Estimation par IC de la proportion p de la population
Lorsque n est grand (n Ê 30) et si p̄ est la proportion échantillonnale alors un intervalle de confiance pour la
proportion p inconnue de la population au seuil de confiance (1 − α) de la forme:
s s
h p̄(1 − p̄) p̄(1 − p̄) i
IC (1−α)% = p̄ − z α ; p̄ + z α ,
n n

α
avec Φ(z α ) = 1 − .
2

Exemple
SPI est une compagnie qui se spécialise dans les sondages politiques. À l’aide de sondages télé-
phoniques, les interviewers demandent aux citoyens pour qui ils voteraient si les élections avaient lieu
aujourd’hui. Récemment, SPI a trouvé que 220 votants sur 500 voterait pour un candidat particulier.
SPI veut estimer l’intervalle de confiance à 95% pour la proportion des votants qui sont en faveur de ce
candidat.
On a n = 500, p̄ = 220/500 = 0.44 et z α = 1.96.

Donc IC 95% = [0.3965; 0.4835],

i.e., SPI est confiant à 95% que la proportion des votants qui favoriseront ce candidat est entre 0.3965 et
0.4835

6. Estimation par IC de la variance σ2 de la population


Soit n la taille de l’échantillon et s 2 la variance échantillonnale.
(n − 1)S 2
Ici Y 2 = suit la loi de loi khi-deux à n − 1 ddl.
σ2
α α
On cherche les deux nombres a et b tels que: P (Y 2 Ê a) = et P (Y 2 Ê b) = 1 − .
2 2
L’intervalle de confiance au seuil (1 − α) pour la variance inconnue σ2 de la population est de la forme:

h (n − 1)s 2 (n − 1)s 2 i
IC (1−α)% = ; .
a b

Exemple
On a mesuré le poids de raisin produit par m 2 sur 10 m 2 pris au hasard dans une vigne. On suppose que
le poids de raisin produits par une souche de cette vigne suit une loi normale N (µ, σ). On a obtenu les
résultats suivants exprimés en (K g ):

24 34 36 41 43 47 54 59 65 69

1 Déterminer une estimation ponctuelle de la moyenne théorique µ et de la variance théorique σ2 .

2 Déterminer une estimation par intervalle de confiance à 95% de µ.

3 Déterminer une estimation par intervalle de confiance à 95% de σ2 .

54
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI
Solution

1 X 10
1 Une estimation ponctuelle de la moyenne théorique µ est x̄ = x i = 47.2.
10 i =1
1X 10
Une estimation ponctuelle de la variance théorique s 2 = (x i − x̄)2 = 207.95.
9 i =1

2 On a n = 10 < 30 et σ inconnue. Alors, on applique la loi de Student avec la seuil α = 1 − 95% et une
ddl = 9.
α
P (T > t α ) == 0.025 ⇒ t α = 2.262.
2
Par suite, l’ intervalle de confiance à 95% de µ est
h S S i h i
IC (1−α)% = x̄ − t α p ; x̄ + t α p = 36.88; 57.51 .
n n

3 Une estimation par intervalle de confiance à 95% de σ2 est


h (n − 1)s 2 (n − 1)s 2 i
;
a b
α α
où a et b tels que: P (Y 2 Ê a) == 0.025 et P (Y 2 Ê b) = 1 − = 0.975.
2 2
Donc, a = 19.0288 et b = 2.7004. Par suite,
£ ¤
IC (1−α)% = 98.35; 693.063 .

55
PROBABILITÉS ET STATISTIQUE: GC S2 PROF. A.ABBADI

Vous aimerez peut-être aussi