Académique Documents
Professionnel Documents
Culture Documents
27 mars 2022
Table des matières
I Probabilités appliquées 5
1 Probabilités élémentaires 6
1.1 Concepts de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Variables aléatoires 13
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Variable aléatoire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Quelques lois de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5 Transformation d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6 Caractéristiques d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.1 Moyenne, médiane et mode . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6.2 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.3 Moments et fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . 23
2.7 Introduction à la fiabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.2 Fiabilité des systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Vecteurs aléatoires 29
3.1 Fonction de répartition conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Vecteur aléatoire discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3 Vecteur aléatoire continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.1 Fonctions de répartition, de masse, de densité conditionnelles . . . . . . . . 31
3.4.2 Moyenne conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5 Caractéristiques d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Estimation d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.7 Combinaison linéaire de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 35
3.7.1 Somme de variables aléatoires indépendantes . . . . . . . . . . . . . . . . . 35
3.7.2 Loi multinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.7.3 Loi multinormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.8 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2
TABLE DES MATIÈRES C. Bingane
3.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4 Processus stochastiques 40
4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.2 Quelques processus stochastisques . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.1 Chaînes de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2.2 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2.3 Processus de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
II Statistique 44
5 Statistique descriptive 45
5.1 Quelques représentations graphiques de données . . . . . . . . . . . . . . . . . . . . 45
5.1.1 Tableau d’effectifs et histogramme . . . . . . . . . . . . . . . . . . . . . . . 45
5.1.2 Diagramme en boîte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2 Quelques mesures numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3 Distributions échantillonnales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3.1 Quelques lois utiles en statistique . . . . . . . . . . . . . . . . . . . . . . . 47
5.3.2 Moyenne et variance échantillonnales . . . . . . . . . . . . . . . . . . . . . 49
5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
6 Estimation de paramètres 52
6.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.1.1 Méthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . 52
6.1.2 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2 Estimation par intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7 Tests d’hypothèses 56
7.1 Tests paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
7.2 Test d’ajustement de Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
7.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3
Table des figures
4
Première partie
Probabilités appliquées
5
Chapitre 1
Probabilités élémentaires
Définition 2. L’espace échantillon d’une expérience aléatoire est l’ensemble Ω de tous les résultats
possibles de cette expérience. Chaque résultat possible ω ∈ Ω est appelé événement élémentaire.
Exemple 1. Soit l’expérience aléatoire suivante : « on lance deux dés identiques à six faces ; si les deux
nombres obtenus sont égaux, on relance (une seule fois) les deux dés ». Combien y a-t-il d’événements
élémentaires dans l’espace échantillon ?
Exemple 2. Un étudiant se lève à un instant x et se couche à un instant y, où 0 < x < y < 24. Soit
Ω = {(x, y) | 0 < x < y < 24} l’espace échantillon de cette expérience aléatoire. Écrire sous forme
mathématique l’événement E : « l’étudiant passe au moins trois heures de plus debout que couché ».
Soit Ω l’espace échantillon d’une expérience aléatoire. Soit deux événements A et B. On dit que
• A est inclus dans B, noté A ⊆ B, ssi ∀ω ∈ Ω, ω ∈ A ⇒ ω ∈ B,
• A et B sont égaux, noté A = B, ssi ∀ω ∈ Ω, ω ∈ A ⇔ ω ∈ B.
Si on munit l’ensemble des parties de Ω des opérations :
1. l’union : pour tout A, B ⊆ Ω, A ∪ B = {ω ∈ Ω | ω ∈ A ∨ ω ∈ B},
2. l’intersection : pour tout A, B ⊆ Ω, A ∩ B = {ω ∈ Ω | ω ∈ A ∧ ω ∈ B},
alors les propriétés suivantes sont vérifiées.
i) Pour tout A, B ⊆ Ω, A ∪ B = B ∪ A et A ∩ B = B ∩ A.
ii) Pour tout A, B, C ⊆ Ω, (A ∪ B) ∪ C = A ∪ (B ∪ C) et (A ∩ B) ∩ C = A ∩ (B ∩ C).
iii) Pour tout A, B, C ⊆ Ω, (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) et (A ∩ B) ∪ C = (A ∪ C) ∩ (B ∪ C).
iv) Pour tout A ⊆ Ω, A ∪ ∅ = A et A ∩ Ω = A.
v) Pour tout A ⊆ Ω, A ∪ Ω = Ω et A ∩ ∅ = ∅.
vi) Pour tout A ⊆ Ω, A ∪ A = A et A ∩ A = A.
vii) Pour tout A ⊆ Ω, il existe Ac := {ω ∈ Ω | ω ∈
/ A} ⊆ Ω, appelé complémentaire de A, tel que
c c
A ∪ A = Ω et A ∩ A = ∅.
viii) Pour tout A, B ⊆ Ω, (A ∪ B)c = Ac ∩ B c et (A ∩ B)c = Ac ∪ B c .
6
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
Exemple 3. Soient A, B et C trois événements d’une expérience aléatoire dont l’espace échantillon
est Ω. Écrire sous forme mathématique l’événement E : « exactement un des événements A, B ou C
ne se produit pas ».
Exemple 4. Un transistor est pris au hasard et sa durée de vie est mesurée. L’espace échantillon Ω
de cette expérience aléatoire est [0, ∞). On considère les événements A = [0, 1], B = [0, 2] et
C = [1, ∞). Donner les intervalles qui correspondent aux événements suivants :
a) E1 = A ∪ (B ∩ C). b) E2 = [A ∩ (B c ∪ C c )]c .
1.2 Probabilité
Soit Ω l’espace échantillon d’une expérience aléatoire.
Définition 4. La probabilité d’un événement A ⊆ Ω est un nombre réel P[A] qui vérifie les propriétés :
1. P[A] ≥ 0 pour tout A ⊆ Ω,
2. P[Ω] = 1,
3. si A et B sont des événements incompatibles, i.e., A ∩ B = ∅, alors P[A ∪ B] = P[A] + P[B].
Théorème 1. Soit les événements A et B.
1. P[Ac ] = 1 − P[A].
2. P[A] ≤ 1.
3. P[∅] = 0.
4. P[A ∪ B] = P[A] + P[B] − P[A ∩ B].
5. Si A ⊆ B, alors P[A] ≤ P[B].
Démonstration.
1. On a Ac ∪ A = Ω et Ac ∩ A = ∅. Alors
2. P[A] = 1 − P[Ac ] ≤ 1.
3. P[∅] = P[Ωc ] = 1 − P[Ω] = 1 − 1 = 0.
4. On peut écrire
A ∪ B = A ∪ (Ac ∩ B) ⇒ P[A ∪ B] = P[A] + P[Ac ∩ B],
B = (A ∩ B) ∪ (Ac ∩ B) ⇒ P[B] = P[A ∩ B] + P[Ac ∩ B].
Donc, en soustrayant membre à membre les deux égalités, on a
5. Si A ⊆ B, alors on a
Exemple 5. Soient A, B et C des événements tels que A ⊆ B, P[(B ∪C)c ] = 1/10, P[B ∩C] = 3/10,
P[Ac ∩ B] = 1/2 et P[C] = 13/20. Calculer P[A].
7
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
P[Bk ]
Bk = Ak ∩ Bk−1 ⇒ P[Bk ] = P[Ak ∩ Bk−1 ] = P[Ak | Bk−1 ] P[Bk−1 ] ⇒ P[Ak | Bk−1 ] = .
P[Bk−1 ]
Par la suite,
n n n
Y Y P[Bk ] P[Bn ] Y
P[Ak | Bk−1 ] = = ⇒ P[Bn ] = P[B1 ] P[Ak | Bk−1 ].
k=2 k=2
P[Bk−1 ] P[B1]
k=2
Théorème 3 (Formule des probabilités totales). Soit B1 , B2 , . . . , Bn des événements formant une
partition de Ω, i.e.,
1. Bi ∩ Bj = ∅, pour tout i 6= j,
2. ni=1 Bi = Ω.
S
P[A | Bj ] P[Bj ]
P[Bj | A] = Pn
i=1 P[A | Bi ] P[Bi ]
pour tout j = 1, 2, . . . , n.
8
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
pour tout j = 1, 2, . . . , n.
Exemple 7. Soient A, B et C des événements tels que A et B sont indépendants, P[A] = P[B] =
P[C] = 1/3 et P[C | A ∩ B] = 1/2. Calculer la probabilité P[A ∩ B | C].
Exemple 8. Dans une certaine usine, 80% des pièces fabriquées sont conformes aux normes. Chaque
pièce fabriquée est soumise à trois opérations de contrôle indépendantes. On suppose que chacune de
ces opérations déclare conformes aux normes 95% des pièces qui sont effectivement conformes aux
normes, et 10% des pièces qui en fait ne le sont pas. Calculer la probabilité qu’une pièce vendue soit
effectivement conforme aux normes.
9
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
En particulier, si x1 = x2 = 1, alors
n
X n
= 2n
k=0
k
pour tout n ∈ N. De façon générale, pour tout x1 , x2 , . . . , xm ∈ R et pour tout n ∈ N,
X n!
(x1 + x2 + . . . + xm )n = xk11 xk22 . . . xkmm .
k +k +...+k =n
k !k
1 2 ! . . . km !
1 2 m
En particulier, si n1 = n et n2 = 1, alors
n n n+1
+ =
k−1 k k
pour tout 1 ≤ k ≤ n.
3. Pour tout k1 , k2 ∈ N et pour tout n ∈ N tel que n ≥ k1 + k2 ,
n−k
X2 j n − j n + 1
= .
j=k
k1 k 2 k1 + k2 + 1
1
En particulier, si k1 = k et k2 = 0, alors
n
X j n+1
=
j=k
k k+1
pour tout n ≥ k.
10
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
1.5 Exercices
1. Combien de plaques d’immatriculation différentes constituées de trois lettres et de trois chiffres y
a-t-il si les trois lettres sont placées soit au début, soit à la fin de la plaque ?
2. La combinaison d’un cadenas est constituée de trois chiffres. Combien de possibilités y a-t-il si
a) chaque chiffre ne peut pas être choisi plus d’une fois ?
b) chaque chiffre ne peut pas être choisi plus de deux fois ?
3. Une classe est composée de 5 étudiantes et de 45 étudiants. Parmi les 5 étudiantes, il y en a 4 qui
sont en 2è année, tandis que 30 des 45 étudiants sont en 2è année. Deux personnes sont prises au
hasard, et avec remise, parmi les 50 personnes dans cette classe. Sachant que dans les deux cas, la
personne choisie était en 2è année, quelle est la probabilité qu’un étudiant et une étudiante aient été
choisis ?
4. Des plaques d’immatriculation sont constituées de six caractères pris au hasard parmi les 26 lettres
de l’alphabet et les 10 chiffres. Quelle est la probabilité qu’une plaque quelconque comporte au moins
un chiffre ?
6. Une entreprise achète des composants électriques par lots de dix composants. À la réception de
chaque lot, deux composants sont pris au hasard et sans remise et sont ensuite testés. L’entreprise
accepte le lot seulement si aucun des deux composants testés n’est défectueux. En se basant sur les
données antérieures, on estime que la probabilité qu’un lot de dix composants ne contienne aucun
défectueux est de 0.7, la probabilité qu’il contienne exactement un défecteux est de 0.2, et la probabilité
qu’il contienne exactement deux défectueux est de 0.1. Calculer la probabilité
a) qu’un lot ne contienne aucun défectueux et soit accepté ;
b) qu’un lot contienne exactement deux défectueux ou soit accepté ;
c) qu’un lot contienne exactement un défectueux, étant donné qu’il a été rejeté ;
d) que trois lots (indépendants) consécutifs soient rejetés.
7. Une boîte contient cinq composants de marque A, cinq de marque B et cinq de marque C. On prend
cinq composants au hasard et sans remise.
a) Quelle est la probabilité que les cinq composants pris au hasard soient de la même marque ?
b) Quelle est la probabilité que les cinq composants soient de la même marque, étant donné qu’au
moins quatre des cinq composants pris au hasard sont de la même marque ?
8. Une particule se trouve à l’origine à l’instant initial et se déplace ensuite sur les entiers positifs
comme suit : à chaque unité de temps, on lance une pièce de monnaie (de façon indépendante) pour
laquelle la probabilité d’obtenir « pile » égale 1/3 ; si l’on obtient « pile », la particule se déplace d’un
entier vers la droite, tandis que si l’on obtient « face », elle se déplace de deux entiers vers la droite.
11
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
9. Un système A est constitué de trois sous-systèmes placés en série ; chaque sous-système comprend
deux composants en parallèle. Un autre système B est constitué de deux sous-systèmes en parallèle et
chaque sous-système comprend trois composants placés en série.
On suppose que tous les composants des deux systèmes fonctionnent indépendamment les uns des
autres et ont tous une fiabilité de 90% à un instant donné.
a) Calculer la fiabilité du système A à cet instant.
b) Calculer la fiabilité du système B à ce même instant.
10. On considère le système illustré dans la figure ci-dessous. Chaque composant fonctionne avec une
probabilité de 1/2, et ce, indépendamment des trois autres.
3
2
4
12
Chapitre 2
Variables aléatoires
2.1 Définitions
Définition 10. Soit une expérince aléatoire à laquelle on associe un espace échantillon Ω. Une variable
aléatoire est une fonction X définie comme suit
X: Ω → R
ω 7→ x = X(ω).
L’ensemble des valeurs possibles de X, qu’on note SX , est appelé support de X, i.e., SX = X(Ω).
Définition 11. La fonction de répartition d’une variable aléatoire X est une fonction FX telle que
Propriétés.
1. 0 ≤ FX (x) ≤ 1 pour tout x ∈ R.
2. FX est non décroissante.
3. FX est continue à droite.
4. lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→∞
Corollaire 1. Pour tout x ∈ R, P[X = x] = FX (x) − FX (x− ) avec FX (x− ) = lim FX (x − ε).
ε↓0
Définition 12. Le quantile d’ordre p ∈ (0, 1) d’une variable aléatoire X est un nombre réel xp tel que
P[X ≤ xp ] ≥ p et P[X ≥ xp ] ≥ 1 − p.
13
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Définition 13. Soit A un événement décrit sous la forme X ∈ AX ⊆ SX . On suppose que P[A] =
P[X ∈ AX ] > 0. La fonction de répartition conditionnelle de X sachant A est donnée par
P[{X ≤ x} ∩ {X ∈ AX }]
FX (x | A) = .
P[X ∈ AX ]
Définition 14. La fonction de masse d’une variable aléatoire discrète X est une fonction pX telle que
Propriétés.
1. Pour tout x ∈ SX , pX (x) > 0 et pour tout x ∈
/ SX , pX (x) = 0.
X
2. pX (x) = 1.
x∈SX
Exemple 14. Soit X une variable aléatoire discrète dont la fonction de masse est donnée dans le
tableau ci-dessous. Calculer FX (0) + FX (1/2).
x −1 0 1
pX (x) 1/8 3/8 1/2
Définition 15. Soit A un événement décrit sous la forme X ∈ AX ⊆ SX . On suppose que P[A] =
P[X ∈ AX ] > 0. La fonction de masse conditionnelle de X sachant A est donnée par
P[{X = x} ∩ {X ∈ AX }]
pX (x | A) = .
P[X ∈ AX ]
14
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
FX (x + ε) − FX (x) d
P[x < X ≤ x + ε] = FX (x + ε) − FX (x) = ε · ≈ ε FX (x).
ε dx
Définition 16. La fonction de densité d’une variable aléatoire continue X est une fonction fX telle
que
d
fX (x) := FX (x).
dx
La fonction de répartition de X est alors donnée par
Z x
FX (x) = fX (t) dt.
−∞
Propriétés.
1. Pour tout x ∈ SX , fX (x) > 0 et pour tout x ∈
/ SX , fX (x) = 0.
Z
2. fX (x) dx = 1.
SX
Exemple 15. Une variable aléatoire continue X possède la fonction de densité fX (x) = 12 e−|x| pour
x ∈ R. Calculer P[−1 < X ≤ 1] + P[X = 2].
Remarque. Si X est une variable discrète, on peut définir sa fonction de densité par
X
fX (x) = pX (t)δ(x − t),
t∈SX
Définition 17. Soit A un événement décrit sous la forme X ∈ AX ⊆ SX . On suppose que P[A] =
P[X ∈ AX ] > 0. La fonction de densité conditionnelle de X sachant A est donnée par
d
fX (x | A) = FX (x | A).
dx
Exemple 16. La fonction de densité d’une variable aléatoire X est fX (x) = 2x si 0 < x < 1. Calculer
fX (1/4 | X ≤ 1/2).
15
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Tout résultat de cette expérience appartenant à A est considéré comme un succès et tout résultat
contraire est considéré comme un échec. Une telle expérience est appelée épreuve ou essai de Ber-
nouilli.
On dit que X suit une loi de Bernouilli de paramètre p, où 0 < p < 1, et
pX (x) = px (1 − p)1−x
pour tout x ∈ SX = {0, 1}. On écrit X ∼ Bern(p). Sa fonction de répartition est donnée par
0 si x < 0,
FX (x) = 1 − p si 0 ≤ x < 1,
1 si x ≥ 1.
Loi binomiale
Supposons que l’on effectue n essais de Bernouilli de paramètre p de façon indépendante et on compte
le nombre X de succès. On dit que X suit une loi binomiale de paramètres (n, p) et
n x
pX (x) = p (1 − p)n−x
x
pour tout x ∈ SX = {0, 1, . . . , n}. On écrit X ∼ B(n, p). Sa fonction de répartition est donnée par
0 si x < 0,
bxc
n k
X
FX (x) = p (1 − p)n−k si 0 ≤ x < n,
k
k=0
1 si x ≥ n.
Exemple 17. Soit X ∼ B(5, 1/5). Calculer P[X = 1 | X ≤ 1].
Remarque. La loi B(1, p) est une loi Bern(p).
Loi géométrique
À présent, on s’intéresse au nombre X d’essais nécessaires de Bernouilli afin d’obtenir un premier
succès. On dit que X suit une loi géométrique de paramètre p et
pX (x) = (1 − p)x−1 p
pour tout x ∈ SX = {1, 2, . . .}. On écrit X ∼ Geo(p). Sa fonction de répartition est donnée par
0 si x < 1,
FX (x) = bxc
1 − (1 − p) si x ≥ 1.
Exemple 18. Des boîtes contiennent 20 objets chacune. On examine le contenu des boîtes jusqu’à ce
que l’on en trouve une qui ne contient aucun objet défecteux. Soit X le nombre de boîtes que l’on
doit examiner pour terminer l’expérience aléatoire. Quelle loi suit X si la probabilité qu’un objet soit
défectueux est de 1/10, indépendamment d’un objet à l’autre ?
Théorème 6 (Propriété de non vieillissement). Soit X ∼ Geo(p). Pour tout j, k ∈ SX ,
P[X > j + k | X > j] = P[X > k].
Démonstration.
P[{X > j + k} ∩ {X > j}]
P[X > j + k | X > j] =
P[X > j]
P[X > j + k] (1 − p)j+k
= = = (1 − p)k = P[X > k].
P[X > j] (1 − p)j
16
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Loi de Poisson
λx
pX (x) = e−λ
x!
pour tout x ∈ SX = {0, 1, . . .}. On écrit X ∼ Poi(λ). Sa fonction de répartition est donnée par
0 si x < 0,
bxck
FX (x) = −λ
Xλ
e
si x ≥ 0.
k=0
k!
Exemple 19. On suppose que le nombre X de particules émises par une source radioactive pendant
une période d’une heure suit une loi de Poisson de paramètre λ = 1/2, indépendamment d’une heure
à l’autre. Soit Y le nombre d’heures pendant lesquelles aucune particule n’est émise, parmi les 24
heures d’une journée donnée. Quelle loi suit Y ?
Remarque. Soit X ∼ B(n, p). Si n est assez grand et p assez petit, alors X ≈ Poi(np).
Exemple 20. Une école a acheté 20 ordinateurs pour que ses élèves puissent se brancher sur le réseau
Internet. L’école a distribué des codes d’accès aux 200 élèves inscrits au cours d’informatique. On
estime que chaque élève qui possède un code d’accès a une probabilité de 0.2 de vouloir se brancher
à midi lors d’une journée quelconque, et ce, indépendamment d’un élève à l’autre et d’une journée
à l’autre. Utiliser une approximation de Poisson pour calculer la probabilité que tous les ordinateurs
soient occupés, à midi, lors d’une journée donnée.
Loi uniforme
On dit que X suit une loi uniforme de paramètres (a, b), où a < b, si
1
fX (x) =
b−a
pour tout x ∈ SX = (a, b). On écrit X ∼ U(a, b). Sa fonction de répartition est donnée par
0
x− si x < a,
a
FX (x) = si a ≤ x < b,
b−a
1 si x ≥ b.
17
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Fonctions de masse et de répartition d’une loi de Bernouilli Fonctions de masse et de répartition d’une loi binomiale
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
pX pX
0.5 0.5
FX FX
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
−1 −0.5 0 0.5 1 1.5 2 −1 0 1 2 3 4 5
Fonctions de masse et de répartition d’une loi géométrique Fonctions de masse et de répartition d’une loi de Poisson
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
pX pX
0.5 0.5
FX FX
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
0 1 2 3 4 5 6 −1 0 1 2 3 4 5
√
(c) Loi Geo( 5/2 − 1/2) (d) Loi Poi(1)
Loi exponentielle
On dit que X suit une loi exponentielle de paramètre λ > 0 si
fX (x) = λe−λx
pour tout x ∈ SX = (0, ∞). On écrit X ∼ Exp(λ). Sa fonction de répartition est donnée par
0 si x < 0,
FX (x) = −λx
1−e si x ≥ 0.
Exemple 21. Soit X une variable aléatoire qui suit une loi exponentielle de paramètre λ. Quelle est
la valeur de λ si le 90è centile de X est 1 ?
Théorème 8 (Propriété de non vieillissement). Soit X ∼ Exp(λ). Pour tout s, t > 0,
P[X > s + t | X > s] = P[X > t].
Démonstration.
P[{X > s + t} ∩ {X > s}]
P[X > s + t | X > s] =
P[X > s]
P[X > s + t] e−λ(s+t)
= = = e−λt = P[X > t].
P[X > s] e−λs
18
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Loi gamma
On dit que X suit une loi gamma de paramètres (α, λ), où α > 0 et λ > 0, si
λ
fX (x) = (λx)α−1 e−λx
Γ(α)
Remarques.
1. La loi G(1, λ) est une loi Exp(λ).
2. La loi G(n, λ), où n est un entier, est aussi appelée loi d’Erlang de paramètres (n, λ). Dans ce
cas, sa fonction de répartition est
n−1
−λx
X (λx)k
1−e si x ≥ 0,
FX (x) = k!
k=0
0 sinon.
Loi normale
On dit que X suit une loi normale ou gaussienne de paramètres (µ, σ 2 ), avec σ > 0, si
1 (x−µ)2
fX (x) = √ e− 2σ2
σ 2π
d d 1 z2
fZ (z) = FZ (z) = FX (µ + σz) = σfX (µ + σz) = √ e− 2 = φ(z).
dz dz 2π
19
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Fonctions de densité et de répartition d’une loi uniforme Fonctions de densité et de répartition d’une loi exponentielle
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
fX fX
0.5 0.5
FX FX
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
−3 −2 −1 0 1 2 3 −1 0 1 2 3 4 5
√ √
(a) Loi U(− 3, 3) (b) Loi Exp(1)
Fonctions de densité et de répartition d’une loi gamma Fonctions de densité et de répartition d’une loi normale
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
fX fX
0.5 0.5
FX FX
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
−1 0 1 2 3 4 5 −3 −2 −1 0 1 2 3
3. Si X est une variable continue et g est une fonction continue, alors Y est aussi une variable
continue et sa fonction de répartition est donnée par
Z
FY (y) = P[g(X) ≤ y] = fX (x) dx,
x|g(x)≤y
20
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Remarques.
• Lorsque E[X] = 0, on dit que X est une variable centrée.
• Pour tout a, b ∈ R, E[aX + b] = a E[X] + b.
Proposition 2. Supposons que X est à valeurs non négatives.
• Si X est discrète et SX ⊆ N, alors E[X] = ∞
P
k=0 P[X > k].
R∞
• Si X est continue, alors E[X] = 0 P[X > x] dx.
Démonstration.
• X est discrète et SX ⊆ N :
∞
X ∞ X
X k ∞ X
X ∞
E[X] = kpX (k) = pX (k) = pX (k)
k=1 k=1 j=1 j=1 k=j
∞
X X∞
= P[X > j − 1] = P[X > j].
j=1 j=0
• X est continue : Z ∞ Z ∞ Z x
E[X] = xfX (x) dx = fX (x) dt dx
0 0 0
Z ∞Z ∞ Z ∞
= fX (x) dx dt = P[X > t] dt.
0 t 0
21
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Théorème 10 (Inégalité de Markov). Si X est à valeurs non négatives et E[X] est finie, alors pour
tout a > 0, P[X > a] ≤ E[X]/a.
Démonstration.
• X est une variable discrète :
X X X
E[X] = xpX (x) = xpX (x) + xpX (x)
x≥0 0≤x≤a x>a
X
≥ xpX (x)
x>a
X X
≥ apX (x) = a pX (x) = a P[X > a].
x>a x>a
Exemple 27. Soit X ∼ G(30, 20). Selon l’inégalité de Markov, quelle est la valeur minimale de
P[X ≤ 2] ?
Théorème 11 (de transfert). La moyenne de g(X), où g est une fonction réelle, est donnée par
X
g(x)pX (x) si X est discrète,
E[g(X)] = Zx∈SX
g(x)fX (x) dx si X est continue.
SX
Exemple 28. Soit X une variable aléatoire dont la fonction de densité est fX (x) = xe−x pour x > 0.
Calculer E[X −2 ].
Définition 19. Soit A un événement décrit sous la forme X ∈ AX ⊆ SX . On suppose que P[A] =
P[X ∈ AX ] > 0. La moyenne conditionnelle de X sachant A est donnée par
X
xpX (x | A) si X est discrète,
x∈A
E[X | A] = Z X
xfX (x | A) dx si X est continue.
AX
22
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Remarques.
• La variance d’une variable aléatoire est une grandeur non négative.
• Lorsque var(X) = 1, on dit que X est une variable réduite.
• On définit l’écart-type d’une variable aléatoire X par std(X) :=
p
var(X) = σ.
• Pour tout a, b ∈ R, var(aX + b) = a2 var(X).
Exemple 31. Soit X une variable aléatoire discrète dont la fonction de masse est donnée dans le
tableau ci-dessous. Calculer std(X 2 ).
x −1 0 1
pX (x) 1/2 1/4 1/4
Démonstration. Notons d’abord que P[|X − µ| > a] = P[(X − µ)2 > a2 ]. Soit Y := (X − µ)2 une
variable aléatoire à valeurs non négatives. D’après l’inégalité de Markov,
E[Y ] var(X) σ2
P[|X − µ| > a] = P[Y > a2 ] ≤ = = .
a2 a2 a2
Exemple 32. La durée de vie moyenne d’un certain type de pneu est de 3 ans, avec un écart-type de
0.3 an. Que peut-on dire, avec le plus de précision possible, au sujet de la probabilité p qu’un pneu de
ce type dure plus de 54 mois ou moins de 18 mois ?
Définition 23. Soit A un événement décrit sous la forme X ∈ AX ⊆ SX . On suppose que P[A] =
P[X ∈ AX ] > 0 et que E[X 2 | A] < ∞. La variance conditionnelle de X sachant A est donnée par
Remarques.
1. Le moment d’ordre 1 par rapport à l’origine correspond à la moyenne.
2. Le moment centré d’ordre 1 est toujours nul et le moment centré d’ordre 2 correspond à la
variance.
23
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Pn n Pn n
(−1)k µ0n−k µk et µ0n =
3. µn = k=0 k k=0 k
µn−k µk avec µ = E[X].
La fonction caractéristique de X est une fonction ϕX : R → C telle que
ϕX (ω) := E[ejωX ],
où j2 = −1.
Démonstration. Soit X une variable aléatoire telle que E[X n ] existe pour tout n ∈ N. On a
"∞ # ∞
X (jωX)n X (jω)n
jωX
ϕX (ω) = E[e ] = E = E[X n ].
n=0
n! n=0
n!
(n)
Alors ϕX (0) = jn E[X n ].
24
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
La fiabilité d’un système pour une durée donnée est donc la probabilité qu’aucune défaillance ne
survienne pendant cette durée.
Exemple 36. Supposons que la durée de vie d’un système est une variable aléatoire T dont la fonction
de densité est donnée par fT (t) = 1/2 si 1 < t < 3. Calculer le taux de défaillance r(t) à l’instant
t = 2.
1
2
1 2 ··· n
···
n
(a) Montage en série (b) Montage en parallèle
Montage en série
n
ind.
Y
R(t) = P[T > t] = P [T1 > t, T2 > t, . . . , Tn > t] = P[Tk > t]
k=1
n
Y
= Rk (t),
k=1
Xn
r(t) = rk (t).
k=1
25
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Montage en parallèle
On considère deux cas :
1. Redondance active : tous les composants commencent à fonctionner à l’instant t = 0. Alors la
durée de vie du système est donnée par T = max{T1 , T2 , . . . , Tn } et
n
ind.
Y
R(t) = 1 − P[T ≤ t] = 1 − P [T1 ≤ t, T2 ≤ t, . . . , Tn ≤ t] = 1 − P[Tk ≤ t]
k=1
n
Y
=1− [1 − Rk (t)],
k=1
n
1 − R(t) X Rk (t)
r(t) = rk (t).
R(t) k=1 1 − Rk (t)
Exemple 37. On considère un système constitué de deux composants placés en parallèle et d’un
troisième composant placé en série. Quelle est la fiabilité du système à l’instant t = 3 si les trois
composants fonctionnent indépendamment et possèdent tous la fonction de fiabilité R(t) = e−t pour
t > 0?
2.8 Exercices
11. On suppose que la probabilité qu’un appel téléphonique dure plus de cinq minutes est de 0.1,
indépendamment d’un appel à l’autre.
a) Calculer la probabilité que, parmi 20 appels pris au hasard, il y en ait plus de 18 qui ne durent
pas plus de cinq minutes.
b) Calculer approximativement la probabilité en a) à l’aide d’une loi de Poisson.
c) Calculer la probabilité que cela prenne moins de cinq appels pour en obtenir un premier qui
dure plus de cinq minutes.
d) Calculer la probabilité que, parmi cinq appels pris au hasard, le plus long dure moins de cinq
minutes.
12. Soit X le temps (en jours) requis pour réparer un appareil. On suppose que la moyenne du temps
de réparation est de quatre jours et l’écart-type de deux jours.
a) Quelle est, au maximum (et avec le plus de précision possible), la probabilité que le temps de
réparation soit inférieur à un jour ou supérieur à sept jours ?
b) Supposons que X ∼ U(a, b). Trouver la constante a.
c) Supposons que X ∼ G(α, λ). Calculer P[X < 4].
26
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
d) Supposons que X ∼ N(µ, σ 2 ). Trouver le nombre x0 tel que P[|X − 4| < x0 ] = 0.99.
13. Soit
0 si x < 1,
(x − 1)/2
si 1 ≤ x < 2,√
FX (x) =
x2 /8 si 2 ≤ x√ < 2 2,
1 si x ≥ 2 2.
19. Soit
0 si x < −1,
FX (x) = (1 − x2 )/2 si −1 ≤ x < b,
1 si x ≥ b.
27
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
21. Soit X une variable aléatoire continue qui prend ses valeurs dans l’intervalle (0, ∞). On dit que
θ
X suit une loi de Pareto de paramètre θ > 0 si fX (x) = (1+x) θ+1 pour x > 0.
En économie, la loi de Pareto est utilisée pour représenter la (mauvaise) répartition de la richesse.
Supposons que, dans un pays donné, la richesse X d’un individu (en milliers de dollars) suit une loi
de Pareto de paramètre θ = 1.2.
a) Calculer fX (2 | 1 < X ≤ 3).
b) Quelle est la richesse médiane dans ce pays ?
c) On trouve qu’environ 11.65% de la population possède une fortune personnelle d’au moins
5000$, soit la richesse moyenne des membres de cette population. Quelle fraction de la richesse
totale du pays possède ce pourcentage de la population ?
1
22. Soit pX (k) = 2k+1
pour k ∈ {0, 1, 2, . . .}.
a) Calculer la probabilité que X prenne une valeur qui est multiple de 3.
b) On génère des nombres aléatoires (indépendants) selon la distribution de la variable aléatoire
X. Soit Y le nombre des nombres aléatoires qui sont supérieurs à 1, parmi les dix premiers
nombres générés. Calculer P[Y = 2].
c) Supposons que l’on approche la probabilité P[Y = k] par P[Z = k], pour k = 0, 1, . . . , 10, où
Z ∼ Poi(5/2). Que peut-on affirmer au sujet de P[Z = k] par rapport à P[Y = k] pour une
valeur quelconque de k prise dans l’ensemble {0, 1, . . . , 10} ?
x 2
x − 2θ
23. Soit fX (x) = θ2
e 2 pour x > 0. On dit que X suit une loi de Rayleigh de paramètre θ > 0.
a) Soit Y := ln X. Calculer la fonction de densité et la fonction caractéristique de Y .
b) On définit Z := 1/X. Calculer l’espérance mathématique de Z.
c) Quelle est la valeur de la fonction de fiabilité d’un système, dont la durée de vie suit une loi de
Rayleigh, à l’instant qui correspond à sa durée de vie moyenne ?
28
Chapitre 3
Vecteurs aléatoires
(X, Y ) : Ω → R2
ω 7→ (x, y) = (X(ω), Y (ω)).
L’ensemble SXY = (X(Ω), Y (Ω)) des valeurs possibles de (X, Y ) est appelé support de (X, Y ). Pour
tout x fixé, on définit le support de Y sachant que X = x par SY |X = {y | (x, y) ∈ SXY }. De même,
S y fixé, on définit
pour tout Sle support de X sachant que Y = y par SX|Y = {x | (x, y) ∈ SXY }. Alors
SX = y SX|Y et SY = x SY |X .
Définition 27. La fonction de répartition conjointe d’un vecteur aléatoire (X, Y ), qu’on note FXY , est
définie comme suit
FXY (x, y) = P[X ≤ x, Y ≤ y].
Propriétés.
1. 0 ≤ FXY (x, y) ≤ 1 pour tout (x, y) ∈ R2 .
2. FXY (a, b) ≤ FXY (c, d) si a ≤ c et b ≤ d.
3. FXY (x+ , y) = FXY (x, y + ) = FXY (x, y).
4. lim FXY (x, y) = lim FXY (x, y) = 0 et lim FXY (x, y) = 1.
x→−∞ y→−∞ (x,y)→(∞,∞)
P[a < X ≤ b, c < Y ≤ d] = FXY (b, d) − FXY (b, c) − FXY (a, d) + FXY (a, c).
29
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Exemple 38. Soit (X, Y ) un vecteur aléatoire dont la fonction de répartition conjointe est
0 si x < 0 ou y < 0,
xy si 0 ≤ x < 1, 0 ≤ y < 1,
FXY (x, y) = x si 0 ≤ x < 1, y ≥ 1,
y si x ≥ 1, 0 ≤ y < 1,
1 si x ≥ 1, y ≥ 1.
Définition 29. La fonction de masse conjointe d’un vecteur aléatoire discret (X, Y ) est une fonc-
tion pXY telle que
pXY (x, y) = P[X = x, Y = y].
La fonction de répartition conjointe de (X, Y ) est alors donnée par
XX
FXY (x, y) = pXY (u, v).
u≤x v≤y
Propriétés.
1. Pour tout (x, y) ∈ SXY , pXY (x, y) > 0 et pour tout (x, y) ∈
/ SXY , pXY (x, y) = 0.
X
2. pXY (x, y) = 1.
(x,y)∈SXY
Définition 30. Soit (X, Y ) un vecteur aléatoire discret. La fonction de masse marginale de X est
donnée par
X
pX (x) = pXY (x, y)
y∈SY |X
pour tout y ∈ SY .
Exemple 39. La fonction de masse conjointe d’un vecteur aléatoire discret (X, Y ) est donnée par
−1
2 e
pXY (x, y) =
x 4y!
30
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Définition 31. La fonction de densité conjointe d’un vecteur aléatoire continu (X, Y ) est une fonc-
tion fXY telle que
∂2
fXY (x, y) := FXY (x, y).
∂x∂y
La fonction de répartition conjointe de (X, Y ) est alors donnée par
Z y Z x
FXY (x, y) = fXY (u, v) du dv.
−∞ −∞
Propriétés.
1. Pour tout (x, y) ∈ SXY , fXY (x, y) > 0 et pour tout (x, y) ∈
/ SXY , fXY (x, y) = 0.
ZZ
2. fXY (x, y) dx dy = 1.
SXY
Définition 32. Soit (X, Y ) un vecteur aléatoire continu. La fonction de densité marginale de X est
donnée par Z
fX (x) = fXY (x, y) dy
SY |X
pour tout y ∈ SY .
31
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
• La fonction de répartition conditionnelle de X sachant que Y = y est une fonction FX|Y telle
que P
u≤x pXY (u, y)
si (X, Y ) est discret,
R x pY (y)
FX|Y (x | y) :=
fXY (u, y) du
−∞
si (X, Y ) est continu
fY (y)
pour tout x ∈ SX|Y .
Exemple 41. Un nombre X est pris au hasard dans l’intervalle (0, 1), puis un nombre Y est pris au
hasard dans l’intervalle (0, X). Calculer P[Y ≤ 1/2].
Remarque. E[X | Y = y] est une fonction de y, i.e., E[X | Y = y] = g(y). Alors E[X | Y ] = g(Y )
est une variable aléatoire.
E [E[g(X) | Y ]] = E[g(X)].
Démonstration. Soit (X, Y ) un vecteur aléatoire continu. E[g(X) | Y ] étant une fonction de Y , alors
Z
E [E[g(X) | Y ]] = E[g(X) | Y = y]fY (y) dy
SY
Z Z
= g(x)fX|Y (x | y)fY (y) dx dy
SY SX|Y
Z Z
= g(x) fX|Y (x | y)fY (y) dy dx
SX SY |X
Z
= g(x)fX (x) dx = E[g(X)].
SX
32
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
3.4.3 Indépendance
Soit (X, Y ) un vecteur aléatoire. Les variables X et Y sont indépendantes si et seulement si FXY =
FX FY . Si (X, Y ) est discret, on a aussi pXY = pX pY et si (X, Y ) est continu, fXY = fX fY .
Exemple 43. Soient X et Y deux variables aléatoires indépendantes qui suivent toutes les deux une
loi de Poisson de paramètre λ = 3/2. Calculer P[X + Y > 3/2].
Remarque. Si les variables X et Y sont indépendantes, alors FX|Y = FX . Si (X, Y ) est discret, on a
aussi pX|Y = pX et si (X, Y ) est continu, fX|Y = fX .
Proposition 5. Soit deux fonctions g1 , g2 : R → R. Si X et Y sont indépendantes, alors g1 (X) et
g2 (Y ) le sont aussi.
Exemple 44. Calculer E[XY ] si l’on suppose que Y ∼ U(0, 1) et que fX|Y (x | y) = 2x/y 2 si
0 < x < y < 1.
Remarque. On dit que les variables X et Y sont orthogonales si E[XY ] = 0.
Proposition 6. Si g(X, Y ) = g1 (X)g2 (Y ), où g1 , g2 : R → R sont des fonctions, et si X et Y sont
indépendantes alors
E[g(X, Y )] = E[g1 (X)] E[g2 (Y )].
Exemple 45. Soit X ∼ U(−1, 1) et Y := X 2 . Les variables aléatoires X et Y sont-elles orthogonales
et indépendantes ?
Définition 33. Supposons que var(X) > 0 et var(Y ) > 0 sont finies. La covariance de (X, Y ), qu’on
note cov(X, Y ), est donnée par
cov(X, Y ) := E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X] E[Y ]
et sa matrice de covariance Σ est donnée par
var(X) cov(X, Y )
Σ := .
cov(X, Y ) var(Y )
Théorème 16 (Inégalité de Cauchy-Schwarz). Si var(X), var(Y ) et cov(X, Y ) sont finies, alors
|cov(X, Y )| ≤ std(X) std(Y ).
Démonstration. Pour tout (a, b) ∈ R2 ,
var(aX + bY ) = a2 var(X) + b2 var(Y ) + 2ab cov(X, Y )
var(X) cov(X, Y ) a
= a b .
cov(X, Y ) var(Y ) b
| {z }
Σ
Par définition, var(aX + bY ) ≥ 0. Il suit que la matrice de covariance Σ est semidéfinie positive et
det Σ = var(X) var(Y ) − (cov(X, Y ))2 ≥ 0.
33
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Définition 34. Soit (X, Y ) un vecteur aléatoire. On suppose que var(X) > 0 et var(Y ) > 0. On
définit le coefficient de corrélation de X et Y , qu’on note ρ = ρ(X, Y ), par
cov(X, Y )
ρ(X, Y ) := .
std(X) std(Y )
Proposition 7. Soit (X, Y ) un vecteur aléatoire. On suppose que le coefficient de corrélation ρ existe.
Alors, pour a 6= 0, Y = aX + b si et seulement si ρ2 = 1.
Démonstration.
(⇒) Soit Y = aX + b, où a 6= 0. On a µY = aµX + b et σY2 = a2 σX
2
. Par la suite,
a2 σ X
4
cov(X, Y ) = E[(X − µX )(Y − µY )] = a E[(X − µX )2 ] = aσX
2
⇒ ρ2 = 2 2
= 1.
σX σY
On déduit
Y − µY X − µX
V − ρU = E[V − ρU ] = E[V ] − ρ E[U ] = 0 ⇒ V = ρU ⇒ =ρ .
σY σX
Proposition 8. Si g est une fonction constante, alors le meilleur estimateur de Y est Ŷ = E[Y ].
Proposition 9. Si g est une fonction linéaire, alors le meilleur estimateur de Y est Ŷ = âX + b̂, où
cov(X, Y )
â = et b̂ = E[Y ] − â E[X].
var(X)
34
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
D’autre part, on a
E[(g(X) − Ŷ )(Ŷ − Y )] = E[E[(g(X) − Ŷ )(Ŷ − Y ) | X]]
= E[(g(X) − Ŷ ) E[(Ŷ − Y ) | X]] = 0.
| {z }
=0
35
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
n
Y
ϕSn = ϕXk et fSn = fX1 ∗ fX2 ∗ . . . ∗ fXn .
k=1
Exemple 48. Soit (X, Y ) un vecteur aléatoire discret dont la fonction de masse conjointe est donnée
par
4!3y
pXY (x, y) =
x!y!44
pour tout (x, y) ∈ SXY = {(x, y) ∈ N2 | x + y = 4}.
a) Dire si (X, Y ) est un vecteur binomial.
b) Trouver les lois marginales de X et Y .
c) Calculer cov(X, Y ).
36
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Théorème 19 (Loi forte des grands nombres). Soit (Xk ) une suite
P de variables aléatoires indépen-
dantes et identiquement distribuées de moyenne µ finie. Si Sn = nk=1 Xk alors
P[ lim Sn /n = µ] = 1.
n→∞
Théorème 20 (Théorème central limite). Soit (Xk ) une suite de variables aléatoires
P indépendantes
et identiquement distribuées de moyenne µ et de variance σ 2 > 0 finies. Si Sn = nk=1 Xk alors
Sn − nµ
Z = lim √ ∼ N(0, 1).
n→∞ σ n
37
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Démonstration. Pour tout k, soit Yk = (Xk − µ)/σ. (Yk ) est une suite de variables aléatoires indé-
pendantes et identiquement distribuées de moyenne 0 et de variance 1. Leur fonction caractéristique
est donnée par
E[Y ] E[Y 2 ] ω2
ϕY (ω) = 1 + (jω) + (jω)2 + o(ω 2 ) = 1 − + o(ω 2 ) lorsque ω → 0.
1! 2! 2
Pn
Soit Sn = k=1 Xk , où E[Sn ] = nµ et var(Sn ) = nσ 2 . On définit la variable aléatoire centrée réduite
Sn − nµ
Zn = √ .
σ n
On peut écrire
Pn n 2 n
ω2
k=1 Yk ω ω n↑∞ − ω2
Zn = √ ⇒ ϕZn (ω) = ϕY √ = 1− +o → e 2.
n n 2n n
Z = lim Zn a la même fonction caractéristique que la loi N(0, 1). Donc, Z ∼ N(0, 1).
n→∞
Remarques.
1. Si n est grand (n ≥ 30), on peut dire que Sn ≈ N(nµ, nσ 2 ) ou encore X = Sn /n ≈ N(µ, σ 2 /n).
2. Soit X ∼ B(n, p). Si min{np, n(1 − p)} ≥ 5, alors X ≈ N(np, np(1 − p)) et pour tout
k = 0, 1, . . . , n,
3.9 Exercices
24. On prend un point X dans l’intervalle (0, 1) selon une loi uniforme. Soit x la valeur prise par X ;
on prend ensuite un point Y dans l’intervalle (x, 1) selon une loi uniforme. On considère le vecteur
(X, Y ).
a) Quelle est la fonction de densité conjointe de (X, Y ) ?
b) Calculer E[Y | X = x].
c) Calculer E[Y 2 ].
38
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
e) Supposons que X1 , X2 , . . . , X30 et Y1 , Y2 , . . . , Y30 sont des variables indépendantes qui sont
distribuées comme X et comme Y , respectivement. On définit Dk = Xk − Yk , pour k =
1, 2, . . . , 30. Soit N le nombre des Dk qui prendront une valeur positive. Utiliser une loi
gaussienne pour calculer approximativement P[N = 28].
27. Utiliser le théorème central limite pour calculer approximativement P[(X1 +X2 +. . .+Xn )2 > c],
où les variables aléatoires X1 , X2 , . . . , Xn sont indépendantes et suivent toutes une loi exponentielle
de paramètre λ = 2, et c est une constante positive.
39
Chapitre 4
Processus stochastiques
4.1 Définitions
Définition 35. Un processus stochastique est un ensemble {X(t), t ∈ T ⊆ R} de variables aléatoires
X(t). La variable déterministe t est souvent interprétée comme le temps.
Remarques.
• Si T est fini ou dénombrable, alors le processus stochastique est dit à temps discret. Sinon, le
processus stochastique est dit à temps continu.
• Si pour tout t ∈ T , le support de X(t) est fini ou dénombrabble, alors le processus stochastique
est dit à état discret. Par contre, si pour tout t ∈ T , le support de X(t) est non dénombrabble,
alors le processus stochastique est dit à à état continu.
Pour tout t ∈ T , on définit
1. la fonction de répartition du 1er ordre par
∂
f (x; t) = F (x; t),
∂x
Exemple 52. Soit {X(t), t ≥ 0} le processus stochastique défini par X(t) = tY + 1, où Y ∼ U(0, 1).
Calculer la fonction de densité du 1er ordre du processus.
40
CHAPITRE 4. PROCESSUS STOCHASTIQUES C. Bingane
41
CHAPITRE 4. PROCESSUS STOCHASTIQUES C. Bingane
Propriétés.
1. Pour tout t ≥ 0, N (t) ∈ N.
2. N est non décroissant, i.e., pour tout t ≥ 0, τ > 0, N (t + τ ) − N (t) ≥ 0.
Définition 40. Un processus de comptage {N (t), t ≥ 0} est dit processus de Poisson de taux λ > 0 si
1. N (0) = 0,
2. {N (t), t ≥ 0} est à accroissements indépendants,
3. pour tout t ≥ 0, τ > 0, N (t + τ ) − N (t) ∼ Poi(λτ ).
Proposition 11. Soit {N (t), t ≥ 0} un processus de Poisson. Alors {N (t), t ≥ 0} est à accroissements
stationnaires et pour tout t > 0, N (t) ∼ Poi(λt).
Exemple 55. Les clients d’un vendeur de journaux se présentent selon un processus de Poisson de
taux λ = 2 par minute. Calculer la probabilité qu’il se présente au moins un client dans l’intervalle
(t0 , t0 + 2], étant donné qu’il y a eu exactement un client dans l’intervalle (t0 − 1, t0 + 1].
Définition 42. Un processus gaussien {W (t), t ≥ 0} est appelé processus de Wiener ou mouvement
brownien standard si
1. W (0) = 0,
2. {W (t), t ≥ 0} est à accroissements stationnaires et indépendants,
3. pour tout t > 0, W (t) ∼ N(0, t).
Exemple 56. Soit {W (t), t ≥ 0} un mouvement brownien standard. Calculer var[W (4) − 2W (1)].
4.3 Exercices
30. On définit le processus stochastique {X(t), t > 0} par X(t) = t/Y pour t > 0, où Y ∼ U(0, 2).
Calculer f (x; t) pour x > t/2.
31. On définit le processus stochastique {X(t), 0 ≤ t ≤ 1} par X(t) = N (t2 ) − t2 N (1) pour
0 ≤ t ≤ 1, où {N (t), t ≥ 0} est un processus de Poisson de taux λ > 0.
a) Calculer la fonction d’autocorrélation RX (t1 , t2 ) du processus stochastique {X(t), 0 ≤ t ≤ 1}
en t1 = 1/4 et t2 = 1/2.
b) Calculer P[X(t) > 0 | N (1) = 1] pour 0 < t < 1.
42
CHAPITRE 4. PROCESSUS STOCHASTIQUES C. Bingane
32. Un joueur joue des parties indépendantes du jeu suivant : à chaque partie, il lance une fléchette sur
une cible circulaire. Supposons que la distance D (en centimètres) du point d’impact de la fléchette
au centre de la cible suit une loi U(0, 30). Si D ≤ 5, le joueur gagne 1$ ; si 5 < D ≤ 25, le joueur ne
gagne ni ne perd rien ; si D > 25, le joueur perd 1$. La fortune initiale du joueur est de 1$ et il cessera
de jouer lorsqu’il sera ruiné ou lorsque sa fortune atteindra 3$.
Si Xn est la fortune du joueur au bout de n parties, alors {Xn , n ∈ N} est une chaîne de Markov.
a) Calculer la matrice des probabilités de transition en une étape de la chaîne.
b) Calculer E[X22 ].
33. On définit
0 si N (t) est pair,
Y (t) :=
1 si N (t) est impair,
où {N (t), t ≥ 0} est un processus de Poisson de taux λ = 1. Si Xn = Y (n) pour n ∈ N, alors
{Xn , n ∈ N} est une chaîne de Markov. Calculer sa matrice des probabilités de transition en une
étape.
34. Soit N (t) le nombre des appels téléphoniques reçus à un central dans l’intervalle [0, t]. On
suppose que {N (t), t ≥ 0} est un processus de Poisson de taux λ = 10 par heure. Calculer la
probabilité qu’aucun appel ne soit reçu lors de chacune de deux périodes consécutives de 15 minutes.
35. Les pannes d’une certaine machine se produisent selon un processus de Poisson de taux λ = 1
par semaine.
a) Quelle est la probabilité que la machine ait au moins une panne lors de chacune des deux
premières semaines considérées ?
b) Supposons qu’exactement cinq pannes se sont produites pendant les quatre premières semaines
considérées. Soit X le nombre des pannes pendant la quatrième des quatre semaines en question.
Calculer E[X | X > 0].
37. Soit {W (t), t ≥ 0} un mouvement brownien standard. On définit X(t) = −W (t) pour tout t ≥ 0.
Le processus stochastique {X(t), t ≥ 0} est-il gaussien ? Est-il un mouvement brownien standard ?
43
Deuxième partie
Statistique
44
Chapitre 5
Statistique descriptive
Définition 43. Un échantillon aléatoire de taille n d’une variable aléatoire X est une suite de va-
riables aléatoires indépendantes X1 , X2 , . . . , Xn ayant toutes la même distribution que X. La variable
aléatoire X est aussi appelée population et chaque Xk , une observation de X.
Remarque. Une donnée ou observation particulière de X est une valeur xk prise par une observa-
tion Xk .
nj = |{xk : xk ∈ Cj , k = 1, 2, . . . , n}| .
3. la fréquence d’une classe Cj par la proportion pj de données qu’elle comporte, i.e. pj = nj /n.
On construit alors le tableau de fréquences 5.1. Avec ce tableau, on peut représenter les données
avec un histogramme comme le montre la figure 5.1 : l’aire du rectangle correspondant à une classe
Cj = (cj−1 , cj ) est proportionnelle à la fréquence pj de la classe. L’histogramme est donc une
représentation graphique qui permet de voir la distribution des données.
45
CHAPITRE 5. STATISTIQUE DESCRIPTIVE C. Bingane
nj
12
x(1) = 18 q2 = 33 x(31) = 51
q1 = 24 q3 = 37 x
46
CHAPITRE 5. STATISTIQUE DESCRIPTIVE C. Bingane
La moyenne, la médiane ou le mode sont des mesures de la tendance centrale tandis que l’étendue,
l’écart interquartile ou l’écart-type sont des mesures de dispersion.
Exemple 57. Les notes sur 60 obtenues par 31 étudiants à l’examen final du cours Probabilités et
statistique sont données dans le tableau ci-dessous.
i x10i+1 x10i+2 x10i+3 x10i+4 x10i+5 x10i+6 x10i+7 x10i+8 x10i+9 x10i+10
0 18 19 21 21 21 21 23 24 25 29
1 29 31 32 32 33 33 33 34 34 34
2 35 36 36 37 37 37 38 39 39 40
3 51
1 w n2 −1 w
fW (w) = n
e− 2
2Γ 2
2
47
CHAPITRE 5. STATISTIQUE DESCRIPTIVE C. Bingane
Théorème 21 (de Cochran). Soit Z = (Z1 , Z2 , . . . , Zn ) ∼ N(0, In ) et soit A ∈ Rn×n une matrice
non nulle, symétrique, idempotente et de rang m < n. Alors AZ ∼ N(0, A) et (In − A)Z ∼
N(0, In − A) sont indépendants. De plus, kAZk2 ∼ χ2m et k(In − A)Zk2 ∼ χ2n−m .
Démonstration. Notons d’abord que si A ∈ Rn×n est une matrice non nulle, symétrique, idempotente
et de rang m < n alors In − A ∈ Rn×n est une matrice non nulle, symétrique, idempotente et de rang
n − m < n. Soit Z = (Z1 , Z2 , . . . , Zn ) ∼ N(0, In ).
1. Montrons que AZ ∼ N(0, A) et (In − A)Z ∼ N(0, In − A) sont indépendants. Soit
A
B= ∈ R2n×n
In − A
et soit
AZ
X = BZ = .
(In − A)Z
Le vecteur aléatoire X est un vecteur gaussien dont le vecteur des moyennes est 0 ∈ R2n et
dont la matrice de covariance est
T A2 A(In − A) A2 =A A 0
BIn B = = .
(In − A)A (In − A)2 0 In − A
Loi de Student
Remarques.
• La loi t1 est aussi appelée loi de Cauchy.
• Pour tout t ∈ R, fT (−t) = fT (t) et FT (−t) = 1 − FT (t).
• Lorsque n → ∞, la loi tn est une loi N(0, 1).
48
CHAPITRE 5. STATISTIQUE DESCRIPTIVE C. Bingane
Loi de Fisher
Soit U ∼ χ2m et V ∼ χ2n deux variables aléatoires indépendantes. La variable aléatoire R := U/m
V /n
suit
une loi de Fisher à m degrés de liberté au numérateur et n degrés de liberté au dénominateur et on
écrit R ∼ F(m, n). Sa fonction de densité est donnée par
m
m −1
Γ m+n m
n 2 n
r 2
fR (r) = · m+n
Γ m2 Γ n2
1+ mn
r 2
Fonctions de densité et de répartition d’une loi de Student Fonctions de densité et de répartition d’une loi de Fisher
1 1
0.9 0.9
0.8 0.8
0.7 0.7
0.6 0.6
fX fX
0.5 0.5
FX FX
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
0 0
−3 −2 −1 0 1 2 3 −1 0 1 2 3 4 5
2
Si E[X] = µ et var(X) = σ 2 , on peut montrer que E[X] = µ, var(X) = σn , E[S 2 ] = σ 2 ,
4
2σ 4
var(S 2 ) = n−1 + µ4 −3σ
n
et cov(X, S 2 ) = µn3 , où µ3 = E[(X − µ)3 ] et µ4 = E[(X − µ)4 ].
Exemple 61. Soit X1 , X2 , . . . , X10 un échantillon aléatoire de X ∼ U(−1, 1). Calculer E[X], var(X),
E[S 2 ], var(S 2 ) et cov(X, S 2 ).
Remarque. Dans le cas où la moyenne µ est connue, on définit la variance échantillonnale comme suit
n
1X
Sµ2 = (Xk − µ)2 .
n k=1
µ4 −σ 4
On a E[Sµ2 ] = σ 2 et var(Sµ2 ) = n
.
49
CHAPITRE 5. STATISTIQUE DESCRIPTIVE C. Bingane
X −µ
Z= √ ∼ N(0, 1),
σ/ n
S2
W = (n − 1) ∼ χ2n−1 ,
σ2
X −µ
T = √ ∼ tn−1 .
S/ n
√
Démonstration. Pour tout k = 1, 2, . . . , n, soit Y k = (X k −µ)/σ ∼ N(0, 1). On peut écrire Z = Y n,
W = nk=1 (Yk − Y )2 et T = Z/ W/(n − 1).
P p
Exemple 62. Soit X1 , X2 , . . . , X10 un échantillon aléatoire de X ∼ N(1, 4). Calculer P[−1 ≤ X ≤ 3],
P[1 ≤ S ≤ 4] et P[1 − S ≤ X ≤ 1 + S].
5.4 Exercices
38. Les notes sur 20 obtenues par 74 étudiants dans le cours Probabilités et statistique sont données
dans le tableau ci-dessous.
i x10i+1 x10i+2 x10i+3 x10i+4 x10i+5 x10i+6 x10i+7 x10i+8 x10i+9 x10i+10
0 13.5 9.0 10.0 10.0 9.0 10.5 10.5 16.5 12.0 10.0
1 11.0 11.0 10.5 11.5 11.5 6.0 5.5 7.0 7.5 12.5
2 10.5 14.0 13.0 6.5 12.5 11.0 10.5 10.5 9.5 11.0
3 8.5 11.0 14.0 5.0 10.5 7.0 9.5 16.5 16.0 12.0
4 8.0 9.5 9.5 12.5 14.5 8.0 14.0 12.5 14.0 12.5
5 7.5 11.5 8.0 12.5 14.0 11.5 9.5 8.5 11.5 7.5
6 11.0 9.0 11.5 10.5 6.0 12.0 12.5 13.5 7.5 11.5
7 13.5 9.0 10.0 16.0
50
CHAPITRE 5. STATISTIQUE DESCRIPTIVE C. Bingane
a) W ∼ χ24 b) T ∼ t4 c) R ∼ F(4, 4)
41. Soient les variables aléatoires Z ∼ N(0, 1), W ∼ χ24 , T ∼ t4 et R ∼ F(4, 4). Déterminer les
nombres a, b c et d tels que P[|Z| ≤ 2a] = P[4/b ≤ W ≤ 4b] = P[|T | ≤ 2c] = P[1/d ≤ R ≤ d] =
0.95.
51
Chapitre 6
Estimation de paramètres
52
CHAPITRE 6. ESTIMATION DE PARAMÈTRES C. Bingane
Exemple 64. Soit X1 , X2 , . . . , Xn un échantillon aléatoire d’une variable aléatoire X dont la distri-
bution dépend d’un paramètre inconnu θ. Calculer l’estimateur à vraisemblance maximale de θ.
a) X ∼ Geo(θ) b) X ∼ Exp(θ)
justification dans la loi des grands nombres. L’estimateur θ̂ de θ, obtenu par la méthode des moments,
est donc la solution d’une équation de la forme
n
j 1X j
E[X ] = X ,
n k=1 k
P[L ≤ θ ≤ U ] = 1 − α
alors [L, U ] est appelé intervalle de confiance bilatéral pour θ de niveau de confiance 1 − α.
• Si L = g(X1 , X2 , . . . , Xn ) est une statistique telle que
P[L ≤ θ] = 1 − α
alors [L, ∞) est appelé intervalle de confiance unilatéral pour θ de niveau de confiance 1 − α.
• Si U = h(X1 , X2 , . . . , Xn ) est une statistique telle que
P[U ≥ θ] = 1 − α
alors (−∞, U ] est appelé intervalle de confiance unilatéral pour θ de niveau de confiance 1 − α.
Supposons que X ∼ N(µ, σ 2 ), où seule la variance σ 2 est connue. Avec X comme estimateur de µ,
un intervalle de confiance bilatéral naturel de µ serait de la forme
√ √
X − cσ/ n ≤ µ ≤ X + cσ/ n
où c > 0 est une certaine constante. Pour α fixé, par exemple α = 0.05, on peut déterminer c de telle
sorte que √ √ √
P[X − cσ/ n ≤ µ ≤ X + cσ/ n] = P[|X − µ| ≤ cσ/ n] = 1 − α.
53
CHAPITRE 6. ESTIMATION DE PARAMÈTRES C. Bingane
X−µ
Considérant la statistique Z := ∼ N(0, 1), on a √
σ/ n
√ ∗
P[|X − µ| ≤ cσ/ n] = P[|Z| ≤ c] = 1 − α ⇒ c = zα/2 ,
∗
√ √
où zα/2 = z1−α/2 = Φ−1 (1 − α/2). Donc, [X − zα/2 ∗
σ/ n, X + zα/2 ∗
σ/ n] est un intervalle de
confiance pour µ de niveau de confiance 1 − α.
Remarque. Soit X une variable aléatoire. Pour tout α ∈ (0, 1), on définit x∗α la valeur réelle telle que
P[X > x∗α ] = α.
Intervalles de confiance
Échantillon Cas Statistique
[L, U ] [L, ∞) (−∞, U ]
∗ √σ
X−µ L = X − zα/2 L=X− zα∗ √σn
X1 , X2 , . . . , Xn ∼ N(µ, σ 2 ) σ 2 connue Z= √
σ/ n
∼ N(0, 1) ∗ √σ
n
U = X + zα/2 n
U = X + zα∗ √σn
Intervalles de confiance
Échantillon Cas Statistique
[L, U ] [L, ∞) (0, U ]
2 2
nSµ nSµ
nSµ2 L= ∗ L=
X1 , X2 , . . . , Xn ∼ N(µ, σ 2 ) µ connue W = ∼ χ2n wα/2 wα∗
σ2 nSµ 2
nSµ2
U= ∗
w1−α/2 U= ∗
w1−α
(n−1)S 2 (n−1)S 2
2 (n−1)S 2 L= ∗ L= ∗
X1 , X2 , . . . , Xn ∼ N(µ, σ ) µ inconnue W = σ2 ∼ χ2n−1 wα/2 wα
(n−1)S 2 (n−1)S 2
U= ∗
w1−α/2 U= ∗
w1−α
D−µ SD SD
X1 , X2 , . . . , Xn ∼ N(µX , σX 2
) σX2
inconnue T = ∼ tn−1
√D
SD / n
L = D − t∗α/2 √ n
L=D− t∗α √ n
SD SD
Y1 , Y2 , . . . , Yn ∼ N(µY , σY2 ) σY2 inconnue D =X −Y U = D + t∗α/2 √ n
U = D + t∗α √ n
2
Table 6.4 – Intervalles de confiance pour le rapport de variances σX /σY2
Intervalles de confiance
Échantillon Cas Statistique
[L, U ] [L, ∞) (0, U ]
2 2
2 1 SµX 1 SµX
X1 , X2 , . . . , Xm ∼ N(µX , σX ) µX connue 2 /σ 2
SµX X L= ∗ 2 L= ∗ S2
R= 2 /σ 2
SµY
∼ F(m, n) rα/2 SµY
2
rα µY
2
Y
1 SµX 1 SµX
Y1 , Y2 , . . . , Yn ∼ N(µY , σY2 ) µY connue U= ∗
r1−α/2 2
SµY
U= ∗
r1−α 2
SµY
2 2
2 1 SX 1 SX
X1 , X2 , . . . , Xm ∼ N(µX , σX ) µX inconnue 2 /σ 2
SX L= ∗ SY2
L= ∗ S2
R= X
SY2 /σY
2 ∼ F(m − 1, n − 1) rα/2
2
rα Y
2
1 SX 1 SX
Y1 , Y2 , . . . , Yn ∼ N(µY , σY2 ) µY inconnue U= ∗
r1−α/2 SY2
U= ∗
r1−α SY2
54
CHAPITRE 6. ESTIMATION DE PARAMÈTRES C. Bingane
Exemple 66. Un intervalle de confiance à 95% pour la moyenne µ d’une population√X ∼ N(µ, 9),
calculé à partir d’un échantillon aléatoire de taille n = 99, a donné |µ − 10| ≤ 3z0.025 / 99. Une 100è
observation, x100 , est prise. Calculer le nouvel intervalle de confiance si x100 = 11.
Exemple 68. Soit X ∼ Poi(λ), où le paramètre λ est inconnu. On considère un échantillon aléatoire
de taille n > 30 de X. Utiliser le théorème central limite pour obtenir un intervalle de confiance
approximatif à 1 − α pour λ.
6.3 Exercices
1 − |x|
43. Soit fX (x; θ) = 2θ
e θ pour x ∈ R, où θ > 0, la fonction de densité d’une variable aléatoire X.
a) Calculer l’estimateur à vraisemblance maximale du paramètre θ.
1
Pn 2 2
b) On considère l’estimateur β̂ = 2(n−1) k=1 Xk du paramètre β := θ . Calculer le biais de β̂.
45. On peut montrer qu’un intervalle de confiance théorique à environ 95% pour le paramètre λ d’une
variable aléatoire X ∼ Poi(λ) est donné par X ± 1.96 std(X), où X est la moyenne d’un échantillon
aléatoire de taille n de X. Un échantillon aléatoire particulier de taille n = 1000 a donné une moyenne
de l’échantillon de 0.4. Calculer approximativement l’intervalle de confiance pour λ basé sur cet
échantillon particulier.
46. Soit X ∼ N(µ, µ2 ). Obtenir une formule pour un intervalle de confiance (approximatif) à 1 − α
pour µ.
55
Chapitre 7
Tests d’hypothèses
Considérons une population X ∼ N(µ, σ 2 ), où seule la variance σ 2 est connue. On dispose d’un
échantillon aléatoire X1 , X2 , . . . , Xn de X et on veut tester l’hypothèse nulle H0 : µ = µ0 contre
l’hypothèse alternative H1 : µ 6= µ0 . Naturellement, avec X comme estimateur de µ, on rejette H0 si
√
|X − µ0 | > cσ/ n,
X − µ0
Z0 := √ .
σ/ n
56
CHAPITRE 7. TESTS D’HYPOTHÈSES C. Bingane
X−Y
√
X1 , X2 , . . . , Xm ∼ N(µX , σ 2 ) T0 = ∼ tm+n−2
σ 2 inconnue Sp m1
+n 1 |t0 | > t∗α/2 t0 > t∗α t0 < −t∗α
2 2
2 (m−1)SX +(n−1)SY
Y1 , Y2 , . . . , Yn ∼ N(µY , σ ) Sp2 = m+n−2
X1 , X2 , . . . , Xn ∼ N(µX , σX 2
) σX2
inconnue T0 = SDD√ ∼ tn−1
/ n |t0 | > t∗α/2 t0 > t∗α t0 < −t∗α
2
Y1 , Y2 , . . . , Yn ∼ N(µY , σY ) σY2 inconnue D =X −Y
57
CHAPITRE 7. TESTS D’HYPOTHÈSES C. Bingane
Pm
où, pour tout j = 1, 2 . . . , m, pj = P[X = xj ] > 0 avec j=1 pj = 1.
Soit X une variable aléatoire dont la fonction de répartition FX est inconnue. On veut tester l’hypothèse
nulle H0 : FX = F0 contre l’hypothèse alternative H1 : FX 6= F0 , où F0 est une fonction donnée. Pour
ce faire, on suit les étapes suivantes :
1. sous H0 , on partitionne le support de X en m classes C1 , C2 , . . . , Cm . Pour tout j = 1, 2, . . . , m,
on calcule p0j = P[X ∈ Cj ] ;
2. on prélève un échantillon de taille n m de X ;
3. on calcule la valeur de la statistique
m
X (Nj − np0j )2
W0 = ≈ χ2m−`−1 ,
j=1
np 0j
Exemple 69. On veut tester l’hypothèse qu’une variable aléatoire X suit une loi N(0, 1). Un échantillon
aléatoire particulier de taille n = 100 de X a permis de constituer le tableau 7.5. Calculer la statistique
utilisée pour effectuer le test.
Exemple 70. On a recueilli les observations du tableau 7.6 en lançant un dé 90 fois. Soit X le nombre
obtenu en lançant le dé. On veut tester l’hypothèse
Calculer la statistique utilisée pour effectuer le test et donner le nombre d de degrés de liberté de cette
statistique sous l’hypothèse nulle H0 .
58
CHAPITRE 7. TESTS D’HYPOTHÈSES C. Bingane
7.3 Exercices
48. La vitesse X des microprocesseurs d’une certaine entreprise est censée être de 2 GHz. On suppose
que X ≈ N(µ, σ 2 ).
a) On prélève un échantillon aléatoire de taille n = 9 de X et on calcule la vitesse moyenne x
des microprocesseurs. Si l’écart-type s de l’échantillon est égal à 0.2, pour quelles valeurs de
x pourra-t-on conclure que la vitesse moyenne des microprocesseurs est inférieure à 2 GHz.
Utiliser α = 0.025.
b) Supposons que la vitesse moyenne des microprocesseurs est en fait 2.1 GHz, et que σ = 0.25.
Quelle est la probabilité de rejeter l’hypothèse H0 : µ = 2 (pour accepter H1 : µ < 2) au seuil
de α = 0.05, si l’on prélève un échantillon aléatoire de taille n = 16 ?
2
c) Quelle est la valeur de la statistique utilisée pour tester l’hypothèse HP
0 : σ = 0.02 contre
2 10
H
P110: σ 2> 0.02 si un échantillon aléatoire de taille n = 10 a donné k=1 xk = 20.17 et
k=1 xk = 40.775 ? Quelle est la conclusion du test si α = 0.05 ?
49. Un fabricant de pneus prétend que la distance de freinage moyenne d’une voiture chaussée de ses
pneus de marque A n’est pas supérieure à la distance de freinage moyenne obtenue avec les pneus plus
coûteux de marque B. On croit que cette affirmation est fausse et on décide de le tester en mesurant la
distance de freinage (en mètres) à partir de 100 km/h jusqu’à l’arrêt. Les données sont les suivantes :
Pneus de marque A 40 41 39 44 45
Pneus de marque B 38 40 38 41 45
Soit X la distance de freinage obtenue avec les pneus de marque A, et Y la distance obtenue avec ceux
2
de marque B. On suppose que X ≈ N(µX , σX ) et Y ≈ N(µY , σY2 ).
a) Supposons que les mesures ont été prises en utilisant cinq marques de voitures différentes, la
première fois avec les pneus de marque A, et la seconde fois avec les pneus de marque B. Donner
la valeur de la statistique utilisée pour tester, au seuil α = 0.05, l’hypothèse H0 : µX = µY ;
donner aussi la valeur du centile c auquel la statistique en question est comparée.
b) Supposons que les dix mesures de distance de freinage ont été prises avec la même voiture, lors
de dix journées différentes. Calculer, en supposant σX = σY = 2.5, la valeur de la statistique
appropriée pour tester au seuil α = 0.05 l’hypothèse H0 : µX = µY , et donner la valeur du
centile c auquel cette statistique est comparée.
c) Sous les mêmes hypothèses qu’en b), quelle est la probabilité de détecter que la distance de
freinage moyenne µX est supérieure à la moyenne µY lorsque, en fait, µX − µY = 1.25 ?
50. On désire comparer la consommation d’essence (en litres par 100 km) des voitures deux marques,
A et B. On croit que les voitures de marque B consomment moins, en moyenne, que celles de marque A.
Soit X (respectivement Y ) la consommation d’essence des voitures de marque A (respectivement B).
2
On suppose que X ≈ N(µX , σX ) et Y ≈ N(µY , σY2 ). Des échantillons aléatoires de X et Y ont été
prélevés. Les données sont les suivantes :
Voitures de marque A 10.5 10.9 9.8 10.2 11.9 9.9 10.7 10.1 10.6
Voitures de marque B 9.7 10.0 10.3 9.4 9.6 9.8 10.2 10.0
a) On doit d’abord tester l’égalité des variances. On trouve que si α = 0.05, alors on conclut que
2
σX = σY2 . Quelle est la valeur de la statistique utilisée pour tester, au seuil de signification
α = 0.05, l’hypothèse que la consommation moyenne des voitures de marque B est inférieure à
celle des voitures de marque A ? Quelle est la contre-hypothèse H1 ?
59
CHAPITRE 7. TESTS D’HYPOTHÈSES C. Bingane
2
b) Si on choisit plutôt α = 0.10, alors on doit conclure que σX 6= σY2 . Quelle est, dans ce cas, la
valeur de la statistique utilisée pour tester, au seuil α = 0.10, l’hypothèse en a) ? Quelle est la
conclusion du test ?
c) Supposons qu’on élimine l’observation 11.9 dans l’échantillon aléatoiree de X, car cette ob-
servation est douteuse. Quelle est alors la valeur de la statistique dont on se sert pour tester
2
l’hypothèse H0 : σX = σY2 contre H1 : σX2
6= σY2 ? Quelle est la conclusion du test si α = 0.05 ?
51. Soit X1 , X2 , . . . , Xn un échantillon aléatoire d’une variable aléatoire X dont la fonction de densité
est fX (x; θ) = θxθ−1 pour 0 < x < 1, où θ > 0 est un paramètre inconnu.
a) Calculer l’estimateur de θ par la méthode du maximum de vraisemblance.
b) Afin de vérifier si le modèle fX (x; θ) proposé ci-dessus est adéquat pour une certaine va-
riable aléatoire X, on effectue un test d’ajustement (de Pearson). On recueille 162 observations
indépendantes de X et on les regroupe en trois classes ; on obtient le tableau d’effectifs suivant.
2
On veut faire le test, au seuil α = 0.05, de l’hypothèse H0 : fX (x) = 2xe−x contre H1 : fX (x) 6=
2
2xe−x pour x > 0. Donner la valeur de la statistique utilisée pour effectuer le test et le nombre
de degrés de liberté associé à cette statistique (sous H0 ).
60
Bibliographie
61