Académique Documents
Professionnel Documents
Culture Documents
19 août 2023
Table des matières
I Probabilités appliquées 6
1 Probabilités élémentaires 7
1.1 Concepts de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Variables aléatoires 14
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3 Variable aléatoire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Huit lois de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.1 Quatre lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5 Transformation d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 22
2.6 Caractéristiques d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.1 Moyenne, mode et médiane . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.2 Variance et écart-type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6.3 Moments et fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . 25
2.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3 Vecteurs aléatoires 29
3.1 Fonction de répartition conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.2 Vecteur aléatoire discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3 Vecteur aléatoire continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.1 Fonctions de répartition, de masse, de densité conditionnelles . . . . . . . . 31
3.4.2 Moyenne conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.5 Caractéristiques d’un vecteur aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Estimation d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.7 Deux lois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.7.1 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.7.2 Loi binormale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.8 Combinaison linéaire de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . 36
3.8.1 Somme de variables aléatoires indépendantes . . . . . . . . . . . . . . . . . 37
3.8.2 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.9 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2
TABLE DES MATIÈRES C. Bingane
II Statistique 40
4 Statistique descriptive 41
4.1 Quelques représentations graphiques de données . . . . . . . . . . . . . . . . . . . . 41
4.1.1 Tableau d’effectifs et histogramme . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.2 Diagramme en boîte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2 Quelques mesures numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.3 Distributions échantillonnales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.3.1 Quelques lois utiles en statistique . . . . . . . . . . . . . . . . . . . . . . . 43
4.3.2 Moyenne et variance échantillonnales . . . . . . . . . . . . . . . . . . . . . 46
4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5 Estimation de paramètres 49
5.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1.1 Méthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . 49
5.1.2 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2 Estimation par intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6 Tests d’hypothèses 53
6.1 Tests paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.2 Test d’ajustement de Pearson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3
Table des figures
4
Liste des tableaux
5
Première partie
Probabilités appliquées
6
Chapitre 1
Probabilités élémentaires
Définition 2. L’espace échantillon d’une expérience aléatoire est l’ensemble Ω de tous les résultats
possibles de cette expérience. Chaque résultat possible ω ∈ Ω est appelé résultat élémentaire.
Exemple 1. Soit l’expérience aléatoire suivante : « on lance deux dés identiques à six faces ; si les deux
nombres obtenus sont égaux, on relance (une seule fois) les deux dés ». Combien y a-t-il d’événements
élémentaires dans l’espace échantillon ?
Remarque. Un espace échantillon est dit discret si il est un ensemble fini ou infini dénombrable. Il est
dit continu si il est infini non dénombrable.
Exemple 2. Un étudiant se lève à un instant x et se couche à un instant y, où 0 < x < y < 24. Soit
Ω = {(x, y) | 0 < x < y < 24} l’espace échantillon de cette expérience aléatoire. Écrire sous forme
mathématique l’événement E : « l’étudiant passe au moins trois heures de plus debout que couché ».
7
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
a) E1 = A ∪ (B ∩ C). b) E2 = [A ∩ (B c ∪ C c )]c .
1.2 Probabilité
Soit Ω l’espace échantillon d’une expérience aléatoire.
Définition 4. La probabilité d’un événement A ⊆ Ω est un nombre réel P[A] qui vérifie les propriétés :
1. P[A] ≥ 0 pour tout A ⊆ Ω,
2. P[Ω] = 1,
3. si A ∩ B = ∅, alors P[A ∪ B] = P[A] + P[B].
Théorème 1. Soit les événements A et B.
1. P[Ac ] = 1 − P[A].
2. P[A] ≤ 1.
3. P[∅] = 0.
4. P[A ∪ B] = P[A] + P[B] − P[A ∩ B].
5. Si A ⊆ B, alors P[A] ≤ P[B].
Démonstration.
1. On a Ac ∪ A = Ω et Ac ∩ A = ∅. Alors
P[Ω] = P[Ac ∪ A] = P[Ac ] + P[A] ⇒ P[Ac ] = P[Ω] − P[A] = 1 − P[A].
2. P[A] = 1 − P[Ac ] ≤ 1.
3. P[∅] = P[Ωc ] = 1 − P[Ω] = 1 − 1 = 0.
4. On peut écrire
A ∪ B = A ∪ (Ac ∩ B) ⇒ P[A ∪ B] = P[A] + P[Ac ∩ B],
B = (A ∩ B) ∪ (Ac ∩ B) ⇒ P[B] = P[A ∩ B] + P[Ac ∩ B].
Donc, en soustrayant membre à membre les deux égalités, on a
P[A ∪ B] − P[B] = P[A] − P[A ∩ B].
5. Si A ⊆ B, alors on a
B = A ∪ (Ac ∩ B) ⇒ P[B] = P[A] + P[Ac ∩ B] ≥ P[A].
Exemple 5. Soient A, B et C des événements tels que A ⊆ B, P[(B ∪C)c ] = 1/10, P[B ∩C] = 3/10,
P[Ac ∩ B] = 1/2 et P[C] = 13/20. Calculer P[A].
8
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
P[Bk ]
Bk = Ak ∩ Bk−1 ⇒ P[Bk ] = P[Ak ∩ Bk−1 ] = P[Ak | Bk−1 ] P[Bk−1 ] ⇒ P[Ak | Bk−1 ] = .
P[Bk−1 ]
Par la suite,
n n n
Y Y P[Bk ] P[Bn ] Y
P[Ak | Bk−1 ] = = ⇒ P[Bn ] = P[B1 ] P[Ak | Bk−1 ].
k=2 k=2
P[Bk−1 ] P[B1 ] k=2
Théorème 3 (Formule des probabilités totales). Soit B1 , B2 , . . . , Bn des événements formant une
partition de Ω, i.e.,
1. Bi ∩ Bj = ∅, pour tout i ̸= j,
2. ni=1 Bi = Ω.
S
9
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
Exemple 7. Soient A, B et C des événements tels que A et B sont indépendants, P[A] = P[B] =
P[C] = 1/3 et P[C | A ∩ B] = 1/2. Calculer la probabilité P[A ∩ B | C].
Exemple 8. Dans une certaine usine, 80% des pièces fabriquées sont conformes aux normes. Chaque
pièce fabriquée est soumise à trois opérations de contrôle indépendantes. On suppose que chacune de
ces opérations déclare conformes aux normes 95% des pièces qui sont effectivement conformes aux
normes, et 10% des pièces qui en fait ne le sont pas. Calculer la probabilité qu’une pièce vendue soit
effectivement conforme aux normes.
n!
Akn = .
(n − k)!
3. Une k-combinaison sans répétition de Ω, où k est un entier naturel tel que 0 ≤ k ≤ n, est un
sous-ensemble de k éléments de Ω. Le nombre de k-combinaisons sans répétition de Ω est
k n n!
Cn = = .
k k!(n − k)!
10
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
Exemple 9. Dix candidats sont interviewés pour combler deux postes dans une entreprise. De combien
de façons cette dernière peut-elle combler ces postes, si
a) les deux postes sont identiques ?
b) un poste est permanent et l’autre est temporaire ?
Exemple 10. Une classe est constituée de vingt étudiants. Quelle est la probabilité qu’exactement
deux d’entre eux aient le même anniversaire ?
Propriétés.
1. Pour tout x1 , x2 ∈ R et pour tout n ∈ N,
n
n
X n n−k k X n! k1 k2
(x1 + x2 ) = x1 x2 = x x .
k=0
k k +k =n
k1 !k2 ! 1 2
1 2
En particulier, si x1 = x2 = 1, alors
n
X n
= 2n
k=0
k
En particulier, si n1 = n et n2 = 1, alors
n n n+1
+ =
k−1 k k
pour tout 1 ≤ k ≤ n.
3. Pour tout k1 , k2 ∈ N et pour tout n ∈ N tel que n ≥ k1 + k2 ,
n−k
X2
j n−j n+1
= .
j=k1
k1 k2 k1 + k2 + 1
En particulier, si k1 = k et k2 = 0, alors
n
X j n+1
=
j=k
k k+1
pour tout n ≥ k.
11
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
1.5 Exercices
1. Combien de plaques d’immatriculation différentes constituées de trois lettres et de trois chiffres y
a-t-il si les trois lettres sont placées soit au début, soit à la fin de la plaque ?
2. La combinaison d’un cadenas est constituée de trois chiffres. Combien de possibilités y a-t-il si
a) chaque chiffre ne peut pas être choisi plus d’une fois ?
b) chaque chiffre ne peut pas être choisi plus de deux fois ?
3. Une classe est composée de 5 étudiantes et de 45 étudiants. Parmi les 5 étudiantes, il y en a 4 qui
sont en 2è année, tandis que 30 des 45 étudiants sont en 2è année. Deux personnes sont prises au
hasard, et avec remise, parmi les 50 personnes dans cette classe. Sachant que dans les deux cas, la
personne choisie était en 2è année, quelle est la probabilité qu’un étudiant et une étudiante aient été
choisis ?
4. Des plaques d’immatriculation sont constituées de six caractères pris au hasard parmi les 26 lettres
de l’alphabet et les 10 chiffres. Quelle est la probabilité qu’une plaque quelconque comporte au moins
un chiffre ?
6. Une entreprise achète des composants électriques par lots de dix composants. À la réception de
chaque lot, deux composants sont pris au hasard et sans remise et sont ensuite testés. L’entreprise
accepte le lot seulement si aucun des deux composants testés n’est défectueux. En se basant sur les
données antérieures, on estime que la probabilité qu’un lot de dix composants ne contienne aucun
défectueux est de 0.7, la probabilité qu’il contienne exactement un défecteux est de 0.2, et la probabilité
qu’il contienne exactement deux défectueux est de 0.1. Calculer la probabilité
a) qu’un lot ne contienne aucun défectueux et soit accepté ;
b) qu’un lot contienne exactement deux défectueux ou soit accepté ;
c) qu’un lot contienne exactement un défectueux, étant donné qu’il a été rejeté ;
d) que trois lots (indépendants) consécutifs soient rejetés.
7. Une boîte contient cinq composants de marque A, cinq de marque B et cinq de marque C. On prend
cinq composants au hasard et sans remise.
a) Quelle est la probabilité que les cinq composants pris au hasard soient de la même marque ?
b) Quelle est la probabilité que les cinq composants soient de la même marque, étant donné qu’au
moins quatre des cinq composants pris au hasard sont de la même marque ?
8. Une particule se trouve à l’origine à l’instant initial et se déplace ensuite sur les entiers positifs
comme suit : à chaque unité de temps, on lance une pièce de monnaie (de façon indépendante) pour
laquelle la probabilité d’obtenir « pile » égale 1/3 ; si l’on obtient « pile », la particule se déplace d’un
entier vers la droite, tandis que si l’on obtient « face », elle se déplace de deux entiers vers la droite.
12
CHAPITRE 1. PROBABILITÉS ÉLÉMENTAIRES C. Bingane
9. Un système A est constitué de trois sous-systèmes placés en série ; chaque sous-système comprend
deux composants en parallèle. Un autre système B est constitué de deux sous-systèmes en parallèle et
chaque sous-système comprend trois composants placés en série.
On suppose que tous les composants des deux systèmes fonctionnent indépendamment les uns des
autres et ont tous une fiabilité de 90% à un instant donné.
a) Calculer la fiabilité du système A à cet instant.
b) Calculer la fiabilité du système B à ce même instant.
10. On considère le système illustré dans la figure ci-dessous. Chaque composant fonctionne avec une
probabilité de 1/2, et ce, indépendamment des trois autres.
3
2
4
13
Chapitre 2
Variables aléatoires
2.1 Définitions
Définition 8. Soit une expérince aléatoire à laquelle on associe un espace échantillon Ω. Une variable
aléatoire est une fonction X définie comme suit
X: Ω → R
ω 7→ x = X(ω).
L’ensemble des valeurs possibles de X, qu’on note SX , est appelé support de X, i.e., SX = X(Ω).
Définition 9. La fonction de répartition d’une variable aléatoire X est une fonction FX telle que
Propriétés.
1. 0 ≤ FX (x) ≤ 1 pour tout x ∈ R.
2. FX est non décroissante.
3. FX est continue à droite.
4. lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→∞
Corollaire 1. Pour tout x ∈ R, P[X = x] = FX (x) − FX (x− ) avec FX (x− ) = lim FX (x − ε).
ε↓0
14
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Quantile Un quantile d’ordre p ∈ (0, 1) d’une variable aléatoire X est un nombre réel xp tel que
P[X ≤ xp ] ≥ p et P[X ≥ xp ] ≥ 1 − p.
• Un quantile d’ordre 1/2 est aussi appelé médiane.
• Pour tout k = 1, 2, 3, un quantile d’ordre k/4 est aussi appelé k-ième quartile.
• Pour tout k = 1, 2, . . . , 9, un quantile d’ordre k/10 est aussi appelé k-ième décile.
• Pour tout k = 1, 2, . . . , 99, un quantile d’ordre k/100 est aussi appelé k-ième centile.
1 1
Exemple 12. Soit FX (x) = 2
+ π
arctan x pour tout x ∈ R. Déterminer les premier, deuxième et
troisième quartiles de X.
Définition 10. La fonction de masse d’une variable aléatoire discrète X est une fonction pX telle que
Propriétés.
1. Pour tout x ∈ SX , pX (x) > 0 et pour tout x ∈
/ SX , pX (x) = 0.
X
2. pX (x) = 1.
x∈SX
Exemple 14. Soit X une variable aléatoire discrète dont la fonction de masse est donnée dans le
tableau ci-dessous. Calculer FX (0) + FX (1/2).
x −1 0 1
pX (x) 1/4 1/2 1/4
15
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
d
P[x < X ≤ x + ε] = FX (x + ε) − FX (x) = ε FX (x) + o(ε).
dx
Définition 11. La fonction de densité d’une variable aléatoire continue X est une fonction fX telle
que
d
fX (x) := FX (x).
dx
La fonction de répartition de X est alors donnée par
Z x
FX (x) = fX (t) dt.
−∞
Propriétés.
1. Pour tout x ∈ SX , fX (x) > 0 et pour tout x ∈
/ SX , fX (x) = 0.
Z
2. fX (x) dx = 1.
SX
3. Si A est un événement décrit sous la forme X ∈ AX ⊆ SX alors
Z
P[A] = P[X ∈ AX ] = fX (x) dx.
AX
Exemple 15. Une variable aléatoire continue X possède la fonction de densité fX (x) = 12 e−|x| pour
x ∈ R. Calculer P[−1 < X ≤ 1] + P[X = 2].
Remarque. Si X est une variable discrète, on peut définir sa fonction de densité par
X
fX (x) = pX (t)δ(x − t),
t∈SX
Exemple 16. La fonction de densité d’une variable aléatoire X est fX (x) = 2x si 0 < x < 1.
Déterminer fX (x | X ≤ 1/2).
16
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Loi binomiale
Supposons que l’on effectue n essais de Bernouilli de paramètre p de façon indépendante et on compte
le nombre X de succès. On dit que X suit une loi binomiale de paramètres (n, p) et
n x
pX (x) = p (1 − p)n−x
x
pour tout x ∈ SX = {0, 1, . . . , n}. On écrit X ∼ B(n, p). Sa fonction de répartition est donnée par
0 si x < 0,
⌊x⌋
n k
X
FX (x) = p (1 − p)n−k si 0 ≤ x < n,
k
k=0
1 si x ≥ n.
Exemple 17. Soit X ∼ B(5, 1/5). Calculer P[X = 1 | X ≤ 1].
Remarques.
1. La loi B(1, p) est une loi Bern(p).
2. Si X ∼ B(n, p) alors Y := n − X ∼ B(n, 1 − p).
Loi géométrique
À présent, on s’intéresse au nombre X d’essais nécessaires de Bernouilli afin d’obtenir un premier
succès. On dit que X suit une loi géométrique de paramètre p et
pX (x) = (1 − p)x−1 p
pour tout x ∈ SX = {1, 2, . . .}. On écrit X ∼ Geo(p). Sa fonction de répartition est donnée par
0 si x < 1,
FX (x) =
1 − (1 − p)⌊x⌋ si x ≥ 1.
17
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Exemple 18. Des boîtes contiennent 20 objets chacune. On examine le contenu des boîtes jusqu’à ce
que l’on en trouve une qui ne contient aucun objet défecteux. Soit X le nombre de boîtes que l’on
doit examiner pour terminer l’expérience aléatoire. Quelle loi suit X si la probabilité qu’un objet soit
défectueux est de 1/10, indépendamment d’un objet à l’autre ?
Théorème 6 (Propriété de non vieillissement). Soit X ∼ Geo(p). Si j et k sont deux entiers tels que
k > j > 0,
P[X > k | X > j] = P[X > k − j].
Démonstration.
P[{X > k} ∩ {X > j}]
P[X > k | X > j] =
P[X > j]
P[X > k] (1 − p)k
= = = (1 − p)k−j = P[X > k − j].
P[X > j] (1 − p)j
Loi de Poisson
On dit que X suit une loi de Poisson de paramètre λ > 0 si
λx
pX (x) = e−λ
x!
pour tout x ∈ SX = {0, 1, . . .}. On écrit X ∼ Poi(λ). Sa fonction de répartition est donnée par
0 si x < 0,
⌊x⌋ k
FX (x) = −λ
Xλ
e
si x ≥ 0.
k=0
k!
Exemple 19. On suppose que le nombre X de particules émises par une source radioactive pendant
une période d’une heure suit une loi de Poisson de paramètre λ = 1/2, indépendamment d’une heure
à l’autre. Soit Y le nombre d’heures pendant lesquelles aucune particule n’est émise, parmi les 24
heures d’une journée donnée. Quelle loi suit Y ?
Remarque. Soit X ∼ B(n, p). Si n est assez grand et p assez petit, alors X ≈ Poi(np).
Exemple 20. Une école a acheté 20 ordinateurs pour que ses élèves puissent se brancher sur le réseau
Internet. L’école a distribué des codes d’accès aux 200 élèves inscrits au cours d’informatique. On
estime que chaque élève qui possède un code d’accès a une probabilité de 0.2 de vouloir se brancher
à midi lors d’une journée quelconque, et ce, indépendamment d’un élève à l’autre et d’une journée
à l’autre. Utiliser une approximation de Poisson pour calculer la probabilité que tous les ordinateurs
soient occupés, à midi, lors d’une journée donnée.
18
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
1 1
pX pX
0.8 FX 0.8 FX
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−1 −0.5 0 0.5 1 1.5 2 −1 0 1 2 3 4 5
(a) Loi Bern(1/2) (b) Loi B(4, 1/2)
1 1
pX pX
0.8 FX 0.8 FX
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 1 2 3 4 5 6 −1 0 1 2 3 4 5
(c) Loi Geo(1/2) (d) Loi Poi(1)
Loi uniforme
On dit que X suit une loi uniforme de paramètres (a, b), où a < b, si
1
fX (x) =
b−a
pour tout x ∈ SX = (a, b). On écrit X ∼ U(a, b). Sa fonction de répartition est donnée par
0
x− si x < a,
a
FX (x) = si a ≤ x < b,
b−a
1 si x ≥ b.
Loi exponentielle
On dit que X suit une loi exponentielle de paramètre λ > 0 si
fX (x) = λe−λx
pour tout x ∈ SX = (0, ∞). On écrit X ∼ Exp(λ). Sa fonction de répartition est donnée par
0 si x < 0,
FX (x) = −λx
1−e si x ≥ 0.
Exemple 21. Soit X une variable aléatoire qui suit une loi exponentielle de paramètre λ. Quelle est
la valeur de λ si le 90è centile de X est 1 ?
19
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Théorème 8 (Propriété de non vieillissement). Soit X ∼ Exp(λ). Pour tout t > s > 0,
P[X > t | X > s] = P[X > t − s].
Démonstration. Pour tout t > s > 0,
P[{X > t} ∩ {X > s}] t>s P[X > t] e−λt
P[X > t | X > s] = = = −λs = e−λ(t−s) = P[X > t − s].
P[X > s] P[X > s] e
Loi gamma
Pour tout α > 0, la fonction gamma est une fonction
Z ∞
Γ(α) := tα−1 e−t dt.
0
Propriétés.
1. Pour tout α > 0, Γ(α + 1) = αΓ(α).
2. Γ(1) = 1 et pour tout entier n ≥ 0, Γ(n + 1) = n!.
√
3. Γ(1/2) = π.
On dit que X suit une loi gamma de paramètres (α, λ), où α > 0 et λ > 0, si
λ
fX (x) = (λx)α−1 e−λx
Γ(α)
pour tout x ∈ SX = (0, ∞). On écrit X ∼ G(α, λ).
Exemple 22. Calculer P[X 2 ≤ 9], où X ∼ G(2, 1).
Remarques.
1. La loi G(1, λ) est une loi Exp(λ).
2. La loi G(n, λ), où n est un entier, est aussi appelée loi d’Erlang de paramètres (n, λ). Dans ce
cas, sa fonction de répartition est
n−1
X (λx)k
1 − e−λx
si x ≥ 0,
FX (x) = k!
k=0
0 sinon.
Loi normale
On dit que X suit une loi normale ou gaussienne de paramètres (µ, σ 2 ), avec σ > 0, si
1 (x−µ)2
fX (x) = √ e− 2σ2
σ 2π
pour tout x ∈ SX = (−∞, ∞). On écrit X ∼ N(µ, σ 2 ).
Remarques. Soit X ∼ N(µ, σ 2 ).
1. Les paramètres µ et σ sont respectivement la moyenne et l’écart-type de X.
2. Si µ = 0 et σ = 1, la loi normale est dite centrée et réduite. On notera Φ et ϕ sa fonction de
répartition et sa fonction de densité respectives.
3. Pour tout x ∈ R, FX (x) = Φ x−µ et fX (x) = σ1 ϕ x−µ
σ σ
.
4. Pour tout z ∈ R, Φ(−z) = 1 − Φ(z) et ϕ(−z) = ϕ(z).
Exemple 23. Soit X ∼ N(1, 4). Calculer P[X 2 − 2X > 3].
20
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
z z + 0.00 z + 0.01 z + 0.02 z + 0.03 z + 0.04 z + 0.05 z + 0.06 z + 0.07 z + 0.08 z + 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
21
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
1 1
fX fX
0.8 FX 0.8 FX
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−3 −2 −1 0 1 2 3 −1 0 1 2 3 4 5
√ √
(a) Loi U(− 3, 3) (b) Loi Exp(1)
1 1
fX fX
0.8 FX 0.8 FX
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−1 0 1 2 3 4 5 −3 −2 −1 0 1 2 3
(c) Loi G(2, 1) (d) Loi N(0, 1)
3. Si X est une variable continue et g est une fonction continue, alors Y est aussi une variable
continue et sa fonction de répartition est donnée par
Z
FY (y) = P[g(X) ≤ y] = fX (x) dx,
x|g(x)≤y
22
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Remarques.
• Lorsque E[X] = 0, on dit que X est une variable centrée.
• Pour tout a, b ∈ R, E[aX + b] = a E[X] + b.
Proposition 2. Supposons que X est à valeurs non négatives.
• Si X est discrète et SX ⊆ N, alors E[X] = ∞
P
k=0 P[X > k].
R∞
• Si X est continue, alors E[X] = 0 P[X > x] dx.
Démonstration.
• X est discrète et SX ⊆ N :
∞
X ∞ X
X k ∞ X
X ∞
E[X] = kpX (k) = pX (k) = pX (k)
k=1 k=1 j=1 j=1 k=j
∞
X X∞
= P[X > j − 1] = P[X > j].
j=1 j=0
• X est continue : Z ∞ Z ∞ Z x
E[X] = xfX (x) dx = fX (x) dt dx
0 0 0
Z ∞Z ∞ Z ∞
= fX (x) dx dt = P[X > t] dt.
0 t 0
Théorème 9 (Inégalité de Markov). Si X est à valeurs non négatives et E[X] est finie, alors pour
tout a > 0, P[X > a] ≤ E[X]/a.
23
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
Démonstration.
• X est une variable discrète :
X X X
E[X] = xpX (x) = xpX (x) + xpX (x)
x≥0 0≤x≤a x>a
X
≥ xpX (x)
x>a
X X
≥ apX (x) = a pX (x) = a P[X > a].
x>a x>a
Exemple 27. Soit X ∼ G(30, 20). Selon l’inégalité de Markov, quelle est la valeur minimale de
P[X ≤ 2] ?
Théorème 10 (de transfert). La moyenne de g(X), où g est une fonction réelle, est donnée par
X
g(x)pX (x) si X est discrète,
E[g(X)] = Zx∈SX
g(x)fX (x) dx si X est continue.
SX
Exemple 28. Soit X une variable aléatoire dont la fonction de densité est fX (x) = xe−x pour x > 0.
Calculer E[X −2 ].
Mode Le mode de X est un nombre réel x̂ qui maximise sa fonction de densité (ou de masse). Si X
possède un seul mode, on dit que X est unimodale. Dans le cas contraire, elle est dite multimodale.
24
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
x −1 0 1
pX (x) 1/2 1/4 1/4
Exemple 32. La durée de vie moyenne d’un certain type de pneu est de 3 ans, avec un écart-type de
0.3 an. Que peut-on dire, avec le plus de précision possible, au sujet de la probabilité p qu’un pneu de
ce type dure plus de 54 mois ou moins de 18 mois ?
25
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
φX (ω) := E[ejωX ],
où j2 = −1.
Exemple 34. Soit X ∼ Bern(3/4). Calculer φX (1).
2
Exemple 35. Soit X une variable aléatoire dont la fonction caractéristique φX (ω) = e−ω . On définit
Y := 2X − 1. Calculer la fonction caractéristique de Y .
Remarque. Si on connaît la fonction caractéristique φX , alors
Z ∞
1
fX (x) = e−jωx φX (ω) dω.
2π −∞
La fonction caractéristique caractérise entièrement une variable aléatoire.
(n)
Proposition 3. Si E[X n ] existe, alors φX (0) = jn E[X n ].
Démonstration. Soit X une variable aléatoire telle que E[X n ] existe pour tout n ∈ N. On a
"∞ # ∞
X (jωX)n X (jω)n
jωX
φX (ω) = E[e ] = E = E[X n ].
n=0
n! n=0
n!
(n)
Alors φX (0) = jn E[X n ].
2.7 Exercices
11. On suppose que la probabilité qu’un appel téléphonique dure plus de cinq minutes est de 0.1,
indépendamment d’un appel à l’autre.
a) Calculer la probabilité que, parmi 20 appels pris au hasard, il y en ait plus de 18 qui ne durent
pas plus de cinq minutes.
b) Calculer approximativement la probabilité en a) à l’aide d’une loi de Poisson.
c) Calculer la probabilité que cela prenne moins de cinq appels pour en obtenir un premier qui
dure plus de cinq minutes.
d) Calculer la probabilité que, parmi cinq appels pris au hasard, le plus long dure moins de cinq
minutes.
26
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
12. Soit X le temps (en jours) requis pour réparer un appareil. On suppose que la moyenne du temps
de réparation est de quatre jours et l’écart-type de deux jours.
a) Quelle est, au maximum (et avec le plus de précision possible), la probabilité que le temps de
réparation soit inférieur à un jour ou supérieur à sept jours ?
b) Supposons que X ∼ U(a, b). Trouver la constante a.
c) Supposons que X ∼ G(α, λ). Calculer P[X < 4].
d) Supposons que X ∼ N(µ, σ 2 ). Trouver le nombre x0 tel que P[|X − 4| < x0 ] = 0.99.
13. Soit
0 si x < 1,
(x − 1)/2 si 1 ≤ x < 2,√
FX (x) =
x2 /8 si 2 ≤ x√ < 2 2,
1 si x ≥ 2 2.
27
CHAPITRE 2. VARIABLES ALÉATOIRES C. Bingane
β
20. Soit fT (t) = tβ−1 e−t pour t > 0. On dit que T suit une loi de Weibull de paramètre β > 0. Cette
loi est souvent utilisée en fiabilité.
a) Calculer la moyenne, la médiane ainsi que le mode de T .
b) Calculer E[T −β/2 ].
c) Pour quelles valeurs de β, la fonction de densité fT (t) est-elle symétrique par rapport à la
moyenne de T ?
21. Soit X une variable aléatoire continue qui prend ses valeurs dans l’intervalle (0, ∞). On dit que
θ
X suit une loi de Pareto de paramètre θ > 0 si fX (x) = (1+x) θ+1 pour x > 0.
En économie, la loi de Pareto est utilisée pour représenter la (mauvaise) répartition de la richesse.
Supposons que, dans un pays donné, la richesse X d’un individu (en milliers de dollars) suit une loi
de Pareto de paramètre θ = 1.2.
a) Calculer fX (2 | 1 < X ≤ 3).
b) Quelle est la richesse médiane dans ce pays ?
c) On trouve qu’environ 11.65% de la population possède une fortune personnelle d’au moins
5000$, soit la richesse moyenne des membres de cette population. Quelle fraction de la richesse
totale du pays possède ce pourcentage de la population ?
1
22. Soit pX (k) = 2k+1
pour k ∈ {0, 1, 2, . . .}.
a) Calculer la probabilité que X prenne une valeur qui est multiple de 3.
b) On génère des nombres aléatoires (indépendants) selon la distribution de la variable aléatoire
X. Soit Y le nombre des nombres aléatoires qui sont supérieurs à 1, parmi les dix premiers
nombres générés. Calculer P[Y = 2].
c) Supposons que l’on approche la probabilité P[Y = k] par P[Z = k], pour k = 0, 1, . . . , 10, où
Z ∼ Poi(5/2). Que peut-on affirmer au sujet de P[Z = k] par rapport à P[Y = k] pour une
valeur quelconque de k prise dans l’ensemble {0, 1, . . . , 10} ?
x 2
x − 2θ
23. Soit fX (x) = θ2
e 2 pour x > 0. On dit que X suit une loi de Rayleigh de paramètre θ > 0.
a) Soit Y := ln X. Calculer la fonction de densité et la fonction caractéristique de Y .
b) On définit Z := 1/X. Calculer l’espérance mathématique de Z.
c) Quelle est la valeur de la fonction de fiabilité d’un système, dont la durée de vie suit une loi de
Rayleigh, à l’instant qui correspond à sa durée de vie moyenne ?
28
Chapitre 3
Vecteurs aléatoires
(X, Y ) : Ω → R2
ω 7→ (x, y) = (X(ω), Y (ω)).
L’ensemble SX,Y = (X(Ω), Y (Ω)) des valeurs possibles de (X, Y ) est appelé support de (X, Y ). Pour
tout x fixé, on définit le support de Y sachant que X = x par SY |X = {y | (x, y) ∈ SX,Y }. De même,
S y fixé, on définit
pour tout Sle support de X sachant que Y = y par SX|Y = {x | (x, y) ∈ SX,Y }. Alors
SX = y SX|Y et SY = x SY |X .
Définition 15. La fonction de répartition conjointe d’un vecteur aléatoire (X, Y ), qu’on note FX,Y ,
est définie comme suit
FX,Y (x, y) = P[X ≤ x, Y ≤ y].
Propriétés.
1. 0 ≤ FX,Y (x, y) ≤ 1 pour tout (x, y) ∈ R2 .
2. FX,Y (a, b) ≤ FX,Y (c, d) si a ≤ c et b ≤ d.
3. FX,Y (x+ , y) = FX,Y (x, y + ) = FX,Y (x, y).
4. lim FX,Y (x, y) = lim FX,Y (x, y) = 0 et lim FX,Y (x, y) = 1.
x→−∞ y→−∞ (x,y)→(∞,∞)
P[a < X ≤ b, c < Y ≤ d] = FX,Y (b, d) − FX,Y (b, c) − FX,Y (a, d) + FX,Y (a, c).
29
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Exemple 36. Soit (X, Y ) un vecteur aléatoire dont la fonction de répartition conjointe est
0 si x < 0 ou y < 0,
xy si 0 ≤ x < 1, 0 ≤ y < 1,
FX,Y (x, y) = x si 0 ≤ x < 1, y ≥ 1,
y si x ≥ 1, 0 ≤ y < 1,
1 si x ≥ 1, y ≥ 1.
Propriétés.
1. Pour tout (x, y) ∈ SX,Y , pX,Y (x, y) > 0 et pour tout (x, y) ∈
/ SX,Y , pX,Y (x, y) = 0.
X
2. pX,Y (x, y) = 1.
(x,y)∈SX,Y
Définition 18. Soit (X, Y ) un vecteur aléatoire discret. La fonction de masse marginale de X est
donnée par X
pX (x) = pX,Y (x, y)
y∈SY |X
pour tout y ∈ SY .
Exemple 37. La fonction de masse conjointe d’un vecteur aléatoire discret (X, Y ) est donnée dans le
tableau ci-dessous.
x\y 0 1
0 1/4 1/2
1 0 1/4
30
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Propriétés.
1. Pour tout (x, y) ∈ SX,Y , fX,Y (x, y) > 0 et pour tout (x, y) ∈
/ SX,Y , fX,Y (x, y) = 0.
ZZ
2. fX,Y (x, y) dx dy = 1.
SX,Y
Définition 20. Soit (X, Y ) un vecteur aléatoire continu. La fonction de densité marginale de X est
donnée par Z
fX (x) = fX,Y (x, y) dy
SY |X
pour tout y ∈ SY .
Exemple 38. La fonction de densité conjointe d’un vecteur aléatoire continu (X, Y ) est
31
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
• Si (X, Y ) est continu, la fonction de densité conditionnelle de X sachant que Y = y est une
fonction fX|Y telle que
fX,Y (x, y)
fX|Y (x | y) :=
fY (y)
pour tout x ∈ SX|Y .
• La fonction de répartition conditionnelle de X sachant que Y = y est une fonction FX|Y telle
que
P
u≤x pX,Y (u, y)
si (X, Y ) est discret,
pY (y)
FX|Y (x | y) := R x
f (u, y) du
−∞ X,Y
si (X, Y ) est continu
fY (y)
pour tout x ∈ SX|Y .
Exemple 39. Un nombre X est pris au hasard dans l’intervalle (0, 1), puis un nombre Y est pris au
hasard dans l’intervalle (0, X). Calculer P[Y ≤ 1/2].
Exemple 40. Soient X et Y deux variables aléatoires indépendantes qui suivent toutes les deux une
loi de Poisson de paramètre λ = 3/2. Calculer P[X + Y > 3/2].
Remarque. E[X | Y = y] est une fonction de y, i.e., E[X | Y = y] = h(y). Alors E[X | Y ] = h(Y )
est une variable aléatoire.
E [E[g(X) | Y ]] = E[g(X)].
32
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Démonstration. Soit (X, Y ) un vecteur aléatoire continu. E[g(X) | Y ] étant une fonction de Y , alors
Z
E [E[g(X) | Y ]] = E[g(X) | Y = y]fY (y) dy
SY
Z Z
= g(x)fX|Y (x | y)fY (y) dx dy
SY SX|Y
Z Z
= g(x) fX|Y (x | y)fY (y) dy dx
SX SY |X
Z
= g(x)fX (x) dx = E[g(X)].
SX
Théorème 14 (de transfert). La moyenne d’une fonction g(X, Y ) est donnée par
X
g(x, y)pX,Y (x, y) si (X, Y ) est discret,
(x,y)∈SX,Y
E[g(X, Y )] = ZZ
g(x, y)fX,Y (x, y) dA si (X, Y ) est continu.
SX,Y
Exemple 42. Calculer E[XY ] si l’on suppose que Y ∼ U(0, 1) et que fX|Y (x | y) = 2x/y 2 si
0 < x < y < 1.
Propriétés.
1. Pour tout a, b ∈ R, E[aX + bY ] = a E[X] + b E[Y ].
2. Si X et Y sont indépendantes, alors E[XY ] = E[X] E[Y ].
Covariance Supposons que var(X) > 0 et var(Y ) > 0 sont finies. La covariance de (X, Y ), qu’on
note cov(X, Y ), est
La matrice
var(X) cov(X, Y )
Σ :=
cov(X, Y ) var(Y )
est appelée matrice de covariance du vecteur (X, Y ).
Propriétés.
1. Pour tout a, b ∈ R,
33
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
est semidéfinie positive. Il suit que det Σ = var(X) var(Y ) − cov2 (X, Y ) ≥ 0.
Coefficient de corrélation Supposons que var(X) > 0 et var(Y ) > 0 sont finies. Le coefficient de
corrélation de X et Y est
cov(X, Y )
ρ = ρ(X, Y ) := .
std(X) std(Y )
Si ρ(X, Y ) = 0, on dit que les variables X et Y sont non corrélées.
Proposition 5. Supposons que le coefficient de corrélation ρ de (X, Y ) existe. Alors, pour a ̸= 0,
Y = aX + b si et seulement si ρ2 = 1.
Démonstration. Supposons E[X] = µ, var(X) = σ 2 , E[Y ] = ν, var(Y ) = τ 2 .
(⇒) Soit Y = aX + b, où a ̸= 0. On a ν = aµ + b et τ 2 = a2 σ 2 . Par la suite,
a2 σ 4
cov(X, Y ) = E[(X − µ)(Y − ν)] = a E[(X − µ)2 ] = aσ 2 ⇒ ρ2 = = 1.
σ2τ 2
(⇐) Supposons que ρ2 = 1. Soit les variables aléatoires U = (X − µ)/σ et V = (Y − ν)/τ centrées
réduites. On a
cov(X, Y )
cov(U, V ) = = ρ.
στ
D’autre part,
On déduit
Y −ν X −µ
V − ρU = E[V − ρU ] = E[V ] − ρ E[U ] = 0 ⇒ V = ρU ⇒ =ρ .
τ σ
34
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Proposition 7. Si g est une fonction linéaire, alors le meilleur estimateur de Y est Ŷ = âX + b̂, où
cov(X, Y )
â = et b̂ = E[Y ] − â E[X].
var(X)
D’autre part, on a
a) Trouver la constante c.
b) Quel est le meilleur estimateur de Y en fonction de X ?
n! x y
pX,Y (x, y) = p q ,
x!y!
pour tout (x, y) ∈ SX,Y = {(x, y) ∈ N2 | x + y = n}. On écrit (X, Y ) ∼ B(n, p, q).
Exemple 44. Soit (X, Y ) un vecteur aléatoire discret dont la fonction de masse conjointe est donnée
par
4!3y
pX,Y (x, y) =
x!y!44
pour tout (x, y) ∈ SX,Y = {(x, y) ∈ N2 | x + y = 4}.
a) Dire si (X, Y ) est un vecteur binomial.
b) Trouver les lois marginales de X et Y .
c) Calculer cov(X, Y ).
35
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Loi multinormale On dit qu’un vecteur aléatoire continu (X1 , X2 , . . . , Xn ) suit une loi multinormale
si et seulement si pour tout a1 , a2 , . . . , an ∈ R, a1 X1 +a2 X2 +. . .+an Xn suit une loi normale. On écrit
(X1 , X2 , . . . , Xn ) ∼ N(µ, Σ), où µ := (E[Xk ]) est le vecteur des moyennes et K := [cov(Xi , Xj )]
est la matrice de covariance. Si det Σ ̸= 0, on a
1 1 T −1
fX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = p e− 2 (x−µ) Σ (x−µ)
(2π)n det Σ
36
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
Propriétés.
1. Pour tout a = (a1 , a2 , . . . , an ) ∈ Rn ,
n
X
T T
E[a X] = a µ = ak E[Xk ],
k=1
Xn X
var(aT X) = aT Σa = a2k var(Xk ) + 2 aj ak cov(Xj , Xk ).
k=1 j<k
φX+Y (ω) = E[ejω(X+Y ) ] = E[ejωX ejωY ] = E[ejωX ] E[ejωY ] = φX (ω)φY (ω) = (φX φY )(ω).
n
Y
φSn = φXk et fSn = fX1 ∗ fX2 ∗ . . . ∗ fXn .
k=1
37
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
P[ lim Sn /n = µ] = 1.
n→∞
Sn /n−µ
On dit que (Zn ), où Zn := √ ,
σ/ n
converge en loi vers Z ∼ N(0, 1).
Démonstration. Pour tout k, soit Yk = (Xk − µ)/σ. (Yk ) est une suite de variables aléatoires indé-
pendantes et identiquement distribuées de moyenne 0 et de variance 1. Leur fonction caractéristique
est donnée par
E[Y ] E[Y 2 ] ω2
φY (ω) = 1 + (jω) + (jω)2 + o(ω 2 ) = 1 − + o(ω 2 ) lorsque ω → 0.
1! 2! 2
Pn
Soit Sn = k=1 Xk , où E[Sn /n] = µ et var(Sn /n) = σ 2 /n. On définit la variable aléatoire centrée
réduite
Sn /n − µ
Zn = √ .
σ/ n
On peut écrire
Pn 2 n
ω2
k=1 Yk n ω ω n↑∞ − ω2
Zn = √ ⇒ φZn (ω) = φY √ = 1− +o → e 2.
n n 2n n
Z = lim Zn a la même fonction caractéristique que la loi N(0, 1). Donc, Z ∼ N(0, 1).
n→∞
Remarques.
1. Si n est grand (n ≥ 30), on peut dire que X := Sn /n ≈ N(µ, σ 2 /n) ou encore Sn ≈ N(nµ, nσ 2 ).
2. Soit X ∼ B(n, p). Si min{np, n(1 − p)} ≥ 5, alors X ≈ N(np, np(1 − p)) et pour tout
k = 0, 1, . . . , n,
38
CHAPITRE 3. VECTEURS ALÉATOIRES C. Bingane
3.9 Exercices
24. On prend un point X dans l’intervalle (0, 1) selon une loi uniforme. Soit x la valeur prise par X ;
on prend ensuite un point Y dans l’intervalle (x, 1) selon une loi uniforme. On considère le vecteur
(X, Y ).
a) Quelle est la fonction de densité conjointe de (X, Y ) ?
b) Calculer E[Y | X = x].
c) Calculer E[Y 2 ].
26. Soit (Xk ) une suite de variables aléatoires indépendantes qui sont toutes distribuées comme X ∼
U(−1/2, 1/2), et soit Sn = nk=1 Xk . Utiliser le théorème central limite pour calculer P[S1500
2
P
≤ 125].
27. Utiliser le théorème central limite pour calculer approximativement P[(X1 +X2 +. . .+Xn )2 > c],
où les variables aléatoires X1 , X2 , . . . , Xn sont indépendantes et suivent toutes une loi exponentielle
de paramètre λ = 2, et c est une constante positive.
39
Deuxième partie
Statistique
40
Chapitre 4
Statistique descriptive
Définition 21. Un échantillon aléatoire de taille n d’une variable aléatoire X est une suite de va-
riables aléatoires indépendantes X1 , X2 , . . . , Xn ayant toutes la même distribution que X. La variable
aléatoire X est aussi appelée population et chaque Xk , une observation de X.
Remarque. Une donnée ou observation particulière de X est une valeur xk prise par une observa-
tion Xk .
nj = |{xk : xk ∈ Cj , k = 1, 2, . . . , n}| .
3. la fréquence d’une classe Cj par la proportion pj de données qu’elle comporte, i.e. pj = nj /n.
On construit alors le tableau de fréquences 4.1. Avec ce tableau, on peut représenter les données
avec un histogramme comme le montre la figure 4.1 : l’aire du rectangle correspondant à une classe
Cj = (cj−1 , cj ) est proportionnelle à la fréquence pj de la classe. L’histogramme est donc une
représentation graphique qui permet de voir la distribution des données.
41
CHAPITRE 4. STATISTIQUE DESCRIPTIVE C. Bingane
nj
12
x(1) = 18 q2 = 33 x(31) = 51
q1 = 24 q3 = 37 x
42
CHAPITRE 4. STATISTIQUE DESCRIPTIVE C. Bingane
La moyenne, la médiane ou le mode sont des mesures de la tendance centrale tandis que l’étendue,
l’écart interquartile ou l’écart-type sont des mesures de dispersion.
Exemple 48. Les notes sur 60 obtenues par 31 étudiants à l’examen final du cours Probabilités et
statistique sont données dans le tableau ci-dessous.
i x10i+1 x10i+2 x10i+3 x10i+4 x10i+5 x10i+6 x10i+7 x10i+8 x10i+9 x10i+10
0 18 19 21 21 21 21 23 24 25 29
1 29 31 32 32 33 33 33 34 34 34
2 35 36 36 37 37 37 38 39 39 40
3 51
1 w n2 −1 w
fW (w) = n
e− 2
2Γ 2
2
43
CHAPITRE 4. STATISTIQUE DESCRIPTIVE C. Bingane
Théorème 20 (de Cochran). Soit Z = (Z1 , Z2 , . . . , Zn ) ∼ N(0, In ) et soit A ∈ Rn×n une matrice non
nulle, symétrique, idempotente et de rang m < n. Alors AZ ∼ N(0, A) et (In − A)Z ∼ N(0, In − A)
sont indépendants. De plus, ∥AZ∥2 ∼ χ2m et ∥(In − A)Z∥2 ∼ χ2n−m .
Démonstration. Notons d’abord que si A ∈ Rn×n est une matrice non nulle, symétrique, idempotente
et de rang m < n alors In − A ∈ Rn×n est une matrice non nulle, symétrique, idempotente et de rang
n − m < n. Soit Z = (Z1 , Z2 , . . . , Zn ) ∼ N(0, In ).
1. Montrons que AZ ∼ N(0, A) et (In − A)Z ∼ N(0, In − A) sont indépendants. Soit
A
B= ∈ R2n×n
In − A
44
CHAPITRE 4. STATISTIQUE DESCRIPTIVE C. Bingane
et soit
AZ
X = BZ = .
(In − A)Z
Le vecteur aléatoire X est un vecteur gaussien dont le vecteur des moyennes est 0 ∈ R2n et
dont la matrice de covariance est
T A2 A(In − A) A
A2 =A 0
BIn B = = .
(In − A)A (In − A)2 0 In − A
Loi de Student
45
CHAPITRE 4. STATISTIQUE DESCRIPTIVE C. Bingane
Remarques.
• La loi t1 est aussi appelée loi de Cauchy.
• Pour tout t ∈ R, fT (−t) = fT (t) et FT (−t) = 1 − FT (t).
• Lorsque n → ∞, la loi tn est une loi N(0, 1).
1 1
fX fX
0.8 FX 0.8 FX
0.6 0.6
0.4 0.4
0.2 0.2
0 0
0 2 4 6 −4 −2 0 2 4
(a) Loi χ24 (b) Loi t4
µ4 −σ 4
On a E[Sµ2 ] = σ 2 et var(Sµ2 ) = n
.
46
CHAPITRE 4. STATISTIQUE DESCRIPTIVE C. Bingane
Exemple 51. Soit X1 , X2 , . . . , X10 un échantillon aléatoire de X ∼ U(−1, 1). Calculer E[X], var(X),
E[S 2 ], var(S 2 ) et cov(X, S 2 ).
Théorème 21. Si X ∼ N(µ, σ 2 ), alors les statistiques X et S 2 sont indépendantes. De plus,
X −µ
Z= √ ∼ N(0, 1),
σ/ n
S2
W = (n − 1) ∼ χ2n−1 ,
σ2
X −µ
T = √ ∼ tn−1 .
S/ n
√
Démonstration.
Pn Pour tout k = 1, 2,
p . . . , n, soit Y k = (X k −µ)/σ ∼ N(0, 1). On peut écrire Z = Y n,
2
W = k=1 (Yk − Y ) et T = Z/ W/(n − 1).
Soit Y = (Y1 , Y2 , . . . , Yn ) ∼ N(0, In ) et soit A = n1 eeT , où e = (1, 1, . . . , 1) ∈ Rn . La matrice A est
symétrique, idempotente et de rang 1. D’après le théorème 20, les vecteurs AY = (Y , Y , . . . , Y ) ∼
N(0, A) et (In −A)Y = (Y√ 1 −Y , Y2 −Y , . . . , Yn −Y ) ∼ N(0, In −A) sont indépendants. Par la suite,
T
les variables Z = e p AY / n ∼ N(0, 1) et W = ∥(In − A)Y ∥2 ∼ χ2n−1 sont aussi indépendantes.
Finalement, T = Z/ W/(n − 1) ∼ tn−1 .
Exemple 52. Soit X1 , X2 , . . . , X10 un échantillon aléatoire de X ∼ N(1, 4). Calculer P[−1 ≤ X ≤ 3],
P[1 ≤ S ≤ 4] et P[1 − S ≤ X ≤ 1 + S].
4.4 Exercices
30. Les notes sur 20 obtenues par 74 étudiants dans le cours Probabilités et statistique sont données
dans le tableau ci-dessous.
i x10i+1 x10i+2 x10i+3 x10i+4 x10i+5 x10i+6 x10i+7 x10i+8 x10i+9 x10i+10
0 13.5 9.0 10.0 10.0 9.0 10.5 10.5 16.5 12.0 10.0
1 11.0 11.0 10.5 11.5 11.5 6.0 5.5 7.0 7.5 12.5
2 10.5 14.0 13.0 6.5 12.5 11.0 10.5 10.5 9.5 11.0
3 8.5 11.0 14.0 5.0 10.5 7.0 9.5 16.5 16.0 12.0
4 8.0 9.5 9.5 12.5 14.5 8.0 14.0 12.5 14.0 12.5
5 7.5 11.5 8.0 12.5 14.0 11.5 9.5 8.5 11.5 7.5
6 11.0 9.0 11.5 10.5 6.0 12.0 12.5 13.5 7.5 11.5
7 13.5 9.0 10.0 16.0
47
CHAPITRE 4. STATISTIQUE DESCRIPTIVE C. Bingane
a) W ∼ χ24 b) T ∼ t4
33. Soient les variables aléatoires Z ∼ N(0, 1), W ∼ χ24 et T ∼ t4 . Déterminer les nombres a, b et c
tels que P[|Z| ≤ 2a] = P[4/b ≤ W ≤ 4b] = P[|T | ≤ 2c] = 0.95.
48
Chapitre 5
Estimation de paramètres
49
CHAPITRE 5. ESTIMATION DE PARAMÈTRES C. Bingane
Exemple 54. Soit X1 , X2 , . . . , Xn un échantillon aléatoire d’une variable aléatoire X dont la distri-
bution dépend d’un paramètre inconnu θ. Calculer l’estimateur à vraisemblance maximale de θ.
a) X ∼ Geo(θ) b) X ∼ Exp(θ)
justification dans la loi des grands nombres. L’estimateur θ̂ de θ, obtenu par la méthode des moments,
est donc la solution d’une équation de la forme
n
1X j
E[X j ] = X ,
n k=1 k
P[L ≤ θ ≤ U ] = 1 − α
alors [L, U ] est appelé intervalle de confiance bilatéral pour θ de niveau de confiance 1 − α.
• Si L = g(X1 , X2 , . . . , Xn ) est une statistique telle que
P[L ≤ θ] = 1 − α
alors [L, ∞) est appelé intervalle de confiance unilatéral pour θ de niveau de confiance 1 − α.
• Si U = h(X1 , X2 , . . . , Xn ) est une statistique telle que
P[U ≥ θ] = 1 − α
alors (−∞, U ] est appelé intervalle de confiance unilatéral pour θ de niveau de confiance 1 − α.
Supposons que X ∼ N(µ, σ 2 ), où seule la variance σ 2 est connue. Avec X comme estimateur de µ,
un intervalle de confiance bilatéral naturel de µ serait de la forme
√ √
X − cσ/ n ≤ µ ≤ X + cσ/ n
où c > 0 est une certaine constante. Pour α fixé, par exemple α = 0.05, on peut déterminer c de telle
sorte que √ √ √
P[X − cσ/ n ≤ µ ≤ X + cσ/ n] = P[|X − µ| ≤ cσ/ n] = 1 − α.
50
CHAPITRE 5. ESTIMATION DE PARAMÈTRES C. Bingane
X−µ
Considérant la statistique Z := √
σ/ n
∼ N(0, 1), on a
√ ∗
P[|X − µ| ≤ cσ/ n] = P[|Z| ≤ c] = 1 − α ⇒ c = zα/2 ,
∗
√ √
où zα/2 = z1−α/2 = Φ−1 (1 − α/2). Donc, [X − zα/2
∗ ∗
σ/ n, X + zα/2 σ/ n] est un intervalle de
confiance pour µ de niveau de confiance 1 − α.
Remarque. Soit X une variable aléatoire continue. Pour tout α ∈ (0, 1), on définit x∗α la valeur réelle
telle que P[X > x∗α ] = α.
Intervalles de confiance
Échantillon Cas Statistique
[L, U ] [L, ∞) (−∞, U ]
∗ √σ
X−µ L = X − zα/2 L = X − zα∗ √σn
X1 , X2 , . . . , Xn ∼ N(µ, σ 2 ) σ 2 connue Z= √
σ/ n
∼ N(0, 1) ∗ √σ
n
U = X + zα/2 n
U = X + zα∗ √σn
Intervalles de confiance
Échantillon Cas Statistique
[L, U ] [L, ∞) (0, U ]
2 2
nSµ nSµ
nSµ 2 L= ∗ L=
X1 , X2 , . . . , Xn ∼ N(µ, σ 2 ) µ connue W = 2 ∼ χ2n wα/2 wα∗
σ nSµ 2
nSµ2
U= ∗
w1−α/2 U= ∗
w1−α
(n−1)S 2 (n−1)S 2
(n−1)S 2 L= ∗ L=
X1 , X2 , . . . , Xn ∼ N(µ, σ 2 ) µ inconnue W = σ2 ∼ χ2n−1 wα/2 ∗
wα
(n−1)S 2 (n−1)S 2
U= ∗
w1−α/2 U= ∗
w1−α
Exemple 56. Un intervalle de confiance à 95% pour la moyenne µ d’une population√X ∼ N(µ, 9),
calculé à partir d’un échantillon aléatoire de taille n = 99, a donné |µ − 10| ≤ 3z0.025 / 99. Une 100è
observation, x100 , est prise. Calculer le nouvel intervalle de confiance si x100 = 11.
Exemple 57. Soit X ∼ N(µ, σ 2 ), où les paramètres µ et σ 2 sont Pinconnus. Un échantillon
P25 2 aléatoire
25
particulier x1 , x2 , . . . , x25 de X a donné les résultats suivants : k=1 xk = 175 et k=1 xk = 1550.
Calculer un intervalle de confiance bilatéral à 95% pour µ.
Exemple 58. Soit X ∼ Poi(λ), où le paramètre λ est inconnu. On considère un échantillon aléatoire
de taille n > 30 de X. Utiliser le théorème central limite pour obtenir un intervalle de confiance
approximatif à 1 − α pour λ.
5.3 Exercices
1 − |x|
35. Soit fX (x; θ) = 2θ
e θ pour x ∈ R, où θ > 0, la fonction de densité d’une variable aléatoire X.
a) Calculer l’estimateur à vraisemblance maximale du paramètre θ.
1
Pn 2 2
b) On considère l’estimateur β̂ = 2(n−1) k=1 Xk du paramètre β := θ . Calculer le biais de β̂.
51
CHAPITRE 5. ESTIMATION DE PARAMÈTRES C. Bingane
37. On peut montrer qu’un intervalle de confiance théorique à environ 95% pour le paramètre λ d’une
variable aléatoire X ∼ Poi(λ) est donné par X ± 1.96 std(X), où X est la moyenne d’un échantillon
aléatoire de taille n de X. Un échantillon aléatoire particulier de taille n = 1000 a donné une moyenne
de l’échantillon de 0.4. Calculer approximativement l’intervalle de confiance pour λ basé sur cet
échantillon particulier.
38. Soit X ∼ N(µ, µ2 ). Obtenir une formule pour un intervalle de confiance (approximatif) à 1 − α
pour µ.
52
Chapitre 6
Tests d’hypothèses
X − µ0
Z0 := √ .
σ/ n
53
CHAPITRE 6. TESTS D’HYPOTHÈSES C. Bingane
54
CHAPITRE 6. TESTS D’HYPOTHÈSES C. Bingane
Exemple 59. On veut tester l’hypothèse qu’une variable aléatoire X suit une loi N(0, 1). Un échantillon
aléatoire particulier de taille n = 100 de X a permis de constituer le tableau 6.3. Calculer la statistique
utilisée pour effectuer le test.
Exemple 60. On a recueilli les observations du tableau 6.4 en lançant un dé 90 fois. Soit X le nombre
obtenu en lançant le dé. On veut tester l’hypothèse
Calculer la statistique utilisée pour effectuer le test et donner le nombre d de degrés de liberté de cette
statistique sous l’hypothèse nulle H0 .
6.3 Exercices
40. La vitesse X des microprocesseurs d’une certaine entreprise est censée être de 2 GHz. On suppose
que X ≈ N(µ, σ 2 ).
a) On prélève un échantillon aléatoire de taille n = 9 de X et on calcule la vitesse moyenne x
des microprocesseurs. Si l’écart-type s de l’échantillon est égal à 0.2, pour quelles valeurs de
x pourra-t-on conclure que la vitesse moyenne des microprocesseurs est inférieure à 2 GHz.
Utiliser α = 0.025.
b) Supposons que la vitesse moyenne des microprocesseurs est en fait 2.1 GHz, et que σ = 0.25.
Quelle est la probabilité de rejeter l’hypothèse H0 : µ = 2 (pour accepter H1 : µ < 2) au seuil
de α = 0.05, si l’on prélève un échantillon aléatoire de taille n = 16 ?
2
c) Quelle est la valeur de la statistique utilisée pour tester l’hypothèse HP
0 : σ = 0.02 contre
2 10
H
P110: σ 2> 0.02 si un échantillon aléatoire de taille n = 10 a donné k=1 xk = 20.17 et
k=1 xk = 40.775 ? Quelle est la conclusion du test si α = 0.05 ?
55
CHAPITRE 6. TESTS D’HYPOTHÈSES C. Bingane
41. Soit X1 , X2 , . . . , Xn un échantillon aléatoire d’une variable aléatoire X dont la fonction de densité
est fX (x; θ) = θxθ−1 pour 0 < x < 1, où θ > 0 est un paramètre inconnu.
a) Calculer l’estimateur de θ par la méthode du maximum de vraisemblance.
b) Afin de vérifier si le modèle fX (x; θ) proposé ci-dessus est adéquat pour une certaine va-
riable aléatoire X, on effectue un test d’ajustement (de Pearson). On recueille 162 observations
indépendantes de X et on les regroupe en trois classes ; on obtient le tableau d’effectifs suivant.
2
On veut faire le test, au seuil α = 0.05, de l’hypothèse H0 : fX (x) = 2xe−x contre H1 : fX (x) ̸=
2
2xe−x pour x > 0. Donner la valeur de la statistique utilisée pour effectuer le test et le nombre
de degrés de liberté associé à cette statistique (sous H0 ).
56
Bibliographie
57