Vous êtes sur la page 1sur 32

Cours de Probabilités

Table des matières

Table des matières

1 Analyse combinatoire 1
1 Quelques Notions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Arrangement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
3 Permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
4 Combinaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
5 Tableau récapitulatif de tirages . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Généralités sur le calcul des probabilités 6


1 Vocabulaire des probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Variables aléatoires discrètes 13


1 Variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2 Variable aléatoire discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Lois classiques discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

4 Variables aléatoires continues 20


1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

5 Introduction à l’estimation 27
1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
C HAPITRE

1
Analyse combinatoire

1 Quelques Notions

• Disposition sans répétition : un élément peut apparaître 0 ou 1 fois.


• Disposition avec répétition : un élément peut figurer plus d’une fois.
• Disposition ordonnée : l’ordre d’obtention d’un élément est important (pris en
compte).
• Disposition non-ordonnée : l’ordre d’obtention d’un élément n’est pas impor-
tant, on n’en tient pas compte dans la caractérisation de la disposition.

2 Arrangement

2.1 Arrangement sans répétition

Définition 2.1.1. Soit E un ensemble de n éléments et p un entier tel que 1 ≤ p ≤ n.


Un arrangement sans répétition de "p" éléments choisis parmi "n" éléments est une dis-
position ordonnée sans répétition de ces "p" éléments parmi "n" éléments.

Le nombre d’arrangements sans répétition de "p" éléments pris parmi "n" est alors

p n!
An = .
(n − p)!

Exemple 2.1.1. 12 candidats se présentent aux élections au conseil d’administration de


l’université comportant 8 places. La liste des élus est publiés suivant le nombre de voix
obtenus. Combien y a t- il des listes possibles ?

1
3. PERMUTATION CHAPITRE 1. ANALYSE COMBINATOIRE

Résultat

2.2 Arrangement avec répétition


Définition 2.2.1. Soit E un ensemble de n éléments et p un entier.
Un arrangement avec répétition de "p" éléments parmi "n" éléments est une disposition
ordonnée avec répétition de "p" éléments pris parmi "n" éléments distincts.

N.B. Dans ce cas, il est possible que p > n.


Le nombre d’arrangements avec répétition de "p" éléments pris parmi "n" est alors :
p
an = n p .

Exemple 2.2.1. Combien de façons a-t-on pour composer le mot de passe d’un fichier
électronique de 6 chiffres ?

Résultat

3 Permutation

3.1 Permutation sans répétition


Définition 3.1.1. Soit E un ensemble de n éléments.
Une permutation sans répétition d’un ensemble de "n" éléments distincts est une dispo-
sition ordonnée où chaque élément figure une seule fois.

Le nombre de permutations sans répétition de "n" éléments est alors :

P n = n!.

N.B. La permutation sans répétition de n éléments constitue un cas particulier d’ar-


rangement sans répétition de n éléments pris parmi n éléments : A nn = n!.

Exemple 3.1.1. Un étudiant possède 10 livres différents dont 4 de mathématiques, 2 de


physiques, 3 de français et 1 de philosophie. Il veut les placer en rangée, au hasard.
1. Combien y a-t-il de disposition possibles ?
2. Combien y a-t-il de disposition dans lesquelles les livres de chaque matière seraient
ensemble ?

©Dr. RABO 2 Cours de Probabilités


CHAPITRE 1. ANALYSE COMBINATOIRE 4. COMBINAISON

Résultat

Exemple 3.1.2. Un géophile (mille-patte) dispose de 21 paires de bottes de couleurs dif-


férentes pour chausser ses 42 pattes (21 G et 21 D)

1. De combien de façon peut-il se chausser ?

2. De combien de façon peut-il se chausser avec même couleur pied D et pied G

Résultat

3.2 Permutation avec répétition


Définition 3.2.1. Soit E un ensemble de n éléments.
Une permutation avec répétition d’un ensemble de "n" éléments où "p" sont identiques
(p ≤ n) est une disposition ordonnée de l’ensemble de ces "n" éléments où le premier
figure n 1 fois, le second n 2 fois, etc., tel que n 1 + n 2 + ... + n p = n.

Le nombre de permutations avec répétitions de "n" éléments est alors :

n!
P̃ n = .
n 1 !n 2 !...n p !

Exemple 3.2.1. Considérons le mot "CELLULE". Quel est le nombre de mots possibles
(avec ou sans signification) que l’on peut écrire en permutant ces 7 lettres.

Résultat

4 Combinaison

4.1 Combinaison sans répétition


Définition 4.1.1. Soit E un ensemble de n éléments et p un entier tel que 0 ≤ p ≤ n.
Une combinaison sans répétition de "p" éléments choisis parmi "n" éléments est une
disposition non ordonnée et sans répétition de "p" éléments pris parmi "n" éléments.

Le nombre de combinaisons sans répétitions de "p" éléments pris parmi "n" est alors
à !
p n! n n!
Cn = ou = .
p!(n − p)! p p!(n − p)!

©Dr. RABO 3 Cours de Probabilités


4. COMBINAISON CHAPITRE 1. ANALYSE COMBINATOIRE

Exemple 4.1.1. On souhaite former une délégation de 5 étudiants parmi un groupe de


25. Quel est le nombre de délégation possible ?

Résultat

4.2 Combinaison avec répétition


Définition 4.2.1. Soit E un ensemble de n éléments et p un entier.
Une combinaison avec répétition de "p" éléments parmi "n" éléments est une disposition
non ordonnée de "p" éléments choisis parmi les "n" éléments discernables (distincts),
avec répétition.

N.B. Dans ce cas, il est possible que p > n.


Le nombre de combinaisons avec répétitions de n éléments pris p à p est alors :
p (n + p − 1)! p (n + p − 1)!
C n+p−1 = encore notée K n = .
p!(n − 1)! p!(n − 1)!
Exemple 4.2.1 (Jeu de domino). Les pièces sont constituées en disposant côte à côte deux
éléments de l’ensemble {blanc; 1; 2; 3; 4; 5; 6}. Si nous retournons un domino, nous chan-
geons l’ordre des deux éléments, mais le domino reste identique (C’est donc une disposi-
tion non-ordonnée). Combien y a t-il de dominos dans le jeu ?

Résultat

4.3 Propriétés des combinaisons

4.3.1 Propriétés

1. C n0 = C nn = 1
p n−p
2. C n = C n (complémentaire)
p p p−1
3. Cn = C n−1 +C n−1 (triangle de Pascal)
p
p An
4. Cn =
p!

4.3.2 Formule du binôme de Newton

n
p
(a + b)n = C n .a p .b n−p .
X
p=0

©Dr. RABO 4 Cours de Probabilités


CHAPITRE 1. ANALYSE COMBINATOIRE 5. TABLEAU RÉCAPITULATIF DE TIRAGES

5 Tableau récapitulatif de tirages


Voici un tableau qui résume les 4 façons de tirer p objets parmi n.

Tirages successifs (ordonnés) Tirages simultanés (non ordonnés)


p (n + p − 1)!
avec remise np C n+p−1 =
p!(n − 1)!
p n! p n!
sans remise An = Cn =
(n − p)! p!(n − p)!

©Dr. RABO 5 Cours de Probabilités


C HAPITRE

2
Généralités sur le calcul des
probabilités

1 Vocabulaire des probabilités

1.1 Expérience aléatoire et univers des possibles


Définition 1.1.1 (Expérience aléatoire).
Une expérience aléatoire est une expérience qui, lorsqu’elle est reproduite dans des condi-
tions identiques, peut conduire à plusieurs résultats (tous connus a priori) et dont on ne
peut prévoir le résultat à l’avance. Les résultats d’une expérience aléatoire sont appelés
les issues ou éventualités.

Exemple 1.1.1.
• Lancer de dé, tirage de boule dans une urne, lancer de pièce, tirage de carte, etc.
• Étudions un autre exemple moins classique. Considérons l’expérience aléatoire
qui consiste à se rendre à l’université. Le résultat de l’expérience est le temps de
trajet. D’un trajet à l’autre, ce temps n’est pas constant, il dépend des conditions
de circulation. Là encore il n’est pas possible de prévoir précisément le résultat de
l’expérience, tout au plus un ensemble de résultats possibles compris par exemple
entre 5 et 30 minutes.

Définition 1.1.2 (Univers des possibles ou univers).


L’ensemble des issues possibles d’une expérience est appelé univers de l’expérience. Il est
souvent noté Ω (oméga).

Remarque 1.1.1. On distingue les univers comprenant un nombre fini de résultats de


ceux comprenant un nombre infini de résultats. Parmi les univers infinis, on distingue
les univers infinis non dénombrables des univers infinis dénombrables.

6
CHAPITRE 2. GÉNÉRALITÉS SUR LE CALCUL DES
1. VOCABULAIRE
PROBABILITÉSDES PROBABILITÉS

Exemple 1.1.2.
• On lance un dé à six faces et on s’intéresse au résultat obtenu. Il y a 6 issues pos-
sibles. L’univers (fini) associé est Ω = {1, 2, 3, 4, 5, 6}.
• Pour l’exemple du temps de trajet présenté ci-dessus, on a Ω = [5; 30] (univers in-
fini non dénombrable).
• L’univers Ω = {ω1 , ω2 , ..., ωn , ...} = {ωi , i ∈ N} est un univers infini dénombrable
puisque l’on peut identifier chacun des éléments de Ω, même s’il en existe une
infinité.

Application 1.1.1. Déterminer l’univers Ω dans chacun des cas suivants :

1. Lancer d’une pièce de monnaie.

2. Une famille a deux enfants.

Résultat

1.2 Événement
Définition 1.2.1. Un événement (ou une partie) A est un sous-ensemble de l’univers des
possibles Ω, tel que A ⊂ Ω. Un événement constitué d’un seul élément, i.e. pour lequel
card(A) = 1, est un événement élémentaire (ou singleton).

Exemple 1.2.1. On lance un dé équilibré à six faces. L’univers est Ω = {1, 2, 3, 4, 5, 6}.
• Les événements élémentaires ou éventualités sont {1}, {2}, {3}, {4}, {5} et {6}.
• L’événement A : « obtenir un nombre pair » est {2, 4, 6}.

Remarque 1.2.1. Deux événements sont particulièrement importants :


• un événement certain correspond à l’univers des possibles Ω ;
• un événement impossible est un événement qui ne se réalise jamais. Il correspond
à l’ensemble vide, noté ;.

Exemple 1.2.2. Lors du lancer d’un dé à six faces.


• L’événement « obtenir un nombre entier » est un événement certain.
• L’événement « obtenir un résultat supérieur ou égal à 9 » est un événement im-
possible.

Définition 1.2.2. Deux événements A et B sont dits incompatibles s’ils ne peuvent se


réaliser simultanément c’est-à-dire lorsque l’intersection des sous-ensembles A et B est
vide : A ∩ B = ;.

©Dr. RABO 7 Cours de Probabilités


2. PROBABILITÉ CHAPITRE 2. GÉNÉRALITÉS SUR LE CALCUL DES PROBABILITÉS

1.3 Tableau récapitulatif

Notation Langage ensembliste Langage probabiliste


; ; ensemble vide événement impossible
Ω Ω ensemble plein univers, événement certain
{ω} ∈ Ω un point de Ω événement élémentaire
A⊂Ω A sous-ensemble de Ω événement aléatoire
ω∈ A ω appartient à A ω réalise A
A⊂B A est contenu dans B A implique B
A ∪B réunion de A et B A ou B
A ∩B intersection de A et B A et B
A complémentaire de A contraire de A
A ∩B = ; A et B disjoints A et B incompatibles

2 Probabilité
Dans toute la suite, on considère comme univers Ω un ensemble fini ou infini dé-
nombrable.

2.1 Définitions

Définition 2.1.1. Une probabilité P est une application qui, à tout événement, associe
un nombre réel compris entre 0 et 1 vérifiant la propriété suivante :
La probabilité de l’événement certain est 1 (P(Ω) = 1).

Définition 2.1.2 (Probabilité sur un ensemble fini).


Soit P une probabilité sur les événements de Ω = {ω1 , ω2 , ..., ωn }.

1. La somme des probabilités associées aux événements élémentaires (ou singletons)


n
ωi est égale à 1 : P(Ω) = P({ωi }) = 1.
X
i =1
2. La probabilité d’un événement A est alors la somme des probabilités élémentaires
qui le constituent : P(A) = P({ωi }).
X
ωi ∈A

2.2 Propriétés élémentaires

Soit Ω l’univers d’une expérience aléatoire.

1. Pour tout événement A, la probabilité P(A) de A vérifie 0 ≤ P(A) ≤ 1.

©Dr. RABO 8 Cours de Probabilités


CHAPITRE 2. GÉNÉRALITÉS SUR LE CALCUL DES PROBABILITÉS 2. PROBABILITÉ

2. P(Ω) = 1.

3. P(;) = 0.

4. Pour tout événement A, on a P(A) = 1 − P(A).

5. Si A et B sont des événements alors P(A ∪ B ) = P(A) + P(B ) − P(A ∩ B ).

6. Si A et B sont des événements incompatibles, alors P(A ∪ B ) = P(A) + P(B ).

7. Si (A n )n∈N est une suite d’événements deux à deux incompatibles (c’est-à-dire


pour tout i 6= j , A i ∩ A j = ;), alors P ( n∈N A n ) = P(A n ).
S X
n∈N
8. Si A ⊂ B , alors P(A) ≤ P(B ).

Remarque 2.2.1. Si un événement A semble difficile à manipuler (comme par exemple


une réunion d’événements non incompatibles, ce qui est le cas lorsque le terme au moins
apparaît), alors il est souvent intéressant de considérer l’événement contraire A.

2.3 Autres propriétés


Soit Ω l’univers d’une expérience aléatoire.

1. Soient A et B deux événements. Alors la formule des probabilités totales (pour


deux événements) s’écrit
P(B ) = P(A ∩ B ) + P(A ∩ B ).

2. Soit (A n )n∈N une suite d’événements deux à deux incompatibles tels que
n
A n = Ω. Alors pour tout événement B, on a la formule des probabilités totales
[
i =1
n
P(B ) = P(A i ∩ B ).
X
i =1

2.4 Équiprobabilité
Définition 2.4.1. Si les événements élémentaires ont tous la même probabilité, alors on
dit qu’ils sont équiprobables.

Proposition 2.4.1. Dans le cas où les événements élémentaires sont équiprobables, on a

nombre d’issues de A nombre de cas favorables C ar d (A)


P(A) = = = .
nombre total d’issues nombre de cas total C ar d (Ω)

2.5 Fréquence d’un événement


Dans la vie quotidienne, il est courant de confondre les notions de fréquence et de
probabilité. Or ces deux notions ne sont absolument pas équivalentes.

©Dr. RABO 9 Cours de Probabilités


3. PROBABILITÉS CONDITIONNELLES
CHAPITRE 2. GÉNÉRALITÉS SUR LE CALCUL DES PROBABILITÉS

Définition 2.5.1. On considère une expérience aléatoire répétée k fois dans des condi-
tions strictement identiques. La fréquence d’apparition de l’événement A est définie par
nombre de fois où A se réalise
F k (A) = .
k

2.5.1 Propriété

Lorsqu’il est possible de réaliser l’expérience aléatoire une infinité de fois dans les
mêmes conditions, la fréquence d’apparition de tout événement A converge vers sa
probabilité
lim F k (A) = P(A).
k→+∞
N.B. Le problème de cette propriété est que l’on ne peut que rarement répéter une
expérience aléatoire une infinité de fois dans les mêmes conditions.

3 Probabilités conditionnelles

3.1 Définitions
Définition 3.1.1. Soient A et B deux événements telle que P(B ) 6= 0.
On appelle probabilité conditionnelle de A sachant B (ou de A relativement à B ), la
probabilité que l’événement A se réalise sachant que B est réalisé. Cette probabilité est
notée PB (A) ou P(A/B ) et vaut :
P(A ∩ B )
PB (A) = .
P(B )
Définition 3.1.2 (Probabilité d’une intersection).
Soient A et B deux événements de probabilités non nulles. Alors, on a

P(A ∩ B ) = P(A) × P A (B ) = P(B ) × PB (A).

Application 3.1.1. On considère un patient qui peut suivre au choix deux traitements,
notés A et B . La probabilité qu’il suive le traitement A est égale à 75%. On sait par ailleurs
que la probabilité que le patient guérisse sachant qu’il a suivi le traitement A est égale à
80%, tandis que celle du traitement B est égale à 90%. On admet que la probabilité que
ce patient soit guéri, événement noté G, est égale à 82, 5%.
1. Traduire les données de l’énoncé sous forme de probabilités.
2. Déterminer la probabilité que le patient ait suivi le traitement A sachant qu’il est
guéri.

©Dr. RABO 10 Cours de Probabilités


CHAPITRE 2. GÉNÉRALITÉS SUR LE CALCUL 3.
DESPROBABILITÉS
PROBABILITÉS
CONDITIONNELLES

Résultat

3.2 Indépendance
Définition 3.2.1. On dit que deux événements A et B sont indépendants si
P(A ∩ B ) = P(A) × P(B ).

Définition 3.2.2. Deux événements A et B sont indépendants si et seulement si


PB (A) = P(A).

N.B : Ne pas confondre des événements indépendants et des événements incompa-


tibles !

Application 3.2.1. On tire au hasard une carte d’un jeu de 32 cartes. On considère les
événements suivants
A : « Tirer un as »,
B : « Tirer un cœur »
C : « Tirer un as rouge ».
Étudier l’indépendance de A et B puis celle de B et C .

Résultat

Définition 3.2.3 (Indépendance mutuelle).


On dit que des événements A 1 , ..., A n sont mutuellement indépendants si et seulement si
à !
n n
P P(A i ).
\ Y
Ai =
i =1 i =1

N.B. Si des événements sont mutuellement indépendants, alors ils sont indépendants
deux à deux. La réciproque est fausse.

Application 3.2.2. On lance trois fois une pièce équilibrée. On note


• A 12 : « le résultat du deuxième lancer est identique à celui du premier lancer » ;
• A 13 : « le résultat du troisième lancer est identique à celui du premier lancer » ;
• A 23 : « le résultat du troisième lancer est identique à celui du deuxième lancer ».

1. Vérifier si ces événements sont deux à deux indépendants.

2. Ces événements sont-ils mutuellement indépendants ?

©Dr. RABO 11 Cours de Probabilités


3. PROBABILITÉS CONDITIONNELLES
CHAPITRE 2. GÉNÉRALITÉS SUR LE CALCUL DES PROBABILITÉS

Résultat

3.3 Formule des probabilités totales

3.3.1 Propriété

Soient A 1 , ..., A n des d’événements deux à deux incompatibles, de probabilités non


n
A i = Ω.
[
nulles, tels que
i =1
Pour tout événement B , la formule des probabilités totales s’écrit
n n
P(B ) = P(A i ) × P A i (B ) = P(A i ∩ B ).
X X
i =1 i =1

3.4 Formule de Bayes

3.4.1 Théorème de Bayes

Théorème 3.4.1. Soient A et B deux événements de probabilités non nulles. Alors

P(A) × P A (B )
PB (A) = .
P(B )
Si A 1 , ..., A n sont des d’événements deux à deux incompatibles, de probabilités non nulles,
n
A i = Ω alors la formule de Bayes (aussi appelé formule de probabilité des
[
tels que
i =1
causes) s’écrit : Pour tout i = 1, ..., n
P(A i ) × P A i (B ) P(A i ) × P A i (B )
PB (A i ) = = .
P(B ) n
P(A j ) × P A j (B )
X
j =1

Application 3.4.1. Soit un sac contenant 6 jetons : 5 numérotés 1 et 1 numéroté 2. Soient


2 urnes : U1 contenant 6 boules Blanches et 4 Noires et U2 contenant 8 B et 2 N. L’expé-
rience aléatoire comporte 2 étapes. On pioche au hasard dans le sac, on regarde le nu-
méro et on pioche dans l’urne correspondante. Quelle est la probabilité que la boule soit
blanche ? Sachant que la boule est blanche, quelle est la probabilité qu’elle provienne de
U1 ?

Résultat

©Dr. RABO 12 Cours de Probabilités


C HAPITRE

3
Variables aléatoires discrètes

1 Variable aléatoire

1.1 Définition
Définition 1.1.1. On appelle variable aléatoire (v.a.) une fonction qui associe à chaque
élément de Ω, c’est-à-dire à chaque issue de l’expérience, un réel. Elle est souvent notée
X.
X :Ω → R
ω 7→ X (ω).
L’ensemble des valeurs que peut prendre une variable aléatoire X est appelé le support
(ou réalisation) de X et est noté X (Ω).

Exemple 1.1.1. Un jeu de hasard consiste à lancer un dé équilibré à 6 faces. Le lanceur


gagne la somme double de la valeur de la face obtenue si celle-ci est paire, sinon, il perd
le double de la valeur indiquée par le dé. On appelle X la variable aléatoire associée au
gain, positif ou négatif, du joueur après un lancer.
• L’ensemble des issues possibles est Ω = {1, 2, 3, 4, 5, 6}
• La variable aléatoire réelle X est telle que

X (1) = −2, X (2) = 4, X (3) = −6, X (4) = 8, X (5) = −10 X (6) = 12.

• Ainsi, on a X (Ω) = {−10, −6, −2, 4, 8, 12}

Exemple 1.1.2.
• Le nombre d’appels arrivés à un standard téléphonique pendant 1 minute.
• La durée de vie d’une composante électronique.

13
2. VARIABLE ALÉATOIRE DISCRÈTE
CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES

Remarque 1.1.1.
• Si X (Ω) est fini ou infini dénombrable, X est dite variable aléatoire discrète (v.a.d.).
• X est dite variable aléatoire continue (v.a.c.) si X (Ω) est une réunion d’intervalles
de R.

2 Variable aléatoire discrète

2.1 Loi d’une variable aléatoire discrète

Définition 2.1.1. On appelle distribution ou loi d’une variable aléatoire discrète la


donnée de tous les P(X = x i ) lorsque x i prend toutes les valeurs possibles dans X (Ω). Par
ailleurs,
P(X = x i ) = 1.
X
x i ∈X (Ω)

La loi de probabilité d’une variable aléatoire discrète est souvent présentée sous forme
d’un tableau.

Remarque 2.1.1. Déterminer la loi d’une variable aléatoire X définie sur l’univers Ω
muni de la probabilité P signifie :
• déterminer l’ensemble X (Ω) des valeurs prises par X ;
• déterminer, pour chacune des valeurs x i dans X (Ω) la probabilité P(X = x i ).

2.2 Fonction de répartition

Définition 2.2.1. On appelle fonction de répartition de la variable aléatoire discrète X


définie sur le support (réalisation) X (Ω), la fonction F X définie pour tout réel x par :

F X (x) = P(X ≤ x) = P(X = x i ).


X
x i ∈X (Ω), x i ≤x

Proposition 2.2.1. Soit F X la fonction de répartition d’une variable aléatoire discrète X .


Alors les propriétés suivantes sont vérifiées :

1. La fonction F X est croissante.

2. Pour tout x ∈ R, 0 ≤ F X (x) ≤ 1.

3. lim F X (x) = 0 et lim F X (x) = 1.


x→−∞ x→+∞

4. Pour tout a et b, tel que a < b

P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a) = F X (b) − F X (a).

©Dr. RABO 14 Cours de Probabilités


CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES
2. VARIABLE ALÉATOIRE DISCRÈTE

N.B. On peut déterminer la loi d’une variable aléatoire à partir de sa fonction de répar-
tition.
P(X = x i ) = F X (x i ) − F X (x i −1 ).

2.3 Espérance
Définition 2.3.1. On appelle espérance (ou moment ordinaire d’ordre 1) d’une variable
aléatoire discrète X , et on note E(X ), le réel

E(X ) = x i P(X = x i ).
X
x i ∈ X (Ω)

Application 2.3.1.
1. Calculer l’espérance de la v.a.d. X , résultat d’un dé truqué à 6 faces, donné par la
tableau ci-dessous :

xi 1 2 3 4 5 6
1 1 1 1 1 1
P(X = x i )
6 12 12 3 12 4
2. Déterminer la fonction de répartition de la v.a.d. X .

Résultat

Proposition 2.3.1 (Propriétés de l’espérance).


Soient X et Y deux variables aléatoires et soient λ et α deux réels. Alors l’espérance vérifie
les propriétés suivantes :
• E(λX + α) = λ E(X ) + α
• E(X + Y ) = E(X ) + E (Y ).
Soit g : X (Ω) → R. Alors g (X ) est une variable aléatoire d’espérance

E(g (X )) = g (x i ) P(X = x i ).
X
x i ∈ X (Ω)

X2
Application 2.3.2. Calculer l’espérance de la v.a.d. W = , où la loi de probabilité de
2
X est donnée par le tableau ci-dessus. En déduire l’espérance de la v.a.d. K = W + X

Résultat

Définition 2.3.2 (Variable aléatoire centrée).


On dit qu’une variable aléatoire X est centrée si E(X ) = 0.
Sinon, on peut lui associer la variable aléatoire centrée Y = X − E (X ).

©Dr. RABO 15 Cours de Probabilités


3. LOIS CLASSIQUES DISCRÈTES CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES

2.4 Variance
Définition 2.4.1. On appelle variance (ou moment centré d’ordre 2) d’une variable aléa-
toire discrète X , et on note V(X ), le réel positif

V(X ) = (x i − E(X ))2 P(X = x i ).


X
x i ∈ X (Ω)

Il s’agit d’un indicateur mesurant la dispersion des valeurs x i autour de l’espérance E(X ).

N.B : En pratique, on calcule la variance à l’aide de la formule de Koenig-Huygens


donnée par :
V(X ) = E(X 2 ) − (E(X ))2 .

Proposition 2.4.1 (Propriétés de la variance).


Soit X une variable aléatoire sur l’univers muni de la probabilité P et soit λ un réel. Alors
la variance vérifie les propriétés suivantes.
• V(λX ) = λ2 V(X )
• V(X + λ) = V(X ).

Définition 2.4.2 (Variable aléatoire réduite).


On dit qu’une variable aléatoire X est réduite si V(X ) = 1.

Définition 2.4.3 (écart-type).


L’écart-type, noté σ(X ), correspond à la racine carrée de la variance, c’est-à-dire
p
σ(X ) = V(X ).

Remarque 2.4.1.
• Soit X une variable aléatoire et soient a et b deux nombres réels. Alors on a

σ(a X + b) = |a|σ(X ).
X − E (X )
• La variable aléatoire Y = est centrée réduite car E(Y ) = 0 et V(Y ) = 1.
σ(X )

3 Lois classiques discrètes

3.1 Loi de Bernoulli


Soit p ∈]0, 1[. Le schéma de Bernoulli est une expérience aléatoire qui a deux résul-
tats possibles (codés 1 et 0) :
Soit le succès (codé 1) qui a une probabilité p de se réaliser, soit l’échec (codé 0) qui a
une probabilité q = 1 − p.

©Dr. RABO 16 Cours de Probabilités


CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES 3. LOIS CLASSIQUES DISCRÈTES

Définition 3.1.1. On dit qu’une variable aléatoire discrète X (associée au nombre de


succès) suit la loi de Bernoulli de paramètre p, et on note X ∼ B(p), si et seulement si
X (Ω) = {0, 1}, P(X = 0) = 1 − p; P(X = 1) = p.

Proposition 3.1.1. Soit X une variable aléatoire discrète de loi de Bernoulli de paramètre
p ∈]0, 1[. Alors

1. Sa fonction de répartition est :





 0 si x <0
F X (x) = 1 − p si 0≤x <1


 1 si x ≥1

2. Son espérance et sa variance sont

E(X ) = p et V(X ) = p(1 − p).

3.2 Loi Binomiale


Soit p ∈]0, 1[. Le schéma Binomial consiste à considérer une expérience aléatoire
qui se répète "n" fois, d’une manière identique et indépendante ; où les résultats de
chaque réalisation se classifient en deux catégories succès et échec (comme dans le cas
de Bernoulli).

Définition 3.2.1. Une variable aléatoire discrète X suit une loi binomiale de paramètres
(n, p), et on note X ∼ B(n, p), si sa loi de probabilité est définie par

• X (Ω) = {0, 1, 2, ..., n}


• pour tout entier k ∈ X (Ω) = {0, 1, 2, ..., n}, P(X = k) = C nk p k (1 − p)n−k .

Proposition 3.2.1. Soit X une variable aléatoire discrète de loi binomiale de paramètre
(n, p). Alors

1. Son espérance et sa variance sont


E(X ) = np et V(X ) = np(1 − p).

2. Si Y est une autre variable aléatoire discrète indépendante de X et suivant la loi


binomiale de paramètre (m, p). Alors
X + Y ∼ B(n + m, p).

3. Soient X 1 , X 2 , ..., X n , n variables aléatoires indépendantes de loi de Bernoulli de


paramètre p ; alors leur somme S suit une loi binomiale de paramètre (n, p).
S = X 1 + X 2 + ... + X n ∼ B(n, p).

©Dr. RABO 17 Cours de Probabilités


3. LOIS CLASSIQUES DISCRÈTES CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES

Application 3.2.1. Une machine à embouteiller peut tomber en panne. La probabilité


d’une panne à chaque emploi est de 0, 01. La machine doit être utilisée 100 fois. Soit X la
variable aléatoire associée au nombre de pannes obtenues après 100 utilisations.

1. Quelle est la loi de X ?justifier. Calculer P(X = 0), P(X = 1) et P(X ≥ 4).

2. On estime le coût d’une réparation à 500 F. Soit la v.a Y représentant la dépense


pour les réparations après 100 utilisations.
Exprimer Y en fonction de X et calculer E(Y ) et V(Y ).

Résultat

3.3 Loi de Poison


La loi de Poisson modélise des situations où l’on s’intéresse au nombre d’occur-
rences d’un événement dans un laps de temps déterminé ou dans une région donnée.
Par exemple :
• nombre d’appels téléphoniques qui arrivent à un standard en x minutes ;
• nombre de clients qui attendent à la caisse d’un magasin ;
• le flou des ordres d’achats et de ventes des marchés financières ;
• nombre de défauts de peinture par m 2 sur la carrosserie d’un véhicule, etc.

Définition 3.3.1. Une variable aléatoire discrète X suit une loi de Poisson de paramètre
λ > 0, et on note X ∼ P (λ) lorsque sa probabilité vérifie

λk
P(X = k) = e −λ , ∀ k ∈ N.
k!
• k est le nombre de fois de réalisation de l’événement en question.
• λ est le nombre de réalisation par unité de temps ou d’espace.

Proposition 3.3.1. Soit X une variable aléatoire suivant une loi de Poisson de paramètre
λ > 0, alors

1. son espérance et sa variance sont égales


E(X ) = V(X ) = λ

2. Si Y est une autre variable aléatoire discrète indépendante de X et suivant la loi de


Poisson de paramètre µ. Alors
X + Y ∼ P (λ + µ).

©Dr. RABO 18 Cours de Probabilités


CHAPITRE 3. VARIABLES ALÉATOIRES DISCRÈTES 3. LOIS CLASSIQUES DISCRÈTES

N.B : A l’application de la loi de Poisson sont nécessaires les hypothèses suivantes :


H1 . La probabilité de réalisation de l’événement est constante pour deux inter-
valles de temps quelconques.
H2 . La réalisation de l’événement est indépendante de l’intervalle du temps choisi.

Application 3.3.1. Une compagnie d’assurances reçoit, en moyenne 4.5 réclamations par
jour. Déterminer la probabilité que, durant une certaine journée, le nombre de réclama-
tions reçues soit supérieur ou égal à 2.

Résultat

3.4 Approximation de la loi binomiale par la loi de Poisson

3.4.1 Propriété

Proposition 3.4.1. Si les conditions suivantes sont réalisées :


• n est grand (n > 50)
• p est voisin de 0 (p < 0.1)
alors la loi binomiale B(n, p) peut-être approximée par une loi de Poisson P (λ) dont le
paramètre λ est défini par λ = np.

Application 3.4.1. Parmi la production de pièces d’une machine, 4% sont défectueuses.


On prélève un échantillon de 100 pièces. Soit X la variable aléatoire discrète égale au
nombre de pièces défectueuses dans cet échantillon. Calculer les probabilités suivantes

1. P(X = 0).

2. P(X < 10).

3. P(X > 5).

Résultat

©Dr. RABO 19 Cours de Probabilités


C HAPITRE

4
Variables aléatoires continues

1 Généralités
Dans ce chapitre, on considère que le support (réalisation) X (Ω) de la variable aléa-
toire X est non dénombrable. On dit alors que la variable aléatoire est continue. C’est
le cas notamment de toutes les variables aléatoires réelles pour lesquelles X (Ω) = R ou
X (Ω) correspond à une partie de l’ensemble des réels R, par exemple X (Ω) =] − ∞, a]
ou X (Ω) = [a, b] avec (a, b) ∈ R2 .

1.1 Définition
Définition 1.1.1. Une variable aléatoire est dite continue (ou à densité) si l’ensemble
X (Ω) est un intervalle (ou une réunion d’intervalles) de R. Autrement dit, la probabilité
d’apparition de (X = x i ) est nulle, i.e., P(X = x i ) = 0.

1.2 Fonction de densité


Définition 1.2.1 (Fonction de densité).
Une fonction f : R → R est appelée densité ou densité de probabilité si elle vérifie les trois
propriétés suivantes :

1. pour tout x ∈ R, f (x) ≥ 0 ;

2. f est continue, sauf éventuellement en un nombre fini de points ;


Z +∞
3. f (t ) d t = 1.
−∞

Application 1.2.1. Montrer que la fonction g est une densité.


(
0 si x < 0;
g (x) = −2x
2e si x ≥ 0.

20
CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES 1. GÉNÉRALITÉS

Résultat

1.3 Fonction de répartition

Définition 1.3.1 (Fonction de répartition).


La fonction de répartition de la variable aléatoire continue X , notée F X (x), est définie
sur X (Ω) ⊆ R par
Z x
F X (x) = P(X ≤ x) = f (t ) d t ∀ x ∈ R.
−∞

Application 1.3.1. Déterminer la fonction de répartitions de la variable aléatoire conti-


nue X dont les densité de probabilité sont les fonctions g et f définies ci-dessus.

Résultat

1.3.1 Propriétés de la fonction de répartition

Proposition 1.3.1. Si X est une variable aléatoire continue, de fonction de répartition


F X , alors
• F X est une fonction continue
• lim F X = 0 et lim F X = 1 par conséquent 0 ≤ F X (x) ≤ 1
x→−∞ x→+∞
• F X est une fonction croissante.

Remarque 1.3.1. Une variable aléatoire possède une fonction de densité si sa fonction de
répartition F X est dérivable. Si on connaît la fonction de répartition F X d’une variable
aléatoire continue X , on obtient la fonction de densité de X en dérivant F X

f (x) = F X0 (x)

Application 1.3.2. Déterminer la densité h de la variable aléatoire continue X dont la




 0 si x < 0;
x2



2
si x ∈ [0, 1[;
fonction de répartition est donnée par F X (x) = −x 2


 2 + 2x − 1 si x ∈ [1, 2[;

1 si x ≥ 2.

Résultat

©Dr. RABO 21 Cours de Probabilités


1. GÉNÉRALITÉS CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES

1.4 Loi de probabilité


La loi de probabilité de la variable aléatoire continue est totalement définie soit par
sa fonction de répartition, soit par sa fonction densité de probabilité.

Proposition 1.4.1. Soit X une variable aléatoire continue. On a


• P(X = x) = 0 Z x
• F X (x) = P(X ≤ x) = P(X < x) = f (t ) d t
−∞ Z b
• P(a < X ≤ b) = P(X ≤ b) − P(X ≤ a) = F X (b) − F X (a) = f (t ) d t .
a

1.5 Espérance et variance


Définition 1.5.1. Soit X une variable aléatoire réelle continue.
• Son espérance est Z +∞
E(X ) = x f (x) d x.
−∞
• Soit g : X (Ω) → R. Alors g (X ) est une variable aléatoire d’espérance
Z +∞
E(g (X )) = g (x) f (x) d x.
−∞

• La variance de X est
Z +∞
V(X ) = E((X − E(X ))2 ) = (x − E(X ))2 f (x) d x.
−∞

N.B : En pratique, on calcule la variance à l’aide de la formule suivante :


Z +∞
2 2
V(X ) = E(X ) − (E(X )) = x 2 f (x) d x − (E(X ))2 .
−∞

1.6 Quantile et mode

1.6.1 Quantile

Définition 1.6.1. On appelle quantile ou fractile d’ordre α (0 ≤ α ≤ 1) d’une variable


aléatoire X dont la fonction de répartition est F X (x), la valeur x α telle que
F X (x α ) = P(X ≤ x α ) = α. La valeur x α s’appelle quantile d’ordre α.

Remarque 1.6.1.
• Les quartiles : les quartiles, notés Q i (respectivement i = 1; 2; 3) correspondent aux
quantiles d’ordre (α = 0.25; 0.5; 0.75). Notons Q 2 est égal à la médiane (quantile
d’ordre α = 0.5).
k
• Les déciles : Le k-ième décile (k = 1 à 9) est le quantile d’ordre α = 10 . En particu-
lier, le 5-ième décile correspond à la médiane.

©Dr. RABO 22 Cours de Probabilités


CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES 2. LOI EXPONENTIELLE

1.6.2 Mode

Définition 1.6.2. On appelle mode, la valeur dominante, la valeur la plus probable


d’une variable aléatoire.
Dans le cas des variables discrètes, le mode est la valeur de X associée à la plus grande
probabilité, d’où l’appellation valeur la plus probable.
Lorsque la variable aléatoire X est continue, le mode M est un maximum de la fonction
densité. A ce titre, le mode est la solution de l’équation f 0 (M ) = 0 vérifiant f "(M ) < 0.

2 Loi exponentielle
Elle permet de modéliser le temps d’attente ou la durée de vie d’un phénomène
aléatoire.

Définition 2.0.1 (Fonction de densité).


Une variable aléatoire continue X suit la exponentielle de paramètre λ ∈ R+ , et notée
X ∼ E (λ), si sa densité est la fonction f définie par
(
λe −λx si x ≥ 0;
f (x) =
0 si x < 0.

Proposition 2.0.1. Si X ∼ E (λ), alors


1. sa fonction de répartition est donnée par
(
1 − e −λx si x ≥ 0;
F X (x) =
0 si x < 0.

2. son espérance et sa variance sont données par


1 1
E(X ) = V(X ) = .
λ λ2
3. la loi exponentielle est sans mémoire donc

P X >t (X > S) = P(X > S − t ) ∀ S, t ≥ 0.

Application 2.0.1. On suppose que le temps, en heures, nécessaire pour réparer une ma-
chine est une variable aléatoire suivant une loi exponentielle de paramètre λ = 0.5.
1. Déterminer le quantile d’ordre α = 5%.
2. Calculer la probabilité pour que le temps de réparation dépasse 2h.
3. Sachant que la réparation a déjà dépassé 9 heures, quelle est la probabilité qu’elle
prenne au moins 10 heures ?

©Dr. RABO 23 Cours de Probabilités


3. LOI NORMALE CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES

Résultat

3 Loi normale
La loi normale ou loi de Laplace-Gauss est une des lois de probabilités la plus uti-
lisée. Elle dépend de deux paramètres, la moyenne (espérance) µ qui est un paramètre
de position, et l’écart-type σ qui est un paramètre mesurant la dispersion de la variable
aléatoire autour de sa moyenne.

3.1 Loi normale générale


Définition 3.1.1 (Fonction de densité).
Une variable aléatoire continue X , telle que X (Ω) = R, suit une loi normale, de para-
mètres µ et σ, si sa densité de probabilité est donnée par

1 − 1 (x−µ)2
f (x) = p e 2σ2 ∀x ∈R
σ 2π

On note général X ∼ N (µ, σ).

Proposition 3.1.1. Soit X ∼ N (µ, σ) alors

1. son espérance et sa variance sont données par


E(X ) = µ et V(X ) = σ2 .

2. Si Y ∼ N (µ̃, σ̃) est une autre variable continue indépendante de X alors la variable
p
aléatoire W = X + Y suit la loi normale de paramètre µ + µ̃ et σ2 + σ̃2 . On note
p
W = X + Y ∼ N (µ + µ̃, σ2 + σ̃2 ).

3.2 Loi normale centrée réduite


Définition 3.2.1. Une variable aléatoire continue X suit la loi normale centrée réduite si
sa fonction densité est définie par

1 x2
f (x) = p e − 2 ∀ x ∈ R.

On note X ∼ N (0, 1).

Proposition 3.2.1. Soit X ∼ N (0, 1) alors

1. son espérance et sa variance sont données par


E(X ) = 0 et V(X ) = 1.

©Dr. RABO 24 Cours de Probabilités


CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES 3. LOI NORMALE

2. Il n’y a pas d’expression simple de la fonction de répartition d’une variable aléatoire


suivant une loi normale centrée réduite. D’où l’usage de la table de la loi normale
centrée réduite (voir fiche).

3.3 Relation entre la loi normale générale et la loi normale centrée


réduite

Théorème 3.3.1 (Très important).

1. Si X ∼ N (µ, σ) alors Z , la variable aléatoire définie par

X −µ
Z= suit une loi normale centrée réduite N (0, 1).
σ

2. Si Z ∼ N (0, 1) alors X = σZ + µ ∼ N (µ, σ).

3.3.1 Calcul des probabilités pour la loi normale N (µ, σ)

Proposition 3.3.1 (Très important).


Soit X ∼ N (µ, σ). Pour calculer P(X ≤ x), on se ramène à une loi normale centrée ré-
duite. On pose
X −µ x−µ
Z= alors P(X ≤ x) = P (Z ≤ σ ).
σ
X −µ
Comme Z ∼ N (0, 1), alors P (Z ≤ σ ) est donnée par la table de la loi normale centrée
réduite (voir fiche).
³x −µ´
P(X ≤ x) = F Z .
σ

N.B : On a

a −µ b −µ b −µ ³a −µ´
µ ¶ µ ¶
P(a ≤ X ≤ b) = P ≤Z ≤ = FZ − FZ .
σ σ σ σ

Application 3.3.1. Considérons X une variable aléatoire qui suit une loi N (6, 2).

1. Calculer P(X ≤ 7).

2. Calculer P(4 ≤ X ≤ 8).

Résultat

©Dr. RABO 25 Cours de Probabilités


3. LOI NORMALE CHAPITRE 4. VARIABLES ALÉATOIRES CONTINUES

3.4 Approximation par la loi normale

3.4.1 Approximation de la loi binomiale par la loi normale

Proposition 3.4.1. Lorsque n ≥ 30, np ≥ 5 et n(1 − p) ≥ 5 alors on peut approximer la loi


binomiale de paramètre (n, p) par la loi normale de paramètre (µ = np, σ = np(1 − p)).
p

B(n, p) ∼ N (µ = np, σ =
p
np(1 − p)).

Application 3.4.1. On lance 300 fois une pièce de monnaie truquée. La probabilité d’ob-
tenir « face » est 23 . On désigne par X la variable aléatoire qui à chaque partie associe le
nombre de « face » obtenus.
1. Quelle loi suit la v.a.c. X ? Justifier votre réponse.
2. Par quelle loi peut-on l’approximée ? Justifier.
3. Calculer la probabilité P(X > 210).

Résultat

3.4.2 Approximation de la loi de Poisson par la loi normale

Proposition 3.4.2. Si λ ≥ 15, alors la loi de Poisson P (λ) peut être approximée par la loi
p
normale de paramètre (µ = λ, σ = λ). On note
p
P (λ) ∼ N (µ = λ, σ = λ).

Application 3.4.2. Une usine fabrique 400 lampes électriques a l’heure. On admet que le
nombre X de lampes défectueuses produites en une heure suit une loi de Poisson de para-
mètre λ = 15. Justifier clairement par quelle loi on peut approximée cette loi de Poisson ?
Calculer P(X > 15).

Résultat

3.4.3 Correction de continuité

La correction de continuité s’applique lorsqu’on approche une loi de probabilité dis-


crète de la v.a. X par une loi de probabilité continue. Ainsi,
• La probabilité P(X = k) doit se réécrire P(k − 0.5 < X < k + 0.5).
• La probabilité P(a ≤ X ≤ b) doit se réécrire P(a − 0.5 < X < b + 0.5).
• La probabilité P(a < X < b) doit se réécrire P(a + 0.5 < X < b − 0.5).

©Dr. RABO 26 Cours de Probabilités


C HAPITRE

5
Introduction à l’estimation

1 Généralités

1.1 Définition

La théorie de l’estimation consiste à estimer ou à déterminer les paramètres de la


population généralement inconnus (p, µ, σ2 , ...) (resp. la fréquence ou proportion, la
moyenne, la variance etc...) à partir des caractéristiques calculées sur un ou plusieurs
échantillons observés sur la même population ( f , x, s 2 , ...).
Autrement dit, la théorie de l’estimation (indication statistique) consiste à extrapoler
les résultats obtenus sur l’échantillon à l’ensemble de la population mère.
L’estimation est donc l’évaluation d’un paramètre inconnu de la population par plu-
sieurs valeurs possibles.

1.2 Estimateur

Un estimateur est une statistique permettant d’évaluer un paramètre inconnu rela-


tif à une loi de probabilité (comme sa fréquence, son espérance ou sa variance).

Définition 1.2.1. Soient X 1 , X 2 , ..., X i , ..., X n , n réalisations indépendants de la variable


aléatoire X (discrète ou continue) et θ un paramètre associé à la loi de probabilité suivie
par X .
Un estimateur du paramètre θ est une variable aléatoire Tn fonction des X i :

Tn = f (X 1 , X 2 , ..., X i , ..., X n ).

Si on considère n observations x 1 , x 2 , x 3 , ..., x i , ..., x n , l’estimateur Tn fournira une estima-


tion de θ notée également θ̂.

27
2. ESTIMATION PONCTUELLE CHAPITRE 5. INTRODUCTION À L’ESTIMATION

Remarque 1.2.1.
• L’estimateur du paramètre θ est une variable aléatoire θ̂ dont la distribution de
probabilité s’appelle la distribution d’échantillonnage du paramètre θ.
• L’estimateur θ̂ admet donc une espérance E(θ̂) et une variance V(θ̂).

Définition 1.2.2. Convergence


On dit que l’estimateur est convergent si

∀ε > 0, P(|Tn − θ| > ε) → 0 lorsque n → +∞.

Définition 1.2.3.
• Un estimateur sera sans biais si son espérance est égale à la valeur du paramètre
de la population :

E(Tn ) = θ

• Un estimateur est asymptotiquement sans biais si

E(Tn ) → θ lorsque n → +∞.

Remarque 1.2.2. Un bon estimateur est caractérisé par ses qualités : d’absence de biais,
de convergence, d’efficacité et de faible dispersion.

2 Estimation ponctuelle

L’estimation d’un paramètre quelconque θ est ponctuelle si l’on associe une seule
valeur à l’estimateur θ̂ à partir des données observables sur un échantillon aléatoire.

2.1 Estimation ponctuelle de la moyenne (espérance)

Soit X une variable aléatoire continue suivant une loi normale N (µ, σ) dont la va-
leur des paramètres n’est pas connue et pour laquelle on souhaite estimer l’espérance
µ.
La moyenne empirique constitue le meilleur estimateur de µ, espérance de la loi de
probabilité de la variable aléatoire X .

1X n
µ̂ = X = Xi .
n i =1

©Dr. RABO 28 Cours de Probabilités


CHAPITRE 5. INTRODUCTION À L’ESTIMATION 2. ESTIMATION PONCTUELLE

2.2 Estimation ponctuelle de la variance

Soit X une variable aléatoire continue suivant une loi normale N (µ, σ) pour la-
quelle on souhaite estimer la variance σ2 .
La variance corrigée constitue la meilleur estimateur de σ2 , variance de la loi de proba-
bilité de la variable aléatoire X lorsque µ est inconnue :

n 2 1 X n
2
σ̂ = s = (X i − X )2 .
n −1 n − 1 i =1

2.3 Estimation ponctuelle d’une proportion

Soit une population dont les individus possèdent un caractère A avec une probabi-
lité p. On cherche à déterminer cette probabilité inconnue en prélevant un échantillon
de taille n dans cette population. On constate que k parmi les n individus possède le
caractère A.
L’estimation ponctuelle p̂ de la proportion p est donc :

k
p̂ = f = .
n

Remarque 2.3.1. Les estimations ponctuelles n’apportent pas d’information sur la pré-
cision des résultats, c’est-à-dire qu’elle ne tiennent pas compte des erreurs dues aux fluc-
tuations d’échantillonnage. Pour évaluer la confiance que l’on peut avoir en une valeur,
il est nécessaire de déterminer un intervalle contenant, avec une certaine probabilité fixée
au préalable, la vraie valeur du paramètre : c’est l’estimation par intervalle de confiance.

2.4 Estimation par intervalle de confiance

Définition 2.4.1. On appelle estimation par intervalle de confiance associée à un échan-


tillon aléatoire au risque α tout intervalle [θ̂1 , θ̂2 ] tel que la probabilité que cet intervalle
contienne la valeur du paramètre θ soit égale à 1 − α. C’est-à-dire

P(θ̂1 ≤ θ ≤ θ̂2 ) = 1 − α.

où θ est le paramètre de la population à estimer et θ̂ son estimateur dans l’échantillon.

N.B. 1 − α est le coefficient de confiance.

©Dr. RABO 29 Cours de Probabilités


2. ESTIMATION PONCTUELLE CHAPITRE 5. INTRODUCTION À L’ESTIMATION

2.5 Intervalle de confiance d’une moyenne (espérance)

2.5.1 Cas où X ∼ N (µ, σ2 ) et l’écart-type σ est connu

Dans ce cas, l’intervalle de confiance de la moyenne µ pour un coefficient de risque


α est donc
σ σ
· ¸
X −Z . p ; X + Z1− . p
1− α2 α
n 2 n
où Z1− α est la valeur de la variable normale N (0, 1) appelée quantile lue dans la table.
2
Ainsi, dans les calculs, l’intervalle de confiance est donné par
σ σ
· ¸
IC 1−α (µ) = µ̂ − Z1− α . p ; µ̂ + Z1− α . p
2 n 2 n
donc
σ σ
µ ¶
P µ̂ − Z1− α . p ≤ µ ≤ µ̂ + Z1− α . p = 1 − α.
2 n 2 n

2.5.2 Cas où X suit une loi quelconque et n ≥ 30

Dans ce cas, l’intervalle de confiance de la moyenne µ, pour un coefficient de risque


α est donc
σ σ
· ¸
X − Z1− α . p ; X + Z1− α . p .
2 n 2 n
Ainsi, dans les calculs, l’intervalle de confiance est donné par
σ σ
· ¸
IC 1−α (µ) = µ̂ − Z1− α . p ; µ̂ + Z1− α . p
2 n 2 n
donc
σ σ
µ ¶
P µ̂ − Z1− α . p ≤ µ ≤ µ̂ + Z1− α . p = 1 − α.
2 n 2 n
Remarque 2.5.1. Si l’écart-type σ est inconnu alors on le remplace par
1 X n
σ̂2 = (x i − µ̂)2 .
n − 1 i =1

2.6 Intervalle de confiance d’une proportion


Si n ≥ 30 et n p̂ ≥ 5 alors :
L’intervalle de confiance de la proportion p̂ pour un coefficient de risque α est donc
 s s 
p̂(1 − p̂) p̂(1 − p̂) 
IC 1−α (p) = p̂ − Z1− α ; p̂ + Z1− α
2 n 2 n

donc  s s 
p̂(1 − p̂) p̂(1 − p̂) 
P p̂ − Z1− α ≤ p ≤ p̂ + Z1− α = 1 − α.
2 n 2 n

©Dr. RABO 30 Cours de Probabilités

Vous aimerez peut-être aussi