Vous êtes sur la page 1sur 30

Chapitre 1

Introduction à la probabilité

1.1 Analyse combinatoire

1.1.1 Généralités sur les ensembles :


— Soit Ω un ensemble non vide. A un sous ensemble de Ω (ou une partie) de Ω si
tout élèment de A est aussi un élèment de Ω (@ω P A, ω P Ωq. On note A Ă Ω.
— On appelle PpΩq l’ensemble des parties de Ω, c-à-d

PpΩq “ tA, A Ă Ωu

. On a donc A Ă Ω imlique que A P PpΩq.


— Soient A et B deux parties de Ω. On dit que A est incluse dans B si tout élèment
de A est aussi un élèment de B. On note dans ce cas A Ă B.
— L’intersection de A et B est la partie de Ω notée par A X B et définit par

A X B “ tω, ω P A et ω P Bu.

— La réunion de A et B est la partie de Ω notée par A Y B et définit par

A Y B “ tω, ω P A ou ω P Bu

.
On peut géneraliser ces définitions à une famille quelconque de parties de Ω. Soit I un
ensemble quelconque d’indices (fini ou infini) et pAi qpiPIq une famille de parties de Ω.
— On définit l’intersection des Ai notée XiPI Ai par

XiPI Ai “ tω, @i P I, ω P Ai u.

— On définit la réunion des Ai notée YiPI Ai par

YiPI Ai “ tω, Di P I, ω P Ai u.

— L’intersection et l’union sont distributives l’une par rapport à l’autre.

1
2 Introduction à la probabilité

1.1.2 Le nombre d’arrangement

Définition 1 Soit E un ensemble de cardinal n. On appelle un k-arrangement (un ar-


rangement de k élèments) toute liste ordonnée de k élèments pris parmi ces n élèments

Proposition 1 Un arrangement sans répétitions, les k élèments de la liste sont tous


distincts. Le nombre d’arrangement sans répétition de k élèments parmi n (0 ě k ě n)
est donné par

n!
Akn “ npn ´ 1qpn ´ 2q...pn ´ k ` 1q “ pn´kq!
.

Définition 2 Une permutation de n élèments distincts est un arrangement ordonné et


sans répétition de ces n élèments. Il est donné par n!

Proposition 2 Dans un arragement avec répétition les k objets de la liste ne sont pas
nécessairement distincts.
Le nombre d’arrangement avec répétition de k élèments parmi n est nk .

Exercice
1. Combien de nombre de 6 chiffres peut-on former avec les chiffres 1,2 et 3 ?
2. Quel est le nombre de manières de placer 5 convives autour d’une table ronde ?
3. Combien de mots de 3 lettres distinctes peuvent être formés dans un alphabet de
26 lettres ?
4. 12 candidats se présentent aux éléctions au conseil d’administration comportant 8
places. La liste des élus est publiée selon le nombre de voix. Combien y-t-il de listes
possibles ?

1.1.3 Le nombre de combinaisons

Définition 3 Soit E un ensemble de cardinal n. Une combinaison de k élèments pris


dans E est un sous-ensemble de k élèments de ces n élèments.

Proposition 3 Le nombre de combinaisons sans répétion de k élèments parmi n est


donné par ˆ ˙
n Ak n!
k
Cn “ “ n “ .
k k! k!pn ´ kq!

Proposition 4 Le nombre de combinaisons avec répétition de k élèments parmi n est


donné par ˆ ˙
k n`k´1 pn ` k ´ 1q!
Cn`k´1 “ “ .
k p!pn ´ 1q!
1.2. Expériences et évènements 3

Exercice :
1. De combien de manières peut-on choisir une délègation de 3 hommes et 2 femmes
pris parmi un groupe de 7 hommes et5 femmes ?
2. En jouant au pocker contanant 52 cartes, combien de main de 5 cartes peut-on
tirer ?

1.1.4 Application : Formule de Pascal

Proposition 5 Soient n P N et k ď n, on a

Cnk “ Cn´1
k´1 k
` Cn´1 , @1 ď k ď n ´ 1.

Proposition 6 Soient x, y P R et n P N, on a
n
ÿ
n
px ` yq “ Cnk xk y n´k .
k“0

1.2 Expériences et évènements


Définition 4 1. Une expérience aléatoire est une expérimentation ou un phéno-
mène conduisant à plusieurs résultats et pour lequel on ne peut pas savoir à priori
le résultat qui se produira.
2. Ces différents résultats sont appelés issues.

Exemple 1 1. On lance une pièce de monnaie et on regarde sa face supérieure. Les


issues possibles sont : Pile ou Face.
2. on jette un dé et on observe sa face supérieure. les issues possibles sont les chiffres
1,2,3,4,5 et 6.

Définition 5 1. On appelle évènement une partie de l’ensemble des issues d’une ex-
périence aléatoire.
2. L’évènement est dit élementaire s’il ne correspond qu’à une seule et unique issue.
3. L’ensemble de tous les évènements possibles s’appelle univers (espace d’échantillo-
nage), noté Ω.

Remarque: Un évènement est une partie de l’univers Ω.

Exemple 2 On considère l’expérience aléatoire "le lancement d’un dé". Il vient que
— les résultats : 1,2,3,4,5 et 6 sont des éventualités (issues, possibilités).
— Ω “ t1, 2, 3, 4, 5, 6u est l’univers de cette expérience.
— A ’Obtenir un nombre pair’“ t2, 4, 6u est un évènement
— B ’obtenir la face 1’ “ t1u est un évènement élèmentaire.
4 Introduction à la probabilité

Réalisation d’un évènement Soit A un évènement de Ω. Soit ω le résultat de l’expé-


rience. Alors
A se réalise si et seulement si ω P A
.
En particulier,
si A “ Ω se réalise toujours, on l’appelle évènement certain.
si A “ H ne se réalise jamais, on l’appelle l’évènement impossible.

1.2.1 Opérations sur les évènements

langage ensembliste langage probabiliste


H évènement impossible
ensemble total Ω évènement certain
A un sous ensemble de Ω A est un évènement
ω est un élèment de Ω évènement élementaire
BĂA B implique A
AYB A ouB
AXB A etB
le complémentaire de A,A évènement contraire de A
A X B “ H A et B sont incompatibles
A X B “ H et A Y B “ Ω A et B sont contraires.

1.3 Espace probabilisé


Définition 6 Soit Ω un ensemble et PpΩq l’ensemble des parties de Ω. On appelle pro-
babilité définie sur l’espace pΩ, PpΩqq toute application P de PpΩq dans r0, 1s vérifiant
les trois axiomes suivantes
1. PpΩq “ 1.
2. Pour tout évènement A P PpΩq on a 0 ď PpAq ď 1.
3. Pour tout évènements A et B incompatibles on a PpA Y Bq “ PpAq ` PpBq.
Le triplet pΩ, PpΩq, Pq s’appelle espace probabilisé.

Proposition 7 Soient A et B deux évènements quelquonques, alors


1. PpAq “ 1 ´ PpAq.
2. PpHq “ 0.
3. PpBq ď PpA) si B Ă A.
4. PpAq “ PpA X Bq ` PpA X Bq.
5. PpA Y Bq “ PpAq ` PpBq ´ PpA X Bq.

Définition 7 Soeint A1 , A2 , ...A


" n , n évènements. on dit que pA1 , .., An q constitue un sys-
@i ‰ j Ai X Aj “ H,
tème complet d’évènements si
Yni“1 Ai “ Ω,
1.4. Probabilités conditionelles 5

Exemple 3 1. pA, Aq est un système complet d’évènements.


2. Dans une urne, on a des cubes et des boules rouges et verts. On tire un de ces objets.
— A ="On tire une boule rouge."
— B="On tire un cube rouge."
— C="On tire un objet vert."s
pA, B, Cq forme un système complet d’évènements.

1.3.1 Probabilité uniforme

Définition 8 On suppose que Ω est un ensemble fini. On dit qu’on se trouve dans un cas
équiprobable si tous les évènements élèmentaires ont la même valeur de probabilité. On
parle aussi de probabilité uniforme.

Proposition 8 S’il y a équiprobabilité, pour tout évènement A, on a


CardpAq
PpAq “ .
CardpΩq
le nbr des cas favorables
C’est exactement : le nbr des cas possibles
.

Remarque: Les expressions suivantes : "dé équilibré ou parfait", "tirer uniformément au


hasard", "boules indiscernables au touché" indiquent que, pour les expériences réalisées,
on est dans un cas d’équiprobabilité.

Exercice 1 On considère l’ensemble E des entiers de 1 à 20. On choisit l’un de ces


nombres au hasard. Soient
— A="Le nombre tiré est un multiple de 2."
— B="Le nombre tiré est un multiple de 3."
— C= "Le nombre tiré est un multiple de 6."

1. Définir Ω, donner son cardinal.


2. Calculer PpAq, PpBq, PpCq, PpA X Bq, PpA Y Bq, PpA X Cq et PpA Y Cq.

1.4 Probabilités conditionelles


Définition 9 Soit pΩ, PpΩq, Pq un espace probabilisé, B un évènement tel que P pBq ‰ 0.
On appelle probabilité conditionnelle par B, l’application notée PB de pΩ, PpΩqq dans r0, 1s
définit par
PpA X Bq
@A P PpΩq, PB pAq “ .
PpBq
On dit que PB pAq est la probabilité de A sachant B, notée aussi PpA|Bq.

Théorème 1 (Formule des probabilités composées) Soient A1 , A2 , .., An n évènements


tels que PpXni“1 Ai q ‰ 0. Alors
PpXni“1 Ai q “ PpA1 qPpA2 |A1 qPpA3 |A1 X A2 q...PpAn |A1 X .. X An´1 q.
6 Introduction à la probabilité

Théorème 2 (Formule des probabiltés totales) Soient pA1 , A2 , .., An q un système complet
d’évènements et B un évènement quelquonque, alors

PpBq “ PpB|A1 qPpA1 q ` PpB|A2 qPpA2 q ` ... ` PpB|An qPpAn q.


ÿn
“ PpB|Ai qPpAi q.
i“1

Théorème 3 (Formule de Bayes) Soient pA1 , a2 , .., An q un système complet d’évènements


et B un évènement tel que PpBq ‰ 0. Alors
PpB|Ai qPpAi q
PpAi |Bq “ řn .
i“1 PpB|Ai qPpAi q

Exercice 2 Dans un champ on trouve seulement 3 espèces de plantes qu’on note A, B et


C. On sait que 12% de l’espèce A, 7% de l’espèce B et 15% de l’éspèce C sont résistantes
à l’herbicide. De plus, le champ est composé de 30% de l’espèce A, 20% de l’espèce B et
50% de l’espèce C. On prélève une plante au hasard. Quelle est la probabilité qu’elle soit
résistante à l’herbicide ?

Exercice 3 Une compagnie estime que les gens peuvent être répartis en 2 classes.
— Ceux qui sont enclins au accidents à haut riques, soit 30% de la population.
— Les autres sont dits à rique modéré.
Les statistiques montrent q’un individu à haut rique a une probabilité de 0.4 d’avoir un
accident en l’espace d’un an de la signature de son contrat. cette probablité tombe à 0.2
pour les gens à rique modéré.
1. Quelle est la probabilité qu’un nouvel assuré soit victime d’un accident durant l’année
qui suit la signature du contrat ?
2. Un nouveau signataire a eu un accident dans l’année qui suit la signature de son
contrat ? Quelle est la probabilité qu’il fasse parti à la classe haut risque ?

Exercice 4 Une entreprise utilise trois machine A,B et C pour fabriquer des pièces. 40%
sont fabriquées par A, 30% par B et 30% par C. La machine à produit 2% de pièces
défectueses, B : 4% et C5%.
1. Si on prélève une pièce au hasard, quelle est la probabilité qu’elle soit défèctueuse ?
2. Si on prélève une pièce défèctueuse, quelle est la probabilité qu’elle vienne de A ?
3. Si on prélève une pièce saine, quelle est la probabilité qu’elle vienne de C ?

1.4.1 Indépendance

Soit A et B deux évènements de probabilité non nulle. Il se peut que la connaissance de


la réalisation de A ne change pas la probabilité de B, i.e,

PpB{Aq “ PpBq.
1.4. Probabilités conditionelles 7

Proposition 9 Soient A, B telles que PpAq et PpBq sont non nulles. Alors on a l’équi-
valence
1. PpA{Bq “ PpAq.
2. PpB{Aq “ PpBq.
3. PpA X Bq “ PpAqPpBq.

Remarque: Si PpAq ą 0, pPBq ą 0 et AXB “ H alors A et B ne sont pas indépendants.

Exemple 4 On jette deux fois le même dé.


— A = Obtenir un chiffre pair au premier lancer
— B= Obtenir 1 au deuxième lancer

Exemple 5 Une urne contient 12 boules numérotées de 1 à 12. On tire une boule au
hasard. Soit A = Tirage d’un nombre pair et B = Tirage d’un multiple de 3.
1. Calculer PpAq, PpBq et PpA X Bq. A et B sont-ils indépendants ?
2. Répondre aux mêmes questions si on rajoute dans l’urne une boule numérotée 13.
8 Introduction à la probabilité
Chapitre 2

Les variables aléatoires

2.1 Introduction
On lance une pièce de monnaie deux fois de suite et on tient compte à l’ordre de lancé.
Il vient que l’univers Ω “ tpp, pq, pp, f q, pf, f q, pf, pqu. Soit X le nombre d’apparition de
pile. C’est une variable aléatoire définie par
$
& 2, si ω “ pp, pq ;
Xpωq “ 1, si ω P tpp, f q, pf, pqu ;
0, si ω “ pf, f q.
%

Définition 10 Soit pΩ, PpΩq, Pq un espace probabilisé. Une variable aléatoire est une
fonction de Ω dans R

Définition 11 Le support d’une variable aléatoire X est l’ensemble de ses valeurs pos-
sibles. On le note SpXq ou SupppXq

Remarque: On a 3 types de support différents : fini, infini dénombrable et infini non


dénombrable.
Suivant cette distinction les calculs de probabilités vont s’effectuer d’une façon différentes.
On distinguera 2 types de variables aléatoires.

2.2 Les variables aléatoires discètes


Définition 12 La variable aléatoire X est dite discrète si son support SpXq est fini ou
infini dénombrable

Dans toute la suite de cette section on considère les variables aléatoires discrètes X (resp
Y ) définies sur l’espace pΩ, PpΩq, P q telle que XpΩq “ txi , i P Iu, où I Ă N( resp Y pΩq “
tyj ; j P Ju où J Ă N).

9
10 Les variables aléatoires

Définition 13 Loi de probabilité On appelle loi de probabilté ou la distribution de proba-


bilité de X l’expression de probabilité

pi “ P pX “ xi q; i P I,

Remarque: Donner la loi de X c’est donner pi pour tout i dans I. Remarque: Soit X
une variable aléatoire discrète.
1. Pour tout x P XpΩq, l’ensemble tX “ xi u “ tω P Ω; Xpωq “ xi u est un événement.
2. La famille d’évènements tX “ xi , xi P XpΩqu est une partition de Ω.
ř
3. On a xi PXpΩq P pX “ xi q “ 1.

Exemple 6 On considère l’exemple de l’introduction. La loi de X est donnée par


— P pX “ 0q “ 1{4.
— P pX “ 1q “ 1{2.
— P pX “ 2q “ 1{4.

Remarque: Deux v.a. peuvent avoir même loi sans être égales. Par exemple, on jette deux
dès, l’un bleu et l’autre rouge. Notons X le numéro indiqué par le dé bleu et Y celui indiqué
par le dé rouge. Les variables X et Y sont définies sur le même espace de probabilité.
Ω “ t1, ..., 6u et XpΩq “ Y pΩq “ t1, ..., 6u et @k P t1, ..., 6u; P pX “ kq “ P pY “ kq “ 1{6.
Donc les deux variables X et Y ont la même loi. Pourtant les deux variables ne sont pas
égales. En effet, l’égalité entre X et Y signiferait que Xpωq “ Y pωq, @ω P Ω. On peut voir
que PpX “ Y q ‰ PpX “ Y q.

Définition 14 Fonction de répartition On appelle fonction de répartition de X la fonc-


tion F définie par
F : R Ñ r0, 1s
x ÞÑ P pX ď xq.

Proposition 10 La fonction de répartition vérifie les proprietés suivantes :


1. F est une fonction en escalier croissante.
2. P pa ă X ď bq “ F pbq ´ F paq @b ě a.
3. si xj ď x ă xj`1 alors F pxq “ ji“1 pi .
ř

Exemple 7 Soit X le résultat du lancé d’un dé équilibré.


— Donner la loi de X.
— Donner la fonction de répartion de X.

2.2.1 Couple de variable aléatoire

Définition 15 Soit
C : Ω Ñ R2
ω ÞÑ pXpωq, Y pωqq.
On dit que C “ pX, Y q est un couple de variable aléatoire discrète.
2.2. Les variables aléatoires discètes 11

Définition 16 Soit C “ pX, Y q un couple de variables aléatoires discrètes. L’application


définie par
pc : XpΩq ˆ Y pΩq Ñ ` r0, 1s ˘
pxi , yj q ÞÑ pi,j “ P pX “ xi q X pY “ yj q ,

s’appelle la loi conjointe du couple.

Proposition 11 Soit C “ pX, Y q un couple de v a d.


— L’application
pi : XpΩq Ñ r0, 1s
xi ÞÑ P pX “ xi q,
s’appelle la première loi marginale.
— L’application
qj : Y pΩq Ñ r0, 1s
yj ÞÑ P pY “ yj q,
s’appelle la deuxième loi marginale loi marginale.

ř 12 soit C “ pX, Y q un couple de v.a.d. On a


Proposition
— pi “ řjPJ pi,j .
— qřj “ ř iPI pi,j .
— iPI jPJ pi,j “ 1.

Remarque: La loi conjointe du coulpe détermine complètement les lois marginales mais
la réciproque est fausse.

2.2.2 Indépendance entre variables aléatoires

Définition 17 Deux variables aléatoires discrètes X et Y sont dites indépendantes si


tous les couples d’évènements pX “ xi q et pY “ yj q sont indépendants. C’est à dire pour
tout xi P XpΩq et pour tout yj P Y pΩq on a
` ˘
P pX “ xi q X pY “ yj q “ P pX “ xi qP pY “ yj q.

Proposition 13 Soient X et Y deux v.a indépendantes, f et g deux fonctions dont les


domaines de défnition contiennent respectivement XpΩq et Y pΩq. Alors f pXq et gpY q sont
indépendants.

2.2.3 Les moments d’une variable aléatoire

L’espérance d’un v.a

Définition 18 On appelle espérance mathématique de X le réel (lorsqu’il est défini)


donné par ÿ
EpXq “ xi P pX “ xi q.
iPI
12 Les variables aléatoires

Définition 19 Soit X une v.a.d et f une fonction réelle dont le domaine de définition
contient XpΩq. Alors si Epf pXqq existe on a
ÿ
Epf pXqq “ f pxi qP pX “ xi q.
iPI

Proposition 14 Soient X et Y deux v a d qui possèdent une espérance, et a, b P R. Alors


— EpaX ` bY q “ aEpXq ` bEpY q.
— Si X ě 0, alors EpXq ě 0.
— Si X ď Y , alors EpXq ď EpY q.
— Si X et Y sont indépendantes, alors EpXY q existe et on a EpXY q “ EpXqEpY q.
La rérciproque est fausse. Si EpXY q “ EpXqEpY q, alors X et Y ne sont pas
nécessairement indépendantes.

La variance d’une v a

Définition 20 Les Moments d’ordre k On appelle moment d’ordre k de la variable X le


réel donnée par ÿ
mk “ EpX k q “ xki P pX “ xi q.
iPI

lorsqu’il est fini.

Définition 21 Variance Soit X une variable aléatoire qui possède un moment d’ordre 2
fini. On appelle la variance de X le réel donnée par
` ˘
VarpXq “ E pX ´ EpXqq2 “ EpX 2 q ´ EpXq2 .

Proposition 15 Soient a, b P R alors


1. VarpaX ` bq “ a2 VarpXq.
2. VarpX ` Y q “ VarpXq ` VarpY q si X et Y sont indépendantes.

Proposition 16 (Inégalité de Tchebychev) Si VarpXq existe, alors

VarpXq
@t ą 0, P p|X ´ EpXq| ě tq ď .
t2

Définition 22 On appelle écart type de la variable X le réel donné par


a
σpXq “ VarpXq.

Définition 23 On suppose que les deux variables aléatoire X et Y possèdent des va-
riances. On appelle covariance de X et Y notée
` ˘
CovpX, Y q “ E pX ´ EpXqqpY ´ EpY qq
“ EpXY q ´ EpXqEpY q
2.3. Loi discrète usuelles 13

Proposition 17 1. CovpX, Y q “ CovpY, Xq.


2. CovpaX ` b, cY ` dq “ acCovpX, Y q.
3. |CovpX, Y q| ď σpXqσpY q.
4. CovpX, Y q “ EpXY q ´ EpXqEpY q.
5. VarpX ` Y q “ VarpXq ` VarpY q ` 2CovpX, Y q.
Si X et Y sont indépendantes alorsCovpX, Y q “ 0. La réciproque est fausse.

2.3 Loi discrète usuelles

2.3.1 Loi de Bernouilli

On réalise une expérience aléatoire qui a deux résultats possibles, le" succés S de proba-
1, si succés ;
bilité p et l’echec E de probabilité 1 ´ p. La variable aléatoire X “ est
0, si echec.
une v.a de Bernouilli. On note X ” Bppq.

Proposition 18 — XpΩq “ t0, 1u.


x
— P pX “ xq “ p p1 ´ pq1´x .
— EpXq “ p.
— VarpXq “ pp1 ´ pq.

2.3.2 Loi binomiale

On réalise n fois successivement et d’une manière indépendante une expérience aléatoire


qui a deux résultats possibles S de probabilité p et E de probabilité 1 ´ p. X : le nombre
de succés obtenus est une variable aléatoire binomiale de paramètres n et p. On la note
X ” Bpn, pq.

Proposition 19 — XpΩq “ t0, 1, ..., nu.


— P pX “ kq “ Cnk pk p1 ´ pqn´k .
— EpXq “ np.
— VarpXq “ npp1 ´ pq.

Remarque: C’est une somme de n épreuves de Bernouilli.

Exemple 8 On effectue n tirages avec remise dans une urn contenant des boules blanches
(avec proportion p) et des boules noires (avec proportion (1 ´ p)). X le nombre de boules
blanches tirées est une variable aléatoire binomiale de paramètre n et p.
14 Les variables aléatoires

2.3.3 Loi Géometrique

X suit la loi géometrique de paramètre Gppq si elle est égale au nombre d’épreuves de Bppq
indépendantes, qu’il faut réaliser pour obtenir la première fois l’évènement de probabilité
p.

Exemple 9 X le nombre de tirages nécessaire pour obtenir une boule blanche.

Proposition 20 — XpΩq “ N.
— P pX “ xq “ pp1 ´ pqx .
— EpXq “ 1{p.
— VarpXq “ 1´p
p2
.

2.3.4 Loi de Poisson

X est une variable aléatoire de poisson de paramètre λ si ssi

λk
XpΩq “ N et P pX “ kq “ exp´λ .
k!
On la note Ppλq.

Proposition 21 — EpXq “ λ.
— VarpXq “ λ.

Remarque: Lorsqu’un évènement a une faible probabilité d’apparition lors d’une épreuve
de Bernouilli et si l’on répète un grand nombre de fois. Le nombre total de réalisation de
l’évènement consodéré suit à pau près une loi de poisson de paramètre λ “ n ˆ p. C’est
la loi des phénomènes rares. En pratique n ě 30 et p ď 0.1

Exemple 10 Lors d’un sondage portant un grand nombre de personnes. On sait que 20%
de personnes acceptent de ne pas être anonymes. Sachant qu’on a intérrogé 250 personnes,
calculer la probabilité
1. que ces 250 personnes souhaitent rester anonymes.
2. 3 personnes acceptent de ne pas rester anonymes.
3. plus que 10 personnes acceptent de ne pas être anonymes.
Chapitre 3

Les variables aléatoires continues

3.1 Introduction
Soit pΩ, PpΩq, Pq un espace probabilisé et X une application de Ω dans R. Une variable
aléatoire X est dite continue si l’ensemble XpΩq est une intervalle ou une réunion d’inter-
valle de R. La description d’une loi continue diffère de celles des lois discrètes puisque pour
une variable aléatoire continue X, la probabilité que X prenne une valeur bien précise
x est nulle, PpX “ xq “ 0 . Il y a, en effet, une infinité de valeurs dans R ou dans un
intervalle, et au regard de toutes ces valeurs précises, le poids de la valeur particulière est
tellement insignifiant qu’il en est nul.

Exercice 5 Si X=la taille d’un individu dans une population. Alors PpX “ 1, 8522692q “
0.

Définition 24 Une variable aléatoire X est dite à densité s’il existe une fonction positive
f : R Ñ R` , telle que
żb
Ppa ď X ď bq “ f ptqdt, pour tout a ď bR.
a

Cette fonction est appelée la densité de X.

Proposition 22 Une densité de probabilité vérifie


— ş@x P R, f pxq ě 0.
`8
— ´8 “ 1.

Proposition 23 Soient a, b P R ; a ď b. On les proprités suivantes


` ˘ ş`8
1. P X ą a “ 0 f ptqdt.
` ˘ şb
2. P X ă b “ ´8 f ptqdt.
3. PpX “ aq “ 0.

15
16 Les variables aléatoires continues

Définition 25 La fonction de répartition F de X est donné par


F : RÑ r0, 1s
.
x ÞÑ PpX ď xq

Exemple 11 — La taille d’un individu d’une population XpΩq “ r0, M s.


— Le temps d’attente à la poste XpΩq “ R` .
— Le taux de cholestérol, XpΩq “ R` .
— Poids à la naissance, XpΩq “ r0, ms.

Proposition 24 1. F est une fonction croissante.


2. limxÑ`8 F pxq “ 0 et lim`8 F pxq “ 1.
` ˘ ` ˘
3. P a ď X ď b “ P a ă X ă b “ F pbq ´ F paq.
4.

Proposition 25 Si la fonction F est dérivable, alors X est une fonction à densité et sa


densité est la dérivé de F .

3.2 Couple de variables aléatoires continues


Définition 26 Soit f une fonction définit sur R2 . On dit que f est une densité de pro-
babilité sur R2 si
— fş şě 0.
— R2 f px, yqdxdy “ 1.

Définition 27 Soit f une densité définit sur R2 . On dit que le coulpe C “ pX, Y q est un
couple de densité f si pour tout couple px, yq on a
ż y ´ż x ¯
` ˘
P X ď x, Y ď y “ f pu, vqdv du.
´8 ´8

Définition 28 On appelle fonction de répartition du couple C “ pX, Y q de densité f


l’application définit sur R2 par
ż x ´ż y ¯
` ˘
F px, yq “ P X ď x, Y ď y “ f pu, vqdu dv
´8 ´8

3.2.1 Lois marginales

Définition 29 Soit C “ pX, Y q un couple de variables aléatoires continues de densité f .


Alors X et Y sont de densités respectives
ż `8
fX pxq “ f px, yqdy.
´8
ż `8
fY pyq “ f px, yqdx.
´8
Les lois de X et Y obtenues ainsi sont appelées les lois marginales du couple C.
3.3. Indépendance 17

3.3 Indépendance
Définition 30 Les variables aléatoires continues X et Y sont dites indépendantes si pour
tout couples px, yq P R2 on a

PpX ď x, Y ď yq “ PpX ď xqPpY ď yq.

Proposition 26 Soit C “ pX, Y q un couple de variables aléatoires continues de densité


f et de fonction de répartition F . Alors les proposition suivantes sont équivalentes
1. X et Y sont indépendantes.
2. F px, yq “ FX pxqFY pyq @px, yq P R2 .
3. f px, yq “ fX pxqfY pyq @px, yq P R2 .

Proposition 27 Soient X et Y deux variables aléatoires continues et φ et ψ deux fonc-


tions réelles, alors φpXq et ψpY q sont aussi indépendantes.

3.4 Les Moments d’une variable aléatoires continue

3.4.1 Espérance

Définition 31 On appelle l’espérance mathématique de X le réel donnée par


ż `8
EpXq “ tf ptqdt.
´8

Proposition 28 Soit a, b P R, alors on a les proprietés suivantes


— EpaX ` bY q “ aEpXq ` bEpY q.
— si X ď Y alors EpXq ď EpY q.

3.4.2 Moements d’ordre k

Définition 32 On appelle moment d’ordre k de la variable X, le réel donné par


ż `8
k
EpX q “ tk f ptqdt.
´8

Définition 33 On appelle variance de la variable aléatoires X le réel donné par


ż `8
` ˘2
VarpXq “ t ´ EpXq dt.
´8

Proposition 29 Soient X et Y deux variables aléatoires continues admettant des va-


riances et a et b P R. On a
18 Les variables aléatoires continues

1. VarpX ` Y q “ VarpXq ` VarpY q ` 2covpX, Y q


2. VarpaXq “ a2 VarpXq.

Définition 34 On appelle ecart type de la variable aléatoire X le réel donné par


a
σpXq “ VarpXq.

3.5 Les lois continues usuelles

3.5.1 Loi uniforme

Cette loi modélise un phénomène uniforme sur un intervalle donné. Une variable aléatoire
X suit la loi uniforme sur l’intevalle borné ra, bs si elle a une densité f constante sur cet
intervalle et nulle en dehors. Elle est notée Upra, bsq. Sa densité est alors,

" 1
b´a
, si x P ra, bs ;
f pxq “
0, sinon.

Proposition 30 Soit X une variable aléatoire qui suit la loi uniforme sur l’intevalle
ra, bs.
— EpXq “ a`b
2
.
pb´aq2
— VarpXq “ 12 .

3.5.2 Loi exponentielle

Soit λ ą 0, une variabla aléatoire X suit une loi exponentielle de paramètre λ et notée
Exppλq si elle admet pour densité la fonction
"
λ expp´λxq, si x ě 0 ;
f pxq “
0, sinon.

Proposition 31 Soit X une variable aléatoire qui suit la loi Epλq


— EpXq “ 1{λ.
— VarpXq “ 1{λ2 .

Les lois exponentielles sont souvent utilisées pour modéliser des temps d’attente ou des
durées de vie. Par exemple, les temps d’attente à partir de maintenant du prochain trem-
blement de terre, de la prochaine panne d’un appareil, de la prochaine désintégration
dans un réacteur nucléaire suivent des lois exponentielles. Le paramètre λ désigne alors
l’inverse du temps d’attente moyen.
3.6. La loi normale 19

3.6 La loi normale


C’est la loi la plus connues en probabilité, souvent sous le nom de loi de Gauss. Elle est
apparue naturellemnt comme la limite de certains processus.

3.6.1 Loi normale génèrale

La variable aléatoire X suit la loi normale de paramètre mpm P Rq et σ 2 pσ 2 P R` q si elle


admet pour densité la fonction
1 px ´ mq2
f pxq “ ? expp´ q.
σ 2π 2σ 2
Elle est notée N pm, σ 2 q.

Proposition 32 Soit X „ N pm, σ 2 q, alors


— EpXq “ m.
— VarpXq “ σ 2 .

Remarque: Si m “ 0 et σ 2 “ 1 alors X suit la loi normale centrée réduite. Elle est notée
N p0, 1q.

Proposition 33 Si la variable aléatoire X „ N pm, σ 2 q a, b P R; a ‰ 0. Alors


‚ Y “ X´m
σ
„ N p0, 1q.
‚ Y “ aX ` b „ N pam ` b, a2 σ 2 q.

3.6.2 Applications :Théorème de limite centrale

Théorème 4 Soit X1 , X2 , .., Xn une suite de variable aléatoires indépendantes et iden-


tiquement distribuées (de même loi) telles que EpXi q “ m et VarpXi q “ σ 2 pour tout
i P t1, .., nu. Soit Sn “ n1 ni“1 Xi et FN la fonction de répartition de la loi normale
ř
centrée réduite. Alors on a, lorsque n tend vers `8
´S ´ m ¯
n
P ? ď t ÝÑ FN ptq.
σ{ n

Corollary 1 Soit Sn une variable aléatoire qui suit la loi Bpn, pq alors
Sn ´ np
? N p0, 1q.
npq
Ceci peut également s’écrire ainsi
L ?
Sn Ñ N pnp, npqq.

Corollary 2 Soit pXi qiPN


ř une famille de v.a indépendantes de même loi de Poisson de
paramètre 1. Soit Sn “ ni“1 Xi , Alors
Sn ´ n L
? Ñ N p0, 1q.
n
20 Les variables aléatoires continues

3.6.3 Des lois dérivées

La loi De khi-deux
řn
Si Xi , .., Xn sont n v.a indépendantes de loi N p0, 1q alors X “ i“1 Xi est une v.a khi-
deux à n degré de liberté. On la note χ2n et on a
— EpXq “ n
— VarpXq “ 2n.

La loi de Fisher

Si X1 et X2 sont deux v.a indépendantes telles que X1 suit χ2n1 et X2 suit χ2n2 . Alors
X1 {n1
F “ X 2 {n2
suit une loi de Fisher à n1 , n2 degré de liberté. Elle est notée Fn1 ,n2 . On a de
plus
— EpF q “ n2n´2 2
si n2 ą 2,
2n22 pn1 `n2 ´2q
— VarpF q “ n1 pn2 ´2q2 pn2 ´4q
. si n2 ą 4.

La loi de Student

Si X et Y sont deux v.a indépendantes telles que X suit N p0, 1q et Y suit χ2n . Alors
S “ ?X est une variable de Student à n degré de liberté. Elle est notée Sn , on a
Y {n
— EpSq “ 0 si n ą 1
n
— VarpSq “ n´2 si n ą 2.
Chapitre 4

Estimation Ponctuelle-Estimation
par intervalle

4.1 Introduction

Exemple 12 Considérons les X réponses de N individus à une question qui admet deux
réponses :

‚ oui : on lui attribut 1,


‚ non : on lui attribut 0.

Soit p la fréquence des oui dans l’ensemble des réponses. On a deux cas
1. Effectuer un rescencement : p est alors determiné mais avec un coût trés élevé.
2. Il est possible d’effectuer ce rescencement et alors p est inconnu. Dans ce cas on
extrait une partie de l’ensemble n ă N . Apartir de cette partie on extrait des infor-
mations sur p.
A ce stade on se pose pleins de question :
‚ Comment choisir l’échantillon ?
‚ Comment estimer p ?
‚ Comment mesurer la précision de p ?
‚ Comment tester une hypothèse telle que p soit supérieure à une valeure donnée ?

L’estimation ponctuelle permet d’estimer certaines caractéristique statistiques de la loi


(l’espérance, la variance, la proportion,...) à partir d’une série d’observation.
On considère une variable aléatoire X à valeur dans E, qui suit une loi Lθ , c à d, la loi
dépend d’un paramètre θ qui appartient à un sous ensemble donné I.
A partir de certaines valeurs observées x1 , x2 , .., xn , on calcule une valeur numérique que
l’on considère comme valeur approchée de θ et qu’on apellera estimation de θ

21
22 Estimation Ponctuelle-Estimation par intervalle

4.2 Définitions
Soit X une variable aléatoire dont la loi dépend d’un paramètre θ P I.

Définition 35 Un échantillon de taille n d’une variable aléatoire X est le vecteur pX1 , X2 , .., Xn q
où les tXi u1ďiďn sont des variables aléatoires indépedentes de même loi que X.

Définition 36 On appelle réalisations ou encore échantillon empirique l’ensemble des va-


leurs tx1 , x2 , .., xn u observées lors de n réalisations indépendentes de l’expérience à laquelle
on associe la variable aléatoire X.

Définition 37 Soit pX1 , .., Xn q un échantillon de la variable aléatoire X.


— Toute fonction T “ ΦpX1 , .., Xn q; Φ : Rn Ñ R est dite statistique de l’échantillon.
— Une statistique T est appelée estimateur de θ si elle est à valeurs dans I.
— Une estimation est la valeur de l’estimateur correspondant à une réalisation de
l’échantillon.

4.2.1 Les caractéristiques d’un échantillon

Moyenne empirique :
Soit pX1 , X2 , .., Xn q un échantillon de la variable aléatoire X tel que EpXq “ m et
VarpXq “ σ 2 . On appelle la moyenne empirique de X la variable aléatoire définie par
n
1ÿ
Xn “ Xi .
n i“1

On a
— EpX n q “ m.
— VarpX n q “ σ 2 {n.
Variance empirique :
Soit pX1 , X2 , .., Xn q un échantillon de la variable aléatoire X tel que EpXq “ m et
VarpXq “ σ 2 . On appelle la variance empirique de X la variable aléatoire donnée par
n
1ÿ
Sn2 “ pXi ´ X n q2 .
n i“1

On appelle la variance empirique corrigée la variable aléatoire donnée par


n
2 n ÿ
Sn´1 “ pXi ´ X n q2 .
n ´ 1 i“1

On a
— EpSn2 q “ p n´1
n
qσ 2 .
2 2
— EpSn´1 q “ σ .
4.3. Proprietés d’un estimateur 23

4.3 Proprietés d’un estimateur

4.3.1 Le biais d’un estimateur

Définition 38 Le biais de l’estimateur T de θ est EpT q ´ θ.


— S’il est nul, l’estimateur est dit sans biais.
— si limnÑ`8 EpT q “ θ. T est dit asymptotiquement sans biais.
Le biais de T est noté bθ pT q.

Exemple 13 Si le paramètre à estimer est θ “ EpXq. L’estimateur naturel est la moyenne


empirique X n . On a EpX n q “ θ.
la moyenne empirique est toujours un estimateur sans biais de la moyenne théorique (es-
pérance) pour toute variable aléatoire X.

Exemple 14 Si le paramètre à estimer est θ “ VarpXq. L’etimateur aturel à utiliser est


nÑ`8
la variance empirique T “ Sn2 . On a EpT q “ p n´1
n
qθ ÝÑ θ. Alors T est un estimateur
asymptotiquement sans biais.

Remarque: Soit ΦpX1 , .., Xn q un estimateur de l’éspérance de X. Il est clair que diffé-
rente réalisatin de T mènent à des estimations différentes de θ. On a besoin d’avoir des
critères de qualité qui permettent de choisir le meilleur parmi les estimateurs.

4.3.2 Convergence d’un estimateur

Définition 39 L’erreur quadratique moyenne est le moment d’ordre deux de l’erreur de


l’estimation, elle est définie par

RpT, θq “ ErpT ´ θq2 s


“ VarpT q ` rbθ pT qs2

Remarque:
‚ Si l’estimateur est sans biais alors plus VarpT q est petite plus les valeurs de l’estimateur
sont autour de θ.
‚ Pour deux estimateurs T1 et T2 , le choix est porté pour celui qui a la plus petite variance.
‚ Plus généralement, pour deux estimateurs T1 et T2 , on dit que T1 est préferable à T2 si

RpT1 , θq ď RpT2 , θq.

Définition 40 Un estimateur est dit convergent si


nÑ`8
RpT, θq ÝÑ 0.

Théorème 5 Tout estimateur sans biais ou asymptotiquement sans biais dont la variance
tend vers zéro lorsque n tend vers l’infini, est un estimateur convergent
24 Estimation Ponctuelle-Estimation par intervalle

Exemple 15 Soit X „ Bppq ; p est inconnue. Soit pX1 , .., Xn q un échantillon de X. On


considère n
1ÿ
T “ Xn “ Xi .
n i“1
On a EpT q “ p, alors T est sans biais de p.
pp1´pq nÑ`8
De plus VarpT q “ EppT ´ pq2 q “ n1 VarpXq “ n
ÝÑ 0. T est un estimateur
convergent.

Exemple 16 Soit X „ BpN, pq où N est un entier connu. Soit pX1 , .., Xn q un echantillon
de X. On considère n
1ÿ
T “ Xn “ Xi .
n i“1
On a
N pp1 ´ pq
EpT q “ N p, VarpT q “ .
n
1
On considère T 1 “ N
T, alors

pp1 ´ pq nÑ`8
EpT 1 q “ p, VarpT 1 q “ ÝÑ 0.
Nn
T 1 est un estimateur sans biais convergent.

4.3.3 Efficacité d’un estimateur

Définition 41 (Fonction de vraisemblance) La fonction vraisemblance est la loi de l’échan-


tillon et elle est donnée par
$ n
’ ź


& Pθ pXi “ xi q, dans le cas discret ;
Lpx1 , . . . , xn , θq “ i“1
źn



% fXi ,θ pxi q, dans le cas des variables à densité.
i“1

On appelle fonction log-vraisemblance la fonction donnée par

logrLpx1 , . . . , xn , θqs.

Définition 42 (Information de Fisher) La quantité d’information de Fisher est définie


par
” B ı
In pθq “ E p lnpLqq2 .

Définition 43 (Inégalité de Cramer-Rao) En particuleir si XpΩq est indépendant du pa-


ramètre à estimer θ, pour toute stimateur T de θ sans biais on a
1
VarpT q ě .
In pθq
4.4. Construction d’un estimateur 25

Remarque: Sous certaines conditions de régularités de la fonction de vraisemblence


(conditions de Cramer-Rao), la quatité de Fisher est plus simple à calculer par la forme
suivante ” B2 ı
In pθq “ ´E p 2 ln Lq .

Définition 44 (Estimateur efficace) Un estimateur sans biais T de θ est dit efficace si


sa variance est égale à la borne inférieure de l’inéquatité de Cramer -Rao :
1
VarpT q “
In pθq

Exemple 17 Le nombre de pannes d’un appareil éléctrique est une variable aléatoire qui
suit une loi de Poisson de paramètre θ inconnu. Vérifier que l’estimateur T “ X n est
efficace.

4.4 Construction d’un estimateur

4.4.1 Méthode des moments

L’idée qui est à l’origine de l’estimation d’un paramètre θ par la méthode des moments est
d’une grande simplicité. Considérons une loi Lθ dont les moments théoriques sont requis,
et dont on veut estimer le paramètre θ. La méthode des moments consiste à calculer
les moments empiriques et de les égaler avec les moments théoriques, et ensuite choisir
comme estimateur de θ la valeur de θ qui est solution de cette égalité. Ceci correspnd à
résoudre l’équation en θ de
n n
1ÿ k 1ÿ
mk “ Xi , ou µk “ pXi ´ X n qk .
n i“1 n i“1

Remarque: La solution de cette équation,si elle existe, elle est unique, et sera appelé
estimateur obtenu par la méthode de vraisemblence.
Remarque:

‚ Lors de l’estimation d’un paramètre θ avec la méthode des moments, on peut utiliser le
moment théorique non centré d’ordre 1 (espérance) řet l’égaler au moment empirique
non centré d’odre 1 (moyenne empirique : X n “ n1 ni“1 Xi q.
‚ On peut également utiliser le moment théorique centré d’orde 2 et l’égaler dans
ř ce cas
avec le moment empirique centré d’ordre 2 (variance empirique : Sn2 “ n1 ni“1 pXi ´
X n q2 q.
‚ Cette méthode se justifie par la convergence (quand n augumente) des moments empi-
riques vers les moments théoriques correspondants.
‚ Tout estimateur d’un paramètre obtenu par la méthode des moments est un estimateur
convergent.
26 Estimation Ponctuelle-Estimation par intervalle

Exemple 18 (Estimation du paramètre θ d’une loi exponentielle)

X „ Exppθq, f px, θq “ θe´θx .


On sait que : EpXq “ 1θ qui représente le moment théorique non centré d’ordre 1. Le
moment empirique correspondant est : X n . L’estimateur de θ par la méthode des moments
est solution de l’équation :
1 1
“ X n d’où T “ .
θ Xn

Exemple 19 (Estimation des paramètres n et p d’une loi binomiale)


ˆ ˙
n x
X „ Bpn, pq, PpX “ xq “ p p1pqn´x .
x
On sait que les moments théoriques sont EpXq “ np et VarpXq “ npp1pq, les moments
empiriques correspondants sont X n et Sn2 . Les deux équations nécessaires pour l’estimation
des paramètres n et p sont :
" "
EpXq “ np, X n “ np, (1) ;
2
VarpXq “ npp1 ´ pq, Sn “ pnp1 ´ pq, (2).

2 2
Sn Xn
p2q{p1q donne p̃ “ 1 ´ Xn
. En le remplaçant dans l’équation p1q donne ñ “ 2.
X n ´Sn

Remarque:
Lorsqu’on veut estimer un paramètre θ, on peut, généralement, l’exprimer en fonction de
EpXq et/ou V pXq. Poue cela, si on peut estimer EpXq et V pXq on peut construire un
estimateur de θ.

Applications Soit X une variable aléatoire d’espérence EpXq “ m et de variance V pXq “


σ 2 . Soit X1 , . . . , Xn un échantillon de X.
1. Estimation de la moyenne : Il est normal d’estimer les moments par leur moyenne
empirique. On considère
n
1 ÿ
T “ Xn “ Xk .
n k“1
T est un estimateur sans biais de m et on a
n
1 ÿ σ2 ÝÑ
RpT, mq “ V pT q “ V p Xk q “ n Ñ `8 0.
n k“1 n

T est un estimateur convergent.


2. Estimation de la variance lorsque la moyenne est connue :On considère
n
1 ÿ
T “ pXk ´ mq2 .
n k“1
4.4. Construction d’un estimateur 27

On a EpT q “ EpppX ´ mq2 q “ V pXq “ σ 2 , T est donc un estimateur sans biais de


σ 2 . Le risque quadratique de T est
1 ÝÑ
RpT, σ 2 q “ V pT q “ V ppX ´ mq2 q n Ñ `8 0.
n
Estimation de la variance lorsque la moyenne est inconnue : On remplace
m par un estimateur.

4.4.2 Méthode du maximum de vraisemblance :

Les estimations proposées par la méthode des moments reposent sur l’idée intuitive qu’un
moment inconnu d’une variable aléatoire ou d’une population peut être approché ou estimé
par le moment équivalent calculé sur un échantillon. Ainsi, le moment d’ordre 1, c’est à dire
l’espérance mathématique ou la moyenne dans une population est habituellement estimé
par la moyenne des observations issues d’un échantillon. Cette méthode d’estimation par
les moments ne convient pas dans toutes les applications pratiques et dans certains cas,
elle ne fournit pas les meilleures estimations. C’est pour cette raison que le statisticien
Ronald Fisher proposa, vers les années 1920, la méthode du maximum de vraisemblance.

Définition 45 On appelle estimateur du maximum de vraisemblance toute fonction θ̃n


de px1 , x2 , ..., xn q qui vérifie

Lpx1 , x2 , .., θ̃n q “ max Lpx1 , x2 , .., θn q.


θPΘ

Remarque: Cette fonction de renseigne en aucune façon sur l’existence ni l’unicité d’un
tel estimateur.
Remarque:
‚ L’estimation du maximum de vraisemblance est la valeur θ̃n qui, substituée à θ dans la
fonction de vraisemblance Lpx1 , x2 , ..., xn ; θn q, rend celle-ci maximum.
‚ On appelle les hypothèses de la vraisemblance les deux hypothèses suivantes :
— Lpx1 , x2 , ..., xn ; θn q ą 0.
— La vraisemblance est deux fois dérivable par rapport à θ.
‚ Sous ces hypothèses, on peut calculer le logarithme de la vraisemblance pour simplifer
les calculs puisque le logarithme est une fonction strictement croissante, et par
conséquent, la vraisemblance est maximale ssi le logarithme de la vraisemblance est
maximale.
Remarque: θ̃ est une estimation du maximum de vraisemblance de θ ssi θ̃ vérifie les
conditions de maximisation suivantes
" B

logL “ 0,
B2
Bθ2
logL ă 0

Exemple 20 (Estimation du paramètre θ de loi de Bernouilli)


28 Estimation Ponctuelle-Estimation par intervalle

X „ Bpθq , f px, θq “ θx p1 ´ θq1´x .


La fonction de vraisemblance est donnée par :
řn řn
xi xi q
Lpx1 , . . . , xn , θq “ θ i“1 p1 ´ θqpn´ i“1 .

On cherche un extremum de ln Lpx1 , . . . , xn , θq. On a


n n
B 1ÿ 1 ÿ
ln Lpx1 , . . . , xn q “ xi ´ pn ´ xi q “ 0
Bθ θ i“1 1´θ i“1
n
1ÿ
ô θ“ xi .
n i“1
1
řn
Un estimateur de vraisemblance est donc donné par T “ n i“1 Xi .

Exemple 21 (Estimation du paramètre θ de la loi exponentielle)

X „ Exppθq, f px, θq “ θe´θx ; x ą 0, θ ą 0.

La fonction de vraisemblance est donnée par


řn
Lpx1 , x2 , .., xn ; θq “ θn e´θ i“1 xi
.

La fonction de ln-vraisemblance est donnée par


” ı n
ÿ
ln Lpx1 , .., xn ; θq “ n lnpθq ´ θ xi .
i“1

On cherche un maximum de la fonction de ln vraisemblance.


" B n
řθ

ln L “ θ
´ i“1 ,
B2 n
Bθ2
ln L “ ´ θ2 , satisfaite.
1
Un estimateur de vraisemblance de θ est donné par T “ Xn
.

Exercice 6 I Soit X une variable aléatoire de fonction de répartition :


$
& 0, si x Ps ´ 8, θs ;
3
Fθ pxq “ p xθ q 2 , si x Ps0, θs ;
1,
%
si x P rθ, `8r.
?
1. Vérifier que fθ pxq “ 32 θ´3{2 x si x Ps0, θs et 0 sinon.
2. Calculer EpXq et V arpXq.
n
ÿ
1
II Soit X1 , . . . , Xn un n-échantillon de même loi que X. On note Xn “ n
Xi .
i“1

1. Préciser EpX n q et V arpX n q.


4.5. Estimation par intervalle de confiance 29

2. En déduire un estimateur Tn sans biais de θ dont on précisera son risque qua-


dratique.
3. Montrer que θpn “ maxpX1 , . . . , Xn q est l’estimateur du maximum de vraisem-
blance de θ.
4. Donner une densité de θpn .
5. Calculer Epθpn q et V arpθpn q. En déduire un estimateur Tn1 sans biais de θ.
4
6. Montrer que V arpTn1 q “ 3np3n`4q θ2 . Quel estimateur choisissez-vous entre Tn
et Tn1 ? Justifier votre réponse.

4.5 Estimation par intervalle de confiance


Définition 46 (Intervalle de confiance) Un intervalle de confiance pour un paramètre θ,
de niveau de confiance 1 ´ α est un intervalle rT1 , T2 s qui a la probabilité 1 ´ α de contenir
la vraie valeur du paramètre θ.

PpT1 ď θ ď T2 q “ 1 ´ α.

α est appelé le seuil ou le risque de l’intervalle de confaince, c’et la probabilité de se


tromper.

Définition 47 (fonction pivotale) Soit pX1 , X2 , .., Xn q un échatillon de la variable aléa-


toire X dont sa loi de probabilité dépend d’un paramètre θ in connu. La fonction pivotale
est une variable aléatoire Zpx1 , .., xn , θq dont la loi de probabilité est indépendante du
paramètre à estimer.

Exemple 22 Soit X „ N pθ, σ 2 q. Un estimateur du paramètre θ est T “ X n .


2
On a X n „ N pθ, σn q. La fonction Zpx1 , .., xn , θq “ T σ´θ „ N p0, 1q est un fonction pivotale
(sa loi est indépendante du paramètre θ).

Les étapes de la méthode d’estimation par intervalle de confiance :


1. Choisir un estimateur ponctuel T pour le paramètre θ.
2. Déterminer la fonction pivotale Zpx1 , x2 , .., θq.
3. Chercher deux réels z1 et z2 ; Ppz1 ď Zpx1 , x2 , .., θq ď z2 q “ 1 ´ α, avec

PpZ ď z1 q “ α1 , PpZ ď z2 q “ 1 ´ α2 , et α1 ` α2 “ α.

4. Après la détermination de z1 et z2 , l’intervalle de confaince est solution de l’inégalité


z1 ď Zpx1 , x2 , .., xn , θq ď z2 par rapport à θ.
5. Il en résulte un intervalle de la forme

ICpθq ď θ ď ICpθq,

dont les bornes sont deux variables aléatoires.


30 Estimation Ponctuelle-Estimation par intervalle

Remarque: La détermination de z1 et z2 se fait à l’aide de la table de la loi en question.

Exemple 23 Soit X „ N pθ, 4q, On cherche à donner un intervalle de confiance avec un


niveau de confiance 95%

1. Un estimateur ponctuel de θ´ est ¯T “ X n , alors T „ N pθ, n4 q donc une fonction


?
pivotale est donnée par Z “ T ´θ
2
n „ N p0, 1q.
2. On cherche z1 et z2 ; Ppz1 ď Z ď z2 q “ 0.95. Comme la loi normale est symétrique
alors z2 “ ´z1 “ z. Il en résulte que

Ppz1 ď Z ď z2 q “ Pp´z ď Z ď zq “ 2PpZ ď zq ´ 1,

D’après la table de la loi normale on a z “ 1.96.


3. On a
´1.96 ď Z ď 1.96,
ce qui donne
1.96 ˚ 2 1.96 ˚ 2
T´ ? ďθďT` ? .
n n