Vous êtes sur la page 1sur 54

Support du cours de Probabilites et Statistiques

IUT dOrleans, Departement informatique


Pierre Andreoletti

IUT dOrleans, Departement Informatique


Laboratoire MAPMO (Bat. de Mathematiques UFR Sciences)
email: pierre.andreoletti@univ-orleans.fr

Premi`
ere partie
Probabilit
es

Introduction
La theorie des probabilites a pour objectif de modeliser des experiences o`
u plusieurs issues
sont possibles, mais o`
u leur realisation nest pas determinee `a lavance (par exemple un lance
de des), ceci en vue devaluer les risques ou de mettre sur pieds des strategies pour faire face
aux aleas. La theorie des probabilites ne va pas permettre de predire quelle issue va se realiser,
mais quelle chance a chaque issue de se realiser.
La theorie des probabilites et par extension les statistiques a des applications dans de
nombreux domaines :
1. La biologie et la m
edecine : reperage de sequences ADN, tests de medicaments,
evaluation du risque de propagation de virus ...
2. La finance (Les banques) : evaluation de produits financiers (options ...), matrise des
risques lies `a des investissements ...
3. Industries : aeronautique, automobile, chimie ...
4. Economie : prevision de croissance, sondages, controle de gestion ...
5. Les jeux : Loto, Casinos ...
Tous ces champs dapplications sont en lien etroit avec linformatique : developpement et utilisation de logiciels de simulations et de logiciels de traitements statistiques, bases de donnees
...

Figure 1 Courbes de fluctuations de deux indices boursiers - Aleatoires ?

Table des mati`


eres
I

Probabilit
es

Introduction

1 Ev`
enements Probabilit
e et Variables al
eatoires
1.1 Lespace des issues, lensemble des ev`enements . . . . . . . . . . . . . . . . . . .
1.2 Definition et Proprietes dune probabilite . . . . . . . . . . . . . . . . . . . . . .
1.3 Variables Aleatoires Discr`etes . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5
5
6
7

2 Ind
ependance et probabilit
es conditionnelles
11
2.1 Independance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2 Probabilites conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3 Variables Al
eatoires Discr`
etes - Moyenne - Variance
3.1 Esperance (Moyenne) dune variable aleatoire discr`ete .
3.2 La Variance et la Covariance . . . . . . . . . . . . . . .
3.3 Lois classiques . . . . . . . . . . . . . . . . . . . . . . .
3.4 Fonction generatrice . . . . . . . . . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

17
17
19
21
23

4 Variables Al
eatoires Continues
25
4.1 Definition dune variable aleatoire absolument continue . . . . . . . . . . . . . . 25
4.2 Esperance et variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.3 Variables aleatoires continues usuelles . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Th
eor`
emes limites
33
5.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2 Theor`eme de la limite centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

II

Statistiques

37

6 Introduction et lois usuelles


39
2
6.1 Loi du Chi-deux `a n degres de liberte (n ) . . . . . . . . . . . . . . . . . . . . . 40
6.2 Loi de Student `a n degres de liberte (stn ) . . . . . . . . . . . . . . . . . . . . . . 40
3

7 Estimateurs, vraisemblance
7.1 Definition dun estimateur et ses proprietes . . .
7.2 Estimateur des param`etres dune loi normale, X
7.3 Estimateur dune proportion, X B(p) . . . .
7.4 Estimateur du maximum de vraisemblance . . .

. . . . . .
N(, )
. . . . . .
. . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

43
43
43
45
45

8 Intervalles de confiance
47
8.1 Intervalle de confiance pour les param`etres dune loi normale N(, ) . . . . . . 47
8.2 Intervalle de confiance pour le param`etre dune loi de Bernoulli B(p) . . . . . . 50

Chapitre 1
Ev`
enements Probabilit
e et Variables
al
eatoires
Dans un premier temps, on va associer `a chaque issue possible un nombre entre 0 et 1 qui
traduit notre estimation des chances que cette issue a de se realiser : on appelle ce nombre
la probabilite de cette issue. On appelle ev`enement un ensemble dissues. La probabilite
quon associe a` un ev`enement est la somme des probabilites de chaque issue de cet ensemble.
Typiquement, la question est de determiner la probabilite dun ev`enement, et la difficulte est
dune part de decrire lexperience de facon commode afin denumerer toutes les issues possibles
et leur probabilite respective, et dautre part de decomposer lev`enement considere en issues.

1.1

Lespace des issues, lensemble des


ev`
enements

Avant de calculer les probabilites dev`enements, il faut definir lespace des issues de facon
commode et compl`ete. Cet espace comprendra toutes les issues possibles du jeu, ou
de lexp
erience al
eatoire que lon consid`
ere, meme eventuellement celles qui ne nous
interessent pas, a priori. Dans chaque situation, lespace des issues sera not
e (grand
omega), alors que les issues seront not
ees (petit omega).
Exemple 1.1.1. On consid`ere un de `a 6 faces, numerotees de 1 `a 6. On suppose que le de
est equilibre, ce qui veut dire que les 6 faces ont la meme chance de sortir. Lensemble des
issues possibles dun lancer est = {1, 2, 3, 4, 5, 6}. Une issue possible est {3} cest `a dire la
face 3 sort. Un evenement est par exemple On obtient un nombre pair que lon peut ecrire
{2, 4, 6}.
Exemple 1.1.2. On consid`ere le meme de, sauf que sur la sixi`eme face, le nombre 6 a ete
remplace par 5. Il y a donc deux faces o`
u 5 est inscrit. Lensemble des issues est ici =
{1, 2, 3, 4, 5}. Levenement on obtient un nombre pair secrit {2, 4}.
On consid`ere des experiences avec un nombre fini ou denombrable dissues. On note cet
ensemble dissues et F lensemble des
ev
enements. F est lensemble des parties de .
5

Exemple 1.1.3. Si = {1, 2, 3}, alors


F = {, {1}, {2}, {3}, {1, 2}, {2, 3}, {1, 3}, {1, 2, 3}}
, o`
u est lensemble vide.
Exemple 1.1.4. Considerons lexemple 1.1.1, un evenement est par exemple : {On obtient un
nombre pair}, que lon peut aussi ecrire de la facon suivante {2, 4, 6}. Pouvez-vous determiner
F?
En theorie des probabilites on a souvent besoin de ramener le calcul de la probabilite
dun ev`enement au calcul de la probabilite de lunion ou de lintersection devenements plus
elementaires, on introduit donc les notations suivantes : Si A et B sont deux sous-ensembles de
, on note
A B = {; A ou B} : A ou B se r
ealise
A B = {; A et B} : A et B se r
ealisent
A r B = {; A et
/ B} : A se r
ealise mais pas B
A = r A l
ev`
enement A ne se r
ealise pas .
Deux ev`enements A et B de F sont disjoints sils nont aucune issue en commun, cest a`
dire que A B = . Par exemple, A et A sont disjoints, ainsi que et A.
Exemple 1.1.5. Prenons lexemple 1.1.1, soit A = {2, 4, 6}, B = {5, 6}, C = {3}, on a :
1. A B = {2, 4, 5, 6}
2. A B = {6}
3. A C =
4. A = {1, 3, 5}, A correspond `a lev`enement on obtient un nombre impair.

5. A r B = {2, 4} on remarque que A \ B = A B.


Effectuer une analyse similaire pour lexemple 1.1.2.
Remarque 1.1.6. Lorsque lon ecrit lev`enement A on obtient un nombre pair sous la forme
{2, 4, 6} il est sous-entendu que les , sont des ou, on peut egalement ecrire A = {2} {4}
{6} .

1.2

D
efinition et Propri
et
es dune probabilit
e

On commence par definir ce quest une probabilite :


Definition 1.2.1. Une probabilite P sur est une fonction de F dans lintervalle [0, 1] telle
que
1. P () = 1,
2. Si (Ai )iI est une famille finie ou denombrable devenements deux a` deux disjoints (i.e.
Ai Aj = si i 6= j), alors
X
P (iI Ai ) =
P (Ai )
(1.1)
iI

De cette definition, decoulent les propri


et
es fondamentales suivantes :
Proposition 1.2.2.

1. P () = 0.

= 1.
2. Pour tout evenement A, P (A) + P (A)
3. Pour tous evenements quelconques A et B,
P (A B) = P (A) + P (B) P (A B).
4. Si A et B sont deux evenements tels que A B alors P (A) P (B).
Exemple 1.2.3. Reprenons lexemple 1.1.1, etant donne que le de est equilibre on pense pour
ce cas `a une probabilite comme `a une fonction p sur , telle que p(1) + ... + p(6) = 1 et on
associe `a chaque issue la probabilite 1/6. En utilisant le second point de la definition dune
probabilite on calcule facilement la probabilite de lev`enement A =on obtient un nombre pair.
En effet A = {2} {4} {6}, les 3 issues qui composent A
etant 2 a
` 2 disjointes 1 ,
P (A) = P (2) + P (4) + P (6) = 1/6 + 1/6 + 1/6 = 1/2. Si on veut maintenant calculer la
probabilite de lev`enement obtenir un nombre impair, on peut utiliser le petit 4. de lexemple
1.1.5 et la propriete 2. de la Proposition 1.2.2
Pour lexemple 1.1.2, comme le de est equilibre, les faces 1, 2, 3 et 4 ont chacune la probabilite 1/6 de sortir, alors que P (5) = 2/6. Quelle est la probabilite quun nombre pair sorte ?
Lexemple suivant a pour but de manipuler la propriete 3. de la Proposition 1.2.2
Exemple 1.2.4. Toujours sur lexemple 1.1.1, soit A = {2, 4, 6}, B = {5, 6}, C = {3},
calculons de deux facon differentes :
1. On se rappelle du 1. de lexemple 1.1.5 et on a donc P (A B) = P ({2, 4, 5, 6}) et comme
chacun des ev`enements {2}, {4}, {5} et {6} sont deux `a deux disjoints P (A B) = P (2) +
P (4) + P (5) + P (6) = 4/6 = 2/3.
2. On utilise la propriete 3. de la Proposition 1.2.2. On a vu dans lexemple precedent que
P (A) = 1/2, il est facile de voir que P (B) = 1/6 + 1/6 = 1/3 et que dapres le petit 2. de
lExemple 1.1.5, A B = {6} et donc que P (A B) = 1/6. Ainsi on obtient P (A B) =
P (A) + P (B) P (A B) = 1/2 + 1/3 1/6 = 2/3.

1.3
1.3.1

Variables Al
eatoires Discr`
etes
D
efinition et Notations

Definition 1.3.1. Une fonction sur a` valeurs reelles est appelee variable aleatoire.
Notation Les variables aleatoires seront notees par des lettres majuscules, X, Y, .... Les valeurs
quelles prennent lorsquune issue se realise sont notees par des lettres minuscules. Par exemple
on pourra ecrire x `a la place de X().
1. en effet on ne peut obtenir quun unique chiffre lors dun lance !

Exemple 1.3.2. Donnons un premier exemple elementaire de variable aleatoire. Une variable
de Bernoulli de param`etre p [0, 1] est une variable aleatoire qui prend soit la valeur 0 avec
une probabilite 1 p soit la valeur 1 avec une probabilite p, on lutilise souvent pour decrire une
experience aleatoire ayant 2 issues possibles. Un autre exemple, que lon reprendra en detail en
TD, on consid`ere le jete de deux des simultanement. On peut definir une variable aleatoire qui
est egale `a la somme des deux des.

1.3.2

Loi dune variable al


eatoire

Definition 1.3.3. Soit P une probabilite sur un espace des issues . Soit X une variable
aleatoire definie sur . Lorsqu`a chaque valeur xi (1 i n) de X on associe les probabilites pi
de levenement X = xi , on dit que lon definit la loi de probabilite PX de la variable aleatoire
X.
Remarque 1.3.4. Pour connatre la loi dune variable al
eatoire, il faut connatre
lensemble de ses valeurs possibles et la probabilit
e avec laquelle elle r
ealise chaque
valeur.
Exemple 1.3.5. Une variable de Bernoulli X de param`etre p a pour loi :
Valeur de X xi
pi P (X = xi )

0
1
1-p p

o`
u p est compris entre 0 et 1. Ce tableau se lit de la facon suivante : p0 P (X = 0) = 1 p et
p1 P (X = 1) = p. Par convention on notera X B(p) lorsque X suit une loi de Bernoulli.
On remarque que si p = 1 alors X est constante egale `a 0.
Prenons maintenant un exemple un peu plus complique,
Exemple 1.3.6. on consid`ere 2 jetes successifs dune pi`ece de monnaie equilibree. On definit
une variable aleatoire X qui compte le nombre de face que lon a obtenu. Sur deux lances de
pi`eces X peut prendre soit la valeur 0 qui correspond `a lev`enement la pi`ece nest jamais tombe
sur face, soit la valeur 1 qui correspond au cas o`
u la pi`ece est tombe une fois sur face soit
la valeur 2 si on obtient deux fois face. Etant donne que la pi`ece est equilibree on obtient pour
X la loi suivante :
xi
0
1
2
P (X = xi ) 1/4 1/2 1/4
On remarque bien entendu que P (X = 0) + P (X = 1) + P (X = 2) p0 + p1 + p2 = 1.

Remarque 1.3.7. Bien que tr`es elementaire ce dernier exemple sous entend lindependance
des deux lances. La notion dind
ependance qui est intuitive ici sera explicite dans le chapitre
suivant. On pourrait par exemple supposer que lon lance une seconde fois la pi`ece que si on a
obtenu face au premier coup, les deux lances ne sont alors plus independants et la loi de X est
donnee par :
xi
0
1
2
P (X = xi ) 1/2 1/4 1/4
8

1.3.3

Fonction de r
epartition

Proposition 1.3.8. La loi dune variable aleatoire X est caracterisee par sa fonction de
repartition FX definie par :
FX :

R [0, 1]
x 7 P (X x)

Remarque 1.3.9. FX est par definition une fonction en escalier, qui est constante entre deux
valeurs successives prises par la variable aleatoire X et qui fait un saut en chacune de ses
valeurs. On retrouve donc sur le graphe de FX dune part les valeurs prises par X ainsi que les
probabilites dobtenir les valeurs.
Il est
equivalent de connatre la loi de X ou sa fonction de r
epartition.
Exemple 1.3.10. Reprenons lexemple 1.3.6, la fonction de repartition de X est donnee par
le graphe suivant :
FX (x)

1
P(X=2)

3/4
P(X=1)

1/4
P(X=0)

Figure 1.1 Fonction de repartition pour lExemple 1.4.6

1.3.4

Fonction indicatrice

On definit dans ce paragraphe la fonction indicatrice, et on donne quelques proprietes.


Definition 1.3.11. La fonction indicatrice notee 11A dun evenement A , est la variable
aleatoire donnee par
11A :

{0, 1}

1 si A
w 7
0 si
/A

Proposition 1.3.12. Pour tout A et B , on a :


9

1. 11AB = 11A 11B ,

2. Si A B = alors 11AB = 11A + 11B ,


3. 11A = 1 11A .

Remarque 1.3.13. La fonction indicatrice 11A est une variable aleatoire de Bernoulli de param`etre p = P (A).

10

Chapitre 2
Ind
ependance et probabilit
es
conditionnelles
2.1
2.1.1

Ind
ependance
Cas de deux
ev`
enements ou deux variables al
eatoires

On commence par donner la definition de deux evenements independants :


Definition 2.1.1. Deux evenements A et B sont independants si et seulement si
P (A B) = P (A)P (B).

(2.1)

Exemple 2.1.2. On sinteresse `a deux lances dun de. On suppose que ces deux lances sont
independants, cest `a dire que le resultat du lance du premier de na aucune influence sur le
lance du second de. Ainsi les evenements A = {On obtient 2 au premier lance} et par exemple
B = {On obtient 5 au second lances} sont independants. En terme de probabilite cela se traduit
par :
P (A B) = P (A)P (B) = (1 \ 6) (1 \ 6).

(2.2)

On definit maintenant lindependance pour deux variables aleatoires :


Definition 2.1.3. Deux variables aleatoires X : {x1 , , xM , } et Y : {y1 , , xN , }
sont independantes si pour tous i et j,
P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ).

(2.3)

Exemple 2.1.4. On sinteresse `a deux variables aleatoires de Bernoulli : X1 de param`etre p


et X2 de param`etre q. On suppose que X1 et X2 sont independantes. Le couple (X1 , X2 ) peut
prendre les valeurs (0, 0) ; (0, 1), (1, 0) et (1, 1). Par independance on a
P ((0, 0)) P (X1 = 0, X2 = 0) = P (X1 = 0)P (X2 = 0) = (1 p) (1 q).
11

(2.4)

Maintenant definissons la variable aleatoire Y = X1 +X2 , on peut calculer la probabilite P (Y =


0) de la facon suivante : On remarque que levenement {Y = 0} = {X1 = 0, X2 = 0} on en
deduit donc, dapr`es ce qui prec`ede que P (Y = 0) = (1 p) (1 q). Pouvez vous calculer
P (Y = 1) et P (Y = 2) ?
Remarque 2.1.5. Dans lexemple precedent si on suppose de plus que q = p, la variable Y
est connue sous le nom de variable Binomiale de param`
etres p et 2 correspondant au fait
que lon a somme 2 variables de Bernoulli de meme param`etre p independantes pour obtenir
Y . Nous reviendrons sur les variables Binomiales dans le chapitre suivant.

2.1.2

Cas dun nombre fini d


ev`
enements ou variables al
eatoires

On generalise la notion dindependance `a un nombre fini dev`enements et de variables


aleatoires :
Definition 2.1.6. Les evenements {A1 , A2 , , An } sont independants si et seulement si pour
tout ensemble dindices I {1, , n}
!
\
Y
P
Ai =
P (Ai ),
(2.5)
iI

on rappelle que si I = {i1 , , ik },

jI

iI

P (Aj ) P (Ai1 ) P (Ai2 ) P (Aik ).

Exemple 2.1.7. Si on a un ensemble de 3 ev`enements A1 , A2 et A3 , ils sont independants si


et seulement si :
P (A1 A2 A3 ) = P (A1 )P (A2)P (A3 ),
P (A1 A2 ) = P (A1 )P (A2 ),
P (A1 A3 ) = P (A1 )P (A3 ),
P (A2 A3 ) = P (A2 )P (A3 ).

(2.6)
(2.7)
(2.8)
(2.9)

Si on lance 3 fois successivement et independamment une pi`ece de monnaie et que lon souhaite
calculer la probabilite de levenement {P, F, P } {on obtient Pile au premier lance,Face au
second et Pile au dernier} , par independance on a :
P ({P, F, P }) = P (P )P (F )P (P ) = 1/8.

(2.10)

Quelle est la probabilite que lon obtienne 2 fois Pile ?


Independance pour une suite de variables aleatoires :
Definition 2.1.8. Les variables aleatoires {X1 , X2 , , Xn } sont independantes si pour tout
ensemble dindices I {1, , n} et tous reels xi appartenant aux valeurs possibles de Xi ,
(i I) :
!
\
Y
P
{Xi = xi } =
P (Xi = xi ).
(2.11)
iI

iI

12

Exemple 2.1.9. Supposons que pour tout 1 i 8, Xi suit une loi de Bernoulli de param`etre
p et supposons que la suite {X1 , X2 , , X8 } soit independante, soit I = {1, 3, 6, 8} on a
!
\
P
{Xi = 1}
P (X1 = 1, X3 = 1, X6 = 1, X8 = 1)
iI

= P (X1 = 1) P (X3 = 1) P (X6 = 1) P (X8 = 1) = p4 . (2.12)

Soit I = {1, 3} et J = {5, 6} on a


!
\
\
P
{Xi = 1} {Xj = 0}
P (X1 = 1, X3 = 1, X5 = 0, X6 = 0)
iI

jI

= P (X1 = 1) P (X3 = 1) P (X5 = 0) P (X6 = 0)


= p2 (1 p)2 .
(2.13)

On termine ce paragraphe par le resultat suivant :


Proposition 2.1.10. Soient X et Y deux variables aleatoires independantes. Si f et g : R R
sont deux fonctions quelconques, alors f (X) et f (Y ) sont independantes.

2.2
2.2.1

Probabilit
es conditionnelles
D
efinitions et propri
et
es

On commence par une definition


Definition 2.2.1. Soient A et B deux evenements avec P (B) > 0. La probabilite conditionnelle
de A sachant B est donnee par
P (A|B) =

P (A B)
.
P (B)

On dit que P (A|B) est la probabilite de A sachant B.


Exemple 2.2.2. On reprend ici lexemple de la Remarque 1.3.7. On effectue 2 lances dune
pi`ece de monnaie mais avec la r`egle suivante : on ne relance la pi`ece que si lon a obtenu face
au premier lance. Il est intuitif que si lon obtient face au premier lance alors on obtient face
au second avec une probabilite 1/2. Notons A = {On obtient Face au second lance} et B = {On
= P (AB) =1/4
obtient face au premier lance}. On remarque que P (A) = P (AB)+P (A B)
de plus P (B) = 1/2 do`
u
P (A|B) =

P (A B)
= 1/2.
P (B)

On donne maintenant le resultat suivant que lon verifie ensuite sur un exemple simple :
13

(2.14)

Proposition 2.2.3. Soient A et B deux evenements independants et tel que P (B) > 0, alors
P (A|B) = P (A)

(2.15)

Exemple 2.2.4. On utilise les memes notations que pour lexemple precedent. Si on sinteresse
a deux lances independants dune pi`ece de monnaie, independant signifiant que quel que soit le
`
resultat du premier lance on lance une seconde fois la pi`ece, on a donc P (A) = P (B) = 1/2 de
plus P (A B) = 1/4, ainsi
P (A|B) =

P (A B)
= 1/2.
P (B)

(2.16)

On a donc bien P (B|A) = P (B).

2.2.2

Probabilit
e totale et Th
eor`
eme de Bayes

Comme nous lavons dej`a mentionne au debut de ce cours il est parfois utile de decomposer
un evenement en sous ensemble dev`enements elementaires afin den calculer la probabilite avec
plus de facilite. La proposition suivante va dans ce sens.
On commence par donner la definition dune partition de
Definition 2.2.5. P
On appellera partition de toute suite (Ai , i I) verifiant Ai Aj =
pour tout i 6= j et iI P (Ai ) = 1.

Proposition 2.2.6. Formule des probabilit


es totales . Soit (Ai , i I) une partition finie
ou denombrable de , telle que pour tout i, P (Ai ) > 0. Pour tout evenement B ,
X
P (B) =
P (B|Ai )P (Ai ).
(2.17)
iI

Exemple 2.2.7. Supposons quon dispose de deux urnes contenant des boules blanches et
noires. La premi`ere urne contient 100 boules, dont 99 blanches. La deuxi`eme urne contient
100 boules, dont 10 blanches. Un jeu consiste `a choisir une urne au hasard et `a tirer une boule
dans cette urne. Notons B levenement On a tire une boule blanche, on va donner une partition de cet ev`enement. Soient A1 = {On a tire dans la premi`ere urne} et A2 = {On a tire
dans la deuxi`eme urne}, on a = A1 A2 de plus A1 A2 = , on peut donc ecrire que
B = B A1 B A2 , et ainsi
P (B) = P (B A1 ) + P (B A2 )
= P (B|A1 )P (A1 ) + P (B|A2)P (A2 ).
Il est facile de voir que P (A1 ) = 1/2 et P (A2) = 1/2, de plus P (B|A1) = 99/100 et P (B|A2 ) =
1/10. On en deduit donc que P (B) = 109/200.
Proposition 2.2.8. Formule de Bayes. Soit (Ai , i I) une partition finie ou denombrable
de , et soit B tel que P (B) > 0. Pour tout i, on a
P (Ai )P (B|Ai )
.
jI P (B|Aj )P (Aj )

P (Ai |B) = P

14

(2.18)

Exemple 2.2.9. On reprend lexercice precedent, et lon cherche `a calculer P (A1 |B), par la
formule de Bayes on a :
P (A1 |B) =

P (A1 ) P (B|A1 )
P (B|A1)P (A1 ) + P (B|A2 )P (A2 )

Dapr`es lexemple precedent P (B) = 109/200 et P (B|A1 ) = 99/100, on en deduit P (A1 |B) =
99/109.

15

16

Chapitre 3
Variables Al
eatoires Discr`
etes Moyenne - Variance
Dans ce chapitre on va introduire de nouvelles notions pour les variables aleatoires. Ces
nouvelles notions sappuient sur les definitions et exemples du paragraphe 1.3.

3.1

Esp
erance (Moyenne) dune variable al
eatoire discr`
ete

La moyenne ou esperance est une valeur qui sert `a avoir une idee de la valeur typique dune
variable aleatoire. Elle nest en generale pas suffisante pour comprendre comment se comporte
cette variable aleatoire mais donne une premi`ere indication. Son avantage est quelle est tr`es
facile `a calculer dans la majorite des cas.

3.1.1

D
efinition et premiers exemples

Commencons par donner une definition :


Definition 3.1.1. Soit un espace fini ou denombrable, P une probabilite sur , et X une
variable aleatoire. On appelle esp
erance de X (ou moyenne de X) la quantite
X
E(X) =
X()P ().
(3.1)

Remarque 3.1.2. X admet une moyenne que si

X()P () existe.

Commencons par un premier exemple general tr`es utile dans la pratique,


Exemple 3.1.3. Considerons la variable X ayant pour loi :
Valeurs X x1
P (X = xi ) p1
alors E(X) =

Pn

i=1

x2
p2

pi xi p1 x1 + p2 x2 + + pn xn .
17

xn
pn

Voyons maintenant un exemple pratique


Exemple 3.1.4. Considerons le jeu suivant, on lance un de et on definit la variable aleatoire
X qui prend la valeur de la face du de, la loi de X est
Valeurs de X
Probabilites P (X = xi )

1
2
3
4
5
6
1/6 1/6 1/6 1/6 1/6 1/6

par lexemple precedent on en deduit E(X) = 11/6+21/6+31/6+41/6+51/6+6+1/6 = 3.


Remarque 3.1.5. Dans lexemple precedent on remarque que la probabilit
e dobtenir une
valeur (entre 1 et 6) est toujours la m
eme egale `a 1/6. On dit que X suit une loi
uniforme.
Deux exemples fondamentaux :
Exemple 3.1.6. Moyenne dune variable de Bernoulli. Soit X une variable de Bernoulli
de param`etre p, par definition dune variable de Bernoulli (Exemple 1.4.5), on a
E(X) = 1 P (X = 1) + 0 P (X = 0) = p.
Ainsi lesp
erance dune variable de Bernoulli de param`
etre p est
egale a
` p.
Exemple 3.1.7. Moyenne dune fonction indicatrice. Soit A un sous ensemble de , on
cherche `a calculer E(11A ), on a dapr`es la definition :
X
E(11A ) =
11()P ()

11()P () +

11()P ()

= P (A).
= 1 P (A) + 0 P (A)
Ainsi lesp
erance de 11A est
egale a
` P (A).

3.1.2

Propri
et
es de lesp
erance (moyenne)

On enonce maintenant les proprietes elementaires de lesperance, dans toute la suite X et Y


sont deux variables aleatoires.
Proposition 3.1.8. Linearite de lesperance. Soit a R, alors
1. E(aX)=aE(X),

2. E(X+Y)=E(X)+E(Y).
Dautres proprietes elementaires que lon utilise frequemment sont
Proposition 3.1.9. Soit a R, alors
18

1. E(a)=a,
2. X 0 E(X) 0,

3. X Y E(X) E(Y ).

Exemple 3.1.10. Soient X et Y deux variables de Bernoulli de param`etre respectif p et q.


Pour calculer E(X + Y ) il suffit de sommer E(X) et E(Y ), dans lexemple 3.1.5 on a vu que la
moyenne dune variable de Bernoulli est egale `a son param`etre, on en deduit E(X + Y ) = p + q.
Pour tout a R, on a egalement E(aX) = ap.
Pour terminer on enonce une propri
et
e de lesp
erance qui est vraie que si lon a ind
ependance
entre variables aleatoires :
Proposition 3.1.11. Si X et Y sont ind
ependantes, alors :
E(XY ) = E(X)E(Y ).

(3.2)

Exemple 3.1.12. Prenons deux variables de Bernoulli independantes X et Y de param`etre


respectif p et q, alors E(XY ) = p q. Supposons maintenant que Y = 11A ou A , alors on
a E(XY ) = E(X) E(Y ) = p P (A).

3.2

La Variance et la Covariance

Comme nous lavons dit precedemment la moyenne nest pas suffisante pour avoir une bonne
idee du comportement dune variable aleatoire. La variance mesure un ecart (quadratique)
moyen de la variable aleatoire par rapport `a cette moyenne. On dit quelle mesure une dispersion
de la variable par rapport `a sa moyenne.
On commence par definir le second moment dune variable aleatoire
Definition 3.2.1. Soit un espace fini ou denombrable, P une probabilite sur , et X une
variable aleatoire. On appelle second moment de X la quantite
X
E(X 2 ) =
X 2 ()P ().
(3.3)

Remarque 3.2.2. E(X 2 ) nexiste que si

X 2 ()P () existe.

Definition 3.2.3. La variance dune variable aleatoire X, telle que E(X 2 ) < , et notee
var(X) est le nombre positif suivant
var(X) = E((X E(X))2 )

(3.4)

Remarque 3.2.4. Dans la pratique on utilise la definition suivante qui est en fait une simple
consequence de la definition precedente :
var(X) = E(X 2 ) (E(X))2 .
19

(3.5)

Donnons un premier exemple general


Exemple 3.2.5. Reprenons la variable X de lExemple 3.1.2, par definition on a :
2

E(X ) =

n
X

x2i pi ,

i=1
n
X

V ar(X) =

i=1

x2i pi (

(3.6)
n
X

xi pi )2 .

(3.7)

i=1

Calculons la variance dune variable de Bernoulli de param`etre p, on a : E(X 2 ) = 12 p + 02


(1 p) = p ainsi var(X) = p p2 .
Donnons immediatement quelques proprietes de la variance
Proposition 3.2.6. Soit X une variable aleatoire et a R,
1. var(aX) = a2 var(X),
2. var(X + a) = var(X),
3. var(a) = 0,
4. var(X) = 0 ssi pour tout tel que P () > 0, X(w) = E(X).
Donnons maintenant une propriete de la variance pour deux variables aleatoires independantes.
Proposition 3.2.7. Soient X et Y deux variables al
eatoires ind
ependantes, on a
var(X + Y ) = var(X) + var(Y ).

(3.8)

On introduit maintenant une nouvelle valeur la covariance elle mesure la correlation entre
deux variables aleatoires.
Definition 3.2.8. Soient X et Y deux variables aleatoires, on a
Cov(X, Y ) = E((X E(X))(Y E(Y )).

(3.9)

Proposition 3.2.9. Soient X et Y deux variables aleatoires, on a


1. Cov(X,Y)=E(XY)-E(X)E(Y),
2. Si X et Y sont independantes alors Cov(X, Y ) = 0.
Exemple 3.2.10. Prenons X B(p), et Y = X, calculons Cov(X, Y ) on a :
E(XY ) = E(X 2 ) = p,

(3.10)

on sait de plus que E(X)E(Y ) = (E(X))2 = p2 , dapr`es la Proposition ci-dessus on en


deduit Cov(X, Y ) = p(1 p).
Supposons maintenant que X et Y sont 2 variables aleatoires quelconques independantes, dapr`es
la Proposition 3.1.10 E(XY ) = E(X)E(Y ) donc Cov(X, Y ) = 0.
Remarque 3.2.11. Il est facile de montrer que pour tout X et Y , V ar(X + Y ) = V ar(X) +
V ar(Y ) + 2Cov(X, Y ).
20

3.3
3.3.1

Lois classiques
Loi de Bernoulli B(p)

Nous avons dej`a beaucoup parle des variables de Bernoulli, cest une variable aleatoire tr`es
elementaire prenant deux valeurs differentes. Dans ce paragraphe nous resumons ses principales
proprietes.
Soit X B(p), la loi de X est donn
ee par P (X = 1) = p et P (X = 0) = 1 p.
Proposition 3.3.1.
E(X) = p,
V ar(X) = p(1 p).

3.3.2

Loi Binomiale B(n, p)

Definition 3.3.2. Soient (X1 , X2 , , Xn ) n N variables aleatoires independantes de Bernoulli,Pchacune de ces variables ayant pour param`etre p, la variable aleatoire Sn definie par
Sn = ni=1 Xi suit une loi binomiale de param`etres n et p, on note Sn B(n, p). De plus la
loi de Sn est donnee par : pour tout k {1, 2, , n}
P (Sn = k) = Cnk pk (1 p)nk
o`
u Cnk =

n!
.
(nk)!k!

(3.11)

On rappelle que k! (factoriel k) est egale `a k (k 1) (k 2) 2 1.


Loi d une Binomiale B(1/2,12)
0.25

0.2

P(X=k)

0.15

0.1

0.05

7
k

10

11

12

13

On donne maintenant la moyenne et la variance dune Binomiale de param`etres p et n


Proposition 3.3.3.
E(X) = n p,
V ar(X) = np(1 p).
21

(3.12)
(3.13)

Un exemple typique o`
u une variable binomiale apparat est le suivant :
Exemple 3.3.4. On effectue n lances dune pi`ece de monnaie equilibree, on definit Sn la
variable aleatoire qui va compter le nombre de fois ou la pi`ece tombe sur F ace. Pour comprendre
pourquoi Sn suit une loi binomiale on effectue la demarche suivante : on definit X1 la variable
aleatoire qui prend la valeur 1 si la pi`ece tombe sur face lors du premier lance et 0 sinon,
de meme on definit pour tout 2 i n la variable aleatoire Xi qui prend la valeur 1 si la
pi`ece tombe sur face lors du i`eme lanc
Pne. Il apparat clairement que chaque variable Xi suit une
loi de Bernoulli de param`etre 1/2. i=1 Xi compte le nombre de
Pface que lon a obtenu sur n
lances. Chaque lance etant independant les uns des autres Sn = ni=1 Xi suit une loi binomiale
de parametre 1/2 et n.

3.3.3

Loi de Poisson P ()

Commencons par une definition qui donne la loi dune variable de Poisson :
Definition 3.3.5. X suit une loi de Poisson de param`etre si et seulement si pour tout k N
on a :
P (X = k) = e
9

1.4

k
.
k!

(3.14)

Loi de Poisson P(1/2)

x 10

1.2

P(X=k)

0.8

0.6

0.4

0.2

7
k

10

11

12

13

Remarque 3.3.6. Cette variable aleatoire est differente de toutes celles qui ont ete introduites
jusqu`a maintenant car elle prend un nombre infini denombrable de valeurs. On peut verifier
que 3.14 est une mesure de probabilite en montrant que :
+
X
k=0

k
= 1.
k!

La preuve est elementaire, elle decoule de la definition de e .


22

(3.15)

On donne maintenant la moyenne et la variance de X,


Proposition 3.3.7. Si X P ()
E(X) = ,
V ar(X) = .

3.3.4

(3.16)
(3.17)

Loi G
eom
etrique G(p)

Definition 3.3.8. X suit une loi de geometrique de param`etre p si et seulement si pour tout
k N on a :
P (X = k) = (1 p)k1p.

(3.18)

Loi Geometrique G(0.2)


0.25

0.2

P(X=k)

0.15

0.1

0.05

7
k

10

11

12

13

De meme que la loi de Poisson une variable aleatoire qui suit une loi Geometrique prend un
nombre
denombrable de valeur avec une probabilite strictement positive. On verifie que
P+ infinik1
p = 1.
k=0 (1 p)
Proposition 3.3.9. Si X G(p)

1
E(X) = ,
p
1p
V ar(X) =
.
p2

3.4

(3.19)
(3.20)

Fonction g
en
eratrice

La notion de fonction generatrice, comme la fonction de repartition vue au paragraphe 1.4.3


est une facon de caracteriser la loi dun variable aleatoire. Cest `a dire quil est equivalent de
connatre une loi de probabilite ou sa fonction generatrice.
23

Definition 3.4.1. Soit X une variable aleatoire `a valeurs dans N. La fonction generatrice GX
de X est donnee par
X

GX (t) = E(t ) =

+
X

tk P (X = k).

(3.21)

k=0

Remarque 3.4.2. De facon generale, G est definie pour tout t [1, +1], GX (t) existe si et
seulement si la serie de terme generale tk P (X = k) est absolument convergente.
Proposition 3.4.3. La fonction generatrice dune variable aleatoire X `a valeurs dans N caracterise sa loi. Autrement dit, si X et Y sont deux variables `a valeurs dans N,
GX = GY k N, P (X = k) = P (Y = k).

(3.22)

Exemple 3.4.4. Soit X une variable de Bernoulli de param`etre p, on a :


GX (t) = t0 P (X = 0) + t1 P (X = 1) = (1 p) + pt.

(3.23)

On enonce maintenant un resultat pour une somme de variables independantes :


Proposition 3.4.5. Soient X et Y des variables aleatoires independantes, alors
GX+Y (t) = GX (t) GY (t).

(3.24)

Plus generalement,
Proposition 3.4.6. Soient X1 , X2 Xn des variables aleatoires independantes, alors
GPni=1 Xi (t) =

n
Y

GXi (t).

(3.25)

i=1

La fonction generatrice permet de retrouver facilement la moyenne et le second moment dune


variable aleatoire :
Proposition 3.4.7. Soit X une variable aleatoire, alors
GX (1) = E(X), GX (1) = E(X 2 ) E(X),
o`
u GX designe la derivee premi`ere de GX et GX sa derivee seconde.

24

(3.26)

Chapitre 4
Variables Al
eatoires Continues
Les variables aleatoires que nous avons etudiees jusqu`a maintenant prenaient un nombre fini
ou denombrable de valeurs. Il est tr`es souvent interessant, en particulier dans les applications
industrielles, de considerer des variables aleatoires `a valeurs continues dans un espace infini non
denombrable. Par exemple, en finance on modelise le prix dune action par une variable aleatoire
`a valeurs continues dans R+ . En physique on peu modeliser la trajectoire dune particule dans
un fluide par une variable aleatoire `a valeur dans R3 ... La definition dune variable aleatoire
continue fait appel `a des concepts abstraits avances que nous nintroduirons pas ici, nous nous
limiterons donc aux variables aleatoires absolument continues que nous pourrons definir a` partir
de leur densite.

4.1

D
efinition dune variable al
eatoire absolument continue

Definition 4.1.1. On dira quune fonction f est une densite de probabilite si elle est continue
(sauf eventuellement en un nombre denombrable de points), positive et si
Z
f (t)dt = 1
(4.1)
R

Definition 4.1.2. On appellera variable aleatoire continue X toute variable aleatoire a` valeurs
dans R, telle que pour tout x R
Z x
P (X x) =
f (t)dt
(4.2)

o`
u f est une densite de probabilite.
On dit que f est la densit
e de probabilit
e de X.
Proposition 4.1.3. Si X est de densite f ,
1. pour tout x R, P (X = x) = 0,
25

2. pour tous x, y R tels que x y, P (X [x, y]) =

Ry
x

f (t)dt.

Remarque 4.1.4. Dans la pratique pour v


erifier que f est une une densit
e de probabilit
e on v
erifie que :
1. f est continue (sauf eventuellement en un nombre denombrable de points) et positive,
R +
2. f (t)dt = 1.

Exemple 4.1.5.

f (x) =

1
0

si x [0, 1]
si 0
/ [0, 1]

Il est clair que cette fonction est positive et continue sauf en 0 et en 1 cest `a dire en un nombre
denombrable de points donc la condition 1. de la Remarque precedente est verifiee. La condition
2. est egalement verifiee sans difficulte. f est donc bien une densite de probabilite. Si on cherche
a calculer la probabilite que X soit comprise entre 1/6 et 1/3, cest `a dire P (X [1/6, 1/3])
`
P (1/6 X 1/3) on doit effectuer le calcul suivant
P (X [1/6, 1/3]) =

4.2

1/3

f (t)dt =

1/6

1/3

dt = 1/6.

(4.3)

1/6

Esp
erance et variance

Dans ce paragraphe on rappelle des notions que lon a dej`a vues pour des variables aleatoires
discr`etes.
Definition 4.2.1. Soit X une variable de densite f .
1. Lesperance ou moyenne est donnee par :
Z
E(X) =

tf (t)dt,

(4.4)

t2 f (t)dt,

(4.5)

2. Le moment dordre 2 est donne par :


2

E(X ) =

3. La variance est donne par :


V ar(X) = E(X 2 ) (E(X))2 .

(4.6)

Remarque 4.2.2. Bien entendu ces definitions sont soumises `a la condition dexistence des
integrales.
26

Exemple 4.2.3. Reprenons lExemple 4.1.4, on a :


Z
Z 1
E(X) =
tf (t)dt =
tdt = [t2 /2]10 = 1/2,
R
0
Z 1
E(X 2 ) =
t2 dt = [t3 /3]10 = 1/3.

(4.7)
(4.8)

(4.9)

Rappelons maintenant les principales proprietes de lesperance et de la variance.


Proposition 4.2.4. Soient X et Y deux variables aleatoires continues et soit a R, alors
1. E(aX) = aE(X),

2. E(X + Y ) = E(X) + E(Y ),


3. Si X et Y sont ind
ependantes alors E(XY ) = E(X)E(Y ),
4. Si X et Y sont ind
ependantes alors V ar(X + Y ) = V ar(X) + V ar(Y )

4.3

Variables al
eatoires continues usuelles

Comme pour les variables aleatoires discr`etes nous allons maintenant definir un certain
nombre de variables aleatoires continues usuelles, en tracer la densite et en donner lesperance
et la variance.

4.3.1

La loi uniforme

La loi uniforme a dej`a ete introduite dans nos differents exemples, on en donne ici une
definition un peu plus generale :
Definition 4.3.1. X suit une loi uniforme si et seulement si il existe a et b deux reels tels que
a < b, et
 1
si x [a, b]
ba
f (x) =
0
si x
/ [a, b]
Le cas a = 0 et b = 1 est celui que lon a traite dans lExemple 4.14.
Proposition 4.3.2.
b+a
,
2
b2 + ab + a2
,
E(X 2 ) =
3
(b a)2
.
V ar(X) =
12
E(X) =

27

f (x)

1
2

Figure 4.1 Densite dune loi uniforme, a = 1 et b = 1

4.3.2

La loi de Cauchy

Definition 4.3.3. X suit une loi de Cauchy si et seulement si pour tout x R sa densite f
est donnee par
f (x) =

1
(1 + x2 )

Densite d une loi de Cauchy


0.35

0.3

0.25

f(x)

0.2

0.15

0.1

0.05

0
6

0
x

Remarque 4.3.4. La fonction x 7 x/(1 + x2 ) netant pas integrable sur R, X na pas


desperance.
28

4.3.3

La loi Normale

Definition 4.3.5. X suit une loi Normale reduite centree (X N(0, 1)) si et seulement si
pour tout x R sa densite f est donnee par
1
x2
f (x) = e 2
2

Densite d une loi normale reduite centree


0.4

0.35

0.3

f(x)

0.25

0.2

0.15

0.1

0.05

0
6

0
x

Proposition 4.3.6. Soit X une v.a. suivant une loi normale reduite centree :
E(X) = 0,
E(X 2 ) = 1,
V ar(X) = 1.
On definit maintenant une loi normale de moyenne m et variance 2 quelconque :
Definition 4.3.7. X suit une loi normale X N(m, ) si et seulement si pour tout x R sa
densite f est donnee par
f (x) =

1
2 2

(xm)2
2 2

Sur le graphe ci-dessous on a dessine 3 densites normales de meme variance mais avec trois
moyennes differentes :
29

Densite d une loi normale reduite a differentes moyennes


0.4

0.35

m=2
m=0
m=2

0.3

f(x)

0.25

0.2

0.15

0.1

0.05

0
6

0
x

Sur le graphe ci-dessous on a dessine 3 densites normales de meme moyenne mais avec trois
variances differentes :
Densite d une loi normale centree a differentes variances
0.8

0.7

sigma=0,5
sigma=1
sigma=2

0.6

f(x)

0.5

0.4

0.3

0.2

0.1

0
6

0
x

Proposition 4.3.8. Soit X une v.a. suivant une loi normale de moyenne m et de variance
2 :
E(X) = m,
E(X 2 ) = 2 + m2 ,
V ar(X) = 2 .

4.3.4

La loi exponentielle

Definition 4.3.9. X suit une loi exponentielle de param`etre ssi pour tout x R sa densite
f est donnee par
f (x) = ex 11[0,+[
30

Densite d une loi Exponentielle de parametre 1.5


1.5

0.5

Proposition 4.3.10. Soit X une v.a. suivant une loi exponentielle de param`etre :
1
,

2
E(X 2 ) = 2 ,

1
V ar(X) = 2 .

E(X) =

31

32

Chapitre 5
Th
eor`
emes limites
Dans ce chapitre nous allons etudier deux resultats fondamentaux en theorie des probabilites
qui sont utilises quasi systematiquement pour des probl`emes de statistiques.

5.1

Loi des grands nombres

Reprenons le lance dune pi`ece de monnaie equilibree. Etant donne que lon a une chance
sur deux dobtenir face lors dun lance, on a envie de dire qu`a la fin de n lances de cette
pi`ece on va obtenir, `a peu-pr`es, n/2 fois face et n/2 fois pile. Le but de cette premi`ere partie
est de montrer ce resultat est dinterpreter le terme `a peu-pr`es en terme de probabilite.

5.1.1

Moyenne empirique

On commence par la definition de la Moyenne Empirique Soient X1 , X2 , , Xn , n variables


aleatoires independantes et de meme loi, On definit la somme de ces variables aleatoires
Sn =

n
X

Xi ,

(5.1)

i=1

et la moyenne empirique est donnee par


Sn
Sn =
.
n

(5.2)

Proposition 5.1.1. On a :
1. E(Sn ) = E(X1 ),
2. V ar(Sn ) =

var(X1 )
.
n

Exemple 5.1.2. On sinteresse ici au nombre de faces obtenues apr`es n lances dune pi`ece
equilibree. On a vu dans lExemple 3.3.4, que le nombre de faces obtenues Sn suit une loi
binomiale de param`etres 1/2 et n. Dapr`es la Proposition 3.3.3 on a : E(Sn ) = n 1/2 et
V ar(Sn ) = n/4. Par linearite de lesperance (Proposition 3.1.7), on a E(Sn ) = 1/nE(Sn ) =
33

1/2. Par la Proposition 3.2.4, 1. on a V ar(Sn ) = n12 V ar(Sn ) = 1/(4n). On remarque que lon a
bien E(Sn ) = E(X1 ) et V ar(Sn ) = V ar(X1 )/n. On remarque egalement que E(Sn ) = n/2 est
bien conforme `a notre intuition : si on a une chance sur deux dobtenir un certain resultat lors
dune experience et que lon reit`ere de mani`ere independante cette experience n fois, alors en
moyenne on obtiendra le resultat n/2 fois. En fait la Loi faible des grands nombres (paragraphe
5.2.3) nous dira que lon a plus que cela.

5.1.2

In
egalit
e de Markov et de Chebyshev

Ce paragraphe a pour but de donner les outils pour demontrer la loi faible des grands
nombres. La preuve de ce resultat dont nous donnerons la demonstration est basee sur une
inegalite tr`es utilisee en theorie des probabilite lin
egalit
e de Chebyshev.
Proposition 5.1.3. In
egalit
e de Markov Soit X une v.a. positive telle que E(X) < +,
pour tout c > 0 on a
P (X > c)

E(X)
.
c

(5.3)

Preuve
En guise dexemple et etant donne la simplicite de la preuve de cette proposition, nous en
donnons les arguments ici. On a :
X = X11Xc + X11X<c ,

(5.4)

X X11Xc .

(5.5)

et comme X est positive,

De plus X11Xc c11Xc , on en deduit :


X c11Xc .

(5.6)

En prenant la moyenne de chaque cote de cette inegalite on obtient la Proposition. 


Un corollaire de la Proposition ci-dessus est :
Corollaire 5.1.4. In
egalit
e de Chebytshef Soit X une v.a. telle que V ar(X) < +. Pour
tout > 0
P (|X E(X)| > )

5.1.3

V ar(X)
.
2

(5.7)

Loi faible des grands nombres

Th
eor`
eme 5.1.5. Soit (Xi , i N) une suite de variables aleatoires independantes de meme loi
telles que V ar(X1 ) < . Pour tout > 0,
lim P (|Sn E(X1 )| ) = 1.

n+

o`
u Sn a ete definie en 5.2.
34

(5.8)

Remarque 5.1.6. Ce resultat dit la chose suivante : avec une probabilite qui tend vers 1 quand
n tend vers linfini la moyenne empirique Sn des (Xi , i n) tend vers la moyenne dune des
variables Xi , qui ont toute la meme moyenne puisque de meme loi. Pour notre lance de pi`ece
cela signifie quavec une probabilite qui tend vers 1, si on fait n lances on obtiendra bien a`
peu-pr`es (`a n pr`es, o`
u est petit) n/2 fois face.
La preuve est extremement simple moyennant linegalite de Chebytshev :
Preuve
On applique linegalite de Chebytshev `a X = Sn . En utlisant la Proposition 5.2.1 on obtient :
(V ar(X1 ))2
P (|Sn E(X1 )| > )
.
n2

(5.9)

Par hypoth`ese V ar(X1 ) < +, la probablite ci-dessus tend donc vers 0 quand n tend vers
avec
linfini. Pour terminer on utilise le fait que pour tout evenement A, P (A) = 1 P (A)

A = {|Sn E(X1 )| }. 

5.2
5.2.1

Th
eor`
eme de la limite centrale
Le r
esultat

Le theor`eme suivant est fondamental tant en theorie des probabilites quen statistiques. On
commence par enoncer ce theor`eme. Notons
2 V ar(X1 ),
E(X1 ).

(5.10)
(5.11)

Th
eor`
eme 5.2.1. Soit (Xi , i N) une suite de variables aleatoires independantes de meme loi
telles que 2 < . Pour tout a, b R, tels que a < b


Sn
lim P a < n
< b = P (a < Z < b),
n+

(5.12)

o`
u Sn a ete definie en 5.2 et Z N(0, 1).
On peut egalement ecrire ce resultat sous la forme :


Sn n
< b = P (a < Z < b).
lim P a <
n+
n

(5.13)

Intuitivement, ce resultat montre que pour n grand, Sn suit une loi normale N(n, n).
Ce que lon remarque est que ce resultat ne depend pas de la loi des Xi , ce resultat est donc
universel pour toute somme de variables aleatoires independantes de meme loi.
35

5.2.2

Approximation dune loi binomiale par une loi Normale ou


par une loi de Poisson

Pour terminer nous donnons les deux resultats dapproximation suivants, tr`es utilise dans les
calculs
Approximation par une loi normal
Proposition 5.2.2.
1. Soit X une variable aleatoire suivant une loi binomialep
B(n, p), si n
suffisamment grand (n > 100), np > 10 et n(1 p) > 10, alors X N(np, np(1 p)).
Approximation par une loi de Poisson

Proposition 5.2.3.
1. Soit X une variable aleatoire suivant une loi binomiale B(n, p), si
n suffisamment grand (n > 50) et p tr`es petit (np 10), alors X P (pn).

36

Deuxi`
eme partie
Statistiques

37

Chapitre 6
Introduction et lois usuelles
Le but de la statistique est de traiter des donnees (en general en grand nombre) en vue den
tirer une information utile. Ces donnees proviennent dun sondage, de mesures, etc..., et sont
donc des realisations dun phenom`ene aleatoire.
La demarche de la statistique est donc en quelque sorte linverse de celle des probabilites.
En probabilite, on se donne une variable X de loi connue P , et on tire de ce mod`ele des informations sur les realisations de cette variable (observation la plus probable, probabilite pour
quune observation soit dans un certain ensemble, ... etc).
En statistique, la donnee de base est la donnee dune realisation X de la variable aleatoire X
de loi inconnue P supposee appartenir `a un certain ensemble de probabilites. A partir dune
observation X(), on essaie davoir des informations sur la loi. Par exemple connatre le param`etre p dune loi binomiale.
La famille des lois possibles est ce que lon appelle le mod`ele statistique. Le mod`ele statistique
decrit linformation dont on dispose a priori sur le ph`enom`ene aleatoire considere et lensemble
des param`etres inconnus. Il decrit tout ce quon ignore sur le phenom`ene aleatoire.
Exemple 6.0.4. Un chimiste veut connatre la concentration en acetone dun certain produit.
Pour cela, il prel`eve dix echantillons de ce produit, dont il determine la concentration. Il obtient
ainsi dix mesures (x1 , ..., x10 ) probablement differentes de , chaque dosage etant entache
derreurs. Il a donc observe le vecteur aleatoire X = (X1 , ,X10 ) avec Xi = + i , o`
u i
represente les erreurs de dosage. Il dispose des informations a priori suivantes :
la loi de chaque i est independante de (les erreurs de dosage ne dependent pas de la
concentration du produit) ;
les variables aleatoires i sont independantes (les erreurs de mesure faites lors dun dosage
ne se repercutent pas sur les dosages suivants) ;
les i ont meme loi (la methode de dosage utilisee est toujours la meme) ;
la moyenne des i est nulle (la methode de dosage nintroduit pas une erreur systematique) ;
la variance 2 des i est connue (on connat la precision de la methode de dosage utilisee).
Il suppose de plus que la loi commune des i est la loi normale (de moyenne , et de variance
2 ). Cette hypoth`ese peut se justifier par le Theor`eme de la Limite Centrale, si lon consid`ere
que les erreurs de dosage proviennent de laccumulation dun grand nombre de petites erreurs
39

independantes. Ces hypoth`eses/informations a priori conduisent le chimiste `a considerer quil


observe une realisation dun 10-echantillon de loi N(, ). Ce mod`ele statistique contient un
seul param`etre inconnu, `a savoir . Nous allons
etudier diff
erentes m
ethodes pour
d
eterminer .
Nous avons besoin, en plus de la loi normale et de la loi de Poisson definies dans le cours
de probabilite, de deux nouvelles lois de probabilite :

6.1

Loi du Chi-deux `
a n degr
es de libert
e (2n)

Cette loi joue un role important dans les tests statistiques et lestimation de la variance.
Soit n N
Definition 6.1.1. Soient X1 , X2 , , Xn , n variables aleatoires independantes de meme loi
normale centree reduite X1 N(0, 1) alors
n
X
i=1

Xi2 2n

Remarque 6.1.2.
Une variable aleatoire suivant une loi du 2n est toujours positive. La densite de cette loi est
donnee par
f2n (x) = cn xn/21 exp(x/2)
R +
o`
u cn est telle que 0 f2n (x)dx = 1.
On donne maintenant quelques proprietes :

Proposition 6.1.3. Soit X 2n ,


Pour tout n > 2, E(X) = n et V (X) = 2n,
(X n)/(2n)1/2 N(0, 1) en loi quand n , (en pratique n > 30),
Soient l et k deux entiers si Z1 2l , Z2 2k et que de plus Z1 et Z2 sont independantes
alors Z1 + Z2 2l+k .
Pour calculer des probabilites impliquant une loi du 2. on dispose comme pour la loi normale
dun tableau de valeurs.

6.2

Loi de Student `
a n degr
es de libert
e (stn)

Elle joue un role important dans lestimation par intervalle de confiance. Elle est symetrique,
de moyenne nulle et de param`etre n qui est aussi appele nombre de degres de liberte. Le graphe
de la densite de cette loi depend du param`etre n, il est en general plus aplati que celui dune
loi normale N(0, 1).
40

Definition 6.2.1. Soient X N(0, 1) et Y 2n des variables aleatoires independantes, alors

Remarque 6.2.2.
La densite de cette loi est donnee par

o`
u cn est telle que

R +

X
Z=p
stn .
Y /n

(n+1)/2
fstn (x) = cn 1 + x2 /n

fstn (x)dx = 1.

On donne maintenant quelques proprietes :


Proposition 6.2.3. Soit Z stn ,
Pour tout n > 1, E(Z) = 0, pour tout n > 2 V (Z) = n/(n 2),
Z N(0, 1) en loi quand n , (en pratique n > 30).
Pour calculer des probabilites impliquant une loi de stn on dispose comme pour la loi normale
dun tableau de valeurs.

41

42

Chapitre 7
Estimateurs, vraisemblance
Soit X une variable aleatoire dont la loi L est fonction dun param`etre , soit (X1 , X2 , , Xn )
un echantillon de X, cest `a dire une suite de variables aleatoires independantes et ayant la
meme loi que X. n est la taille de lechantillon, n N. Enfin notons (x1 := X1 (), x2 :=
X2 (), , xn := Xn ()) une realisation de la suite (X1 , X2 , , Xn ).

7.1

D
efinition dun estimateur et ses propri
et
es

Definition 7.1.1. Un estimateur de est une certaine fonction, notee Kn , des variables
aleatoires (X1 , X2 , , Xn ).
Remarque 7.1.2. On peut avoir plusieurs estimateurs pour un meme param`etre. On appelle
erreur destimation la difference Kn .
Ci-dessous on donne quelques proprietes possibles pour un estimateur :
Definition 7.1.3.

2)
3)
4)
5)

1) Lestimateur Kn est dit sans biais si E(Kn ) = ,


Lestimateur Kn est dit asymptotiquement sans biais si limn+ E(Kn ) = ,
Lestimateur Kn est dit convergent si limn+ V ar(Kn ) = ,
Soit Kn un second estimateur de . Kn est plus efficace que Kn si V ar(Kn ) V ar(Kn ).
Un estimateur sans biais et de variance minimale est appele estimateur efficace.

7.2

Estimateur des param`


etres dune loi normale, X
N (, )

On suppose que X suit une loi normale de moyenne E(X) = et de variance V ar(X) = 2 .
43

7.2.1

Estimateur de

Definition 7.2.1. On appelle moyenne empirique de lechantillon (X1 , , Xn ) de X, la variable aleatoire


n

X
n := 1
X
Xi ,
n i=1

(7.1)

sa realisation (qui est la moyenne de lechantillon observe) est donnee par


n

1X
xi .
xn =
n i=1
Proposition 7.2.2.

n ) = , V (X
n) = 1 2.
E(X
n

n est un estimateur efficace de .


Proposition 7.2.3. X
Exemple 7.2.4. Montrer la proposition precedente.

7.2.2

Estimateurs de 2

On distingue les cas o`


u est connue ou inconnue :
Cas o`
u est connue,
Soit
n

Tn2

1X
:=
(Xi )2 ,
n i=1

(7.2)

sa realisation (qui est la moyenne de lechantillon observe) est donnee par


n

t2n

1X
=
(xi )2 .
n i=1

Proposition 7.2.5. Tn2 est un estimateur efficace de 2 .


Exemple 7.2.6. Montrer la proposition precedente.
Cas o`
u est inconnue
Definition 7.2.7. On appelle variance empirique de lechantillon (X1 , , Xn ) de X, la statistique
n

Sn2

1X
n )2 ,
=
(Xi X
n i=1
44

(7.3)

sa realisation est donnee par

s2n
Proposition 7.2.8.

1X
(xi xn )2 .
=
n i=1

n1 2
.
n
Exemple 7.2.9. Montrer la propriete precedente.
E(Sn2 ) =

Proposition 7.2.10. Sn2 est un estimateur asymptotiquement sans biais de 2 .


Preuve
Cette Proposition se deduit de
precedente. 
p la proprietep
2
Notation : on notera Sn := Sn et sn := s2n .

Il y a un second estimateur que lon peut egalement utiliser pour 2 , sa definition est donnee
par
Sn2 =

n
S2,
n1 n

(7.4)

cet estimateur est utilise en general si n est petit. On a alors le resultat suivant :
Proposition 7.2.11. Sn2 est un estimateur sans biais de 2 .
Ce resultat se deduit directement
ete 7.2.8.
q de la Propri
q
n
2
Notation : on notera Sn := Sn et sn := n1
s2n .

7.3

Estimateur dune proportion, X B(p)

Pour ce paragraphe on suppose que X suit une loi de Bernoulli de param`etre p ainsi (Xi
B(p), i n), le param`etre `a estimer est alors p. Le resultat est le suivant

n , definie en 7.1 est un estimateur efficace de p.


Proposition 7.3.1. La moyenne empirique X
Exemple 7.3.2. Montrer la proposition precedente.

7.4

Estimateur du maximum de vraisemblance

Lestimation par maximum de vraisemblance consiste `a estimer un param`etre inconnu


dune loi donnee, par la valeur qui rend lobservation faite la plus probable. Dans la suite L
designera la densite ou la loi dune serie dobservation X1 , , Xn . On supposera egalement
que les observations sont independantes les unes des autres, ainsi pour tout x1 , , xn :
L(x1 , x2 , , xn , ) =
45

n
Y
i=1

f (xi , ),

(7.5)

pour les variables aleatoires `a densite et


L(x1 , x2 , , xn , ) =

n
Y

P (X = xi ),

(7.6)

i=1

pour les variables aleatoires discr`etes.


Definition 7.4.1. Lestimateur du maximum de vraisemblance du param`etre dont depend
la loi dune observation est obtenu en resolvant :
log L
2 log L
= 0, avec
< 0.

7.4.1

(7.7)

Loi normale

Soit X une v.a. suivant une loi normale N(, ), (X1 , X2 , , Xn ) une suite dobservations
i.i.d. de meme loi que X, on a
Proposition 7.4.2. Lestimateur du maximum de vraisemblance de est donne par
Pn
= i=1 Xi .
M
n
Exemple 7.4.3. Montrer la proposition.

7.4.2

Loi de poisson

Soit X une v.a. suivant une loi normale P (), (X1 , X2 , , Xn ) une suite dobservations
i.i.d. de meme loi que X, on a
Proposition 7.4.4. Lestimateur du maximum de vraisemblance de est donne par
Pn
= i=1 Xi .
M
n
Exemple 7.4.5. Montrer la proposition.

7.4.3

Loi binomiale

Soit X une v.a. suivant une loi binomiale B(n, p), (X1 , X2 , , Xn ) une suite dobservation
i.i.d. de meme loi, et X1 suivant une loi de Bernoulli de param`etre p , on a
Proposition 7.4.6. Lestimateur du maximum de vraisemblance de p est donne par
Pl
p = i=1 Xi .
M
n
Exemple 7.4.7. Montrer la proposition.
46

Chapitre 8
Intervalles de confiance
Les estimateurs definis au chapitre precedent, peuvent servir `a donner une estimation ponctuelle du param`etre que lon cherche `a estimer. Il suffit pour cela de calculer une realisation
de ces estimateurs. Cependant il nest pas tr`es realiste de donner une unique valeur pour le
param`etre que lon cherche `a estimer. On va donc definir un intervalle de confiance. Dans ce
chapitre nous garderons les memes notations que dans le chapitre precedent.
Definition 8.0.8. On appelle Intervalle de confiance pour le param`etre de niveau 1 (ou
de seuil ), un intervalle qui a la probabilite 1 de contenir la vraie valeur de .
En quelque sorte, I1 est un intervalle de confiance (de niveau 1 ) pour si
P ( I1 ) = 1 .
On peut dej`a faire la remarque suivante :
Remarque 8.0.9. Plus le niveau de confiance est eleve, plus la certitude est grande sur le fait
que I1 . Nous verrons quen contre-partie plus 1 sapproche de 1 plus lintervalle de
confiance est grand, ce qui donne un resultat plus s
ur mais moins precis.
Nous allons maintenant donner des intervalles de confiance pour les param`etres de certaines
lois usuelles que lon a vues dans le cours de probabilite. On utilisera labreviation I.C. pour
intervalle de confiance.

8.1
8.1.1

Intervalle de confiance pour les param`


etres dune loi
normale N (, )
Intervalle de confiance pour

On distingue plusieurs cas, suivant si n est grand ou petit et est connu ou pas.
Cas connu
n N(, /n) ou encore Z :=
On sait dans ce cas que X
resultat suivant :
47

n
X

/ n

N(, /n). On a alors le

Proposition 8.1.1. Lintervalle de confiance pour de niveau 1 est donne par :





n + u1/2 ,
I1 = xn u1/2 , x
n
n

(8.1)

n.
o`
u u1/2 est lunique reel qui verifie P [|Z| u1/2 ] = 1 et xn une realisation de X

On peut interpreter I1
de la facon suivante : avec une probabilite de 1 , le param`etre

depend fortement de lechantillon


appartient a` I1 . On notera tout de meme que I1
considere.
Preuve
Plutot quune preuve, nous detaillons seulement la facon dont est construit ll.C. Dapr`es la
definition de u1/2 , on a :



Xn


P u1/2 = 1 ,
(8.2)
/ n

cette derni`ere equation etant equivalente `a la suivante :





P Xn u1/2 Xn + u1/2 = 1 ,
n
n

ou encore `a celle-ci :




n + u1/2
n u1/2 , X
= 1 .
P X
n
n
i
h
n + u1/2 a` lI.C donne par 8.13
n u1/2 , X
On passe alors de lintervalle aleatoire X
n
n

en remplacant Xn par une realisation. 


Cas inconnu, n petit
n N(, /n) ne nous est daucune utilite puisque est inconnu. On
Dans ce cas le fait que X
commence donc par remplacer par un estimateur de , il sagit dans notre cas (n petit) de
Sn donnee en 7.4. On sait alors dapr`es les chapitres 6 et 7 que :
Z :=

n
X
stn1 ,

Sn / n 1

(8.3)

on obtient alors par le meme raisonnement que precedemment :


Proposition 8.1.2. Lintervalle de confiance pour de niveau 1 est donne par :


sn
sn

I1 = xn stn1 ()
,x
n + stn1 ()
,
n1
n1

(8.4)

n.
o`
u stn1 () est lunique reel qui verifie P [|Z | stn1 ()] = 1 et xn une realisation de X
48

Cas inconnu, n grand Si n est grand alors dapr`es la Propriete 1.2.3 du chapitre 1, on peut
se passer de la loi de Student et faire une approximation par la loi normale, on obtient alors
Proposition 8.1.3. Lintervalle de confiance pour de niveau 1 est donne par :


sn
sn

I1 = xn u1/2 , x
n + u1/2 ,
n
n

(8.5)

n.
o`
u u1/2 est lunique reel qui verifie P [|Z| u1/2 ] = 1 et xn une realisation de X

8.1.2

Intervalle de confiance pour 2 et

On distingue 2 cas, suivant si est connue ou pas. Notons que dans la realite le cas o`
u
est connue est inexistant.
Cas connue Pour donner un intervalle de confiance pour il faut un estimateur, etant
P
connu on utilise Tn2 = n1 ni=1 (Xi )2 definie au chapitre 7. On sait dapr`es le chapitre 1 que
Z :=

nTn2
2n .
2

(8.6)

On a alors le resultat suivant :


Proposition 8.1.4. Lintervalle de confiance pour 2 de niveau 1 est donne par :


nt2n
nt2n
2
,
,
I1 =
kn (1 /2) kn (/2)

(8.7)

o`
u kn (1 /2) est lunique reel qui verifie P [Z kn (1 /2)] = 1 /2, kn (/2) est lunique
reel qui verifie P [Z kn (/2)] = /2 et t2n une realisation de Tn2 .
Preuve
h
i
2
nTn2
n
On cherche un intervalle I kn (1/2)
, tel que
, knnT
(/2)

P 2 I = 1 .

Par convention on resout lequation precedente en resolvant :






nTn2
nTn2
2
2
P
= /2, P
= 1 /2,
kn (/2)
kn (1 /2)
qui est equivalent `a resoudre
 2

 2

nTn
nTn
P
kn (/2) = /2, P
kn (1 /2) = 1 /2.
2
2
On determine alors kn (/2) et kn (1 /2) en utilisant 8.6 
49

(8.8)

(8.9)

(8.10)

Cas inconnue Pour donner un intervalle de confiance pour il faut un estimateur, etant
P
n )2 definie au chapitre 7. On sait dapr`es les chapitres 6
connu on utilise Sn2 = n1 ni=1 (Xi X
et 7 que
Z :=

nSn2
2n1 .
2

(8.11)

On a alors le resultat suivant :


Proposition 8.1.5. Lintervalle de confiance pour 2 de niveau 1 est donne par :


ns2n
ns2n
2
,
(8.12)
,
I1 =
kn1(1 /2) kn1 (/2)
o`
u kn1 (1 /2) est lunique reel qui verifie P [Z kn1 (1 /2)] = 1 /2, kn1 (/2) est
lunique reel qui verifie P [Z kn1 (/2)] = /2 et t2n une realisation de Tn2 .
Pour obtenir cet intervalle de confiance on utilise la meme idee que dans la proposition
precedente et on se sert de 8.11.

8.2

Intervalle de confiance pour le param`


etre dune loi
de Bernoulli B(p)

Dans cette section on suppose que Xi B(p). Pour lintervalle de confiance suivant, il faut
que les conditions de la Proposition (du cours de Probabilites) soient verifiees :
Proposition 8.2.1. Si n 100, np > 10 et n(1 p) > 10, alors lintervalle de confiance pour
p de niveau 1 est donne par :
"
#
r
r
xn (1 xn )
xn (1 xn )
p
I1 = xn u1/2
,
(8.13)
,x
n + u1/2
n
n
n,
o`
u u1/2 est lunique reel qui verifie P [|Z| u1/2 ] = 1 et xn une realisation de X
(Z N(0, 1)).
Preuve
Laissee en exercice. 

50