Vous êtes sur la page 1sur 29

Contenu du cours :

1. Notion de probabilit : Modle probabiliste. Probabilit


conditionnelle. Thorme de Bayes. Indpendance.
2. Variable alatoire :
Variable alatoire discrte. Esprance, variance. Moments.
Variable alatoire continue. Fonction de rpartition, densit.
3. Lois usuelles :
Lois usuelles discrtes : Bernoulli, binmiale, Hypergomtrique,
Poisson, Pascal.
Lois usuelles continues : uniforme, exponentielle, normale,
gamma, khi-deux.
4. Lois empiriques :
chantillon. Moyenne et variance empiriques. Loi de Student. Loi
de Fisher-Snedecor.
5. Lois multidimensionnelles :
Couple de variables alatoires discrtes. Loi marginale. Loi
conditionnelle. Loi dune sommes. Couple de variables alatoires
continues

Statistique 3 (5009)
Y. ASKOURA, MCF Universit Paris 2.

L2 conomie-gestion, Paris II,


2015/2016

Statistique 3 (5009)

1 / 113

Bibliographie

Statistique 3 (5009)

2 / 113

Bibliographie

LB1/AND/S : Anderson, Sweeney et Williams, Statistiques pour


lconomie et la gestion", De Boeck.

Gilbert SAPORTA, Probabilits analyse des donnes et


statistique, Ed. Technip, Paris 2006.

LB1/PIL/P : A. Piller, Probabilits pour conomistes", Ed.


Premium.

Jean-Pierre Lecoutre, Statistique et probabilits-cours et


exercices corrigs, 5ime dition, Dunod, Paris 2012.

LB1/LAL/P : C. Lalibert, Probabilits et statistiques", Ed. ERPI.

Jean-Pierre Lecoutre, TD statistique et probabilits, 5ime dition,


Dunod, Paris 2011.

LB1/REA/P : J. P. Rau et G. Chauvat, Probabilits et


statistiques", Ed. Armand Colin.
LB1/GOL/P : B. Goldfarb et C. Pardoux, Introduction la
mthode statistique", Ed. Dunod.

Statistique 3 (5009)

3 / 113

Statistique 3 (5009)

4 / 113

Dnombrement

Dnombrement

Permutation : suite ordonne de n objets :


Il y a Pn = n! possibilits
Exemple : de combien de faons peut-on disposer 10 personnes
sur 10 chaises alignes ?
rponse : 10! = 1 2 3 ... 10 faons.
Arrangement : de k objets parmi n : permutation de k objets parmi
n
n!
possibilits
(n k )!
Exemple : Combien faut-il dpenser pour gagner srement au
Quint+ une course 10 chevaux ? (Quint+ : un pari=2e sur
les 5 premiers chevaux dans leurs ordres darrives) rponse :
10!
5! 2e
Exemple : Combien de mots composs de 10 lettres distinctes,
peut-on former avec un alphabet de 26 lettres ? rponse : (2626!10)!
Il y a Akn =

Statistique 3 (5009)

Permutation avec rptition : suite ordonne de k objets parmi n


o un objet peut figurer plusieurs fois :
Il y a Pnk = nk possibilits
Exemple : Combien de mots de passe composs de 5 lettres,
peut-on former avec un alphabet de 26 lettres ? rponse : 265
Combinaison : un sous-ensemble de k objets parmi n :
Il y a Cnk =

n!
possibilits
k !(n k )!

Exemple : Combien dquipes de football un entraneur peut-il


15!
12131415
former avec 15 joueurs ? rponse : 11!(15
1234
11)! =

5 / 113

Statistique 3 (5009)

6 / 113

Probabilit, gnralits
Une exprience alatoire est une exprience dont on ne peut
prvoir par avance le rsultat.

vnement certain =univers ,

Lensemble de tous les rsultats possibles (ou issues) est appel


univers ou ensemble fondamental, not gnralement
Exemple 1. On lance un d : lunivers est = {1; 2; 3; 4; 5; 6}

Un vnement est un sous-ensemble dissues. Souvent dsign


par une assertion logique concernant le rsultat de lexprience.
Dans lexemple 1, obtenir un nombre pair est un vnement, il
est gal A = {2, 4, 6}, il est ralis si lune des issues 2,4 ou 6
est obtenue.

vnement impossible=;,
Soient A et B deux vnements,
A \ B : cest lvnement (A et B) ou lintersection de A et B,
A [ B : cest lvnement (A ou B) ou lunion de A et B,

A et B sont dit incompatibles ssi la ralisation de lun exclut la


ralisation de lautre, autrement A \ B = ;.
Autres oprations :

Un vnement lmentaire consiste en un seul lment.

A\B = {x 2 A : x 2
/ B}

Lvnement contraire (ou complmentaire) dun vnement A,


not A est constitu de lensemble des issues non incluses dans
A. Si A est ralis, A nest pas ralis, et rciproquement. On note
aussi A = \ A. Noter que A = A.

A B = (A\B) [ (B\A)

Statistique 3 (5009)

7 / 113

Statistique 3 (5009)

8 / 113

Proprits
Chacune des oprations \ et [ est associative et commutative.
A [ (B [ C) = (A [ B) [ C,

A[B =B[A

A \ (B \ C) = (A \ B) \ C,

A\B =B\A

Exemple
Dans lexemple 1, le contraire de {2, 3} [ {3, 4, 5} est
{1, 4, 5, 6} \ {1, 2, 6} = {1, 6}.

Chacune des oprations \ et [ est distributive sur lautre :


A \ (B [ C) = (A \ B) [ (A \ C),

A [ (B \ C) = (A [ B) \ (A [ C)

plus gnralement :
A \ ( [ Bi ) = [ (A \ Bi ) et A [ ( \ Bi ) = \ (A [ Bi )
i2IN

i2IN

i2IN

Exemple

i2IN

Le contraire de lunion (resp. lintersection) est lintersection (resp.


lunion) des contraires : A [ B = A \ B et A \ B = A [ B plus
gnralement :
i2IN

i2IN

= {1, 2, 3, 4, 5, 6}

{1,2}, {3,4,5,6} est un systme complet dvnements.


{1},{2}, {3},{4},{5},{6} est un systme complet dvnements.
{1,2,3}, {3,4,5,6} nest pas un systme complet dvnements.

[ Ai = \ Ai et \ Ai = [ Ai

i2IN

Un systme complet dvnements (ou partition) de est une


collection
A1 , A2 , ..., An dvnements de vrifiant :

8i
=
6
j,
A
i \ Aj = ;
S
Ai =

i2IN

{1},{2}, {3},{4,6} nest pas un systme complet dvnements.

( dmontrer en exercice :indication double inclusion)


Statistique 3 (5009)

9 / 113

Statistique 3 (5009)

10 / 113

Example

Dfinition
Une collection dvnements C de lunivers est dite
(tribu) ssi :

Tribu discrte : La collection de tous les vnements imaginables


P() de est une
algbre.

algbre

Tribu grossire est C = {, ;}.

1) 8A 2 C , A 2 C ,

C = {E : E ou E est dnombrable} est une tribu.

2) C est stable par union dnombrable : pour tout famille


S
dnombrable dvnements Ai , i 2 IN, de C , on a
Ai 2 C .

Si = {1, ..., 10}, alors ;


C = {;, , {1}, {2}, {1, 2}, \{1, 2}, \{1}, \{2}} est une tribu.

i2IN

3) 2 C .

Dfinition

Remarque
La premire et la dernire condition impliquent que ; 2 C ,

La premire et la deuxime conditions impliquent que C est stable


par intersection dnombrable,
En remplaant le mot dnombrable par fini, on obtient la
dfinition dune algbre.
Statistique 3 (5009)

Soit C0 une collection densembles de . La plus petite tribu C


contenant C0 est appele tribu engendre par C0 . On note C = (C0 ).
(C0 ) est lintersection des tribus sur contenant C0 .

Example
Pour = IR, la tribu engendre par les intervalles ouverts de IR est
appele tribu borlienne de IR. Elle est aussi engendre par les
intervalles ferms, les intervalles de type (])[a, +1[, a 2 IR,...etc.

11 / 113

Statistique 3 (5009)

12 / 113

Modliser la chance

Proprits. Soient A, B, Ai , i 2 IN des lments de C .


1) P(;) = 0,

Dfinition

2) P(A) = 1

On appelle espace probabilisable un couple (; C ), o C est une


algbre dvnements de lunivers .

3) Si A B alors, P(A) P(B),


4) P(A [ B) = P(A) + P(B)
S
P
5) P( Ai )
P(Ai ),

Une probabilit dun vnement est un nombre de [0 ;1], elle doit


vrifier cependant quelques conditions :

i2IN

Dfinition
Une (loi de) probabilit sur (, C ) est une application P de C images
dans [0; 1] tq :
1) P() = 1,

i2IN

i2IN

6) Si Ai , i 2 IN, vrifie Ai Ai+1 et [Ai = (on notera Ai " ) alors,


limi P(Ai ) = 1
7) Si Ai , i 2 IN, vrifie Ai
limi P(Ai ) = 0

Ai+1 et \Ai = ; (on notera Ai # ;) alors,

i2IN

Le triplet (, C , P) est appel espace probabilis.


Statistique 3 (5009)

P(A \ B),

8) Si Ai , i 2 IN, est un systme complet dvnements, alors,


X
8E 2 C , P(E) =
P(E \ Ai )

2) Pour toute collection dnombrable dvnements


22
P
incompatibles, Ai , i 2 IN, on a : P( [ Ai ) =
P(Ai )
i2IN

P(A),

13 / 113

Statistique 3 (5009)

14 / 113

Justifications
Example
1)-4) sont videntes.
5) Posons B1 = A1 et Bi+1 = Ai+1 \

Considrons les rsultats suivants dune section de 100 tudiants :

[ Aj . On a alors, [Bi = [Ai


P
et Bi est un systme complet.PDonc, P([A
P(Bi ).
Pi ) = P([Bi ) =
Comme pour
tout
i,
B

A
,
P(B
)

P(A
)
et
donc
i
i
i
i
P
P([Ai )
P(Ai ).
j=1

6) Considrons les Bi comme dans 5). Alors, P(Ai ) = P( [ Bj ). Donc


ji
P
P
lim P(Ai ) = limi P(Bj ) = P(Bi ). Comme Bi est un systme
ji
i P
complet, [Ai = [Bi = , do P(Bi ) = 1. Donc, lim P(Ai ) = 1.
i

7) Dcoule de 6) par passage au complmentaire.

8) vidente. Il suffit de remarquer que les E \ Ai sont 2 2


incompatibles et que leurs union est gale E.

Statistique 3 (5009)

15 / 113

70% des tudiants ont une note

10 dans lunit A.

80% des tudiants ont une note

10 dans lunit B.

90% des tudiants ont une note


lunit B.

10 dans lunit A OU dans

Quelle est la probabilit quun tudiant pris au hasard ait une note
10 dans lunit A et dans lunit B ?
Rponse : P(A \ B) = P(A) + P(B) P(A [ B) = 0.7 + 0.8 0.9 = 0.6
soit 60%.
Est-il possible davoir P(A) = 0.7, P(A [ B) = 0.6 ou P(A \ B) = 0.6 et
P(B) = 0.5 ?
Rponse : NON, pourquoi ?

Statistique 3 (5009)

16 / 113

Probabilits Conditionnelles
Supposons quon sait que B sest ralis. Nous rduisons
artificiellement donc lunivers B (lunivers restera toujours ) en
annulant les probabilit des vnements incompatibles avec B et en
augmentant les probabilits des vnement rencontrant B. On
cherche alors la probabilit quun vnement A se ralise.

F IGURE: La partie hachure reprsente A \ B

Dfinition

Example

Soit B un vnement avec P(B) 6= 0. On appelle probabilit


conditionnelle de A sachant (ou si) B, la quantit :

On lance un d quilibr 6 faces. Sachant quun nombre 5 est


ralis quelle est la probabilit que ce soit un nombre pair :
B = {1; 2; 3; 4; 5} et A = {2; 4; 6}. Intuitivement p = 25 . Par la formule

P(A/B) =

P(A \ B)
P(B)

prcdente :P(A/B) =

P({2;4})
P({1;2;3;4;5})

2
6
5
6

= 25 .

Proprit (Formule des probabilits totales) : Soient Bi , i 2 IN, un


systme complet dvnements, alors,
X
P(A) =
P(A/Bj )P(Bj )

Remarque
Il convient de vrifier que lapplication A 7 ! P(/B) dfinie est
une loi de probabilits sur (, C )
Statistique 3 (5009)

P(A\B)
P(B)

j2IN

17 / 113

Statistique 3 (5009)

18 / 113

vnements indpendants
Dfinition

Example
Trois machines M1 , M2 et M3 fabriquent des boulons de mme type.
M1 sort en moyenne 0.3% de pices dfectueuses, M2 0.8% et M3 1%.
On mlange 1000 pices dans une caisse, dont 500 proviennent de
M1 , 350 de M2 et 150 de M3 . On tire au hasard un boulon de la caisse.
Calculer la probabilit quil soit dfectueux.
Rponse : Notons Mi : le boulon est fabriqu par Mi et D : le boulon
est dfectueux. M1 , M2 , M3 forme alors un systme complet
dvnements.
P(D) = P(D/M1 )P(M1 ) + P(D/M2 )P(M2 ) + P(D/M3 )P(M3 )
500
350
150
= 0.003 1000
+ 0.008 1000
+ 0.01 1000
= ......

Statistique 3 (5009)

19 / 113

A et B sont indpendants ssi P(A/B) = P(A) (quiv. P(B/A) = P(B))


La connaissance de B ne change pas la chance de ralisation de A et
vice-versa.
P(A\B)
Si P(A/B) = P(A) alors, P(A\B)
P(B) = P(A) donc, P(A) = P(B) ou bien
P(B/A) = P(B). La dfinition est donc cohrente. En outre ce calcul
montre que
A et B sont indpendants () P(A \ B) = P(A)P(B)

Example
On tire avec remise 2 fois de suite une boule dune urne contenant 3
boules blanches et 7 noires indiscernables au toucher. Alors,
A :obtenir une boule blanche au 1er tirage est indpendant de
B :obtenir une boule blanche au 2ime tirage. Ceci est vident. On
peut vrifier ce fait par le calcul.
Statistique 3 (5009)

20 / 113

Furmule De Bayes

Example (suite)
Notons n les boules noires et b les blanches. Alors,
= {bb; bn; nb; nn} ; A = {bb; bn} ; B = {bb; nb}
3 3
3 3
3 7
P(A \ B) = P(bb) = 10
10 = 0.09 ; P(A) = 10 10 + 10 10 = 0.3 et
3 3
7 3
P(B) = 10
10 + 10 10 = 0.3. On a bien P(A \ B) = P(A)P(B).

Premire formule de Bayes :

Indpendance mutuelle

En effet,

Dfinition

Deuxime formule de Bayes : Soient Bi , i 2 IN un systme


complet dvnements, alors,

P(B/A) =

Les vnements A1 , A2 , ..., An sont dits mutuellement indpendants ssi


pour tout sous-ensemble dindices I {1, ..., n}, on a :

Y
P \ Ai =
P(Ai )
i2I

i2I

Cette notion est plus forte que 2 2 indpendants

Statistique 3 (5009)

P(A/B)P(B)
P(A)

P(A\B)
P(B)
P(B)

P(A)

P(A/B)P(B)
P(A)
=

P(A\B)
P(A)

= P(B/A)

P(A/Bi )P(Bi )
P(Bi /A) = P
P(A/Bj )P(Bj )
j2IN

Il suffit dcrire,
en utilisant la formule des probabilits totales :
P
P(A) =
P(A/Bj )P(Bj ) dans la premire formule de Bayes.
j2IN

21 / 113

Statistique 3 (5009)

22 / 113

Example
Trois machines M1 , M2 et M3 fabriquent des boulons de mme type.
M1 sort en moyenne 0.3% de pices dfectueuses, M2 0.8% et M3 1%.
On mlange 1000 pices dans une caisse, dont 500 proviennent de
M1 , 350 de M2 et 150 de M3 . On tire au hasard un boulon de la caisse,
il est dfectueux. Calculer la probabilit quil ait t fabriqu par M1 .
Rponse : Notons Mi : le boulon est fabriqu par Mi et D : le boulon
est dfectueux. Il sagit de calculer
P(D/M1 )P(M1 )
P(M1 /D) = P(D/M1 )P(M1 )+P(D/M
2 )P(M2 )+P(D/M3 )P(M3 )
=

500
0.003 1000
500
350
150
0.003 1000 +0.008 1000
+0.01 1000

0.26

Example
Une urne A contient 10 boules noires et 20 boules rouges. Une urne B
contient 10 boules noires et 40 boules rouges. On mlange les deux
urnes en versant leurs contenus dans une urne C. On tire au hasard
une boule de lurne C, elle est rouge. Quelle est la probabilit que
cette boule provient de lurne A ?
Rponse : Notons A : la boule provient de A, B : la boule provient de
B 00 etR : la boule est rouge. A et B forme un systme complet
dvnements.
Alors,
P(A/R) =

Remarque

P(R/A)P(A)
=
P(R/A)P(A) + P(R/B)P(B)

Pratiquement, la formule de Bayes sapplique comme dans lexemple


prcdent pour calculer des probabilits dvnements ayant caus
dautres (probabilits de cause).
Statistique 3 (5009)

23 / 113

Statistique 3 (5009)

2
3

2
3
3 8
3
4
8 + 5

5
8

= 1/3

24 / 113

Variables alatoires :Exemple introductif.

On lance deux ds, si les deux chiffres obtenus sont identiques on


gagne ce chiffre, sinon on perd 1e.
Ici on dfinit une application X de lensemble
= {(i, j), i, j 2 {1, ..., 6}} dans E = { 1; 1, 2, 3, 4, 5, 6}.
Notons PX la probabilit sur les gains possibles. X = k dsigne
lensemble X 1 (k ) = {(i, j) : X (i, j) = k }.
La probabilit de gagner 4e est
PX (4) = P(X = 4) = P(X

(4)) = P({4, 4}) = 1/36

La probabilit de perdre 1e est


PX ( 1) = P(X = 1)
= P( \ {(1, 1); (2, 2); (3, 3); (4, 4); (5, 5); (6, 6)})
= 30/36

Notons (IR, B) lensemble des nombres rels muni de sa tribu


( -algbre) borlienne B (B est la plus petite
algbre contenant les
intervalles de IR : ou lintersection de toutes les
algbres contenant
les intervalles de IR. On dit que B est engendre par les intervalles).

Dfinition

X est une variable alatoire, la loi de X est la loi probabilits sur les
valeurs de X , soit
PX ( 1); PX (1); ...; PX (6)
Statistique 3 (5009)

F IGURE: Variable alatoire

Une variable alatoire (v.a.) relle est une application X de (, C , P)


dans (IR, B) qui est mesurable, i.e., vrifiant :
X

(B) 2 C , 8B 2 B

25 / 113

Statistique 3 (5009)

26 / 113

Fonction de rpartition
La loi de X est la probabilit image PX de P par X , autrement dit :
PX (B) = P({w 2 : X (w) 2 B}) = P(X

Dfinition
La fonction de rpartition F dune v.a. relle X est lapplication de IR
dans [0; 1] dfinie par

(B))

Notons que PX est dfinie sur (IR, B).


Dans lexemple prcdent la loi de X est donne par le tableau
suivant :
k
1 1 2 3 4 5 6
PX (k )

5
6

1
36

1
36

1
36

1
36

1
36

F (x) = P(X < x) = P(X

(]

1; x[))

1
36

Remarque
Les lois des v.a. discrtes peuvent tre donnes dans un tableau et
reprsentes par un diagramme en btons.
F IGURE: Fonction de rpartition de lexemple prcdent
Statistique 3 (5009)

27 / 113

Statistique 3 (5009)

28 / 113

Proprit : F est une fonction monotone croissante continue


gauche. Elle admet un nombre de discontinuits au plus dnombrable
et vrifie
F ( 1) = 0 et F (+1) = 1
(1)
Rciproquement, toute fonction monotone croissante continue
gauche et vrifiant (1) dfinit une loi de probabilit unique sur IR.
Proprit : F permet de calculer les probabilits dintervalles :
P(a X < b) = F (b)

Si X est une v.a. discrte qui prend les valeurs x1 , x2 , x3 , ..., xn , ..., on
note pi = PX (xi ) la probabilit que X prend la valeur xi . Alors, sa
fonction de rpartition est donne par
F (x) =

0ji

On a aussi

PX (xj ), 8x 2]xi ; xi+1 ] et F (x) = 0 si x x0

pi = PX (xi ) = F (xi+1 )

F (a)

F (xi )

Dfinition

Dfinition
Une v.a. X est dite
discrte si elle prend au plus un nombre dnombrable de valeurs
(ou si ses valeurs sont isoles et peuvent tre numrotes).

le fractile dordre p 2]0; 1[ dune v.a. X de fonction de rpartition F est


le rel xp vrifiant :
F (xp ) = P(X < xp ) = p

continue si elle prend nimporte quelle valeur dans un intervalle


de IR ou dans IR entirement.
Statistique 3 (5009)

29 / 113

Statistique 3 (5009)

30 / 113

Variable continue
Certaines lois de probabilits continues (de v.a. continues) peuvent
tre dfinies partir de la notion de densit de probabilit.

Dfinition
Une densit
R de probabilit f est une fonction positive et intgrable
vrifiant IR f dx = 1.

F IGURE: Densit - Probabilit dun intervalle

Dfinition

Une loi de proba PX admet une densit f si, pour tout intervalle
I = [a, b] de IR, on a
PX (I) =

f (x) dx =

b
a

Si X est une v.a. continue alors, P(X = x) = 0, 8x 2 IR. Donc,


P(a < X < b) = P(a X b) = P(a < X b)
= P(a X < b) = F (b) F (a)

f (x) dx

Dans ce cas la fonction de rpartition F de X est drivable et sa


Rb
drive est f . On a P(a < X < b) = a f (x) dx = F (b) F (a)
Statistique 3 (5009)

Remarque

Exemple : Soit X la v.a. avec la loi P(X > x) = e x pour x 0 et 1


sinon, admet pour densit : f (x) = e x = F 0 (x) = (1 P(X > x))0 si
x 0 et f (x) = 0 sinon.
31 / 113

Statistique 3 (5009)

32 / 113

Indpendance de variables alatoires


Dfinition
Soient X et Y deux v.a. relles dfinies sur le mme espace
probabilis (, C , P)
X et Y sont indpendantes ssi
P[(X 2 E) \ (Y 2 F )] = P(X 2 E)P(Y 2 F );

Corollary (suite)

8E, F 2 B(IR)

(X , Y ) est un couple de v.a. dfini de (, C , P) dans IR2 . Sa loi produit


PXY est not, si X et Y sont indpendantes par PXY = PX PY

Si X et Y admettent des densits f et g respectivement, alors, (X , Y )


admet pour densit :
h(x, y ) = f (x)g(y )

Corollary

X et Y sont indpendantes ssi la fonction de rpartition du couple


(X , Y ) dfinie par H(x, y ) = P(X < x \ Y < y ) est gale au produit
des fonctions de rpartition F et G de X et Y respectivement :
H(x, y ) = F (x)G(y )
F et G sont appeles fonctions de rpartition marginales
Statistique 3 (5009)

33 / 113

lesprance dune v.a. X discrte est donne par :


X

34 / 113

Lesprance de X scrit de faon gnrale comme :


Z
E(X ) =
X (w)dP(w)

Esprance mathmatique
E(X ) =

Statistique 3 (5009)

xi P(X = xi )

Cest la moyenne des valeurs de X pondres par leurs


probabilits.
Lesprance dune v.a. continue X de densit f , est donne par :
Z
E(X ) =
xf (x) dx
IR

Example
La v.a. X de densit f (x) = e x si x
esprance :

R +1
E(X ) = 0 x e x dx = x 1 e

+1
= 0 + 1e x 0
= 1.

0 et f (x) = 0 sinon, a pour

x +1
0

Statistique 3 (5009)

R +1
0

dx

35 / 113

et nous pouvons montrer (rsultat-mesure/probabilit image) que


Z
E(X ) =
xdPX (x)
IR

Remarque
Lesprance nexiste pas toujours.
De la linarit de lintgrale, on dduit la linarit de lesprance.
Proprits de lesprance : si a 2 IR, on a :
E(a) = a,
E(aX ) = aE(X ),
E(X + a) = E(X ) + a,
E(X + Y ) = E(X ) + E(Y ).
X et Y sont indpendantes =) E(XY ) = E(X )E(Y )
Statistique 3 (5009)

36 / 113

Variance
Dfinition

Theorem

La variance de la v.a. X , note V (X ) ou

Si : IR ! IR est une fonction relle quelconque et X une v.a. de


densit f , alors,
Z
E( (X )) =

IR

Cas discret :

Ce rsultat permet de calculer lesprance de (X ) sans connatre sa


loi (uniquement avec la loi de X )

Statistique 3 (5009)

E(X ))2 f (x) dx

Remarque
V (X ) mesure la dispersion de X autour de son esprance E(X ).
p
V (X ) est appel cart-type. Il a lavantage par rapport
X =
la variance de sexprimer dans la mme unit de mesure que X , il
a donc plus de sens pour les interprtations.

37 / 113

Proprit de la variance :

Statistique 3 (5009)

38 / 113

Autres proprits

Formule de Knig-Huyghens :
E([X

IR

IR

2
X

Cas continue, X de densit f ,


Z
V (X ) = (x

Sans exiger de densit X , de faon gnrale :


Z
Z
E( (X )) = (
X )dP =
(x)dPX (x)

est dfinie par :

= E([X E(X )]2 )


P
V (X ) = pi (xi E(X ))2

V (X ) =

(x)f (x) dx

2
X

a]2 ) = V (X ) + (E(X )

a)2

En effet,
E([X a]2 ) = E([(X E(X )) + (E(X ) a)]2 )
= E[(X E(X ))2 ] + E[(E(X ) a)2 ]
+2E[(X E(X ))(E(X ) a)]
= V (X ) + (E(X ) a)2 + 2(E(X ) a)E[X E(X )]
= V (X ) + (E(X ) a)2 + 2(E(X ) a)(E(X ) E(X ))
= V (X ) + (E(X ) a)2
Cela signifie que V (X ) est la valeur minimale de E([X
varie dans IR.
Pour a = 0, on a :
la formule classique :
2

V (X ) = E(X )
Statistique 3 (5009)

E(X )

a]2 ) quand a

V (X + a) = V (X ), 8a 2 IR.
V (aX ) = a2 V (X ),
V (X ) = 0 () X = a,
Ingalit de Bienaym-Tchebychev relie lesprance et
lcart-type : pour tout k > 0, P(|X E(X )| > k ) k12
la covariance de X et Y est dfinie par
cov (X , Y ) = E[(X

E(X ))(Y

E(Y ))] = E(XY )

E(X )E(Y )

Si X et Y sont indpendantes, alors cov (X , Y ) = 0


V (X + Y ) = V (X ) + V (Y ) + 2cov (X , Y ).
Si X et Y sont indpendantes :
V (X + Y ) = V (X ) + V (Y )

2
39 / 113

V (XY ) = V (X )V (Y ) + V (X )(E(Y ))2 + E(X )(V (Y ))2 .


Soit ' admettant un D.L. dordre 2, alors,
V ('(X )) ('0 (E(X )))2 V (X )
Statistique 3 (5009)

40 / 113

Moments dordres suprieurs

Loi discrte uniforme


Dfinition

Le moment centr dordre k (sil existe) est dfini par


k = E([X

La v.a. X valeurs dans A = {x1 , ..., xn } IR suit la loi uniforme sur A


(on note X
U (A)) si X prend les valeurs de A de faon
quiprobables :
1
1
P(X = xi ) =
=
|A|
n

E(X )] )

La variance est donc le moment centr dordre 2.


Si la densit de X est symtrique, alors, 2k +1 = 0

Cas particulier : X
U (A) avec A = {1, 2, ..., n}
P(X = i) = n1
Esprance de X
E(X ) = n1 1 + n1 2 + n1 3 + ... + n1 n
= n1 (1 + 2 + ... + n)
= n1 n(n+1)
2

Le coefficient dasymtrie est


1

3
3

et le coefficient daplatissement est


2

4
4

E(X ) =
Statistique 3 (5009)

Variance

V (X ) = E(X 2 )

E(X )2 = n1 12 + n1 22 + .... + n1 n2

= n1 (1 + 22 + 32 + ... + n2 )
Donc

=
=

1 n(n+1)(2n+1)
n
6
n+1
(4n
+2
12

n+1 2
2

n+1 2
2

41 / 113

Statistique 3 (5009)

42 / 113

Loi de Bernoulli de paramtre p

n+1 2
2

Dfinition
X suit la loi de Bernoulli de paramtre p si elle prend deux valeurs
possibles 1 avec probabilit p et 0 avec probabilit 1 p. La valeur 0
symbolise lchec et 1 le succs.

3(n + 1))
V (X ) =

n+1
2

n2 1
12

Lesprance de X : E(X ) = (1

Remarque

p) 0 + p 1 = p
E(X ) = p

Sn2

Pour avoir le terme rouge


prcdent, on additionne les quations :
3
3
2
(1 + 1) = 1 + 3 1 + 3 1 + 1
(2 + 1)3 = 23 + 3 22 + 3 2 + 1
..
.
. = ..
(n + 1)3 = n3 + 3 n2 + 3 n + 1

Do (n + 1)3 = 1 + 3Sn2 + 3 n(n+1)


+ n donc
2
n(n+1)
1
2
3
2
Sn = 3 [(n + 1)
(1 + n) 3 2 ] = n+1
3 [n + 2n + 1
Statistique 3 (5009)

La variance de X :
V (X ) = (1 p)(0 p)2 + p (1
= p(1 p)[p + (1 p)]
= p(1 p)

p)2

V (X ) = p(1
1

3n
2 ]

p)

= ...
43 / 113

Statistique 3 (5009)

44 / 113

Loi Binomiale

Esprance et variance

Dfinition
X suit la loi Binomiale de paramtres n et p ssi X reprsente le
nombre de succs dans n rptitions indpendantes de lpreuve de
n
P
Bernoulli de paramtre p. Autrement X =
Xi , o chaque Xi suis la
i=1

loi de Bernoulli de paramtre p et les Xi sont indpendantes. On note


X
B(n; p).
Soit k 2 {0, ..., n}
Dans la liste x1 ; x2 ; ...; xn de ralisations des Xi , la probabilit
davoir k succs est, par lindpendance des Xi , :
pk (1

p)n

p)n

, 8k = 0, .., n

Statistique 3 (5009)

45 / 113

Loi hypergomtrique
Considrons une population de N individus, dont une proportion p,
donc N0 = pN individus, possdent un caractre donn, disant C. On
prlve n individus (sans remise ou dun coup). La v.a. X qui compte le
nombre dindividus ayant le caractre C suit une loi hypergomtrique
de paramtre N, n, p, on note X
H(N; n; p).
Pour k = 0, ..., n
Choisir k individus ayant le caractre C parmi les n revient
choisir
I

La variance de X : De lindpendance
n
P
V (X ) =
V (Xi ) = np(1 p)

n
P

i=1

E(Xi ) = np

i=1

p)

Proprit : La somme de deux v.a. binomiales indpendantes de


mme paramtre p est une v.a. binomiale :
9
X1
B(n1 ; p) =
X2
B(n2 ; p)
=) X1 + X2
B(n1 + n2 ; p)
;
X1 et X2 indpendantes
Statistique 3 (5009)

46 / 113

Esprance et variance

Dfinition

E(X ) = np

V (X ) = np(1

Il y a Cnk faons de choisir les k valeurs xi = 1. Donc,


P(X = k ) = Cnk pk (1

Lesprance de X : De lindpendance E(X ) =

k individus parmi les N0 possdant C. Le nombre de possibilits est


CNk 0 .
n k individus parmi les N N0 individus ne possdant pas C. Le
nombre de possibilits est CNn kN0 .

Donc,

P(X = k ) =

CNk 0 CNn

Statistique 3 (5009)

CNn

k
N0

Notons S un chantillon de n individus. Dfinissons sur


lensemble des chantillons de taille n la variable suivante associ
un individu i :

1, si i 2 S,
(S)
=
i
0, sinon.
chantillons contenant i
E( i ) = P( i = 1)= nb nb
total dchantillons =probabilit dinclure lindividu i
dans S.
Nombre dchantillons total est CNn
Nombre dchantillons incluant un individu i donn est

CNn
Do
Et donc,

47 / 113

Cn

P( i = 1) = CN n 1 =
N
E( i ) = Nn

1
1

(N 1)!
n!(N n)!
N!
(n 1)!(N 1 (n 1))!

Statistique 3 (5009)

n
N
48 / 113

Variance
Numrotons les individus de la population de 1, ..., N et introduisant :

1, si i 2 N0 (possde C),
Yi =
0, sinon.
On a donc
X =

Yi

i2S

E(X ) = E(

i2S

Yi ) = E(

N
P

Yi i ) =

i=1

N
P

Yi E( i ) =

i=1

V (X ) = V (

Yi ) = V (

Yi2 V ( i ) +

i=1

Yi Yj cov ( i , j )

i,j:i6=j
2

cov ( i , j ) =

n(n
N(N

1)
1)

(N 2)!
n!(N n)!
N!
(n 2)!(N 2 (n 2))!

n2
n (n
=
N
N2

Notons aussi quil y a N0 (N0


Donc,
2
V (X ) = N0 ( Nn Nn 2 ) N0 (N0
Statistique 3 (5009)

N
X

n
V ( i ) = E( i2 ) E( i )2 = E( i ) E( i )2 = Nn
N2
cov ( i , j ) = E( i j ) E( i )E( j )
E( i j ) =probabilit que lchantillon contienne i et j=P({i, j} S)=
Cn

E(X ) = np

Yi i ) =

i=1

i2S

Donc, E( i j ) = CN n 2 =
N
On en dduit que

N0 Nn

N
X

49 / 113

1)N n(N
N(N 1)

n(n 1)
N(N 1) .

1)

n N
N2 N

n
1

1) couple (i, j) dans N0 avec i 6= j.


1) Nn2 N
N

n
1

= np(1

Statistique 3 (5009)

n
N)

N0 (N0 1)n(N n)
N 2 (N 1)
50 / 113

Loi gomtrique ou de Pascal


V (X ) =

np( NN n )

1)(N n)
np (N0N(N
1)

N
V (X ) =
N

n N 1
np N
N 1( N

n
np(1
1

N0 1
N )

n
np N
N 1 (1

p)

On reproduit de faon indpendante des expriences de Bernoulli de


paramtre p. La loi gomtrique est la loi de la v.a. X qui reprsente le
nombre dexpriences ncessaire pour obtenir le succs.

p)

Remarque
Si N est trs grand devant n, on peut approcher V (X ) np(1
est la variance de B(n, p). De faon gnrale

p) qui

H(N; n; p) tend vers B(n; p) quand N tend vers + 1


Ce qui signifie PH (X = k ) ! PB (X = k ) o PH dsigne H(N; n; p) et
PB dsigne B(n, p). En pratique cette approximation sapplique ds
que Nn < 0.1, soit 10%.

Statistique 3 (5009)

Dfinition

51 / 113

Pour tout k 2 IN ,

P(X = k ) = p(1

p)k

Lesprance de X . Posons q = 1 p. Le calcul suivant sappuie sur les


sries entires :
E(X ) = p 1 + pq 2 + pq 2 3 + ... + pq n (n + 1) + ...
= p(1 + 2q + 3q 2 + 4q 3 + ... + (n + 1)q n + ....)
R
E(X ) dq = p(q + q 2 + q 3 + ... + q n + ...), Rsultat sries entires
R
n
E(X ) dq = p limn q 11 qq = pq 1 1 q
E(X ) = p 1(1 q+q
= (1 (1p p))2 = p1
q)2
1
E(X ) =
p
Statistique 3 (5009)

52 / 113

Variance
Exemple
Le calcul suivant sappuie sur les sries entires :
V (X ) = E(X 2 ) E(X )2
E(X 2 ) = p 12 + pq 22 + pq 2 32 + ... + pq n (n + 1)2 + ...
R
E(X 2 ) dq = pq + pq 2 2 + pq 3 3 + pq 4 4 + ... + pq n+1 (n + 1) + ....
= qp(1 + q 2 + q 2 3 + ... + q n (n + 1) + ....)
= qp (1 1q)2
q)2 +2(1 q)q
(1 q)4
1+q
1
= qp
p2
p2

E(X 2 ) = p (1
V (X ) =

V (X ) =

p(1+q)
(1 q)3

q
p2

1+q
p2

avec q = 1

Donner P(X = 20).

Statistique 3 (5009)

Donner E(X ) et V (X ).

53 / 113

Solution

On note Y la v.a. qui compte le nombre de boules blanches obtenues


dans lexprience reproduite (tirer un chantillon de 10 boules). Il y a
5
une proportion de 10
12 = 6 boules blanches dans lurne.
Donc, Y suit la loi H(12, 10, 56 )
La probabilit dobtenir 10 boules toutes blanches est de
P(Y = 10) =

10 C 0
C10
2
10
C12

11

12!
10!(12 10)!

Donc, X suit la loi gomtrique de paramtre p =


Do
P(X = 20) =
E(X ) =

1
1/66

1
66 (1

1 19
66 )

= 66 et V (X ) =

1
66

1
662

1
66 .

54 / 113

Loi binomiale ngative


Dfinition
On reproduit de faon indpendante des expriences de Bernoulli de
paramtre p. La loi binomiale ngative dordre n est la loi de la v.a. X
qui reprsente le nombre dexpriences ncessaire pour obtenir n
succs (lattente du nime succs).

P(X = k ) = Ckn

1
n 1
(1
1 pp

p)k

1 (n 1)

Ckn 11 est le nombre de listes de longueur k


k 1 (n 1) fois 0.

= 65 66 = 4290

Statistique 3 (5009)

Statistique 3 (5009)

Remarquons que lexprience se termine automatiquement par


un succs.
Pour n = 1 on retrouve la loi gomtrique (de Pascal), qui est
donc un cas particulier. Certains auteurs appellent loi de Pascal,
la loi binomiale ngative
Pour tout k n,

1
=
66

0.011
1

Considrons lexprience suivante : on tire un chantillon de 10 boules


dun coup dune urne contenant 10 boules blanches et 2 boules
rouges. On compte le nombre de boules blanches obtenues dans
lchantillon et on le remet dans lurne.
On reproduit cette exprience jusqu lobtention de 10 boules toutes
blanches.
On note X la variable alatoire qui compte le nombre dexpriences
ncessaire.

55 / 113

Statistique 3 (5009)

= Ckn

1 n
1 p (1

1 avec n

p)k

1 fois 1 et
56 / 113

Esprance et Variance

Loi de Poisson

Nous remarquons que la loi binomiale ngative est la loi dune somme
de n v.a. indpendantes suivant chacune la loi gomtriques,
correspondant aux n succs successifs :
Donc
n
X
X =
Xi
i=1

o Xi suit une loi gomtrique de paramtre p et les Xi sont


indpendantes.
Posons q = 1 p.
E(X ) =

n
X

E(Xi ) =

n
p

V (Xi ) =

nq
p2

i=1

V (X ) =

n
X
i=1

Statistique 3 (5009)

Proprit
Si X1
Si Xn

Pour un petit intervalle de temps t, la probabilit de ralisation


de lvnement est proportionnelle t (= t)
La probabilit de deux ralisations sur t est ngligeable quand
t devient trs petit.
Les ralisations des vnements sont indpendantes.
Exemple : Nb appels tlphoniques pendant une priode T , Nb
pices dfectueuses dans une livraison importante de bonne
qualit,...,etc.
On dmontre que la v.a. X qui compte le nombre de ralisations de
lvnement dans T suit la loi de Poisson de paramtre , note P( ),
donne par
ke
P(X = k ) =
k!
Esprance et variance
E(X ) =
et
V (X ) =

57 / 113

P( ), X2
P(), alors, X1 + X2
P( + )
B(n; pn ) et lim npn = finie, alors, Xn converges (en
n !+1

loi) vers une variable de poisson P( ). En pratique, si


X
B(n, p) avec n > 50 et p < 0.1, alors on peut approcher la
loi de X par P(np). Le but est de faciliter les calculs.

Example

Pour un htel donn, on estime que la probabilit quun client ayant


rserv une chambre ne se prsente pas le jour venu est de 1%.
Lhtel compte 100 chambres et a accept, pour une journe type 102
rservations. Quelle est la probabilit que tous les clients qui se
prsentent trouvent une chambre libre ?
X =nombre de dsistements, suit B(102; 0.01). On a bien 102 > 50 et
0.01 < 0.1. Alors, on peut dire que X
P( ) avec
= 102 0.01 = 1.02.
Il sagit de calculer P(X 2) = 1 (P(X = 0) + P(X = 1)) =
0
1.02 + 1.021 e 1.02 ) 0.27
1 ( 1.02
0! e
1!
Statistique 3 (5009)

Notons T une priode de temps dans laquelle on sait quil arrive en


moyenne vnements. On fait les hypothses suivantes :

59 / 113

Statistique 3 (5009)

58 / 113

Loi uniforme
Dfinition
X suit la loi uniforme sur [a, b], on note X
probabilit est :
f (x) =

1
b

U ([a, b]) si sa densit de

, 8x 2 [a, b] et 0 ailleurs

F IGURE: Densit - Loi uniforme

Statistique 3 (5009)

60 / 113

Esprance et variance
E(X ) =

IR

xf (x) dx =

b
a

Fonction de rpartition

x
b

V (X ) =
=
=
=

x2
b a dx
(b a)(b2 +ba+a2 )
3(b a)

1
3
a3 ) =
3(b a) (b
(a+b)2
b2 +ba+a2
3
4
2
2
4b +4ab+4a 3(a2 +2ab+b2 )
12
b2 2ab+a2
12
(b a)2
12

V (X ) =

1 2
x
a 2

a+b
E(X ) =
2

V (X ) = E(X 2 ) E(X )2
R
Rb
E(X 2 ) = IR x 2 f (x) dx = a
=

dx =

2(b

a)

(b2 a2 )
F (x) =

8
8
< 0
< 0 si x < a
R xsi x1 < a
x a
si x 2 [a; b]
dt
si
x
2
[a;
b]
f (t)dt =
=
: a b a
: b a
1
1 si x > b
1 si x > b

b2 +ba+a2
3

F IGURE: Fonction de rpartition - Loi uniforme

(b

Attention : Si X , Y
U ([a; b]) et X et Y sont indpendantes, alors,
X + Y ne suit pas une loi uniforme.

a)2
12

Statistique 3 (5009)

61 / 113

Statistique 3 (5009)

62 / 113

Loi exponentielle

La densit dune v.a. X qui suit la loi exponentielle est donne par :
f (x) = e

, si x

o > 0
EspranceRet Variance
+1
E(X ) = 0
xe x dx = [x(
1
= [ e x ]+1
= 1
0

0 et f (x) = 0 sinon

x )]+1
0

E(X ) =
V (X ) = E(X 2 ) E(X )2
R +1
E(X 2 ) = 0 x 2 e x dx = [x 2
= 2 E(X ) = 22
1
1
V (X ) = 22
2 =
2
V (X ) =

R +1
0

Exemple dutilisation. La loi exponentielle sutilise principalement pour


estimer la dure de vie de matriel (ou composants) lectronique ; en
fiabilit de faon gnrale. 1 est alors, le temps moyen entre 2
dfaillances. reprsente le taux de dfaillance.

dx

Exercice. Dterminer la fonction de rpartition de la loi exponentielle.


x ]+1
0

R +1
0

2 x

x dx

1
2

Statistique 3 (5009)

63 / 113

Statistique 3 (5009)

64 / 113

Lois gamma

Esprance et
Variance
R
E(X ) =

Dfinition

On dit que la v.a. positive X suit la loi gamma de paramtres r et


(strictement positifs), on note X
(r ; ), si sa densit est donne
par :
f (x) =

(r )

x r 1

o pour tout r > 0, (r ) =

R +1
0

xxr 1

1)

V (X ) =

Et donc, en remarquant que (1) = 1,


r 2 IN =) (r ) = (r

65 / 113

La loi du khi-deux n degrs de libert, note


de la loi ( n2 ; 12 ). Donc,

2,
n

est le cas particulier

Densit :

V(

2)
n

Si X
X +Y

n
2
1
2
n
2
1
22

1
n
22
e
( n2 )

1
x
2

x2

, 8x

dx

r (r +1)

r
2

(r2 , ) et X et Y sont indpendantes


Statistique 3 (5009)

66 / 113

Une loi trs importante, utilise par exemple : variation du diamtre


dune pice dans une fabrication, rpartition des erreurs de mesure
autours de la vraie valeur,....Le thorme central limite lui donne un
rle capital : la moyenne de v.a. indpendantes et de mme loi suit
asymptotiquement une loi normale. Do son utilit en chantillonnage.

Dfinition

0 et f (x) = 0, si x < 0

X suit une loi normale, on note X


1
f (x) = p e
2

=n

2
m

N (, ) si sa densit est :
1
2

(x

et X et Y sont indpendantes, alors,

IR

Statistique 3 (5009)

) , 8x 2 IR

R
On admet que f est une densit donc, IR p1 e
2
Z
p
2
1 x
e 2 ( ) dx =
2

= 2n

2 ,Y
n
2
n+m

x x r +1

Loi normale (ou de Laplace-Gauss)

Dfinition

Proprit : Si X
(r1 , ), Y
alors :X + Y
(r1 + r2 ; )

Loi du khi-deux

2)
n

dx

V (X ) =

Statistique 3 (5009)

E(

r
(r +2)
(r )
= 12 r (r +1)
r +2
(r )
(r )
r (r +1)
r2
r

1)!

Cas o r = 1 On retrouve la loi exponentielle de paramtre


Cas o = 1 on note simplement (r ) ou r

f (x) =

xxr

V (X ) = E(X 2 ) E(X )2
r R +1
r R +1
E(X 2 ) = (r ) 0 x 2 e x x r 1 dx = (r ) 0 e
R +1 r +2
r
x x r +1 dx
= (r ) (rr+2)
+2
0
(r +2) e

dx

1) (r

r R +1
e
(r ) 0
x x r dx

E(X ) =

Cas o r > 1 en intgrant par partie,


(r ) = (r

+1
xe x x r 1 dx
0
r
r +1
(r +1) R +1
r +1
0
(r )
(r +1) e
r
(r +1)
= 1 r (r(r)) = r
r +1
(r )

0 et f (x) = 0, si x < 0

, 8x
e

(r )

67 / 113

Statistique 3 (5009)

1
2

(x

) dx = 1 ou
(2)

68 / 113

Proprits

F IGURE: Densit - Loi normale

Si X
N(; ), La courbe de sa densit est symtrique par rapport
la droite verticale x = , do
) = 12 ,

P(X ) = P(X
P(X

h) = P(X

+ h) =

1 P(X 2[ h;+h])
, 8h
2

>0

Valeurs particulires
P( 1, 64 < X < + 1, 64 ) = 0, 90
P( 1, 96 < X < + 1, 96 ) = 0, 95
P( 3, 09 < X < + 3, 09 ) = 0, 99

F IGURE: Densit - Loi normale


Statistique 3 (5009)

69 / 113

Statistique 3 (5009)

70 / 113

Esprance et variance
E(

1
)= p
2

IR

1
2

(x

Avec la variable y ,
Z
Z
1 2
y
e 2 dy =
e

) dx

Avec le changement de variable y = x donc, dy = dx, on a


Z
1 2
1 2
X
1
1
E(
)= p
ye 2 y dy = p [ e 2 y ]+1
1 =0
2 IR
2
Donc,

E(X )

IR

E(( X

2
) )

=
=
=
=

2
) )

1 2
y
2
1 2
y
2

dy

2
)

) dy

)]+1
1

) = E((

do

= E(( X
x 2
1
2
) e 2 ( ) dx

R x
p1
(
2 RIR
1
p
y (ye
2 IR
p
[y ( e
2
R
1 2
p1
e 2y
2 IR

E( X

Statistique 3 (5009)

IR

p
p
) 1 dx = 1
2 = 2

IR

V(

= 0 ou encore

) = E(( X

(x

Du calcul prcdent :

E(X ) =
V(X

1
2

V(

2
) )

)=

1 p
)2 ) = p
2 = 1
2

1
2

Ou encore,
V (X ) =
1 2
y
2

dy

V (X ) = 1
2

71 / 113

Statistique 3 (5009)

72 / 113

Loi normale centre rduite


Dfinition
La v.a. X suit la loi normale centre rduite, on note X
densit est
1 2
1
f (x) = p e 2 x , 8x 2 IR
2

Proprit
1) La loi normale admet des moments de tout ordre.
2) Si X
N(1 ; 1 ), Y
N(
q 2 ; 2 ) et X et Y sont indpendantes
alors, X + Y

N(1 + 2 ,

2
1

N(0; 1) si sa

Cest donc un cas particulier de la loi N (; ) gnrale.


La densit de N (0; 1) est centre en 0, sa courbe est symtrique
par rapport laxe des ordonnes.

2
2)

N (0; 1) =) E(X ) = 0 et V (X ) = 1
X

N (; ) =)

Dfinition (df. alternative de la loi

N (0; 1)

Soit X1 , X2 , ..., Xn indpendantes et suivant chacune N (0; 1). Alors,


X12 + X22 + ... + Xn2
Statistique 3 (5009)

73 / 113

Statistique 3 (5009)

2
n
74 / 113

chantillonnage
On veut estimer les paramtres dune population (ex. moyenne,
variance, proportion).
On constitue un chantillon de n observations partir desquelles
on tablit lestimation.

Exemple
X
N (0, 1).
Donner la loi de X 2 , son esprance et sa variance.

Linfrence statistique nest possible que si lchantillon a t tir


suivant des rgles rigoureuses...

Lecture tables statistiques

Statistique 3 (5009)

Pour estimer la dure de vie (suppose comme v.a.), dun appareil


lectronique, on prlve au hasard n appareils de mme type et
on mesure leurs dures de vie : les diffrences entre les dures
de vie mesures sont supposes comme tant des fluctuations
alatoires. La thorie des probabilit justifiera alors, la qualit de
lapproximation de la dure de vie (moyenne) relle inconnue de
la dure de vie (moyenne) mesure sur lchantillon.

75 / 113

Statistique 3 (5009)

76 / 113

On dispose dune population et dune v.a. X (dfinie sur )


suivant une loi P.
Un chantillon (alatoire) de taille n est un n-uplet (X1 , ..., Xn ) de
v.a. indpendantes suivant une mme loi parente P de X . On dit
aussi un n-chantillon de X (ou issu de X ) ou encore un
chantillon thorique.
Les valeurs observes (mesures) x1 , x2 , ..., xn sont des
ralisations respectives des v.a. X1 , ..., Xn ou de lchantillon. Le
n-uplet (x1 , x2 , ..., xn ) est aussi appel parfois chantillon
(empirique). Notons que celui-ci nest pas alatoire.

Dfinition

Fonction de rpartition empirique


Soit X une v.a. de fonction de rpartition F et X1 , ..., Xn un chantillon
de X .
La fonction de rpartition empirique est dfinie par :
n

Fn (x) =

i=1

nFn (x) =

77 / 113

Esprance empirique

E(X ) = E(

i=1

i=1

En effet,

n
n
2
1X
1 X
Xi ) = 2
V (Xi ) =
n
n
n

1X 2
Xi
n
i=1

S 02 =

1X
1X
Xi ) =
E(Xi ) = m
n
n

Statistique 3 (5009)

S 02 =

78 / 113

X )2

i=1

i=1

i=1

1X
S =
(Xi
n
02

De lindpendance des Xi
V (X ) = V (

Statistique 3 (5009)

Proprit.

F (x))

La variance de lchantillon (ou empirique) est

Xi

E(X ) = m et V (X ) =

1
F (x)(1
n

Variance empirique

Notons, E(X ) = m, V (X ) = 2 et k (moment centr dordre k ) les


caractristiques de X .
Caractristique de lchantillon :
La moyenne de lchantillon (moyenne empirique) :

Proprit. On a

B(n, F(x)). Donc,

E(Fn (x)) = F (x) et V (Fn (x)) =

Statistique 3 (5009)

1I{Xi x} et chacune des 1I{Xi x} est une v.a. de Bernoulli

i=1

T = f (X1 , ..., Xn )
P
exemple f (X1 , ..., Xn ) = n1
Xi = X .
Autre terminologie, caractristique=statistique.

X =

n
P

desprance F (x). Do nFn (x)

Une statistique T est une v.a. fonction mesurable de X1 , ..., Xn ,

n
1X

Nombre de v.a. Xi x
1X
=
1I{Xi x}
n
n

=
=

i=1

79 / 113

n
n
P
2
1P
2 = 1
(X
X
)
(Xi2 2Xi X + X )
i
n
n
i=1
i=1
n
n
n
P
2
1P 2
1P
( n Xi ) 2 n Xi X + n1 X
i=1
i=1
i=1
n
n
n
P
2
1P 2
1P
( n Xi ) 2X n Xi + X = ( n1 Xi2 )
i=1
i=1
i=1n

2
1P 2
Xi
X
n
i=1
Statistique 3 (5009)

2X X + X

80 / 113

Dcomposition de S 02

Biais de S 02
n

1X
(Xi
n

02

S =

m)

i=1

En effet, P
S 02 = n1 ni=1 (Xi m + m X )2
n
P
= n1 [(Xi m)2 2(Xi m)(X
=
=
=
=

i=1
n
1P
( n (Xi
i=1
n
1P
( n (Xi
i=1
n
1P
( n (Xi
i=1n
1P
(Xi
n
i=1

n
P

2 n1

m)2

(Xi

i=1

m)

m) + (X

m)(X
n
P

2(X

m) n1

m)2 )

2(X

m)(X

(X

E(S 02 ) =

Dmonstration.

m)2 )

m)2

Theorem

(Xi

i=1

m) +

m)2 ]
n
1P
(X
n
i=1

m) + (X

m) + (X

E(S 02 )
m)2

m)2

m)2

n
1P
(Xi
n
i=1
n
P

i=1

m)2

1
n

= E[
(X m)2 ]

1
2
= n E[(Xi m) ]
E[(X m)2 ]
i=1

n
P
= n1 V (Xi )
V (X )
=

n 1 2
n

Autre proprit. V (S 02 ) = nn31 [(n 1)4 (n 3)


grand V (S 02 ) 4 n 4 (justification :calcul long.)

m)2

(X

Statistique 3 (5009)

81 / 113

4]

et si n est trs

Statistique 3 (5009)

82 / 113

E(S 02 ) 6= 2 . On dit que S 02 est une statistique biaise de 2 . Pour


cette raison, on introduit la variance empirique modifie (ou corrige) :
2

S =

S 02

E(S 2 )

n
X

(Xi

X )2

i=1

ainsi,
=n 1
et
= n 1 E(S 02 ) = n n 1 n n 1 2 = 2 et donc S 2
est sans biais.
Corrlation entre X et S 02
Sans perte de gnralits, on suppose que m = 0. En fait,
cov (X , S 02 ) = cov (X m, S 02 ) et S 02 (X ) = S 02 (X m).
02
02
cov (X , S 02 ) = E(X
)E(S 02 ) = E(X
"S ) E(X
!#S )

n
n
2
1P
1P 2
=E
Xi
Xj
X
n
n
"i=1 j=1 !#
n
n
P
P
3
= n12 E
Xi
Xj2
E(X )
i=1
j=1
!
n
n
P
P
3
= n12 E
Xi Xj2
E(X )
S2

Si i 6= j, comme Xi et Xj sont indpendantes,


E(Xi Xj2 ) = E(Xi )E(Xj2 ) = 0 (puisque m = 0).
Do
"
n

3 #
n
P
P
1
cov (X , S 02 ) = n12 E
Xi3
E
Xi
n
i=1
n

i=1

n
P 3
P
1
1
3
= n2 E
Xi
E
Xi
( explication prcdente)
n3
On obtient

i=1

i=1

cov (X , S 02 ) =

3
n2

3
n 1
=
3
3
n
n3

Et donc, X et S 02 sont corrles (varie dans le mme sens) sauf si


3 = 0 qui est le cas dune distribution symtrique.
Attention : cov (X , Y ) = 0 6=) X et Y indpendantes

i=1j=1

Statistique 3 (5009)

83 / 113

Statistique 3 (5009)

84 / 113

chantillon gaussien

Ici, X
N (m, ). Donc, X1 , ..., Xn est un chantillon de N (m; ).
Comme les Xi sont indpendantes,
X

On dduit des proprits de la loi

N (m, p )
n

(n

1)S 2
2

Et aussi,

V (S 2 ) =

le degr de libert n 1 est du au nombre de termes indpendants


(parmi les Xi X ) dont la somme des carrs constitue nS 02 .

n2

E(S 2 ) =

Remarque

V (S 02 ) = 2

2
n 1

que

E(S 02 ) =

Theorem
nS 02

2,

2
n

Theorem (de Fisher)


X et S 2 sont indpendantes ssi X1 , X2 , ..., Xn est un chantillon de loi
normale.
Statistique 3 (5009)

85 / 113

Statistique 3 (5009)

86 / 113

Exemple

Loi de Student et chantillon de loi Normale

On prlve 25 pices dune production industrielle. Les tudes


pralables ont dmontr que le diamtre de ces pices suit N (10, 2).
Entre quelles valeurs a-t-on 90% de chances de trouver le diamtre
moyen de ces 25 pices et leurs variance ?

La loi de Student n degr de libert, note Tn est dfinie comme


suit : Soient U et Y deux v.a. indpendantes tq :

X
10

Dfinition

N (10; p225 ). Donc avec une proba de 0.9 on a

1.64 p225 < X < 10 + 1.64 p225 ou bien

2 .
24

On lit sur la table de loi

t1 , t2 , tels que P(

2
24

les fractiles

< t1 ) = 0.05 et P(

2
24

On a X =

n
1P
Xi
n
i=1
(n 1)S 2

Dautre part

< t2 ) = 0.95.

(n 1)S 2
2

On a t1 = 13, 848 et t2 = 36, 415


4
4
Do S 02 2 [ 25
13, 848; 25
36, 415].
Statistique 3 (5009)

2
n

E(Tn ) = 0 et V (Tn ) =

9, 34 < X < 10, 66


nS 02

N (0; 1) et Y

87 / 113

N (m; pn ) donc,
2 .
n 1

U
alors, q

Y
n

X m

2
p

Tn

, 8n > 2
N (0, 1)

Daprs le thorme de Ficher,

sont indpendantes. Il en rsulte


s
(n 1)S 2
X mp
X mp
2
(
n)/(
)=
n
n 1
S
Statistique 3 (5009)

Tn

X m

n et

1
88 / 113

Application
Le rsultat prcdent est trs utile car il ne dpend pas de , on
utilisera donc cette formule chaque fois que est inconnu.

Exemple (suite)
On met deux hypothses

Exemple (Test t de Student)

H0 : m0 = X = m ici m = 10,

(test paramtrique) On souhaite tester si une machine fabricant des


pices industrielles est toujours bien rgle. On admet que le diamtre
des pices produites suit une loi normale. Le diamtre moyen des
pices est sens tre gal 10(units). On prlve 25 pices des
pices produites par cette machine. On veut tester lhypothse
H0 :00 moyenne = 1000 avec un risque de rejet tort de 10%

H1 : m0 6= m test bilatral (unilatral si ex : m0 > m).


Aprs calcul, on trouve : X = 10, 2224
p
p
10
X m
p
n = 10,2224
25 2.12
S
0,275994

Fractiles de la loi de Student, 24 degrs de libert, p=0.1,e.i. t


p
tel que P(|Z | > t) = 0.1 est t 1.711. Ici Z = X S m n
Comme 2.12 2
/ [ 1.711; +1.711], H0 est rejete.

Les diamtres de ces pices :


9,5-10-10,5-10,32-9,5-9,88-9,6-10-10,01-10,23-10,55-10,4-11-11,211,6-10,9-10,05-10,02-9,97-9,86-9,78-10,05-10,11-10,64-9,89

Statistique 3 (5009)

89 / 113

Loi de Fisher-Snedecor
La loi de Fisher-Snedecor n et m degrs de libert, note F (n, m),
2, Y
2 et U et Y sont
est dfinie comme suit : Si U
n
m
U/n
indpendantes, alors, Y /m
F (n, m)
m
m 2 , 8m

> 2 et V (F (n, m)) =

Statistique 3 (5009)

2m2 (n+m 2)
, 8m
n(m 22 )(m 4)

>4

Soient X et Y deux v.a. dfinies de (, C , P) dans IR. On sintresse


ici au couple (X , Y ) : (, C , P) ! (IR2 , B(IR 2 )).
Couple de v.a. discrtes
1. Loi conjointe : On appelle loi du couple (X , Y ), la probabilit PXY
donne par
PXY (xi , yj ) = P(X = xi \ Y = yj )

Si X prend les valeurs : x1 , ..., xn et Y les valeurs : y1 , ..., ym . On note

Exemple
X , Y , Z et W sont des v.a. IID, suivant N (0, 1). Posons R =
Donner t0.95 tq P(R t0.95 ) = 0.95
2 et Y 2 + Z 2 + W 2
2 . Do
On a X 2
1
3
2
3 Y 2 +ZX2 +W 2 = 3R
F (1, 3). On lit de la table de F (1, 3)
P(3R x) = 0.95,

X2
Y 2 +Z 2 +W 2

on lit x = 10.1, donc t0.95 = 10.1/3

Application de F (n, m) : tests dhypothses non traits ici.


Statistique 3 (5009)

90 / 113

Couples de variables alatoires

Dfinition

E(F (n, m)) =

S 2 = 0, 275994

91 / 113

pij = PXY (xi , yj ), i = 1, ..., n et j = 1, ..., m


On peut reprsenter (cas fini) la loi de (X , Y ) dans un tableau.
y1 yj ym
..
x1
.
..
..
PP
PP
.
.
On a
pij =
PXY (xi , yj ) = 1
xi pij
i j
i j
..
.
xn

Statistique 3 (5009)

92 / 113

Exemple

Loi marginale de Y . De mme

X \Y 0
1
5
7
1
0.11 0.06 0.1
0.08
2
0.09 0.08 0.13 0
6
0.05 0.07 0.12 0.11
p22 = PXY (2; 1) = 0.08
p14 = PXY ( 1; 7) = 0.08. On peut vrifier
que
XX
PXY (xi , yj ) = 1
i

Lois marginales. Ce sont les lois de X et de Y induites par la loi du


couple.
P
Loi marginale de X . P(X = xi ) = P(X = xi \ Y = yj ) (formule des
j

proba. totales).
Do

P(X = xi ) =

m
X

P(Y = yj ) =

i=1

pij = pj

y1

x1
..
.
xi
..
.
xn
pY
On a

yj ym PX
..
.
..
.
pij pi
..
.
..
.
pj 1
n
X

pij = pi

pi = 1 et

i=1

j=1

Statistique 3 (5009)

n
X

93 / 113

m
X
j=1

pj = 1

Statistique 3 (5009)

94 / 113

loi conditionnelle
Loi conditionnelle de X sachant Y = yj

Exemple
X \Y 0
1
5
1
0.11 0.06 0.1
2
0.09 0.08 0.13
6
0.05 0.07 0.12
PY
0.25 0.21 0.35
p3 = 0.35
p4 = 0.19.
On peut vrifier que
n
X
i=1

7
0.08
0
0.11
0.19

P(X = xi /Y = yj ) =

PX
0.35
0.3
0.35
1

Loi conditionnelle de Y sachant X = xi


P(Y = yj /X = xi ) =

P(Y = yj \ X = xi )
pij
=
P(X = xi )
pi

Exemple (P(Y/X=-1) dans lexemple prcdent)

m
X
pi = 1 et pj = 1

X \Y
1
..
.

j=1

0
0.11
..
.

yj
P(Y /X =
Statistique 3 (5009)

P(X = xi \ Y = yj )
pij
=
P(Y = yj )
pj

95 / 113

1
0.06
..
.

5
0.1
..
.

7
PX
0.08 0.35
..
.

0
1
5
7
1) 0.11/0.35 0.06/0.35 0.1/0.35 0.08/0.35
Statistique 3 (5009)

96 / 113

Esprance et Variance conditionnelles

Remarque
X et Y sont indpendantes ssi

On appelle esprance de Y sachant X = x, la quantit :

pij = pi pj , 8i, 8j

E(Y /X = x) =

Dans lexemple prcdent 0.3 0.19 6= 0 =) X et Y ne sont pas ind..


Proprit de lesprance
Si ' : IR2 ! IR est mesurable et (X , Y ) est un couple alatoire
discret, alors,
X
E('(X , Y )) =
'(xi , yj )pij

i,j

xi yj pi. p.j =

i,j

X
i

xi pi.

X
j

yj p.j () E(XY ) = E(X )E(Y )

Statistique 3 (5009)

On appelle v.a. esprance conditionnelle de Y sachant X , la v.a.


note E(Y /X ) = '(X ), dfinie par

on a not '(X ) car cest une fonction dfinie sur les images de X ,
le rsultat est donc une compose de deux v.a.
Proprit

EsprancePdu produit
E(XY ) = xi yj pij , si de plus X et Y sont indpendantes, on a :
X

E(Y /X ) est linaire : E(aY1 + bY2 /X ) = aE(Y1 /X ) + bE(Y2 /X )

Thorme (Thorme de lesprance totale :)


E[E(Y /X )] = E(Y )

97 / 113

Dmonstration.

Statistique 3 (5009)

98 / 113

Exemple

En effet,
P
E[E(Y /X )] = P(X = x)E(Y /X = x)
x
P
P
= P(X = x) P(Y = y /X = x) y
x
y
P
P
=
P(Y = y /X = x) P(X = x) y
y x
P
= P(Y = y ) y = E(Y )

Une urne contient 10 boules rouges et 5 blanches, on tire une boule


au hasard : si elle est rouge, on lance un d numrot de 1 6 et on
gagne le chiffre obtenue. Si elle est blanche, on lance un d 4 faces
numrot de 1 4 et on perd 2 fois le chiffre obtenu. Calculer
lesprance des gains.
On note Y la v.a. donnant les gains et X celle correspondant au tirage
de boule (R :rouge et B :blanche).
On a

E(Y /X = R) =

Remarque

1
6

E(Y /X = B) =

Le thorme prcdent permet de calculer lesprance de Y sans


connatre sa loi, mais avec simplement la loi conditionnelle de Y
sachant X et de celle de X .

Statistique 3 (5009)

yj P(Y = yj /X = x)

j=1

x 7! E(Y /X = x)

i,j

E(XY ) =

n
X

On en conclut E(Y ) =

99 / 113

2
6
21
4

3
4
5
6 + 6 + 6
22
23
4
4
E[E(Y /X )] = 23

6
21
6 = 6
24
20
4 =
4
1
21
+

6
3 (

Statistique 3 (5009)

5) =

2
3

100 / 113

Variance conditionnelle

Calcul de la variance de lexemple prcdent

On appelle variance de Y sachant X = x, note V (Y /X = x), la


quantit dfinie par
V (Y /X = x) = E([Y

E(Y /X = x)]2 /X = x)

La v.a. variance conditionnelle, note V (Y /X ), est dfinie par


x 7! V (Y /X = x) = (X )

1) calcul de E[V (Y /X )] :
1
21 2
1
21 2
35
2
V (Y /X = R) = 16 (1 21
6 ) + 6 (2
6 ) + ... + 6 (6
6 ) = 12
1
1
1
2
2
2
V (Y /X = B) = 4 ( 2 + 5) + 4 ( 4 + 5) + ... + 4 ( 8 + 5) = 5
Do
2 35 1
65
E[V (Y /X )] =
+ 5=
3 12 3
18
2) Dautre part, V [E(Y /X )] = 23 ( 21
6

2 2
3)

2 2
3)

172
18

Au final

Thorme (Thorme de la variance totale (ou de


dcomposition de la variance))

V (Y ) = E[V (Y /X )] + V [E(Y /X )] =

V (Y ) = E[V (Y /X )] + V [E(Y /X )]

Statistique 3 (5009)

+ 13 ( 5

101 / 113

Statistique 3 (5009)

65 172
354
59
+
=
=
18
18
18
3

102 / 113

Somme de v.a. discrtes

Posons Z = X + Y , Z prend les valeurs zk = xi + yj , k = 1, ..., K .


P(Z = zk ) =

i,j:xi +yj =zk

Exemple

P(X = xi \ Y = yj )

Si X et Y sont indpendantes, (on peut parler de convolution de v.a.)


P
P(Z = zk ) =
P(X = xi )P(Y = zk xi )
i:9j,zk =xi +yj
P
= P(X = xi )P(Y = zk xi )
i

(si 6 9j,tq zk = xi + yj le terme se simplifie


car
P P(Y = zk xi ) = 0)
=
P(X = zk yj )P(Y = yj )
j:9i,xi +yj =zk
P
= P(X = zk yj )P(Y = yj )
j

Soient X et Y donnes dans le tableau :


X \Y 0
1
5
7
1
0.11 0.06 0.1
0.08
2
0.09 0.08 0.13 0
6
0.05 0.07 0.12 0.11
Alors, Z = X + Y prend les valeurs : -1, 0, 2, 3, 4,6=-1+7 et 6+0,
7=2+5 et 6+1, 9, 11, 13. Sa loi est donc,
zk
1
0
2
3
4
6
7
P(Z = zk ) 0.11 0.06 0.09 0.08 0.1
0.13 =
0.2 =
0.08 + 0.05 0.13 + 0.07
zk
9 11
13
Suite,
P(Z = zk ) 0 0.12 0.11

(si 6 9i, xi + yj = zk le terme se simplifie


car P(X = zk yj ) = 0)
Statistique 3 (5009)

103 / 113

Statistique 3 (5009)

104 / 113

Maximum de 2 v.a. discrtes


Exemple
X \Y
1
2
6

Posons, U = max{X , Y }, alors, U prend les valeurs


uk = max{xi , yj }, i = 1, .., n, j = 1, ..., m
P(U = uk ) = P(X = uk \ Y uk ) + P(X < uk \ Y = uk )
Posons, W = min{X , Y }, alors, W prend les valeurs
wk = min{xi , yj }, j = 1, .., n, i = 1, ..., m
P(W = wk ) = P(X = wk \ Y

wk ) + P(X > wk \ Y = wk )

Statistique 3 (5009)

0
0.11
0.09
0.05

1
0.06
0.08
0.07

max{X , Y }
uk 0
pk 0.11
min{X , Y }
wk
1
pk 0.35

5
0.1
0.13
0.12

7
0.08
0
0.11

1
2
5
6
7
0.06 0.17 0.23 0.05 + 0.07 + 0.12 0.19
0
1
2
5
6
0.14 0.15 0.13 0.12 0.11

105 / 113

Statistique 3 (5009)

106 / 113

Si le couple (X , Y ) admet une densit h alors,


Z x Z y
@2H
H(x, y ) =
h(u, v ) dvdu
donc, h(x, y ) =
@x@y
1
1

Couple de v.a. continues


On suppose ici que X et Y sont continues valeurs dans IR2 ,
La fonction de rpartition du couple (X , Y ) est

Les densits marginales f et g de X et Y se calculent par


Z
Z
f (x) =
h(x, y )dy
et
g(y ) =
h(x, y )dx

H(x, y ) = P(X < x \ Y < y )

IR

Les fonctions F , G de rpartition marginales de X et Y :

IR

Exemple

F (x) = P(X < x) = P(X < x \ Y 2 IR) = H(x, +1)

Soit (X , Y ) un couple alatoire de densit

10xy 2
si 0 x y 1,
h(x, y ) =
0
sinon.

G(y ) = P(Y < y ) = P(X 2 IR \ Y < y ) = H(+1, y )

X et Y sont indpendantes ssi


P(X < x \ Y < y ) = P(X < x)P(Y < y ) donc ssi

Calculer les densits marginales de X et Y .

H(x, y ) = F (x)G(y ), 8x, 8y

X et Y sont indpendantes ssi


h(x, y ) = f (x)g(y ), 8x, 8y

Statistique 3 (5009)

107 / 113

Statistique 3 (5009)

108 / 113

On admet que lon peut dfinir les lois conditionnelles


P(X /Y = y ) et P(Y /X = x) partir des densits conditionnelles
de X sachant Y et de Y sachant X .
Si h est la densit du couple (X , Y ), f la densit de X et g celle de
Y , alors,
f (x/Y = y ) =

h(x, y )
h(x, y )
et g(y /X = x) =
g(y )
f (x)

IR2

Si le couple (X , Y ) possde une densit h(x, y ).


Alors,
Z Z
FZ (z) =
f (x, y )dxdy , avec D = {(x, y ) 2 IR2 : x + y z}
La densit fZ de Z peut tre obtenue par
Z
Z
fZ (z) =
h(x, z x)dx =
h(z

IR2

E(XY ) =

FZ (z) = P(Z < z) = P(X + Y < z)

Moments : Si ' : IR2 ! IR est une fonction mesurable, alors :


Z
E('(X , Y )) =
'(x, y )h(x, y )dxdy
Donc,

Soient X et Y deux v.a. relles.


Posons Z = X + Y , alors, Z a pour fonction de rpartition

IR

IR

Si X et Y sont indpendantes alors,


Z
Z
fZ (z) =
f (x)g(z x)dx =
f (z

xyh(x, y )dxdy

IR

Statistique 3 (5009)

109 / 113

f (x) 6= 0 ssi x 2 [0; 1]


g(z x) 6= 0 ssi z x 2 [0; 1]
On a donc, x 2 [0; 1] et
z x 2 [0; 1], autrement,
0 x 1,
ou
0z x 1

0 x 1,
x z x +1

y )g(y )dy

Statistique 3 (5009)

Exemple
X
U ([0, 1]), Y
U ([0, 1]) et X et Y sont indpendantes. Quelle est
la loi de RZ = X + Y
fZ (z) = IR f (x)g(z x)dx
Domaine dintgration :

IR

y , y )dy

fZ (z) =

110 / 113

8 Rz
< R0 1dx, si z 2 [0; 1],
1
1g(z x)dx =
1dx, si z 2 [1; 2],
: z 1
0, sinon.
8
< z, si z 2 [0; 1],
2 z, si z 2 [1; 2],
fZ (z) =
:
0, sinon.

1
0

i
F IGURE: Densit de fZ

F IGURE: Une autre faon dexprimer


ce domaine
Statistique 3 (5009)

111 / 113

Statistique 3 (5009)

112 / 113

Covariance et corrlation linaire


La covariance de X et Y est dfinie par
cov (X , Y ) = E[(X

E(X ))(Y

E(Y ))] = E(XY )

E(X )E(Y )

cov (X , Y ) est dautant plus forte que X et Y varient dans mme


sens.
Le coefficient de corrlation entre X et Y est dfini par
=

cov (X , Y )
X Y

Si X et Y sont indpendantes alors :


cov (X , Y ) = 0 et donc = 0
et la rciproque est fausse.
= 1 lorsquil existe une relation linaire entre X et
Y :X = aY + b
Statistique 3 (5009)

113 / 113