Vous êtes sur la page 1sur 62

Module: Statistiques inf

erentielles

Poly de Cours - S3

Version du 29 novembre 2012

Universite Paul Sabatier - Toulouse 3


IUT de Toulouse 3 A
Departement GEA PONSAN
Clement Rau
clement.rau@iut-tlse3.fr

Table des mati`


eres
1 D
efinitions de base - D
enombrements
1.1 Operations ensemblistes . . . . . . . . . . . . . . . . .
1.1.1 Generalites . . . . . . . . . . . . . . . . . . . .
1.1.2 Reunion densembles . . . . . . . . . . . . . . .
1.1.3 Intersection densembles . . . . . . . . . . . . .
1.1.4 Complementaire dun ensemble . . . . . . . . .
1.1.5 Inclusion . . . . . . . . . . . . . . . . . . . . .
1.1.6 Operations ensemblistes et Operations logiques
1.2 Ensemble fini . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Definitions . . . . . . . . . . . . . . . . . . . .
1.2.2 Cardinal . . . . . . . . . . . . . . . . . . . . .
1.2.3 Cardinal dun produit cartesien . . . . . . . . .
1.3 Denombrements . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Nombre de partie dun ensemble fini . . . . . .
1.3.2 La notion de p-listes . . . . . . . . . . . . . . .
1.3.3 Les arrangements . . . . . . . . . . . . . . . . .
1.3.4 Les combinaisons . . . . . . . . . . . . . . . . .
1.3.5 Formule du bin
ome de Newton . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

6
. 6
. 6
. 6
. 6
. 7
. 7
. 7
. 8
. 8
. 8
. 8
. 8
. 9
. 9
. 9
. 10
. 12

2 Probabilit
es pour un Univers Discret
2.1 Ensembles, Univers, evenements . . . . . .

2.2 Probabilites devenements Equiprobabilit


e
2.2.1 Probabilites . . . . . . . . . . . . . .
2.2.2 Equiprobabilites . . . . . . . . . . .
2.3 Independance . . . . . . . . . . . . . . . . .
2.4 Probabilites conditionnelles . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

14
14
15
15
16
18
19

.
.
.
.
.
.

24
24
24
24
25
25
25

3 Variable al
eatoire discr`
ete
3.1 Variable aleatoire . . . . . . . . . . .
3.1.1 Definition generale . . . . . .
3.1.2 Variables aleatoires discr`etes
3.1.3 Variables aleatoires continues
3.2 Loi dune variable aleatoire discr`ete .
3.2.1 Definition . . . . . . . . . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

`
TABLE DES MATIERES

3.3

3.4

3.5

3.6
4

3.2.2 Fonction de repartition . . . . . . . . . . . . .


Param`etres dune loi . . . . . . . . . . . . . . . . . . .
3.3.1 Esperance mathematique . . . . . . . . . . . .
3.3.2 Variance . . . . . . . . . . . . . . . . . . . . . .
3.3.3 Proprietes de lesperance et de la variance . . .
Couple de variables aleatoires discretes . . . . . . . . .
3.4.1 Definition . . . . . . . . . . . . . . . . . . . . .
3.4.2 Lois marginales . . . . . . . . . . . . . . . . . .
3.4.3 Covariance . . . . . . . . . . . . . . . . . . . .
3.4.4 Independance . . . . . . . . . . . . . . . . . . .
3.4.5 Lois conditionnelles . . . . . . . . . . . . . . .
Lois discr`etes usuelles . . . . . . . . . . . . . . . . . .
3.5.1 Loi uniforme sur {1, . . . , n} . . . . . . . . . . .
3.5.2 Loi de Bernoulli . . . . . . . . . . . . . . . . .
3.5.3 Loi binomiale B(n, p) . . . . . . . . . . . . . . .
3.5.4 Loi de Poisson . . . . . . . . . . . . . . . . . .
Approximation dune loi de Poisson par une Binomiale

Variables al
eatoires continues, loi normale
4.1 Loi dune variable aleatoire continue . . . . .
4.1.1 Definitions . . . . . . . . . . . . . . .
4.1.2 Problematique de la notion de loi dans
4.1.3 Fonction de repartition et loi `a densite
4.2 Lois `
a densite classiques . . . . . . . . . . . .
4.2.1 Loi uniforme . . . . . . . . . . . . . .
4.2.2 Lois exponentielles . . . . . . . . . . .
4.3 La loi normale . . . . . . . . . . . . . . . . .
4.3.1 Loi normale centree reduite N (0, 1) .
4.3.2 Loi normale generale N (, ) . . . . .
4.4 La Loi normale comme limite en loi . . . . . .
4.5 Lois derivees de la loi Normale . . . . . . . .
4.5.1 Loi du Khi-deux . . . . . . . . . . . .
4.5.2 Loi de Student . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

26
27
27
28
29
29
29
30
31
31
31
32
32
34
34
36
37

. . . . . . . .
. . . . . . . .
le cas continu
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

40
40
40
40
40
41
41
42
42
42
43
45
47
47
47

.
.
.
.
.
.
.
.

48
48
48
49
49
51
51
51
52

5 Une introduction aux Th


eor
emes limite en Probabilit
es
5.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . .
5.1.1 Un premier pas : Loi faible des grands nombres . . .
5.1.2 Loi forte des grands nombres . . . . . . . . . . . . .
5.2 Theor`eme central limite . . . . . . . . . . . . . . . . . . . .
5.3 Quelques applications . . . . . . . . . . . . . . . . . . . . .
5.3.1 Marcheur dans Z . . . . . . . . . . . . . . . . . . . .
5.3.2 Intervalle de confiance lors delections . . . . . . . .
5.3.3 Introduction aux tests statistiques (le test du Chi 2)

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

`
TABLE DES MATIERES

6 Annexe
59
6.1 Tables Loi Normale N (0; 1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.2 Table loi du Chi 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

Introduction
Tandis que la statistique peut etre assimilee `a une analyse, parfois tr`es precise, de donnees et
est basee sur des valeurs connues, le but de la theorie des probabilites est de modeliser au mieux
les issues eventuelles dexperiences futures (en ne se basant en general sur les resultats detudes
statistiques). Contrairement `
a la plupart des autres branches des mathematiques, elle repose fortement sur la notion dincertitude et est ainsi consacree `a letude de phenom`enes aleatoires. Les
probabilites permettent devaluer les degres de prevision devenements possibles mais non certains,
et introduisent une notion intermediaire entre s
ur et impossible. Cette theorie ne permet pas
de predire ce quil peut se passer sur une experience aleatoire isolee, parcontre si lon repete
cette experience de mani`ere independante et un grand nombre de fois, la theorie permet de cerner certaines quantites. Les probabilites permettent ainsi letablissement de crit`eres objectifs de
mesure de lincertitude qui conduisent parfois `a des paradoxes cel`ebres saluant les defaillances de
notre intuition cartesienne dans ce domaine. Un autre avantage de cette theorie est quelle offre
un cadre naturel danalyse pour des syst`emes trop complexes pour que lon puisse en saisir tous
les elements (grandes populations, syst`emes de particules, ordinateurs, comportements collectifs,
marches boursiers etc.). Ainsi, la connaissance, meme parfaite, dun echantillon de population ne
peut conduire `
a une certitude totale, mais seulement `a une incertitude qui peut etre estimee et
quantifiee en terme de probabilites.
Ces notes de cours restant bien evidemment perfectibles, je remercie toute personne me rapportant des coquilles, erreurs ou commentaires.

Chapitre 1

D
efinitions de base D
enombrements
Le formalisme probabiliste, tel quil est etabli aujourdhui, decrit les issues possibles de tout
phenom`ene, aleatoire ou non, en termes ensemblistes, dont nous rappelons bri`evement ici la signification.

1.1
1.1.1

Op
erations ensemblistes
G
en
eralit
es

Les ensembles seront principalement notes `a laide de lettres majuscules A, B, C, D etc., tandis que les objets qui les composent, ses
el
ements, seront designes par des lettres minuscules
i, j, k, l, x, y etc. Pour signifier lappartenance dun element i `a un ensemble A, on dit parfois que
i est dans A, on le note i A. Si au contraire un element i nappartient pas `a A, on note i
/ A.

1.1.2

R
eunion densembles

La r
eunion de deux ensembles A et B, notee A B, est lensemble constitue des elements de
A et des elements de B. On a toujours A = A = A.
Propri
et
e 1 (Commutativit
e)
AB =BA
Propri
et
e 2 (Associativit
e)
A (B C) = (A B) C := A B C

1.1.3

Intersection densembles

Lintersection de deux ensembles A et B, notee A B, est lensemble constitue des elements


etant `
a la fois dans A et dans B. On a toujours A = A = .
6

CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS

Lorsque A et B nont aucun element en commun, on dit quils sont disjoints et on note AB =
.
Propri
et
e 3 (Commutativit
e)
AB =BA

Propri
et
e 4 (Associativit
e)
A (B C) = (A B) C := A B C

Propri
et
e 5 (Distributivit
e)
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)

1.1.4

Compl
ementaire dun ensemble

Soit un ensemble et A une partie de . Le compl


ementaire de A dans , note \ A, ou
c
A lorsquil ny a pas dambiguite sur (ou encore A ), est lensemble constitue des elements de
qui ne sont pas elements de A. On appelle aussi parfois prive de A lensemble \ A.
Par ailleurs, on a toujours A A = et A A = .
Propri
et
e 6 (Lois de Morgan)

1.1.5

AB =AB

(1.1)

AB =AB

(1.2)

Inclusion

Si tous les elements dun ensemble A sont aussi elements dun autre ensemble B, on dit que A
est inclus dans B et on le note A B. On dit aussi que A est un sous-ensemble de B.
On a toujours
A A B; A B A; A B A B; A.

1.1.6

Op
erations ensemblistes et Op
erations logiques

On peut d`es `
a present noter le lien entre ces operations et les operations (ou connecteurs)
logiques OU, ET et NON :
Un element de A B est un element qui appartient `a A OU `a B.
Un element de A B est un element qui appartient `a A ET `a B.
Un element de A est un element qui nappartient PAS `a A.
Attention 1 Le connecteur logique OU mentionne correspond `
a un ou inclusif : A B est
lensemble des elements qui sont dans A, ou dans B mais qui peuvent etre dans les 2.

CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS

1.2
1.2.1

Ensemble fini
D
efinitions

D
efinition 1 On appelle ensemble fini un ensemble ayant un nombre fini delements distincts.
D
efinition 2 Le nombre delements dun ensemble fini A est appele cardinal de A, note card [A].
Exemple 1 E = {a, b, c} et card [E] = 3.

1.2.2

Cardinal

Propri
et
e 7 Soient A et B deux ensembles finis quelconques,
card [A B] = card [A] + card [B] card [A B] .
Si A et B sont disjoints, cest-`
a-dire que A B = alors,
card [A B] = card [A] + card [B] .
Corollaire 1 Soit A est un sous ensemble de E.
 
card A = card [E] card [A]

1.2.3

Cardinal dun produit cart


esien

D
efinition 3 Soient E et F deux ensembles, le produit cart
esien note E F est lensemble de
tous les couples (x; y) o`
u x est element de E et y element de F .
Attention 2 E F est different de F E.
Th
eor`
eme 1 Si E et F sont finis, on a :
card [E F ] = card [E] card [F ]

1.3

D
enombrements

Dans le cadre dun ensemble fini E, la problematiques consiste en :


la constitution des collections densembles ou dapplications ayant une caracteristique commune (cas favorable),
comptabiliser le nombre dobjets constituant cette collection.
Le denombrement ne sapplique qu`a des ensembles finis et fait intervenir deux crit`eres fondamentaux pour la constitution et la distinction des objets a denombrer : la repetition et lordre.
D
efinition 4 (R
ep
etition) Lors de la constitution des collections, chaque element de E peut etre
utilise plusieurs fois.
D
efinition 5 (Ordre) Pour distinguer deux collections, on peut tenir compte de lordre des elements
qui les composent.
Remarque 1 Si lon autorise la repetition on doit necessairement faire intervenir lordre.

CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS

1.3.1

Nombre de partie dun ensemble fini

Propri
et
e 8 Soit En un ensemble contenant n elements. Il y a 2n parties disctincts de E.
Demonstration :
Il existe diverses demonstrations de cette proprietes. On peut par exemple utiliser un arbre et faire
une correspondance entre une feuille et une partie. On peut egalement utiliser la formule du binome
de Nenwton...
J

1.3.2

La notion de p-listes

D
efinition 6 Soit En un ensemble contenant n elements. Une p-liste delements de En , est une
liste ordonnee de p elements de En avec repetitions possible.
Propri
et
e 9 (Expression du nombre de p-listes) Le nombre de p-liste distinctes est egal `
a np .
Exemple 2 Considerons lensemble E = {1, 2, 3, A, B} correspondant aux differentes touches dun
clavier de digicode dont le code est une succession de 3 caract`eres issus de E. Combien y-a-t-il de
code differents ?
Ce sont les 3-listes de E il y en a 53 soit 125.

1.3.3

Les arrangements

Considerons En un ensemble fini contenant n elements differents et p un entier naturel inferieur


ou egal `
a n.
D
efinition 7 Un arrangement `
a p elements de En est un echantillon ordonne sans remise de p
elements differents de En .
Propri
et
e 10 (Expression du nombre darrangements) Le nombre darrangements `
a p elements
p
a:
de En note An est egal `
Apn = n (n 1) (n 2) (n p + 1)
Demonstration :
Pour le premier element, on a n choix possibles. Le premier etant fixe, pour le deuxi`eme element,
on a (n 1) choix possibles le tirage etant sans remise. Le premier et le deuxi`eme etant fixes pour
le troisi`eme element, on a (n 2) choix possibles... et ainsi de suite jusquau pi`eme element, pour
lequel on a [n (p 1)] = n p + 1 choix possible. On a donc bien
n (n 1) (n 2) (n p + 1)
arrangements `
a p elements de En .
J

CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS

10

D
efinition 8 On appelle factorielle n le produit des n premiers entier :
n! = n (n 1) (n 2) 1
avec la convention 0! = 1.
Propri
et
e 11
Apn =

n!
(n p)!

Demonstration :
n (n 1) (n p + 1) (n p) 1
,
(n p) 1
n!
=
.
(n p)!

n (n 1) (n 2) (n p + 1) =

J
Remarque 2 n! est une touche de la plupart des calculatrices.
Exemple 3 Un joueur se demande combien il peut ecrire de grilles differentes de tierce pour une
course de 16 chevaux. Il y a 16 possibilites pour le premier, 15 pour le second et 14 pour le troisi`eme.
On naccepte pas les repetitions et on tient compte de lodre, il sagit darrangements et on a donc
A316 = 16 15 14 = 3360 possibilites.
D
efinition 9 (Les permutations) Une permutation de En est un echantillon ordonne sans
remise des n elements differents pris dans En . Cest donc le cas particulier dun arrrangement de
n elements de En .
Propri
et
e 12 Le nombre de permutations de En est donc egal `
a:
Pn = n!
Exemple 4 Si le joueur de tierce a precedemment choisi les 3 chevaux quil va jouer mais ne sait
pas dans quel ordre il va les placer, il a 3 ! choix possibles cest `
a dire 3 2 1 = 6 possibilites de
tierce.

1.3.4

Les combinaisons

Soit En un ensemble fini contenant n elements differents et p un entier naturel inferieur ou egal
` n.
a
D
efinition 10 Une combinaison `
a p elements de En est un echantillon non ordonne sans remise
de p elements differents de En . Cest un sous ensemble `
a p elements de En . Dans une combinaison
de p elements, les p elements sont distincts et non ordonnes.
Propri
et
e 13 (Expression du nombre de combinaisons) Le nombre de combinaisons `
a p elements
de En note Cnp est egal `
a:
n!
Cnp =
p! (n p)!

CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS

11

Demonstration :
On consid`ere les p premiers elements de En . Avec ces p elements on peut former p! arrangements
et ces p! arrangements donnent une seule combinaison or on peut former Apn arrangements avec les
Ap
n elements de En . on a donc p!n combinaisons differentes de En .
J
Remarque 3
Si p = 0 alors on a une seule combinaison `
a zero element : la partie vide.
Si p = n alors on a une seule combinaison `
a n elements de En : la partie En .
Si p = 1 alors on a n combinaisons `
a un element de En , les n sous-ensembles `
a un element
deEn .
Exemple 5 Nous avons vu ci-dessus avec lexemple du joueur de tierce que quand on a choisi sans
ordre une partie de 3 elements parmi 16, il reste 3 ! = 6 mani`eres dordonner cette partie. Par
exemple si on choisit la partie (2,7,9) on peut lui associer les 6 permutations : (2,7,9), (2,9,7),
(7,2,9), (7,9,2), (9,2,7) et (9,7,2). En dautres termes il est possible de regrouper les arrangements
par paquets de 6 correspondant `
a la meme partie. Le nombre darrangements (ordonnes) de 3
elements parmi 16 est donc egal `
a 6 fois le nombre de combinaisons (non ordonnees) de 3 elements
parmi 16. On a donc une application du Principe des bergers :
3
C16
=

A316
.
3!

Propri
et
e 14 (Formules de calcul)
Cnp = Cnnp
p1
p
Cnp = Cn1
+ Cn1

Demonstration :
1. Choisir les p elements que lon veut dans un ensemble de n elements revient exactement `a
choisir les n p elements que lon ne veut pas, do`
u le resultat. Mathematiquement, on a :
n!
,
(n p)![n (n p)]!
n!
,
=
p!(n p)!

Cnnp =

= Cnp .
2. Soit E une ensemble de n element. Soit A lun de ces elements. Pour choisir p elements de
p1
E, je peux soit prendre A et en choisir p-1 autres parmi les n-1 restants (jai alors Cn1
p
possibilites), soit laisser A et en prendre p autres parmi les n 1 restants (jai alors Cn1
possibilites). Do`
u le resultat. Mathematiquement, on a
(n 1)!
(n 1)!
+
,
(p 1)!(n p)! (p)!(n p 1)!
p(n 1)!
(n p)(n 1)!
=
+
,
p!(n p)!
p!(n p)!
(p + n p)(n 1)!
=
,
p!(n p)!

p1
p
Cn1
+ Cn1
=

= Cnp .

CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS

12
J

Remarque 4 Quand n >

p
2

il est plus rapide de calculer Cnnp que Cnp . Par exemple :


2
30
C32
= C32
,
32 31
2
C32
=
,
21
32 31 4 3
30
.
C32
=
30 29 2 1

Triangle de Pascal
Les formules de calcul ci-dessus nous donne une methode de calcul des combinatoire par recurrence
appele triangle de pascal :

1.3.5

Formule du bin
ome de Newton

Th
eor`
eme 2 Soient a et b deux reels :
(a + b)n =

n
X

Cnk ak bnk .

k=0

Demonstration :
Par recurrence sur n.
Pour n = 0 la propriete est immediate puisque 1 = 1.
Supposons la propriete vraie pour n et regardons si elle est vraie pour n + 1.

CHAPITRE 1. DEFINITIONS
DE BASE - DENOMBREMENTS

13

(a + b)n+1 = (a + b)n (a + b)
= a(a + b)n + b(a + b)n
=
=

n
X
k=0
n
X

Cnk ak bnk + b

n
X

Cnk ak bnk

k=0
n
X

Cnk ak+1 bnk +

k=0

Cnk ak bnk+1

k=0

On consid`ere maintenant k 0 = k + 1, on a :
(a + b)n+1 =

n+1
X

Cnk 1 ak bnk +1 +

k0 =1

n
X

Cnk ak bnk+1

k=0

= an+1 +
= an+1 +
= an+1 +

n
X
k0 =1
n
X
k=1
n
X

Cnk 1 ak bnk +1 +

n
X

Cnk ak bnk+1 + bn+1

k=1


k

Cnk1 + Cn ak bnk+1 + bn+1


k
Cn+1
ak bnk+1 + bn+1

k=1

n+1
X

k
Cn+1
ak bnk+1 .

k=0

La propriete est donc vraie pour n + 1. Par le principe de raisonnement par recurrence, la propriete
est vraie pour tout entier n.
Remarque 5 On peut egalement demontrer cette propriete de mani`ere ensembliste, en developpant et en sinteressant au nombre de terme en ak bnk ...
J

Chapitre 2

Probabilit
es pour un Univers
Discret
2.1

Ensembles, Univers,
ev
enements

Le formalisme probabiliste est une branche relativement nouvelle des mathematiques qui se
base donc sur la theorie des ensembles. Dans cette theorie, les issues des experiences dont on
veut evaluer les chances relatives sont formalisees en termes devenements dont la realisation est
laboutissement dun ensemble de causes anterieures. Le hasard est parfois vu comme lensemble de
ces causes que lon ne peut pas matriser, qui sont alors dites aleatoires. Dans le cas de syst`emes
physiques complexes, elles sont souvent le reflet de notre ignorance.
D
efinition 11 Les
ev
enements sont des ensembles que lon manipule a
` laide doperations ensemblistes elementaires et qui representent les issues possibles de lexperience aleatoire consideree.
D
efinition 12 On parle d
ev
enement
el
ementaire lorsquil sagit du resultat dune experience
aleatoire menant `
a une solution unique, et lensemble des evenements elementaires forment ce que
lon nomme lunivers des possibles, ou tout simplement lunivers note .

Les evenements non-elementaires dont on peut vouloir evaluer les chances ou probabilites sont
exprimes en termes doperations ensemblistes de reunions, dintersections, ou de complementaires.
Ces operations correspondent egalement aux operations logiques OU, ET et NON. Ainsi, si lon
consid`ere deux evenements (elementaires ou non) representes par les ensembles A et B, levenement
consistant `
a obtenir A OU B est represente par lensemble A B, qui est la reunion de A et de B.
De meme, levenement consistant `
a obtenir A ET B sera represente par lintersection A B, tandis
que la negation de levenement A sera son complementaire Ac ou A. Cette negation est levenement
qui consiste `
a ne pas obtenir A.

Exemple 6 (jet dun d


e`
a six faces) Lunivers est = {1, 2, 3, 4, 5, 6}, avec pour evenements
elementaires :
obtenir un 1 note {1}, obtenir un 2 note {2},...,obtenir un 6= {6}.
14

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

15

Tous les evenements dont on calculera la probabilite peuvent etre obtenus par manipulations ensemblistes des evenements elementaires precedents. Par exemple, levenement obtenir un resultat
pair consiste `
a obtenir un 2, un 4 ou un 6 et sera note au choix
{2, 4, 6} = {2} {4} {6}.
Lecriture en termes devenements elementaires sera primordiale pour les calculs de probabilites et
permet de representer un tr`es grands nombre devenements. On notera par exemple
obtenir un resultat 3 = {1, 2, 3} = {1} {2} {3}.
De meme, levenement obtenir un resultat pair, (et) inferieur ou egal `
a 3 sera note
{2, 4, 6} {1, 2, 3} = {2}.
Le contraire dun evenement A correspond a
` son evenement complementaire note
Ac ou A.
Pour lexemple precedent, ne pas obtenir un nombre pair sera note
{2, 4, 6} = {2, 4, 6}c = \ {2, 4, 6} = {1, 2, 3}.
Tout evenement impossible est represente par lensemble vide et deux evenements A et B
sont dits incompatibles ou disjoints si A B = , tandis que lensemble lui-meme est qualifie
d
evenement certain. Lorsque cet univers est fini ou infini denombrable, on parle de probabilites
discr`etes et de probabilites continues dans le cas contraire.

2.2
2.2.1

Probabilit
es d
ev
enements Equiprobabilit
e
Probabilit
es

D
efinition 13 La probabilit
e associee `
a une experience aleatoire est une fonction qui `
a un evenement
associe un nombre reel compris entre 0 et 1, sa probabilite :
P : P() [0, 1]
A

7 P[A]

o`
u P() est lensemble de toutes les parties possibles de lunivers (i.e. lensemble de tous les
evenements possibles de lexperience aleatoire concernee).
Une probabilite est dabord construite par une evaluation des probabilites des evenements
elementaires. Lorsquil y en a un nombre fini x1 , . . . , xn , et donc pour un univers = {x1 , . . . , xn }
de cardinal n, on obtient `
a laide des statistiques ou parfois `a laide dhypoth`eses realistes, une
famille de nombres (pi )i=1..n compris entre 0 et 1 et tels que pour chaque evenement elementaire
Ai =obtenir i,
pi = P[Ai ] [0, 1].
On etend ensuite cette probabilite sur tous les evenements possibles en respectant les r`egles
intuitives elementaires suivantes erigees en axiomes :

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

16

D
efinition 14 (Axiomes des probabilit
es)
Evenement certain : P[] = 1.
Evenement impossible : P[] = 0
Additivite : Si A et B sont des evenements incompatibles, i.e. A B = ,
P[A B] = P[A] + P[B].
La somme des probabilites des evenements elementaires doit ainsi etre egale `a 1 :
X
pi = 1.
i

Propri
et
e 15 Pour des evenements non disjoints, ladditivite devient
P[A B] = P[A] + P[B] P[A B].
En revanche, on na pas en general dexpression pour la probabilite de lintersection. En particulier, on na pas de factorisation du type P[A B] = P[A] P[B]. Lorsque cela sera le cas, on dira
que les evenements A et B sont independants.

2.2.2

Equiprobabilit
es

D
efinition 15 Les evenements elementaires sont dits
equiprobables, si toutes les probabilites
elementaires pi sont identiques. Cette hypoth`ese est en general emise `
a partir detudes statistiques
lindiquant, souvent par simple soucis de bon sens, et parfois seulement gr
ace au calculs des probabilites elementaires `
a laide de calculs combinatoires (dits de denombrements).
En cas dequiprobabilite, et seulement dans ce cas, on pourra evaluer la probabilite dun evenement
A par
Card(A)
P[A] =
Card()
cest `
a dire le rapport du nombre de cas favorables sur le nombre de cas possibles.
Attention 3 Cest loin detre le cas en general.
Exemple 7 Revenons a
` lexemple de lexperience du jet dun de `
a six faces, les evenements elementaires
sont notes Ai pour i = 1, . . . , 6 et lhypoth`ese dequiprobabilite, emise lorsque le de nest ni truque,
ni fausse, conduit aux memes probabilites elementaires
pi = P[Ai ] = P[obtenir i] =

1
6

puisque la taille de lunivers des evenements elementaires est de 6 et que chaque evenement elementaire
Ai est un singleton (i.e. un ensemble restreint `
a un element).
D
efinition 16 On dit quune famille devenements (Ai )iI forme une partition de lunivers lorsquils sont disjoints (Ai Aj = , i 6= j I) et quils recouvrent (iI Ai = ).
Propri
et
e 16 Lensemble des evenements elementaires forment une partition particuli`ere de lunivers .

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

17

En appliquant la r`egle dadditivite et laxiome de levenement certain , on obtient la formule


suivante, valide pour toute probabilite, i.e. lorsque les axiomes des probabilites sont verifies (Et
donc pas seulement en cas dequiprobabilite) :
Th
eor`
eme 3 (Formule des probabilit
es totales (I) ) Pour toute partition (Ai )iI , et tout evenement
B, on a :
X
P[B] =
P[B Ai ].
(2.1)
iI

Demonstration :
Comme iI Ai = , on a iI (B Ai ) = B et les evenements Ai B et Aj B sont disjoints pour
j 6= i. Par consequent, on a :
P[B] = P[iI (B Ai )],
X
=
P[B Ai ].
iI

J
Exemple 8 Dans le cas dun jet de de, la partition elementaire de lunivers en
= 6i=1 {i} = {1} {2} {3} {4} {5} {6}
donne par exemple
p1 + p2 + p3 + p4 + p5 + p6 =

1
1 1
+ + + = 1.
6 6
6

Exemple 9 Un autre exemple de partition est donne par la paire {A, B} et les evenements A =obtenir
un resultat pair et B=obtenir un resultat impair. On a en effet A B = et A B = , et on
peut verifier la formule des probabilites totales
P[A] + P[B] = 1
puisque P[A] = p2 + p4 + p6 =

3
6

1
2

et P[B] = p1 + p2 + p3 =

3
6

= 12 .

Cette propriete est egalement generale et permet dobtenir que pour toute probabilite P, la
probabilite du complementaire dun evenement A.
Propri
et
e 17
P[A] = 1 P[A]
Demonstration :
{A, A} est une partition de .
J
Exemple 10

Probabilite de tirer au moins 2 en lancant les des.


A = {X 2} = {X = 2} {X = 3} {X = 4} {X = 5} {X = 6},
A = {X = 1}
5
5
P[A] = 1 P[A] = 1 =
6
6

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

18

Probabilite de tirer au moins une fois pile en lancant n fois une piece.
A = { 1 fois pile ou 2 fois pile ou ... n fois pile },
A = {0 fois pile } = {n fois face}
P[A] = 1 P[A] = 1

1
2n

Avec de telles proprietes, on verifie aisement quune probabilite poss`ede une propriete de monotonie par inclusion :
Propri
et
e 18
A B = P[A] P[B].
Si A est inclus dans B, on dit parfois que A implique B, et il est alors intuitif que la probabilite
de A est inferieure `
a celle de B (B sera toujours realise lorsque A le sera, et sa probabilite ne pourra
etre que superieure ou egale).

2.3

Ind
ependance

Une hypoth`ese primordiale en theorie des probabilites est lhypoth`ese dindependance. Elle est
parfois realiste ou simplificatrice selon les experiences.
D
efinition 17 On dit que deux evenements A et B sont ind
ependants lorsque
P[A B] = P[A] P[B].

(2.2)

La seule mani`ere de prouver lindependance est de prouver cette formule dune mani`ere ou dune
autre, le plus souvent en calculant les diverses probabilites impliquees dans (2.2).

Remarque 6 Le mot independance utilise doit etre compris dans le sens o`


u lobtention de lun na
aucune influence sur lobtention de lautre. On verra ceci plus clairement avec la notion de probabilites conditionnelles. Parfois, cette independance est une hypoth`ese pour simplifier les mod`eles ou
pour suivre une intuition.
Exemple 11 Considerons par exemple deux jets de des successifs. Une hypoth`ese naturelle consiste
`
a considerer ces evenements comme etant independants de mani`ere `
a pouvoir ecrire que pour les
evenements A : obtenir un six au 1er jet et B=obtenir un six au 2e jet
P[A B] = P[A] P[B] =

1 1
1
=
6 6
36

de sorte que, sous lhypoth`ese dindependance des deux jets, la probabilite dobtenir un double six
1
est evaluee `
a 36
0.00278, soit environ 2.78%.
On peut egalement decouvrir que deux evenements issus de la meme experience aleatoire sont
independants. Pour lexperience dun seul jet de de, on constate pour les evenements A=obtenir
un jet 4 et B=obtenir un jet pair, on a P[A] = 23 , P[B] = 12 ,
P[A B] = P[{2, 4}] =

1
3

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

19

et

2 1
1
= .
3 2
3
Ces evenements sont donc independants, puisque lon constate legalite P[A B] = P[A] P[B],
refletant ainsi lidee que savoir que lon a un resultat impair ninfluence pas les chances dobtenir
un resultat inferieur ou egal `
a 4. Si par contre on consid`ere C=obtenir un jet 3, les evenements
B et C ne sont pas independants car
P[A] P[B] =

P[B C] = P[{2}] =

1
6

et

1 1
1
= .
2 2
4
Intuitivement, cela se justifie par un lien entre C et B : il y a moins delements pairs (donc de
B) en dessous de 3 (donc dans C) que dans lunivers.
P[B] P[C] =

Exemple 12 Une autre situation usuelle dapplication de lhypoth`ese dindependance est fourni
par des tirages au sort successifs avec ou sans remise. Lorsque le tirage est effectue avec remise
du premier element tire au sort, on se retrouve dans une situation identique lors du second tirage
au sort et le resultat du premier ninfluence en rien celui du second. On consid`ere donc que deux
tirages successifs avec remise sont independants. Lorsque le tirage est au contraire effectue sans
remise, lelement tire lors du premier tirage ne peut plus etre tire lors du second, diminuant par
exemple les probabilites dobtenir un element partageant avec lui certaines proprietes. Les resultats
des deux tirages sont lies et on consid`ere donc que deux tirages successifs sans remise ne sont pas
independants.

2.4

Probabilit
es conditionnelles

Lorsque les evenements ne sont pas independants, la probabilite de lun nest pas la meme selon
que lautre est realise ou non.
Exemple 13 On pourra prendre lexemple de la pluie et du vent. Il y a plus de chances quil pleuve
sil y a du vent plut
ot quen absence de vent.
D
efinition 18 Si P[B] 6= 0 alors on appelle probabilit
e conditionnelle de A sachant B :
P[A|B] =

P[A B]
.
P[B]

Attention 4 Il convient de ne pas confondre P[A|B] et P[A B]


P[A|B] evalue les chances dobtenir A lorsque lon sait que B est realise tandis que P[A B]
evalue les chances de voir A et B de se realiser simultanement. Dans le 1er cas, on evalue les chances
de A sur une sous population, celle pour laquelle B est realisee, et on pond`ere la probabilite de
lintersection en fonction de la taille de B : plus B est important, i.e. plus P[B] est grand, plus AB
a des chances de se realiser, ceci quelle que soit limportance de A. En comparant la probabilite
davoir A ET B avec celle davoir B, on obtient un nombre P[A|B] entre 0 et 1 qui evalue les

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

20

chances que A soit realise sachant que B est realise. Lorsque B est fixe, cela determine une nouvelle
probabilite
PB

: P()
A

[0, 1]
7 PB [A] := P[A|B].

Il sagit dune probabilite car elle verifie les axiomes des probabilites. Les deux notations P[A|B]
et PB [A] sont equivalentes et seront utilisees en fonction des circonstances. En particulier, lorsquil
sagit dutiliser les axiomes des probabilites (pour par exemple utiliser ladditivite), on pref`erera la
notation PB .
La connaissance des probabilites conditionnelles permet dobtenir une expression pour la probabilite de lintersection :
Propri
et
e 19 Pour tous evenements A et B on a :
P[A B] = P[A|B]P[B]
= P[B|A]P[A].
Exemple 14
est :

En lancant un de, la probabilite de tirer 4 sachant que lon a un nombre pair


1
3
1/6
2
=
1/2
6

P[4|pair] =

Dans un jeu de 32 carte, la probabilite de tirer un roi sachant que lon a tirer un coeur est
de :
1
8
1/32
1
=
8/32
8

P[roi|coeur] =

Exemple 15
P[4 ET pair] = P[4] =

1
6

1 1
1
=
3 2
6
1
1
P[pair|4] P[4] = 1 =
6
6

P[4|pair] P[pair] =

Propri
et
e 20 (Formule de Bayes) Si P[A] 6= 0, alors on a :
P[B|A] =

P[A|B]P[B]
.
P[A]

(2.3)

Exemple 16 On consi`ere la population dun pays. Cette population est composee de 47% dhommes
et de 53% de femmes. Parmi les femmes, 40% sont blondes. Parmi les hommes, 30% sont blonds.
On prend une personne au hasard. Quelle est la probabilite des evenements suivants :

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

21

1. Quelle est la probabilite que ce soit une femme ?


2. Quelle est la probabilite que ce soit un homme ?
3. Quelle est la probabilite que ce soit une femme blonde ?
4. Quelle est la probabilite que ce soit un homme blond ?
5. Quelle est la probabilite que ce soit une femme, sachant que cette personne est blonde ?
6. Quelle est la probabilite que ce soit une blonde, sachant que cette personne est une femme ?
Pour resoudre ce probl`eme, on peut utiliser un schema ou un tableau. Commencons en utilisant
un schema, et en considerant un ensemble de 10 000 personnes. Sur ces 10000 personnes, il ya 5
300 femmes et 4 700 hommes. Sur les 4 700 hommes, 30% sont blonds, soit 1410 hommes blonds.
Sur les 5 300 femmes, 40% sont blondes, soit 2120 femmes blondes. On a donc le schema suivant :

On retrouve ces resultats par un tableau :


blond
pas blond

homme
0, 47 0, 3 = 0, 141
0, 47 0, 7 = 0, 329
0,47

femme
0, 53 0, 4 = 0, 212
0, 53 0, 6 = 0, 318
0,53

0,353
0,647
1

On peut maintenant repondre aux questions :


1. Quelle est la probabilite que ce soit une femme ?
Il y a 53% de femmes, soit une probabilite de 0,53.
2. Quelle est la probabilite que ce soit un homme ?
Il y a 47% dhommes, soit une probabilite de 0,47.
3. Quelle est la probabilite que ce soit une femme blonde ?
Il y a 2120 femmes blondes sur 10 000 personnes, soit une probabilite de 0,212.
4. Quelle est la probabilite que ce soit un homme blond ?
Il y a 1 410 hommes blonds sur 10 000 personnes, soit une probabilite de 0,141.
5. Quelle est la probabilite que ce soit une femme, sachant que cette personne est blonde ?
Il y a 2 120 femmes blondes sur 3 530 personnes blondes, soit une probabilite de 2120
3530 0, 6.
On pouvait aussi le calculer en utilisant la formule :
P[f emme/blonde] =

P[f emme blonde]


0, 212
=
0, 6
P[blond]
0, 3530

(2.4)

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

22

6. Quelle est la probabilite que ce soit une blonde, sachant que cette personne est une femme ?
2120
= 0, 4.
Il y a 2 120 femmes blondes sur 5 300 femmes, soit une probabilite de 5300
On pouvait aussi le calculer en utilisant la formule :
P[f emme/blonde] =

P[f emme blonde]


0, 212
=
0, 4
P[f emme]
0, 53

(2.5)

On retrouve bien les 40% de lenonce.


Les probabilites conditionnelles permettent egalement dobtenir une seconde forme de la formule
des probabilites totales :
Th
eor`
eme 4 (Formule des probabilit
es totales (I) ) Pour toute partition (Ai )iI , et tout evenement
B, on a :
X
P[B] =
P[B Ai ].
(2.6)
iI

Propri
et
e 21 (Formule des probabilit
es totales (II)) Pour toute partition (Ai )iI , et tout
evenement B, on a :
X
P[B] =
P[B|Ai ] P[Ai ].
(2.7)
iI

Remarque 7 En couplant la formule de Bayes et la formule des probabilites totales (II) `


a la par
tition (A, A), on obtient version tr`es utile en pratique de la formule de Bayes suivante :
Si P[A] 6= 0, alors on a :
P[B|A] =

P[A|B]P[B]
.
P[A|B]P[B] + P[A|B]P[B]

(2.8)

La formule de Bayes est tr`es importante et utile en probabilites car elle permet de tromper de
mauvaises intuitions dues `
a une vision trop equiprobable du monde.
Remarque 8 On peut voir quil sagit de comprendre la formule de Bayes comme une moyenne
ponderee et que nos intuitions sont souvent mises `
a mal lorsque lun des evenement du conditionnement (B ou A) est relativement rare.
Exemple 17 On estime quune personne ayant correctement revise ses cours pour cet examen a
une probabilite de 20% dechouer `
a lexamen. En revanche, on estime quune personne nayant pas
revise ses cours a une probabilite de 60% dechouer `
a cet examen.
On sait aussi que 50% des personnes ont correctement revise leurs cours et 50% nont pas correctement revise leurs cours.
Une personne passe deux fois de suite cet examen et echoue par deux fois mais affirme pourtant
avoir parfaitement reviser. Est-ce plausible ?
Appelons E levenement echouer 2 fois , A levenement la personne a revise ses cours .
est
La probabilite de E sachant A est P[E|A] = (0, 20)2 = 0, 04. La probabilite de E sachant A
2
= (0, 60) = 0, 36.
P[E|A]

POUR UN UNIVERS DISCRET


CHAPITRE 2. PROBABILITES

23

A priori, on suppose que la personne qui a echoue 2 fois `


a lexamen a correctement revise avec une
probabilite de 0,50. On a donc P(A) = P(B) = 0, 50. La formule de Bayes donne alors :
P[A|B] =

P[B|A]P[A]
A]

P[B|A]P[A] + P[B|A]P[

Probabilite davoir reviser sachant que lon a echoue 2 fois = 0,10. Probabilite de ne pas avoir
reviser sachant que lon a echoue 2 fois = 0,90. Il y a donc une probabilite de 0,90 que la personne
na pas revise. Ce quelle dit est peu plausible !

Chapitre 3

Variable al
eatoire discr`
ete
3.1

Variable al
eatoire

3.1.1

D
efinition g
en
erale

D
efinition 19 On appelle variable al
eatoire le resultat dune epreuve aleatoire lorsque lissue
de celle-ci peut etre representee par un nombre.

Une variable aleatoire est generalement designee par une lettre majuscule X, Y, etc. et peut
egalement etre definie en tant quapplication depuis lunivers dans R
X

R
7 X()

en considerant comme une realisation particuli`ere de lepreuve en question. Lensemble des


valeurs numeriques prises par X est pour cette raison note X(), puisquil sagit de limage de
par X.

3.1.2

Variables al
eatoires discr`
etes

D
efinition 20 On appelle variable al
eatoire discr`
ete une variable aleatoire qui ne prend que
des valeurs ponctuelles (isolees).

Exemple 18

Resultat dun jet de de. Le resultat X est une variable aleatoire


X : 3 7 X()

`
a valeur dans X() = {1, 2, 3, 4, 5, 6}
Lancer de 2 pi`eces de monnaies identiques dont lissue est P (pour pile) et F (pour face).
Lunivers
= {P P, P F, F P, F F }
nest pas compose de grandeur numeriques mais on peut par exemple sinteresser au nombre
de fois o`
u face (F) est apparu, definissant ainsi une variable aleatoire X : {0, 1, 2} R
definie par le tableau
24


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

PP
0

PF
1

25
FP
1

FF
2

Cette application ne prenant quun nombre fini de valeurs, la variable aleatoire X est discr`ete
avec X() = {0, 1, 2}.

Les ev`enements {X = xi } (xi etant une valeur possible de X), engendres par les differentes valeurs prises par une variable aleatoire constituent les ev`enements elementaires de X. Les ev`enements
elementaires de lexemple precedent seront ainsi notes {X = 0} (Aucun face na ete tire), {X = 1}
(Un face a ete tire) et {X = 2} (Deux faces ont ete tires).
On definit donc naturellement des variables aleatoires en associant un nombre `a chaque ev`enement
elementaire. Comme on le verra, letude systematique des variables aleatoires fournit un cadre
theorique detude des phenom`enes aleatoires.

3.1.3

Variables al
eatoires continues

D
efinition 21 On appelle variable al
eatoire continue une variable aleatoire dont lensemble
des valeurs est R ou une reunion dintervalles de R.
Exemple 19
Duree de vie dune ampoule electrique : Bien que netant pas eternelle, on
consid`ere souvent quune ampoule electrique peut avoir nimporte quelle duree de vie et quelle
peut tomber en panne ou ne pas tomber en panne `
a tout moment. Aucune duree nest exclue et
la variable X qui la represente est une variable aleatoire continue dont lensemble des valeurs
est R+ = [0, +[. Dune mani`ere plus realiste, les ampoules ont une duree de vie maximale
D et X est une variable aleatoire continue `
a valeurs dans lintervalle X() = [0, D], mais la
duree maximale etant souvent inconnue, on consid`ere generalement X() = R+ .

Etude
de la taille dans une population donnee : Si on consid`ere sur une population de taille
N dont on note ti la taille de chaque individu i (i = 1, . . . , N ), la variable X qui denote la
taille dun individu de la population pris au hasard, lensemble des valeurs prises par X est
lensemble discret X() = {t1 , t2 , . . . , tN }. Neanmoins, la taille dun individu pouvant a priori
prendre toute valeur reelle positive, on consid`ere pour etudier des populations en general que
X peut egalement prendre toutes les valeurs reelles et est donc une variable continue `
a valeurs
dans R+ (ou dans un sous-intervalle si on veut considerer une taille maximale).
Dans la suite de ce chapitre, on ne considerera que des variables aleatoires discr`etes.

3.2
3.2.1

Loi dune variable al


eatoire discr`
ete
D
efinition

D
efinition 22 La loi dune variable al
eatoire discr`
ete X est une probabilite PX definie sur
ses ev`enements elementaires par lapplication
PX

: X() [0, 1]
x 7 PX (x) := P[{X = x}].


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

26

On note invariablement P[{X = x}], P[X = x], PX (x) ou p(x) la probabilite que X prenne
la valeur x. On verifie aisement que cette application est bien une probabilite dont lunivers est
lensemble X() des valeurs prises par X.
Exemple 20 Si on reprend lexemple dun de `
a six faces equilibrees, et que X represente le resultat
dun jet, on a X() = {1, 2, 3, 4, 5, 6} et directement
PX [X()] = PX [{1, 2, 3, 4, 5, 6}] = P[X {1, 2, 3, 4, 5, 6}] = 1.
De meme, laxiome de lev`enement impossible (PX [] = 0) et de ladditivite pour des ev`enements
disjoints sont verifies. Donner la loi dune variable aleatoire revient alors `a donner les probabilites
des ev`enements elementaires quelle induit, et on presente souvent ces donnees sous forme dun
tableau, en notant dune mani`ere generale X() = (xi )i=1,...,N = (x1 , x2 , . . . , xN ) pour une variable
aleatoires `
a N valeurs possibles (qui ne sont pas forcement 1, 2, . . . , N ),
X
PX

x1
p1

x2
p2

...
...

xN
pN

o`
u lon note respectivement p1 = PX (1) = P[X = 1], p2 = PX (2) = P[X = 2], . . . , pN = PX (N ) =
P[X = N ]. Ce tableau peut se representer graphiquement par un diagramme en b
atons.

Exemple 21 = {P P, F P, P F, F F }, X = nombre de Face


x
PX (x)

3.2.2

0
1/4

1
1/2

2
1/4

Fonction de r
epartition

D
efinition 23 Une loi de probabilite est souvent definie `
a partir de sa fonction de r
epartition
F :
F

: R [0, 1]
x 7 F (x) = P[X x]

parfois egalement appelee fonction cumulative car on cumule les probabilites de toutes les valeurs
inferieures ou egales `
a x.


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

27

Dans le cas discret, il suffit dadditionner les probabilites elementaires :


F (xi ) = P[X xi ] = P[X = x1 ] + + P[X = xi ] = p1 + p2 + + pi .
Propri
et
e 22 Si X est une variable aleatoire discr`ete de fonction de repartition F , alors on a les
proprietes suivantes :
F est une fonction en escalier avec limx F (x) = 0 et limx+ F (x) = 1.
F est une fonction croissante.
Pour tous a, b R et a < b,
F (b) F (a) = P[a < X b].
La croissance se deduit de ce dernier point puisque si a < b, F (b) F (a) = P[a < X b] [0, 1]
est en particulier positif.

Exemple 22 Dans lexemple du nombre de Face en 2 lancers, on obtient la courbe en escalier


suivante :

3.3
3.3.1

Param`
etres dune loi
Esp
erance math
ematique

D
efinition 24 Lesp
erance math
ematique E[X] dune variable aleatoire X joue le r
ole devolu
`
a la moyenne en statistiques : elle correspond a
` la valeur moyenne esperee par un observateur lors
dune realisation de la variable aleatoire X. Les valeurs prises par cette variable sont ponderees par
les probabilites des ev`enements elementaires de sorte que lon definit
E[X] =

N
X
i=1

p i xi =

N
X

xi P[X = xi ]

i=1

lorsque X peut prendre N valeurs differentes x1 , . . . , xN avec comme probabilites elementaires


pi = P[X = xi ].


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

28

Exemple 23 Lors du lancer de 2 pi`eces, le nombre de face moyen ou espere correspond `


a
lesperance mathematique de la variable aleatoire X deja introduite, donnee par
E[X] =

1
1
1
0+ 1+ 2=1
4
2
4

Propri
et
e 23 Si X est une variable aleatoire discr`ete et f une fonction `
a valeurs reelles definie
sur X(), alors Y = f (X) est aussi une variable aleatoire definie sur le meme espace de probabilite
. Connaissant la loi de X, on peut alors determiner la loi de Y .
Exemple 24 Par exemple, si Y = X 2 , on a PY (y) = P[Y = y] = 0 pour y < 0, et pour y 0,
PY (y)

= P[Y = y] = P[|X| = y]

= P[{X = y} {X = y}]

= P[{X = y}] + P[{X = y}]

= PX ( y) + PX ( y)

On peut determiner lesperance de Y `


a partir de sa loi, mais egalement directement `
a partir de
celle de X gr
ace a
` la formule
X
E[f (X)] =
f (x)PX (x).
xX()

Remarque 9 Lesperance E[X] nest quun indicateur moyen et ne peut caracteriser la loi une
variable aleatoire `
a lui tout seul.

3.3.2

Variance

Pour decrire plus precisement le comportement de X, sans pour autant caracteriser compl`etement
la loi de X, on peut sinteresser aux ecarts de X par rapport `a cette moyenne. Cependant, si on
consid`ere simplement la difference X E[X], on obtient un ecart moyen E[X E[X]] = 0 (par
linearite de lesperance, voir 3.3). On pourrait considerer la valeur moyenne de |X E[X]| mais on
pref`ere considerer la moyen de (X E[X])2 , plus pertinente mathematiquement.
D
efinition 25 La variance mesure ainsi la deviation moyenne autour de la moyenne esperee
E[X], et est definie par
N

2  X
2
V[X] = E X E[X]
=
pi xi E[X] .
i=1

Propri
et
e 24 (formule de Koenig) Elle est toujours positive puisquil sagit de lesperance dun
carre.
On a lexpression suivante :
V[X] = E[X 2 ] (E[X])2 .
(3.1)
D
efinition 26 Pour mesurer la dispersion dune variable aleatoire X, on consid`ere souvent en
statistiques l
ecart-type, lie `
a la variance par :
X =

V(X).

(3.2)


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

29

Exemple 25 Lorsque X est le nombre de face obtenu lors du lancer de 2 pi`eces equilibrees, la
variance est
1
1
1
1
V[X] = (0 1)2 + (1 1)2 + (2 1)2 = .
4
2
4
2
Le lien entre la variance et le dispersion moyenne autour de la moyenne peut etre explicite grace
a linegalite de Bienayme-Tchebychev (cf (3.5)).
`

3.3.3

Propri
et
es de lesp
erance et de la variance

Propri
et
e 25 (Lin
earit
e de lesp
erance) Si X et Y sont deux variables aleatoires definies sur
le meme univers et a, b deux reels,
E[aX + bY ] = aE[X] + bE[Y ].

(3.3)

En particulier, E[aX] = aE[X].


Propri
et
e 26 (Non-lin
earit
e de la variance) Pour toute variable aleatoire X et a, b R
V(aX + b) = a2 V[X].
Propri
et
e 27 (In
egalit
e de Markov) Soit X une variable aleatoire positive desperance finie,
alors pour tout a > 0
1
P[X a] E[X].
(3.4)
a
Propri
et
e 28 (In
egalit
e de Bienaym
e-Tchebychev) Soit X une variable aleatoire reelle de
variance finie, alors pour tout a > 0
P[| X E[X] | a]

3.4
3.4.1

1
V(X).
a2

(3.5)

Couple de variables al
eatoires discretes
D
efinition

D
efinition 27 Un couple al
eatoire discret est un couple (X, Y ) de variables aleatoires definies
sur le meme univers et `
a valeurs dans
X() Y () = {(x, y) : x X(), y Y ()}.
Par la suite, on notera {X = x, Y = y} pour designer lev`enement elementaire {X = x} {Y =
y}.
D
efinition 28 On appelle loi de probabilit
e ou loi jointe de (X, Y ), lapplication PXY de
X() Y () dans [0, 1] qui a
` chaque couple dev`enements elementaires (x, y) associe la probabilite
PXY (x, y) = P[X = x, Y = y].
Dans la pratique, ces probabilites jointes sont donnees `a laide dun tableau `a double entree
dont les lignes correspondent au valeurs possibles xi X() prises par X, les colonnes `a celles
yi Y () prises par Y , et lel`ement de la ligne i et colonne j `a la probabilite jointe PXY (xi , yj ) :


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE
X|Y
x1
x2
...
xi
...
xn

y1
PXY (x1 , y1 )
PXY (x2 , y1 )

y2
PXY (x1 , y2 )
PXY (x2 , y2 )

...

30

yj
PXY (x1 , yj )
PXY (x2 , yj )

...

yN
PXY (x1 , yN )
PXY (x2 , yN )

PXY (xi , y1 )

PXY (xi , yj )

PXY (xi , yN )

PXY (xn , y1 )

PXY (xn , yj )

PXY (xn , yN )

Exemple 26 Une urne contient 3 boules numerotees {1, 2, 3}. On tire successivement, sans remise
et equiprobablement deux boules de lurne. Soit X et Y les numeros obtenus aux 1er et 2nd tirages.
Les resultats du 2nd dependent trivialement de ceux du 1er. Pour determiner la loi du couple, on
utilise les probabilites conditionnelles pour ecrire
PXY (x, y) = P[X = x, Y = y] = P[Y = y | X = x] P[X = x].
La loi du couple est alors donnee par le tableau suivant
x|y
1
2
3

1
0
1/6
1/6

2
1/6
0
1/6

3
1/6
1/6
0

Dune mani`ere generale, on peut calculer lesperance dune fonction f des deux variables X et
Y gr
ace `
a la loi du couple en ecrivant
X
E[f (X, Y )] =
f (x, y) PXY (x, y).
(x,y)X()Y ()

3.4.2

Lois marginales

Il se peut que connaissant la loi du couple on ne veuille sinteresser qu`a une seule de ses
coordonnees : on parlera alors de loi marginale.
D
efinition 29 Soit (X, Y ) un couple aleatoire discret. On appelle loi marginale de X lapplication PX de X() dans [0, 1] definie pour tout x X() par
X
PXY (x, y).
PX (x) = P[X = x] =
yY ()

On definit de mani`ere analogue la loi marginale de Y .

Exemple 27 Dans lexemple precedent, la loi marginale de X est ainsi obtenue en sommant les
lignes du tableau de la loi jointe, et est donnee par le tableau
x
PX (x)

1
1/3

2
1/3

3
1/3

tandis que lon obtient la loi marginale de Y en sommant les colonnes :


y
PY (y)

1
1/3

2
1/3

3
1/3


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

3.4.3

31

Covariance

D
efinition 30 Soit (X, Y ) un couple aleatoire discret. On appelle covariance de (X, Y ), notee
Cov(X, Y ), le nombre reel
Cov(X, Y) = E[(X E(X)) (Y E(Y)].

(3.6)

On peut egalement la calculer `


a laide dune formule de type Koenig :
Cov(X, Y) = E[XY] E[X] E[Y].
Elle permet de quantifier un lien entre les 2 variables marginales X et Y via le coefficient de
correlation XY donne lorsque X et Y sont non nulles par :
XY =

Cov(X, Y)
.
X Y

(3.7)

Ce coefficient de correlation est tr`es utile pour determiner le lien entre deux caract`eres en
statistiques descriptives.

3.4.4

Ind
ependance

Les lois marginales se calculent simplement `a partir de la loi du couple. Par contre, il est en
general impossible de calculer la loi du couple `a partir de ses lois marginales. Le cas simple de
variables aleatoires reelles independantes permet cependant de retrouver la loi du couple mais cest
loin detre le cas en general.
D
efinition 31 Soit (X, Y ) un couple aleatoire discret. On dit que les variables aleatoires X et Y
sont ind
ependantes lorsque tous leurs ev`enements elementaires le sont deux `
a deux, i.e.
(x, y) X() Y (), PXY (x, y) = PX (x) PY (y).
Dans ce cas, les variables sont egalement non correlees, cest `a dire que XY = Cov(X, Y ) = 0.
La reciproque est fausse en general.
Propri
et
e 29 Si X et Y sont deux variables aleatoires independantes, alors
E[XY ] = E[X] E[Y ],
V[X + Y ] = V[X] + V[Y ] = V[X Y ].
La reciproque est fausse : deux variables aleatoires verifiant une des relatione precedentes,
peuvent ne pas etre independantes. (exo : fabriquer un contre ex)

3.4.5

Lois conditionnelles

D
efinition 32 Soit (X, Y ) un couple aleatoire discret. On appelle loi conditionnelle de X sachant Y , lapplication pX|Y de X() dans [0, 1] definie pour tout (x, y) X() Y () par
pX|Y [x | y] = P[X = x | Y = y] =

PXY (x, y)
.
PY (y)

On definit de mani`ere analogue la loi conditionnelle de Y sachant X.


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

32

Exemple 28 Dans lexemple precedent, la loi conditionnelle de Y sachant que le chiffre 1 a ete
tire au premier tirage est donnee par le tableau suivant :
y
PY |X [y | 1]

1
0

2
1/2

3
1/2

On peut egalement calculer la loi du couple (la loi jointe) `a partir des lois conditionnelles en
toutes circonstances, et en particulier quil y ait independance ou non, grace au theor`eme suivant.
Th
eor`
eme 5 Soit (X, Y ) un couple aleatoire discret. La formule des probabilites composees permet
decrire
PXY (x, y)

= PX (x) PY |X (y | x) si PX (x) 6= 0

PXY (x, y)

= PX (y) PX|Y (x | y) si PX (y) 6= 0


0

sinon.

En particulier, lorsque X et Y sont independantes, les probabilites conditionnelles se confondent


avec les lois jointes : PX|Y (x | y) = PX (x) et PY |X (y | x) = PY (y).

3.5

Lois discr`
etes usuelles

On consid`ere une variable aleatoire discr`ete X sur un univers quelconque . Lorsque X prend n
valeurs, lensemble X() des valeurs prises par X est designe par (xi )i=1...n , i.e. (x1 , x2 , . . . , xi , . . . , xn ),
, et (xi )iN lorsque X en prend une infinite. Le comportement aleatoire de X peut etre tr`es different
selon les phenom`enes etudies, et toute forme de loi est a priori envisageable. Cependant, certains
param`etres objectifs de caracterisation (moyenne, dispersion, etc.) permettent de degager des comportements recurrents et des familles de lois qui permettent une modelisation approchee raisonnable
de la plupart des phenom`enes aletoires courants. Nous decrivons ici les lois discr`etes les plus importantes, `
a travers certains exemples de mod`elisations.

3.5.1

Loi uniforme sur {1, . . . , n}

Elle modelise des situations dequiprobabilite.


D
efinition 33 On dit quune variable aleatoire X suit une loi uniforme discr`
ete lorsquelle
prend ses valeurs dans {1, . . . , n} avec des probabilites elementaires identiques. Puisque la somme
des ces derni`eres doit valoir 1, on en deduit quelles doivent toutes etre egales `
a un 1/n :
k = 1 . . . n, P[X = k] =

1
.
n

On note egalement ces probabilites pk , p(k) ou PX (k). Ces probabilites elementaires sont en particulier independantes de la modalite k.
Propri
et
e 30 (Esp
erance et variance) On calcule aisement
n+1
,
2
2
n 1
V[X] =
.
12
E[X] =


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

33

Demonstration :

1
1
1
1
+ 2. + 3. + + +n. ,
n
n
n
n
n
1 X
= .
k,
n

E[X] = 1.

k=1

1 n(n + 1)
,
= .
n
2
n+1
=
.
2
Pn

est la somme des premiers termes dune suite arithmetique de raison 1 de


k = n(n+1)
2
premier terme 1.
k=1

1
1
1
1
+ 22 . + 32 . + + +n2 . ,
n
n
n
n
n
1 X 2
k ,
= .
n

E[X 2 ] = 12 .

k=1

1 n(n + 1)(2n + 1)
= .
,
n
6
(n + 1)(2n + 1)
=
.
6
Pn

k=1

k2 =

n(n+1)(2n+1)
6

est un resultat classique qui se demontre par recurrence.


V[X] = E[X 2 ] (E[X])2 ,
=
=
=
=
=

(n + 1)(2n + 1) (n + 1)2

,
6
4
2n + 1 n + 1
(n + 1)

,
6
4


4n + 2 3n 3
(n + 1)
,
12
n1
(n + 1)
,
12
n2 1
.
12
J

Exemple 29 X = resultat dun jet de de a


` six faces non-pipe.
Les n = 6 modalites possibles, x1 = 1, x2 = 2, x3 = 3, x4 = 4, x5 = 5, x6 = 6, ont toutes pour
probabilite elementaire 1/6 :
k = 1 . . . 6, PX (k) = P[X = k] =
et on peut calculer E[X] = 72 ; V[X] =

35
12 .

1
6


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

3.5.2

34

Loi de Bernoulli

D
efinition 34 Cette loi est celle de toute variable aleatoire X modelisant une experience dont
lissue ne poss`ede que deux alternatives de type succ`es ou echec, vrai ou faux, marche ou
arret, pile ou face, etc. Un succ`es est represente par lev`enement {X = 1} tandis que X = 0
correspond `
a un echec X() = {0; 1}. Puisque lon a P[X = 0] = 1 P[X = 1], la loi de X
ne depend que dun param`etre (la probabilite de succ`es) ; on parle alors de la loi de Bernoulli de
param`etre p caracterisee par
P[X = 1] = p,
P[X = 0] = 1 p.

Propri
et
e 31 (Esp
erance et variance)
E[X] = p,
V[X] = p(1 p).

3.5.3

Loi binomiale B(n, p)

D
efinition 35 La loi binomiale est la loi de probabilite dune variable aleatoire representant une
serie depreuves de Bernoulli possedant les proprietes suivantes :
Chaque epreuve donne lieu `
a deux eventualites exclusives de probabilites constantes p et q =
1 p.
Les epreuves repetees sont independantes les unes des autres.
La variable aleatoire X correspondante prend pour valeur le nombre de succ`es dans une suite
de n epreuves.
Deux param`etres, le nombre depreuves (identiques mais independantes) repetees n et la probabilite p de succ`es dans lepreuve de Bernoulli en question caracterisent cette loi. Lors dune telle
experience, on dit que X suit une binomiale B(n, p), `a valeurs dans X() = {1, 2, . . . , n}.
Exemple 30 Le nombre X de Pile obtenus au cours de n lancers independants dune pi`ece
equilibree est une variable aleatoire discr`ete, `
a valeurs dans {0, 1} et suivant une loi binomiale
B(n, p) avec p = 21 , puisque la probabilite de succ`es est celle dobtenir un pile, i.e. 12 .
Th
eor`
eme 6 On a par ailleurs
X = X1 + + Xk + + Xn
o`
u les Xk sont des variables aleatoires de Bernoulli independantes de param`etre p, correspondant
au succ`es dune seule epreuve de pile ou face.

Exemple 31 Le nombre de boules rouges extraites au cours de n tirages successifs avec remise
(pour assurer lindependance) dune boule dans une urne contenant des boules rouges et blanches
dans des proportions p et q = 1 p est une variable aleatoire suivant une loi binomiale B(n, p).


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

35

Pour determiner les probabilites des evenements elementaires dune variable aleatoire suivant
une loi binomiale, il nous faut tout dabord determiner le nombre de possibilites dobtenir k succ`es
au cours de n epreuves. Il sagit de determiner le nombre de combinaisons (non ordonnees) de k
objets pris parmi n, avec bien s
ur k n. Les combinaisons sont non ordonnees car seul importe
davoir k objets (succ`es pour nous) et non pas `a quel(s) tirage(s) ces succ`es ont eu lieu. On connat
le nombre de possibilites de k succ`es et n echec, (Cnk ) il suffit de les multiplier par les probabilites
de succ`es et dechec pour obtenir la loi binomiale. On a donc :
Propri
et
e 32 Les probabilites elementaires dune variable aleatoire X suivant une loi binomiale
B(n, p) sont donnees pour tout nombre de succ`es k = 1 . . . n par :
P[X = k] = Cnk pk (1 p)nk .
Remarque 10 On a bien, en utilisant la formule du binome,
n
X

P[X = k] =

k=0

n
X

Cnk pk (1 p)nk

k=0

=1
Propri
et
e 33 (Esp
erance et variance)
E[X] = np,
V[X] = np(1 p).
Demonstration :
On a lecriture X = X1 + X2 + + Xk + + Xn , ou les Xk sont n variables aleatoires de Bernoulli
independantes. On a en effet par linearite de lesperance
E[X] = E[X1 ] + E[X2 ] + + E[Xk ] + + E[Xn ] = n E[X1 ] = n p
et par independance des variables aleatoires (Xk )k=1...n
V[X] = V[X1 ] + V[X2 ] + + V[Xk ] + + V[Xn ] = n V[X1 ] = n p (1 p)
J
Exemple 32
1. Un atelier comporte 10 machines identiques. Chaque machine a une probabilite
p = 0.01 de tomber en panne `
a un moment dans la journee. Lorsque lon suppose que les
machines tombent en panne de mani`ere independantes, la variable aleatoire X designant le
nombre de machines en panne a
` un moment donne dans la journee suit une loi B(10, 0.01).
Le nombre moyen de pannes par jour est donc E[X] = 10 0.01 = 0.1, la variance etant
V[X] = 10 0.01 0.99 = 0.099.
2. Une machine qui a une probabilite p = 0.01 de tomber en panne dans la journee est amenee `
a
fonctionner pendant 20 jours consecutifs. Alors, en supposant lindependance des pannes, i.e.
si lon consid`ere quapr`es chaque panne la machine est restauree `
a lidentique, X suit une loi
B(20, 0.01).


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

3.5.4

36

Loi de Poisson

Lorsque le nombre depreuves n devient tr`es important, la manipulation de la loi binomiale


devient elle tr`es fastidieuse et est parfois remplacee en premi`ere approximation par son homologue
asymptotique, la loi de Poisson (theor`eme 7). Celle-ci evalue le nombre aleatoire dev`enements de
meme probabilite pendant une duree donnee. Elle peut mod`eliser par exemple le nombre dappels
recus par un standard telephonique, le nombre de voyageurs se presentant `a un guichet dans la
journee, etc. Pour des raisons tues ici, elle sexprime `a laide de la fonction exponentielle et depend
dun param`etre > 0, qui correspond au nombre moyen doccurence du phenom`ene observe pendant
la duree donnee. Plus formellement :
D
efinition 36 Une variable aleatoire X suit une loi de Poisson de param
etre > 0, notee
P() lorsque X() = N et pour tout k N
PX (k) = P[X = k] = e

k
k!

Propri
et
e 34
P[X = k + 1] =

P[X = k]
k+1

On admettra que :
Propri
et
e 35 (Esp
erance et variance)
E[X] = ,
V[X] = .
Exemple 33 Si on sait quen general un standard telephonique recoit 20 appels dans la journee
et que lon peut modeliser le nombre aleatoire dappels par une loi de Poisson, on pourra calculer
la probabilite davoir k appels, pour tout k, `
a laide des formules donnees par une loi de Poisson
P(20).
Remarque 11 Dans la pratique, des tables donnant les probabilites elementaires pour differentes
valeurs du param`etre sont disponibles et utilisees.
Propri
et
e 36 Si X1 et X2 sont deux variables aleatoires independentes suivant respectivement des
lois de Poisson P(1 ) et P(2 ), alors X = X1 + X2 suit une loi de Poisson P(1 + 2 )
Demonstration :
k11
k1 !
k2

P[X2 = k2 ] = e2 2
k2 !
P[X1 = k1 ] = e1


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

P[X1 + X2 = k] =

k
X

37

P[{X1 = i} {X2 = k i}]

i=0

k
X

P[{X1 = i}] P[{X2 = k i}]

i=0

k
X

e1

i=0

=e

i1 2 ki
2
e
i!
(k i)!

(1 +2 )

k
X
i

ki
2
i! (k i)!
1

i=0

= e(1 +2 )

1 X
k!
i ki
k! i=0 i!(k i)! 1 2

= e(1 +2 )

1 X i i ki
C
k! i=0 n 1 2

= e(1 +2 )

(1 + 2 )k
k!

3.6

Approximation dune loi de Poisson par une Binomiale

La loi de Poisson est souvent utilisee comme approximation de certaines lois binomiales pour
de grands echantillons, i.e. des lois binomiales correspondant `a des grands nombres n depreuves
de Bernoulli. Il y a bien s
ur quelques restrictions dont nous tairons ici les justifications theoriques,
et le param`etre de la loi approximante doit etre choisi de sorte que lesperance soit celle de la loi
binomiale approximee.
D
efinition 37 On dit quune suite de variables aleatoires (Xn : n N) convergence en loi vers
la variable aleatoire X si et seulement si on a, pour tout evenement A :
P[Xn A] P[X A]
n

On notera Xn X.
n

Remarque 12 Si les variables (Xn : n N) et X sont discr`etes alors il suffit que pour tout x R,
P[Xn = x] P[X = x]
n

Th
eor`
eme 7 Soient Xn B(n, p), Y P(). Alors on a :
Xn

n, p0, np=

Preuve : exercice ! ! ! (rappel limn (1 + nx )n = ex .)


Exemple 34
Conparaison des fonctions de repartitions dune loi B(100, 0.1) et de celle dune loi P(10).


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

38

Remarque 13 Dans la pratique, on consid`ere que lapproximation est bonne lorsque


n 30, p 0.1 et n p < 15
Exemple 35 (Utilisation du th
eor`
eme de convergence en loi) Considerons X B(100, 0.1)
et Y P(10). Nous sommes sous les hypoth`eses du theor`eme 7 (n = 100 30, p = 0.1,
n p = 10 < 15). Ce theor`eme nous assure que :

P[X = 5] = P[Y = 5]
Le premier terme de legalite est :
5
P[X = 5] = C100
0.195 0.95

= 0, 034
Le resultat a ete trouve par informatique la plupart des calculatrices etant incapable de le calculer
contrairement `
a lautre terme :
105
exp(10)
5!
= 0, 037

P[Y = 5] =

Exemple 36
Conparaison des fonctions de repartitions dune loi B(100, 0.5) et de celle dune loi P(50).


`
CHAPITRE 3. VARIABLE ALEATOIRE
DISCRETE

39

Remarque 14 Il existe dautres resultats de convergence en loi notamment le theor`eme de la limite


centrale 9 page 46.

Chapitre 4

Variables al
eatoires continues, loi
normale
4.1
4.1.1

Loi dune variable al


eatoire continue
D
efinitions

D
efinition 38 On appelle variable al
eatoire continue une variable aleatoire dont lensemble
des valeurs est R ou une reunion dintervalles de R.

4.1.2

Probl
ematique de la notion de loi dans le cas continu

Sa loi, cest `
a dire la description des valeurs probables de X (avec quantification de ces probabilites) est plus bri`evement qualifiee de loi continue. La description dune loi continue diff`ere de celles
des lois discr`etes puisque pour une variable aleatoire continue X, la probabilite que X prenne une
valeur bien precise x PX (x) = P[X = x] est nulle. Il y a en effet une infinite de valeurs dans R ou
dans un intervalle, et au regard de toutes ces valeurs precises, le poids de la valeur particuli`ere est
tellement insignifiant quil en est nul ! Il nest ainsi pas possible de definir la loi de X par la donnee
des probabilites des evenements elementaires. Par contre, il est possible de deduire les probabilites
que X prenne ses valeurs dans une partie de R `a partir de la fonction de repartition qui vaut dans
ce cas continu
F (x) = P[X x] = P[X < x].

4.1.3

Fonction de r
epartition et loi `
a densit
e

On consid`ere une variable aleatoire X de fonction de repartition FX


F (x) = P[X x].
Propri
et
e 37 On a les proprietes suivantes :
F est une continue,
limx F (x) = 0 et limx+ F (x) = 1,
F est une fonction croissante,
40

CHAPITRE 4.

VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE

41

Pour tous a, b R et a < b,


F (b) F (a) = P[a < X b].
Le defaut de la fonction de repartition (que ne poss`ede pas la notion de loi des variables aleatoires
discr`etes) est quelle ne fait pas apparatre ladditivite des probabilites. Fort du parall`ele que lon
peut faire entre probabilites et surfaces, il est tr`es avantageux de restreindre letude `a une classe de
variables aleatoires dites `
a densite.
D
efinition 39 Une variable aleatoire poss`ede une densit
e si Fx est derivable. La derivee notee
fX est appelee densite de probabilite de la variable aleatoire X.
Propri
et
e 38 De ce fait,
Z
P[a X b] =

fX (t)dt,
a

et la probabilite de trouver X dans un intervalle [a, b] donne apparat comme laire dune partie du
graphique situee entre la courbe de la densite fX et laxe des abscisses.
Remarque 15 Dans les applications, il nest pas necessaire de calculer ces aires `
a laide de calculs
car des tables de lois recapitulant les valeurs principales existent.
Propri
et
e 39 La donnee dune densite f permet donc de decrire compl`etement notre variable
aleatoire en caracterisant sa loi gr
ace aux proprietes suivantes :
x R, f (x) 0.

Z
+

f (x)dx = 1.

Z
P[a < X b] = F (b) F (a) =

f (x)dx.
a

4.2
4.2.1

Lois `
a densit
e classiques
Loi uniforme

Cette loi modelise un phenom`ene uniforme sur un intervalle donne.


D
efinition 40 La v.a. X suit une loi uniforme sur lintervalle borne [a; b] si elle a une densite f
constante sur cet intervalle et nulle en dehors. Elle est notee U([a; b]). Sa densite est alors,
(
1/(b a)
si x [a; b],
f (x) =
0
sinon
Cette loi est lequivalent continue de la loi discrete equirepartie. Son esperance est E[X] = (b a)/2
et sa variance est V ar(X) = (b a)2 /12.
Le resultat suivant permet deviter des calculs fastidieux pour determiner la probabilite uniforme
dun intervalle.
Propri
et
e 40 Si X est une v.a de loi uniforme sur [a; b] alors pour tout intervalle I de R :
P(X I) =

l([a; b] I)
,
l([a; b])

o`
u l(J) designe la longueur de lintervalle J (ex : l([a ;b])=b-a).

CHAPITRE 4.

4.2.2

VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE

42

Lois exponentielles

D
efinition 41 Soit un reel strictement positif. La v.a X suit une loi exponentielle de param`etre
, notee E(), si elle admet pour densite :
f (x) = ex 1[0;+[ (x).
Son esperance est E(X) = 1/ et sa variance est var(X) = 1/2 . Les lois exponentielles sont
souvent utilisees pour modeliser des temps dattente ou des durees de vie. Par exemple, les temps
dattente `
a partir de maintenant du prochain tremblement de terre, de la prochaine panne dun
appareil, de la prochaine desintegration dans un reacteur nucleaire suivent des lois exponentielles.
Le param`etre designe alors linverse du temps dattente moyen.

4.3
4.3.1

La loi normale
Loi normale centr
ee r
eduite N (0, 1)

D
efinition
La loi normale, ou loi normale centree reduite est la loi la plus connue des probabilites, parfois
sous le vocable loi de Laplace-Gauss et caracterisee par une cel`ebre courbe en cloche.
D
efinition 42 La loi normale centr
ee r
eduite est une la loi continue, dune v.a. X `
a valeurs
dans X() = R tout entier, definie `
a partir de la densite
1 x2
f (x) = e 2
2
Il nexiste par contre pas dexpression simple de sa fonction de repartition autre que la formule
integrale
Z a
a R, F (a) =
f (t)dt

Il sagit de laire de la surface situee sous la courbe et `a gauche de laxe vertical x = a (Voir la
figure 4.1 page 43).
Remarque 16 Dans les pratiques, les probabilites devenements de v.a. suivant une loi normales
sont repertoriees dans des tables facilement manipulables.
Param`
etres
Un calcul integral plus elabore donne :
Propri
et
e 41 (Esp
erance et variance)
E[X] = 0,
V[X] = 1.

CHAPITRE 4.

VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE

43

Figure 4.1 A gauche : Densit


e de probabilit
e de la loi N (0, 1), `
a droite sa fonction de
r
epartition.

4.3.2

Loi normale g
en
erale N (, )

D
efinition
D
efinition 43 Il sagit dune modification spatiale de la Loi normale : la forme en cloche de la
densite est la propriete principale de la famille des lois normales, qui peuvent eventuellement etre
translatee pour devenir assymetrique desperance non nulle , ou dilatee ou contractee autour de
la moyenne en jouant sur la variance 2 (Voir la figure 4.2 page 44). La densite est modifiee en
f (x) =

(x)2
1
e 22
2

Lusage dun changement de variable t = (x)


permet de se ramener `a un calcul dintegrale `a

partir de la loi N (0, 1), ce qui nous permettra de consulter les tables existant pour la loi standard
precedente. On a le theor`eme suivant :
Th
eor`
eme 8 Soit X une variable aleatoire de loi normale N (, ) et Z la variable aleatoire definie
par
X
Z=

suit une loi normale centree reduite N (0, 1).


Param`
etres
Le changement de variable donne aussi :
Propri
et
e 42 (Esp
erance et variance)
E[X] = ,
V[X] = 2 .

CHAPITRE 4.

VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE

44

Figure 4.2 Densit


e de probabilit
e de la loi normale N (1; 0, 5).

Manipulation de la loi normale


Remarque 17 On notera la fonction de repartition de la loi normale centree reduite N (0, 1).
On utilise les valeurs de (a) tabulees et le changement de variable pour calculer les valeurs de
la fonction de repartition F dune loi normale generale.
Exemple 37 Considerons X une v. a. qui suit une loi N (6, 2) et Z une v.a. de loi N (0, 1), on a
par exemple
FX (7) = P[X 7]
X 6
7 6

=P
2
2

1
=P Z
2
1
=
2
= 0.6915.
Les valeurs ne sont tabulees que pour des valeurs de a positives, mais on sen sort `a laide de la
propriete suivante de le fonction de repartition de la loi normale :
Propri
et
e 43 Soit Z une v.a. de loi N (0, 1) ; on a alors
(a) = 1 (a)
et en particulier (0) = 21 . On a par ailleurs
P[| Z | a] = 2 (a) 1

CHAPITRE 4.
Exemple 38

VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE

45

X 6
1 6
P[X > 1] = P
>
2
2

5 
=P Z>
2
5
=
2
= 0.9938.



P[4 X 8] = P 1 Z 1


= P | Z | 1
= 2(1) 1
= 0.6826.
Remarque 18 En utilisant les techniques precedentes, on constate tout dabord que la loi normale
N (m, ) est une loi symetrique autour de laxe median x = . On a ainsi 50% des individus au
dessus de la moyenne et 50% en dessous. Cest loin detre le cas en general bienque notre intuition
nous pousse souvent `
a le croire, participant a
` une intuition probabiliste erronee.
Exemple 39 Cette loi permet aussi de mieux apprehender le lien entre variance et dispersion :
dans un intervalle [m , m + ] de longueur 2 et centre autour de la moyenne, on peut calculer
quil y a 68% des individus, lorsque quune v.a. suit une loi N (m, ) :
P[m X m + ] = 0.68
On etablit aussi la r`egle des 3 : 95% dun echantillon representatif dune loi normale N (m, )
est approximativement situe entre m 2 et m + 2. Plus exactement,
P[m 1.96 X m + 1.96] = 0.95
et on a m`eme 99, 7% des individus entre m 3 et m + 3 :
P[m 3 X m + 3] = 0.997
Autrement dit, lorsque lon a une variable aleatoire qui suit une loi normale N (m, ), on est pratiquement s
ur que la valeur se situera entre m 3 et m + 3.
Sommes de v.a. normales ind
ependentes
Propri
et
e 44 Soit X1 et X2 deux v.a. independentes de lois respectives N (1 , 1 ) et N (2 , 2 ).
p
Alors X1 + X2 suit une loi normale N (1 + 2 , 12 + 22 ) et X1 X2 suit une loi N (1
p
2 , 12 + 22 ).

4.4

La Loi normale comme limite en loi

Limportance de la Lois Normale est due `a son apparition comme loi limite de nombreux
phenom`enes, `
a travers par exemple le cel`ebre Theor`eme de la limite centrale.

CHAPITRE 4.

VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE

46

Th
eor`
eme 9 Soit X1 , X2 , . . . une suite de variables aleatoires definies sur le meme espace de probabilite, suivant la meme loi L et independantes. Supposons que lesperance et lecart-type de
L existent et soient finis ( 6= 0).

Considerons la somme Sn = X1 + ... + Xn . Alors lesperance de Sn est n et son ecart-type vaut


n. Alors
Sn n

Zn =
n

converge vers la loi normale centree reduite N (0; 1) lorsque n tend vers linfini.
Corollaire 2 (Th
eor`
eme de laplace) Cest notamment le cas pour une loi de bernoulli b(p) et
dans ce cas, Sn nest autre que la loi binomiale B(n; p) qui verifie bien les hypoth`eses. On a :
Sn np
L
U

npq n
avec U N (0; 1).
Dans la pratique, on consid`ere que lapproximation est bonne lorsque
n 30, p 0.1 et n p > 15

Figure 4.3 Illustration du Th


eor`
eme de la limite centrale.

Exemple 40 (Utilisation du Th
eor`
eme de la limite centrale) Considerons X B(100, 0.4)
et U N (0; 1). On cherche `
a evaluer
P[X 45].

CHAPITRE 4.

VARIABLES ALEATOIRES
CONTINUES, LOI NORMALE

47

Pour ce faire, il suffit decrire :


X 40
45 40

]
100 0, 4 0, 6
100 0, 4 0, 6
X 40
1, 02]
= P[
100 0, 4 0, 6

P[X 45] = P[

il est facile de voir que les deux evenements sont identiques et donc que les deux probabilites sont
egales. Maintenant, il suffit de dire que nous sommes sous les hypoth`eses du theor`eme 2 (n = 100
30, p = 0.4, n p = 40 > 15) et que ce dernier nous assure que :
P[X 45] = P[

X 40
1, 02]
100 0, 4 0, 6

= P[U 1, 02]
Par informatique on trouve (la plupart des calculatrices etant incapable de le calculer et aucun
etudiant assez courageux pour calculer les 46 termes de la somme...) :
P[X = 5] =

45
X

i
C100
0.4i 0.6100i

i=0

= 0, 869
Une lecture dans la table nous permet daffirmer que

P[U 1, 02] = 0, 849


Ce qui est une tr`es bonne approximation.

4.5

Lois d
eriv
ees de la loi Normale

Parfois dautres lois que la loi normale sont utiles dans les approximations (cf. les calculs dintervalle de confiance, de test). Ce sont les lois de Student et du 2 (lire khi-deux). Ces lois dependent
dun param`etre n entier, appele degre de liberte (d.d.l.). De meme que pour la loi normale N (0; 1),
on disposera de tables pour ces lois.

4.5.1

Loi du Khi-deux

P
D
efinition 44 Soient X1 , ..., Xn des v.a independantes de meme loi N (0; 1). Posons 2 = i=1...n Xi2 ,
par definition la v.a. 2 suit une loi du khi-deux `
a n degre de liberte (abreviation d.d.l.). On note
2
(n) cette loi.
Quelques Proprietes :
- 2 0, cette loi nest donc pas symetrique,
- 2 admet une densite,
- E(2 ) = n et var(2 ) = 2n

4.5.2

Loi de Student

D
efinition 45 Soient X N (0; 1) et Y 2 (n). Posons T = X . Alors T suit une loi de
Y /n

Student `
a n degre de liberte et on la note T (n).

Chapitre 5

Une introduction aux Th


eor
emes
limite en Probabilit
es
En essayant continuellement, on finit par reussir. Donc plus ca rate, plus on a de chances que
ca marche.

5.1

Loi des grands nombres

La loi des grands nombres est la formulation rigoureuse des faits intuitifs suivants : si on lance
un  grand  nombre de fois une pi`ece en lair, il y aura en moyenne 50% de piles (et donc aussi
50% de face). Precisons cette remarque. On joue n fois au pile ou face, avec proba p de tomber sur
pile. Pour 1 i n on pose Xi = 1{pile} , alors :
P
nb de piles
i=1..n Xi
=
.
n
n
Et il semble assez naturel que lorsque n est grand le rapport nb de piles/n tende vers la proba de
tomber sur pile, cest `
a dire precisement p = E(X1 ). Ainsi dans ce cas particulier, il semble que
lorsque n grand,
P
i=1..n Xi
E(X1 ).
n
De meme, si on lance un  grand  nombre de fois un d`e `a 6 faces en lair, il y aura en moyenne
1/6 `eme des faces qui seront, par exemple, des 4 (si la pi`ece et le d`e sont equilibres). Il existe
deux versions de la LGN qui correspondent `a deux modes de convergence : la faible o`
u on enonce
la convergence en probabilite et la forte avec la convergence presque s
ure. (cf. paragraphes
suivant pour definition de ces modes de convergence)

5.1.1

Un premier pas : Loi faible des grands nombres

Th
eor`
eme 10 Soit (Xn )nN? une suite de v.a. reelles deux `
a deux independantes et de meme loi
2
tel que E(X1 ) < . Alors,
 > 0

lim P( |
n

1 X
Xi E(X1 )| >  ) = 0
n i=1..n
48

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
49
Ce type de convergence sappelle la convergence en probabilite. Autrement dit, la moyenne arithmetique
de X1 , ..., Xn converge en probabilite vers lesperance de X1 . Ce resultat peut etre facilement
prouve `
a laide de linegalite de linegalite de Bienayme Tchebychev (cf. feuille dexos), ce qui
donne une esquisse dintuition de la veracite de ces proprietes, aux plus motives dentre vous.

5.1.2

Loi forte des grands nombres

Il existe une version de la loi des grands nombres pour la convergence presque s
ure, on parle de
la loi forte (car la convergence presque s
ure est plus forte que celle en probabilite.)
Th
eor`
eme 11 Soit (Xn )nN? une suite de v.a. reelles deux `
a deux independantes et de meme loi
tel que E(|X1 |) < . Alors,
1 X
Xi = E(X1 ).
pour presque tout ,
lim
n n
i=1..n
On parle de convergence presque s
ure (p.s en abrege). Cela signifie que pour presque chaque
realisation , la quantite moyenne arithmetique des Xi converge vers E(X1 ). Attention, la vitesse de convergence depend du . On admet ce Theor`eme (LGN) fondamental dont les preuves
sont beaucoup plus complexes que celles de sa version faible.
Exemple 41 Appliquer la loi des grands nombres au jeu du pile ou face. Pour i = 1..n, posez
Xi = 1{pile} .
Exemple 42 Application : estimation dune proportion inconnue. On se propose destimer le param`etre p inconnu dune loi de Bernoulli en observant un grand nombre de fois un phenomene
aleatoire de loi de Bernoulli(p), cest `
a dire en observant les valeurs dune suite de v.a. Xi
independantes et de loi de Bernoulli(p). Consid`erons une urne comportant des boules rouges en
proportion inconnue p et des boules vertes (en proportion 1 p). Dapres la LGN, un grand nombre
de tirages de boules dans lurne donnera une estimation de la proportion p en comptant (la frequence
du) nombre de boules rouges ainsi tirees.
Seulement, quel est le nombre raisonnable de boules `
a tirer pour avoir une reponse assez precise ?
Pour repondre `
a cette question, on peut fabriquer un intervalle dans lequel on est certain que le
param`etre p se trouve avec une certaine probabilite. On appelle un tel intervalle, un intervalle de
confiance. Linegalite de Bienayme Tchebychev (cf. feuille dexos) permet de donner un intervalle
(exo). [ le paragraphe suivant (avec le TCL) donne egalement un intervalle]
Exemple 43 (Sondage) : Avant le second tour dune election, opposant les candidats D et G,
un institut de sondage interroge au hasard 1000 personnes dans la rue. On note p la proportion
delecteurs decides `
a voter pour G dans la population totale et on suppose lechantillon de personnes
interrogees representatif. Dans lechantillon sonde, cette proportion est egale `
a 0, 54. A laide de
Bienayme Tchebychev, proposer un intervalle de confiance pour p avec un risque derreur de 5%.
Faut il augmenter la taille de lechantillon pour repondre a
` la question ?

5.2

Th
eor`
eme central limite

n = P Xi /n, de
On sait maintenant que sous certaines conditions, la moyenne arithmetique X
i
n E(X1 )
v.a. independantes ayant la meme lois converge vers lesperance. On sait donc que X

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
50
tend vers 0. On aimerait aller `
a lordre superieur et connaitre la vitesse de convergence vers 0.
Le (TCL) Theor`eme central limite repond `a la question :
Th
eor`
eme 12 Soit (Xn )n1 une suite de v.a. reelles independantes et de meme loi, de moyenne
m et decart type . Notons
n = X1 + ... + Xn
X
n
et Zn les v.a. associees centrees reduites :

n(Xn m)
.
Zn =

Alors pour tout intervalle [a; b], on a :


1
lim P(Zn [a; b]) = P(Y [a; b]) =
n
2
o`
u Y suit une N (0; 1).
On dit que la loi de la v.a. Zn =
N (0; 1).

n m)
n(X

et

/2

dt,

converge en loi vers une normale centree reduite

Autrement dit les sommes renormalisees se comportent asymptotiquement comme la loi normale.
De facon generale, lecart entre les moyennes arithmetiques et lesperance (ecart qui tend vers 0
par la LGN) se comporte apres normalisation comme la loi normale (ou bien encore en notant que
n m = 1 P
X
ecarts (renormalisee) tend vers une Gaussienne.)
i=1..n (Xi m), la moyenne des
n
Connaissant la densite de la loi normale, on peut le lire intuitivement comme suit. Si n est
assez grand alors Zn est tr`es probablement compris entre -3 et 3 (la probabilite est 0.9973). Soit
encore :
X1 + ... + Xn
3 3
E(X1 ) [ ; ],
n
n
n
avec grosse probabilite.
Remarque 19
1. Quelque soit la loi des Xi (moment dordre 1 fini), les sommes renormalisees convergent vers
une meme loi limite, la loi Normale, ce qui explique le nom de cette loi et son caract`ere
universel.

2. Le n est necessaire ! Prendre Xi N (0; 1) et regarder les variances des 2 termes.


3. En pratique, lorsque lon consid`ere un grand nombre de v.a. independantes et de meme loi
n par des variables normales
X1 , ..., Xn , on approxime leur somme Sn ou leur moyenne X
suivantes :


n N m; / n ,
Sn N nm; n et X
o`
u m = E(X1 ) et 2 = var(X1 ).
4. Si lon prend Xi Bernoulli(p), on retrouve quune Binomiale approche une Normale. [On
a donc deux approximations possibles pour les lois binomiales B(n; p) : celle par une loi de
Poisson
P(np) lorsque

 n est grand, p petit et np de lordre de quelques unites et celle par
p
N np; np(1 p) lorsque n est grand. Seule la pratique permet de decider laquelle des
deux est la meilleure approximation. ]

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
51
Le TCL est fondamental en statistique pour lobtention dintervalles de confiance. Il est `a lorigine de beaucoup dapproximation de lois et permet de se ramener `a la loi normale pour laquelle
on dispose de tables des valeurs.

5.3
5.3.1

Quelques applications
Marcheur dans Z

Soit un marcheur aleatoire (imaginez un bonhomme ivrogne) qui se deplace sur laxe Z en
sautant aleatoirement `
a chaque unite de temps (`a chaque seconde par exemple) sur un de ces 2
voisins (droite ou gauche). Notons Xi sa position `a linstant i. On suppose que le marcheur debute
a lorigine `
`
a t = 0, cest `
a dire X0 = 0.

On a les relations suivantes : pour tout i 0,


Xi+1 = Xi + i ,
o`
u les i {1, +1} avec P( = 1) = P( = +1) = 1/2.
On applique le TCL aux i (qui sont independants, de meme lois). On a : E(i ) = 0 et var(i ) = 1.
Xn
On obtient que pour n grand, la loi de
sapproxime par une N (0; 1). Ainsi, connaissant la forme
n
de la densite de la normale, on deduit quavec grosse probabilite le marcheur se trouve dans la boule

de centre 0 et de rayon n, au bout dun temps n.

5.3.2

Intervalle de confiance lors d


elections

Deux candidats A et B sont en course pour une election. Soit p la probabilite de gens votant
pour A. A lissue dun sondage sur n personnes, on se propose de donner un intervalle de confiance
dans lequel p doit se trouver avec un(certain pourcentage .
1
si la personne i vote pour A
Pour 1 i n, posons Xi = |x| =
0
sinon.
Les Xi sont independants et suivent des loi de Bernoulli de param`etre p inconnu. On a E(X1 ) = p
et V ar(X1 ) = p(1 p). Le TCL autorise lapproximation (en loi) suivante pour n grand :
P
r
Xi
n
( i
p) N (0; 1) .
p(1 p)
n
Do`
u, pour tout  > 0, on a :
r
P(|

n
(
p(1 p)

Xi
p)| < ) P(|Y | < ),
n

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
52
o`
u Y N (0; 1) .
Cest `
a dire que lon est certain avec le taux = P(|Y | < ) que ,
r
r
p(1

p)
n 
n +  p(1 p) ]
p [X
;X
n
n
Si lon veut par exemple donner une fourchette pour p avec un taux = 0, 95, on choisit  = 1, 96
( cf. table de la loi normale). Ainsi avec 95%, on peut affirmer que,
n + 1,96 ]
n 1,96 ; X
p [X
2 n
2 n
(On a utilise le fait que pour p [0; 1], p(1 p) 1/4 ) De cette derni`ere expression, on remarque
que si lon augmente la taille n de lechantillon, lintervalle (de confiance) se resserre, ce qui
n 1,96
n + 1,96
;X
].
permet de lever eventuellement un indetermination dans le cas o`
u 1/2 [X
2 n
2 n

5.3.3

Introduction aux tests statistiques (le test du Chi 2)

Cette section ne represente quun survol de la theorie des tests.


Introduction g
en
erale
Lune des fonctions des statistiques est de proposer, `a partir dobservations dun phenom`ene
aleatoire (ou modelise comme tel) une estimation dun des param`etres du phenom`ene. Cest pas
exemple le but recherche dans la construction dintervalles de confiance. Les statistiques servent
aussi `
a prendre des decisions. Peut on considerer quun medicament est plus efficace quun placebo ?
Le nombre de consultations de Google par seconde suit il une loi de Poisson ? Les g`enes pilotant
la couleur des yeux et ceux des cheveux sont ils sur les memes chromosomes ? Il y a deux points
communs (au moins) `
a toutes ces questions : leurs reponses sont des oui-non et le phenom`ene sousjacent est aleatoire. Les tests statistiques vont permettre dapporter une reponse `a des questions
manicheennes en contr
olant lalea inherent `a la situation.
En statistiques, les deux eventualites sont appelees des hypoth`eses et sont notees H0 (hypoth`ese
nulle) et H1 (hypoth`ese alternative). Souvent H1 sera le contraire de H0 . Dans tous les cas, le
postulat est quune et une seule des deux hypoth`eses est vraie.
Un test statistique est un algorithme qui conduit `
a ne pas rejetter H0 ou rejetter H0 `
a partir des
observations du phenom`ene. Lidee de base des tests, est de trouver une statistique (une fonction
des observations) dont on connait la loi (ou qui sapproxime par une loi connue) si H0 est vraie et
qui ne se comporte pas de la meme mani`ere selon que H0 ou H1 est vraie.
( le qui sapproxime par une loi connue dans la phrase precedente, est en general une consequence
du TCL. On devine ainsi limportance capitale de ce Theor`eme dans cette theorie.)
Il y a deux grands types de tests : les tests parametriques et les tests non parametriques (exemple :
test du 2 ). Un test non parametrique teste une propriete (independance ou pas, homgeneite ou
pas ). Un test parametrique consiste a` verifier si une caracteristique dune population, que lon
notera , satisfait une hypoth`ese que lon pose a priori, appelee hypoth`ese nulle H0 . Il sagit donc
de tester un param`etre. Elle est en general de la forme H0 : = 0 ou H0 : > 0 ou encore
H0 : < 0 . Comme pour les intervalles de confiance, on a besoin pour cela dun echantillon dont
les valeurs sont celles prises par n v.a. X1 , ..., Xn independantes de meme loi.

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
53
Un premier exemple

On suppose que la taille dune population suit une loi Gaussienne N ; 2 . On connait 2
mais la valeur est inconnue. Certaines circonstances amenent `a formuler la question suivante :
la moyenne theorique est-elle egale a` une certaine valeur 0 ? Pour cela, on desire faire le test
suivant :H0 : = 0  contre H1 : 6= 0 .
Soit un echantillon X1 , ..., Xn des tailles de n personnes de la population. H0 implique que

Xi N 0 ; 2 . Ainsi, pour n grand, le TCL donne alors que la v.a.

Un :=

n
(Xn 0 ) N (0; 1) .

Vu lallure de la densite de la normale centree reduite, on definit une zone rejet R de la forme
R =] ; t [] t ; +[ o`
u le nombre t est donne par la table N (0; 1) de la v.a. U avec
P(|U | > t ) =
Si on choisit = 0, 05, on a t = 1, 96 dapres la table N (0; 1). Et si choisit = 0, 1, on a
t = 1, 645.
Il reste alors `
a calculer la valeur u de U `a partir de lechantillon et a` decider en fonction de
lappartenance de u `
a R ou non.
(

si u R on rejette H0 avec un risque derreur %


si u
/ R on ne rejette pas H0 avec un risque derreur %

Le test du 2
Toujours selon le meme schema, sous une certaine hypoth`ese H0 , on construit une statistique
(fonction des observations) qui doit tendre vers une loi connue. Dans le test du 2 , la convergence
de la statistique trouvee nest pas une consequence immediate du TCL mais cest dans le meme
esprit que celle ci se prouve (do`
u la place de ce test dans cette section).
Le test du khi-deux concerne uniquement les lois discr`etes, mais on peut lutiliser aussi pour des
echantillons continus regroupes en classes. Le mod`ele de base est toujours un echantillon (X1 , ..., Xn )
dune loi inconnue. Les classes, notees c1 , ..., ck , sont une partition de lensemble des valeurs possibles. Lhypoth`ese `
a tester porte sur les probabilites des classes, pour lesquelles on se donne des
valeurs theoriques Ptheo (c1 )..., Ptheo (ck ).
H0 :

i = 1, ..., k, P(Xi ci ) = Ptheo (ci ).

Sous lhypoth`ese H0 la distribution empirique de lechantillon sur les classes doit etre proche de
la distribution theorique. La distribution empirique (observee) Pobs est celle des frequences de
lechantillon dans les classes :
1 X
Nombre de Xi tombant dans la classe cj
Pobs (cj ) =
1{c } (Xi ) =
.
n i=1...n j
n
On mesure ladequation de la distribution empirique `a la distribution theorique par la distance du
khi-deux.

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
54
D
efinition 46 On appelle distance du khi-deux de Ptheo par rapport `
a Pobs , et on note D2 (Ptheo , Pobs ),
la quantite :
X (Ptheo (ci ) Pobs (ci ))2
D2 (Ptheo , Pobs ) =
Ptheo (ci )
i=1...k

La distance du khi-deux est donc une moyenne ponderee decarts quadratiques entre les
valeurs de Ptheo et Pobs . Ce nest pas une distance au sens usuel du terme, puisquelle nest meme
pas symetrique. La loi de probabilite de D2 (Ptheo , Pobs ) na pas dexpression explicite en general.
On utilise le resultat suivant :
Propri
et
e 45 Sous lhypoth`ese H0 , la loi de la variable aleatoire nD2 (Ptheo , Pobs ) converge quand
n tend vers linfini, vers la loi du khi-deux de param`etre k-1.
Si lhypoth`ese H0 est fausse, alors la variable nD2 (Ptheo , Pobs ) tend vers linfini ( appliquer k fois
la loi des grands nombres, on obtient un terme lineaire en n). En pratique, la statistique du test
du khi-deux se calcule sous la forme suivante :
U = nD2 =

X (ntheo (ci ) nobs (ci ))2


,
ntheo (ci )

i=1...k

o`
u
ntheo (ci ) est leffectif theorique de la classe ci , `a savoir le produit nPtheo (ci ),
nobs (ci ) est leffectif observe de la classe ci .

On peut distinguer trois types de test du 2 :


1. le test du 2 dadequation `
a une loi de probabilite sur un ensemble fini. Est il raisonnable de
penser que les resultats que jobserve sont des realisations i.i.d dune loi (p1 , p1 , ..., pk ) sur un
ensemble {1, 2, ..., k}. Exemple, H0 :  le caractere X suit-il une loi particuli`ere ? ,
2. le test 2 dhomogeneite de plusieurs echantillons : deux medicaments ont-ils le meme effet
(guerison, etat stationnaire...) sur la population atteinte ? Exemple, H0 :  le caractere X
suit-il la meme loi dans deux populations donnees ?  ,
3. le test du 2 dindependance. H0 :

les caracteres X et Y sont-ils independants ?

Ces trois tests ont un principe commun qui est le suivant : on repartit les observations dans k
classes dont les effectifs sont notes n1,obs , ..., nk,obs . Lhypoth`ese H0 permet de calculer les effectifs
theoriques, notes n1,theo , ..., nk,theo (ni,theo represente leffectif theorique dans la classe i). On rejette
H0 si les effectifs observes sont trop differents des effectifs theoriques. Pour cela on donc utilise la
statistique de test decrite precedement :
P
(ni,obs ni,theo )2
U = i=1..k
.
ni,theo
Fait 1 : Le point central est que grace `a la propriete 45, on peut prouver que lorsque la taille de
lechantillon augmente, la statistique U tend vers la loi dun 2 (k 1 m) o`
u k est le nombre de
classes et m est le nombre de param`etres estimees necessaires au calcul des effectifs theoriques (les
Ni doivent etre superieur `
a 5).

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
55

Figure 5.1 Densite de la loi dun 2 (`a plus de 3 param`etres).

Il faut donc sassurer que les effectifs theoriques sont plus grands que 5 et faire des regroupements de classes si besoin est. A partir de l`a, on calcule la zone de rejet unilaterale R = [t,+ ][
au risque en determinant t dans la table de la loi 2 (k 1 m) par P(U > t ) = . La r`egle
decision est la suivante :

P
si u = i=1..k (ni,obs ni,theo )2 appartient `a R , on rejette H

0
ni,theo
P
2
si u = i=1..k (ni,obs ni,theo ) nappartient pas `a R , on accepte H0
ni,theo

Remarque 20
1. Contrairement aux autres tests, les tests du 2 nexigent pas de formuler lhypoth`ese alternative
H1 , qui correspond `
a la negation de H0 .
2. Les effectifs theoriques doivent etre superieurs `
a 5. Si ce nest pas le cas, il faut regrouper des
classes.
3. Dans la statistique U = 2 (k 1 m), on manipule des effectifs et non des pourcentages.
Exemple A : Ad
equation `
a une loi
Exemple a
Un croisement entre roses rouges et blanches a donne en seconde generation des roses rouges, roses
et blanches. Sur un echantillon de taille 600, on a trouve les resultats suivants :
Couleur Effectif
rouges
141
roses
315
blanches
144
Peut on affirmer que les resultats sont conformes aux lois de Mendel ?
Il sagit de tester H0 : prouges = pblanches = 0.25, proses = 0.5 par exemple au risque = 0.05.
On dresse alors le tableau suivant :
couleur effectifs observes Ni effectifs theoriques ni,theo
rouges
141
0.25 600
roses
315
0.5 600
blanches
144
0.25 600
Ici, on a k = 3 classes et m = 0 (aucun param`etre `a estimer pour pouvoir calculer les effectifs

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
56
theoriques) donc k 1 m = 2. On calcule ensuite R =]t ; +[ ) laide de la table du 2 (2) et
on obtient t = 5, 991. Enfin, on calcule :
u = U () =

(141 150)2
(315 300)2
(144 150)2
+
+
= 1.53
/ R .
150
300
150

On propose le non rejet de lhypoth`ese : on ne peut pas dire que les observations contre- disent la
loi de Mendel.
Exemple b :
On observe le nombre X daccidents journaliers sur une periode de 50 jours dans une certaine ville.
On obtient :
Nombre daccidents Nombre de jours
0
21
1
18
2
7
3
3
4
1
= 0.9 et que var(X) = 0, 97. Peut on affirmer que X suit une loi de Poisson au
On constate que X
risque = 0.05 ?
Soit H0 : X suit une loi de Poisson de param`etre 0.9, on dresse donc le tableau suivant :
Nombre daccidents Nombre de jours
Nombre de jours theorique
0
21
50 e0.9 = 20.330
1
18
50 e0.9 0.9 = 18.295
au moins 2
11
50 (1 e0.9 (1 + 0.9)) = 11.376
On a regroupe les 3 derni`eres classes pour avoir un effectif theorique superieur `a 5 dans la derni`ere
classe. Dans cet exemple, on a k = 3 classes et m = 1 param`etre estime (`a savoir le param`etre
= 0.9 de la loi de Poisson) necessaire au calcul des effectifs theoriques. Donc k 1m = 1 est
=X
le nombre de d.d.l de U ; On calcule alors R = [t ; +[ `a laide de 2 (1) et on obtient t = 3.841.
Pour finir, on calcule
u = U () =

(18 18.295)2
(11 11.376)2
(21 20.33)2
+
+
= 0.039
/ R .
20.33
18.295
11.376

Et donc on ne rejette pas H0 au risque derreur 0.05.


Exemple B : Ind
ependance
Soient Y et Z deux v.a. `
a valeur respectivement dans {1, ..., r} et {1, ..., s}. La loi de (Y, Z)
est donnee par une matrice P = (pi,j )1ir, 1js `a coefficients positifs dont la somme vaut 1,
pi,j = P(Y = i, Z = j). Notons pour 1 i r et 1 j s,
pi. = P(Y = i) = pi,1 + pi,2 + ... + pi,s et p.j = P(Z = j) = p1,j + p2,j + ... + pr,j .
Les v.a. Y et Z sont independantes si et seulement si, pour tous i et j, on a : pi,j = pi. p.j
Soient un echantillon (Y1 , Z1 ), ..., (Yn , Zn ) de ces v.a, on definit alors les v.a. suivantes :
Ni,j = card{l [1; n]; (Yl , Zl ) = (i, j)}, Ni. = Ni,1 + ... + Ni,s et N.j = N1,j + ... + Nr,j .
Le fait 1 donne la propriete suivante :

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
57
Propri
et
e 46 Avec les notations ci-dessus,
(
X X (Ni,j Ni. N.j )2
2 ((r 1)(s 1)) en loi
n
Un =
Ni. N.j
+ p.s
i=1..r j=1..s
n

si Y et Z independantes,
sinon.

quand n tend vers linfini.


Remarque 21 avec les notations du fait 1, on a ici : k = rs et m = r 1 + s 1 (puisque la
donnee des r 1 premiers coefficients de la loi de Y donne le dernier et idem pour Z et que la
donnee des lois marginales dune loi, determine la loi du couple). Ainsi, k m 1 = (r 1)(s 1).
Exemple c (Yeux et cheveux...)
Depuis la terrasse dun cafe ensoleillee, un statisticien en plein travail a note les couleurs des yeux
et des cheveux de 124 passants.
PP

PP Cheveux
PP
blonds
PP
Yeux
P
bleus
25
gris
13
marrons
7

brun

roux

noir

9
17
13

7
7
5

3
10
8

Les deux criteres sont ils independants au niveau 5% ?


Soient les 2 v.a. Y : {bleu, gris, noir} et Z : {blond, brun, roux, noir}.
on notera i = 1 [resp. 2, 3] pour bleu [resp. gris, noir], et j = a [resp. b, c, d] pour blond [resp. brun,
roux,noir]. On calcule les Ni. et N .j. On a :
N1. = nombre total de personnes ayant les yeux bleus = 25 + 9 + 7 + 3 = 44, et de meme N2. =
47, N3. = 33 puis N.a = nombre total de personnes ayant les cheveux blonds = 45, et N.b =
39, N.c = 19, N.d = 21.
P
Enfin, on verifie que leffectif total n vaut bien 124 avec par exemple i Ni. (= 124). On peut alors
construire le tableau des effectifs theoriques Ni. N.j /n.

PP
PP Cheveux
PP
blonds
PP
Yeux
P
bleus
44 45/124 ' 15, 97
gris
17, 05
marrons
11, 98

brun

roux

noir

13, 84
14, 78
10, 38

6, 74
7, 2
5, 06

7, 45
7, 96
5, 59

Figure 5.2 Tableau des effectifs theoriques

On calcule alors la statistique Un =

(2515,97)2
15,97

(913,84)2
13,84

+ ... +

(85,59)2
5,59

(prop 46) et on trouve

Un ' 15, 08.


La table du 2 (6) (cf. Annexe) donne P(2 (6) > 12.59) ' 0.05 (au risque 5%) et donc on rejette
lhypoth`ese dindependance de la couleur des yeux et de la couleur des cheveux.

CHAPITRE 5. UNE INTRODUCTION AUX THEOR


EMES
LIMITE EN PROBABILITES
58
Exemple C : Homeg
en
eit
e
Les test du 2 permettent aussi de tester lhomogeneite de plusieurs echantillons. On etudie un
caract`ere pouvant prendre k valeurs A1 , A2 , ..., Ak (ou k modalites, ou `a valeurs dans k classes).
On dispose de l echantillons E1 , E2 , ..., El differents. Pour tout i {1, ..., k}, on connat leffectif
observe Oi,j de la valeur Ai dans lechantillon Ej . On souhaite tester :
H0 : les echantillons sont issus de la meme loi contre H1 : les echantillons nont pas meme loi.
On definit,
Oi. = Oi,1 + ... + Oi,l et O.j = O1,j + ... + Ok,j ,
et
n=

X X

Oi,j =

i=1..k j=1..l

Oi. =

i=1..k

O.j

j=1..l

Oi. represente leffectif observe de la valeur Ai parmi la reunion de tous les echantillons et Oj.
represente leffectif de lechantillon j.
On a la propriete similaire au fait 1 :
Propri
et
e 47 Avec les notations ci-dessus,
(
X X (Oi,j Oi. O.j )2
2 ((k 1)(l 1)) en loi
n
Un =
Oi. O.j
+ p.s
i=1..k j=1..l
n

si H0 vraie
sinon

quand n tend vers linfini.


Exemple d (Y a t il un nouvel Omo ?)
On cherche `
a invalider la reflexion suivante qui affirme que toute les lessive se valent. On utilise
trois lessives appelees A, B et C. Une fois que la machine `a laver a effectue son programme, on
classe `
a la sortie du lavage les vetements en trois categories : tr`es sale (TS), legerement sale (LS)
et propre (P). On obtient le tableau suivant :

PP
PP
Linge
PP
PP
Lessive
P
A
B
C

TS

LS

30
23
75

65
56
125

205
121
300

Peut on dire au niveau 5% que toutes les lessives sont identiques ?

Chapitre 6

Annexe

59

CHAPITRE 6. ANNEXE

6.1

Tables Loi Normale N (0; 1)

Figure 6.1 Table de la fonction de repartition

60

CHAPITRE 6. ANNEXE

61

Figure 6.2 Table de linverse de la fonction de reparition.


Lorsque P 0.5, il faut utiliser la colonne de gauche et la ligne superieure. (Les fractiles sont
negatifs).
Lorsque P 0.5, il faut utiliser la colonne de droite et la ligne inferieure. (Les fractiles sont positifs.)

CHAPITRE 6. ANNEXE

6.2

Table loi du Chi 2

62