Vous êtes sur la page 1sur 53

Licence 2-S3 SI-MASS

Anne 2013

Cours de Probabilits
Pierre DUSART

Chapitre

lments danalyse combinatoire


1.1

Quelques dfinitions

Disposition sans rptition : cest une disposition o un lment peut apparatre 0 ou 1 fois.
Disposition avec rptition : un lment peut figurer plus dune fois.
Disposition ordonne : lordre dobtention dun lment est important.
Ex. les lments constituant la plaque minralogique dun vhicule.
Disposition non-ordonne : lordre dobtention dun lment nest pas important, on nen tient pas compte
dans la caractrisation de la disposition.
Ex. Les numros issus dun tirage du loto.
Exemple 1 : On considre un ensemble deux lments {a, b}. Avec deux tirages sans rptition, on peut
obtenir {a, b} ou {b, a} ; Avec deux tirages avec rptition, on peut obtenir {a, a}, {a, b}, {b, a} ou {b, b}.
Cela correspond un tirage avec remise.
Exemple 2 : Prenons un jeu de d 6 faces (lments discernables) numrotes par = {1; 2; 3; 4; 5; 6}.
Aprs 3 jets, nous obtenons la ralisation A = (2; 5; 1) ; nous ritrons les jets et nous obtenons B =
(5; 1; 2). A et B sont quivalents si nous considrons que les dispositions sont non-ordonnes. En revanche,
ils ne sont pas quivalents si nous sommes dans le cadre dune disposition ordonne.
Qn
La valeur Factorielle(n), note n! est dfinie par n! = 1 2 n = i=1 i. Par convention 0! = 1. Nous
pouvons galement utiliser une dfinition rcursive
n! = n (n 1)!

1.2

Arrangement avec rptition

Soit un ensemble compos de n lments : card() = n. Nous constituons un chantillon E de taille p


(card(E) = p) partir des lments de . Si nous avons choisir p lments parmi n dans une disposition
ordonne (les places sont distinctes) et avec rptition (on peut choisir le mme lment plusieurs fois),
on dit quon a un arrangement de p lments parmi n. Le nombre darrangement avec rptition est np .
N.B. Dans ce cas, il est possible que p > n.
Raliser un arrangement avec rptition des lments de , cest aussi dfinir une application dun
ensemble E p lments dans . Lensemble des applications de E dans sera not E et on a
#(E ) = (#)#E .

1.3

CHAPITRE 1. LMENTS DANALYSE COMBINATOIRE

Arrangement sans rptition

Soit un ensemble avec card() = n. On constitue un chantillon de taille p (p n), la disposition est
ordonne et sans rptition. On dit quon a un arrangement sans rptition de p lments parmi n. Le
nombre de parrangements dun ensemble n lments est :
Apn =

n!
.
(n p)!

Raliser un arrangement sans rptition des lments de , cest dterminer un puplet (x1 , . . . , xp )
dlments de deux deux distincts. Cest aussi dfinir une application injective dun ensemble E p
lments dans n lments.

1.4

Permutation sans rptition

Cest un arrangement sans rptition de n lments parmi n.


Pn = Ann =

n!
= n!
(n n)!

Raliser une permutation des lments de , cest raliser un tirage exhaustif sans remise des lments
de en tenant compte de lordre du tirage. Cest aussi dfinir une bijection de ensemble sur lui-mme.
Lensemble des permutations dun ensemble n lments sappelle le groupe symtrique dordre n et se
note Sn . On a #Sn = n!.

1.5

Permutation avec rptition

On appelle permutation avec rptition de p lments o n sont distincts (n p), une disposition
ordonne de lensemble de ces p lments o le premier figure p1 fois, le second p2 fois, etc., tel que
p1 + p2 + + pn = p. Le nombre de permutation avec rptitions est p1 !p2p!!pn !
Dmonstration : (Voir pralablement la dfinition dune Combinaison sans rptition)
Pour construire un p-uplet correspondant une combinaison contenant p1 fois x1 , p2 fois x2 , ..., pn fois
xn , il suffit :
de choisir les p1 emplacements des x1 , parmi p1 + p2 + ... + pn places disponibles,
de choisir les p2 emplacements des x2 , parmi les p2 + ... + pn places restantes,
etc.
de choisir les pn emplacements des xn , parmi les pn places restantes.
Au total, il y a
p!
Cpp11+p2 ++pn Cpp22++pn Cppnn =
p1 !p2 ! pn !
Exemple [Nombre danagrammes du mot MATHMATIQUE] : nous voyons quen changeant les deux
lettres A, le mot reste identique, et par contre en transposant les lettres et E nous obtenons un mot
diffrent. (M :2 ;A :2 ;T :2 ;H :1 ; :1 ;I :1 ;Q :1 ;U :1 ;E :1) : #Anagrammes = 12!/(2!2!2!)
Exemple 2 : Nombre de quartets binaires de poids de Hamming gal 2 ;
Il y en a 6 =4 !/(2 !2 !) : (0011),(0101),(0110),(1001),(1010),(1100).

Cours Probabilits / Pierre DUSART

1.6

Combinaison sans rptition

On considre un ensemble constitu de n lments tous discernables. On forme un chantillon de taille


p. Si la disposition est non-ordonne et sans rptition, on dit que lon a une
 combinaison sans rptition
de p lments parmi n. Le nombre de ces combinaisons se note Cnp ou np .
Cnp =

n!
p!(n p)!

Proprits :
1. Cn0 = Cnn = 1
2. Cnp = Cnnp (complmentaire)
p1
p
(triangle de Pascal)
+ Cn1
3. Cnp = Cn1
4. Cnp =

Ap
n
p!

p
p1
+ Cn1
:
Preuve que Cnp = Cn1
p
p1
Cn1
+ Cn1

(n 1)!
(n 1)!
+
p!(n p 1)! (p 1)!(n p)!
(n 1)! (n p) p (n 1)!
+
p!(n p)!
p!(n p)!
n (n 1)!
= Cnp
p!(n p)!

=
=
=

Proposition 1.6.1 (Formule du binme)


n
X

(a + b)n =

Cnp ap bnp .

p=0

Exercice : preuve de la formule du binme par rcurrence sur n


Preuve :
(a + b)n+1

=
=

(a + b)(a + b)n
n
X
(a + b)
Cnp ap bnp
p=0

n
X

Cnp ap+1 bnp +

p=0

n
X
p=0

n+1
X

Cnp 1 ap bn+1p +

p0 =1
n
X

Cnp ap bn+1p
n
X

Cnp ap bn+1p

p=0

!
Cnp1

a b

n+1p

Cnn an+1 b0

Cn0 a0 bn+1

p=1

n+1

p=1
n
X
+
(Cnp1 + Cnp ) ap bn+1p + bn+1
| {z }
p=1

(a + b)n+1

n+1
X
p=0

n
X

p
Cn+1

p
Cn+1
ap bn+1p .

!
Cnp

n+1p

a b

1.7

CHAPITRE 1. LMENTS DANALYSE COMBINATOIRE

Combinaison avec rptition

Cest une disposition non-ordonne de p lments, choisir parmi n lments discernables, avec rptition.
Le nombre de combinaisons avec rptitions de n objets pris p p est :
p
Knp = Cn+p1

Exemple : [jeu de domino] Les pices sont constitues en disposant cte cte deux lments de lensemble
{blanc, 1, 2, 3, 4, 5, 6}. Si nous retournons un domino, nous changeons lordre des deux lments, mais le
domino reste identique (Cest donc une disposition non-ordonne). Nous avons une combinaison avec
rptition de 2 lments pris parmi les 7, et au total il y a K72 = 28 dominos dans un jeu.
Toute pcombinaison avec rptition peut scrire :
x1 : k1 fois, . . . , xn : kn fois
avec 0 ki p et

Pn

i=1

ki = p.

On peut ainsi mettre en bijection lensemble des pcombinaisons avec rptition des n lments de E
avec les applications f : E N telles que
n
x1 7 f (x1 ) = k1
X

vrifiant
f (xi ) = p
i=1
xn 7 f (xn ) = kn

Exemple : Dans un jeu de dominos, un domino est une 2-combinaison avec rptition de lensemble
E = {blanc, 1, 2, 3, 4, 5, 6}. Chaque domino peut tre reprsent par une application de E dans {0, 1, 2}
qui associe chaque lment de E le nombre de fois o llment apparat sur le domino. Ainsi le domino
[blanc,blanc], est reprsent par lapplication f dfinie par
f (blanc) = 2, f (1) = 0, f (2) = 0, f (3) = 0, f (4) = 0, f (5) = 0, f (6) = 0
et le domino [blanc, 1] par lapplication f dfinie par
f (blanc) = 1, f (1) = 1, f (2) = 0, f (3) = 0, f (4) = 0, f (5) = 0, f (6) = 0.
On peut aussi mettre cet ensemble en bijection
botes :
bote 1
x1
k1

avec lensemble des manires de placer p objets dans n

i
xi
ki

n
xn
kn

Mais placer p objets dans n botes cest aussi se donner n + p 1 objets et dcider que n 1 dentre eux
seront des cloisons :
0} | | 0| {z
0} .
0} | 0| {z
|0 {z
k1

k2

kn

Inversement, toute faon de choisir n 1 objets qui seront des cloisons, on peut associer une et une
seule faon de placer p objets dans n botes.
Il y a une bijection entre lensemble des p-combinaisons avec rptition de E et lensemble des p-uplets
croissants dlments de E, ou encore des applications croissantes (au sens large) de {1, 2, ..., p} dans E.
p
Proprit : Knp = Knp1 + Kn1
.
p
p1
p
Preuve : Cn+p1
= Cn+p2
+ Cn+p2

Chapitre

Probabilits
2.1
2.1.1

Espace probabilis
vnement et ensemble fondamental

Une preuve est une exprience dont lissue nest pas prvisible car rpte dans des conditions identiques,
elle peut donner lieu des rsultats diffrents ou alatoires (exprience alatoire). Lensemble des rsultats
possibles sappelle lensemble fondamental (ou rfrentiel, univers des possibles) et sera not .
Un vnement est un ensemble de rsultats (un sous-ensemble de lunivers) dune exprience alatoire.
Comme lvnement est une affirmation concernant le rsultat dune exprience, nous devons pouvoir
dire, pour tout rsultat de lunivers, si lvnement se ralise ou non. Un vnement donn, souvent dfini
par une proposition, est identifi la partie de lunivers pour laquelle il est ralis.
On exige que la collection C des vnements dispose de la structure dune algbre de Boole :
1. C; C.
2. si A C; A C;
3. si A, B C A B C et A B C.
On peut prciser le calcul de probabilits dun vnement E. De manire simplifie, la probabilit thorique
vaut
nombre de cas favorables
.
P (E) =
nombre total de cas
Exemple 1 : Si on lance un d 6 faces, le rfrentiel est compos des six faces = {1, 2, 3, 4, 5, 6}.
Exemple 2 : Si on lance trois fois une pice, le rfrentiel est compos des 23 arrangements avec rptition
des 2 faces distinctes notes P et F : = {P P P, P P F, P F P, P F F, F P P, F P F, F F P, F F F }.
Exemple 3 : Si on lance trois pices identiques simultanment, le rfrentiel est compos des 3-combinaisons
avec rptition des 2 faces distinctes notes P et F : = {P P P, P P F, F F P, F F F }. de cardinal K23 .
Question : On lance trois pices de monnaie. Quelle est la probabilit que toutes trois retombent du
mme ct, que ce soit pile ou face ?
Dfinition 1 Deux vnements A et B sont dits incompatibles sils ne peuvent se raliser simultanment
cest--dire lorsque lintersection des sous-ensembles A et B est vide : A B = .

CHAPITRE 2. PROBABILITS

2.1.2

Axiomatique de Kolmogorov

A chaque vnement, on associe un nombre positif compris entre 0 et 1, sa probabilit.


La thorie moderne des probabilits repose sur laxiomatique suivante :
Dfinition 2 On appelle probabilit sur (, C) (o est lensemble des vnements et C une classe de
parties de ), ou loi de probabilit, une application P de C dans [0, 1] telle que :
1. Pour tout vnement E, 0 P (E) 1.
2. P () = 1
3. pour tout ensemble dnombrable dvnements incompatibles A1 , A2 , ..., An , on a
X
P (Ai ) =
P (Ai ). (-additivit de P )
Dfinition 3 On appelle espace probabilis le tripl (, C, P ) o est lensemble fondamental, C est une
collection de sous-ensembles de (la collection des vnements), qui possde la structure prcdente de
-algbre de Boole et P : C [0, 1] est une mesure de probabilit sur C.
Proprits lmentaires : de laxiomatique de Kolmogorov, on peut dduire les proprits suivantes :
1. P () = 0
2. P (A) = 1 P (A)
3. P (A B) = P (A) + P (B) P (A B)
4. P (A) P (B) si A B
P
5. P (i Ai ) i P (Ai )
incompatibles.)

(ingalit de Boole)
(Il ny a stricte galit que si les vnements Ai sont deux deux

6. Si la suite (An ) crot vers A (cest--dire n, An An+1 et An = A) alors lim P (An ) = P (A).
7. Continuit monotone squentielle. Soient A1 A2 An . Si limn An = alors
limn P (An ) = 0
Dmonstration :
1. Soit E un vnement quelconque. Comme E = E, P (E ) = P (E). Dautre part, on sait
que E = (tout vnement est incompatible avec lvnement impossible) et daprs le 3me
axiome, P (E ) = P (E) + P (). Des deux galits, on obtient P () = 0.
2. A A = et A A = P () = P (A A) = P (A) + P (A) = 1 do P (A) = 1 P (A)

3. On dcoupe selon une partition de A B : on a P (A B) = P (A B) (B A) (A B) . Ces
ensembles sont deux deux incompatibles do P (AB) = P (AB)+P (BA)+P (AB). De plus,
P (A) = P (A B) + P (A B) et P (B) = P (B A) + P (A B), do P (A B) = P (A) P (A B)
et P (B A) = P (B) P (A B), valeurs que lon remplace dans la premire galit obtenue.
4. Daprs la proprit prcdente et la positivit de la probabilit, on a P (A B) = P (A) + P (B)
P (A B) P (A) + P (B),
5. P
Formule prcdente que lon peut gnraliser un nombre quelconque dvnements : P (i Ai )
i P (Ai ) avec galit si des vnements sont deux deux incompatibles.
6. On pose B1 = A1 et n 2, Bn = An \An1 . Les Bi sont disjoints
et vrifient n1 Bn = n1 An
P
et n 1, nk=1 Bk = An . Par la proprit de -additivit, n1 P (Bn ) = P (n1 An ) et n
Pn
1, k=1 P (Bk ) = P (An ). Ainsi limn P (An ) = P (n An ) = P (A).
7. On note A = An . Comme An An+1 , An \An+1 . On pose B1 = A1 et Bn+1 = An+1 \An . Ainsi
n Bn = n An = A et nk=1 Bk = An . Ainsi limn P (An ) = limn P (Bk ) = P (A). En passage au
complmentaire, limn P (An ) = P (A). On peut prendre A = .

Cours Probabilits / Pierre DUSART

Thorme 2.1.1 (Thorme des probabilits totales) Soit = Bi un systme complet dvnements (i.e. tel que les {Bi} constituent une partition de ). Alors
X
A : P (A) =
P (A Bi ).
i

Exemples de construction :
1. Si P
= {x1 , . . . , xn } est fini, on dfinit une probabilit sur P() en se donnant n nombres pi tels
que i pi = 1 en posant P ({xi }) = pi . On parle dquiprobabilit si pour tout i, P ({xi }) = n1 .
Dans ce cas, P (A) = card(A) .
n

2. Si = {xn , n N} est dnombrable, on dfinit une probabilit sur P() en se donnant une srie
de terme gnral pn convergente termes positifs et de somme gale 1 en posant P ({xi }) = pi .
1
)
(par exemple : pn = 2n+1
3. Si est un intervalle ]a, c[, o a, c appartiennent R {, }, on peut dfinir une probabilit
sur tous les intervalles inclus dans en dfinissant une probabilit sur des intervalles de la forme
Rb
Rc
]a, b[. Par exemple, P (]a, b[= a (t)dt o est une fonction positive qui vrifie a (t)dt = 1.
4. Si =]0, 1[2 , on obtient une probabilit en posant P (A) =surface de A.

2.2

Probabilit conditionnelle

On considre la ralisation de deux vnements A et B.


Que peut-on dduire sur la probabilit de lvnement B sachant que lvnement A est ralis ? Cette
probabilit est appele probabilit conditionnelle de A sachant B et se note P (A/B) ou PB (A).
Par dfinition, on a
P (A/B) =

P (A B)
.
P (B)

Cette probabilit a posteriori est dite Probabilit de Bayes.


Exercice : montrer que PB est une probabilit sur .

2.2.1

Formule de Bayes

Comme P (B/A) =

P (AB)
P (A) ,

on a P (A/B) =

P (AB)
P (B)

P (A/B) =

P (B/A)P (A)
.
P (B)

La formule de Bayes est

P (B/A)P (A)
.
P (B)

On remarque que P (B) = P (A B) + P (A B) = P (B/A)P (A) + P (B/A)P (A), ainsi


P (A/B) =

P (B/A)P (A)
.
P (B/A)P (A) + P (B/A)P (A)

Plus gnralement si {Aj } est une partition de lensemble des possibles, pout tout i,
P (B/Ai )P (Ai )
P (Ai /B) = P
.
j P (B/Aj )P (Aj )
Exemple : Soit un vnement A qui peut dpendre de N causes Ci diffrentes et incompatibles deux
deux (on ne peut avoir deux causes ralises simultanment). Etant donne la ralisation de lvnement
A, quelle est la probabilit que ce soit Ci qui en soit la cause ?

10

2.2.2

CHAPITRE 2. PROBABILITS

Formule des probabilits composes

Proposition 2.2.1 (Formule des probabilits composes) Soient n vnements A1 , ..., An tels que
P (A1 An ) 6= 0. Alors :
P (A1 An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 An1 )
Exemple : Une urne contient initialement 7 boules noires et 3 boules blanches. On tire successivement 3
boules : si on tire une noire, on lenlve, si on tire une blanche, on la retire, et on ajoute une noire la
place. Quelle est la probabilit de tirer 3 blanches la suite ?
On note Bi lvnement "La i-me boule tire est blanche". La probabilit recherche est :
P (B1 B2 B3 ) = P (B3 |B1 B2 ) P (B2 |B1 ) P (B1 ).
Clairement, P (B1 ) = 3/10. Maintenant, si B1 est ralis, avant le 2me tirage, lurne est constitue de 8
boules noires et 2 blanches. On a donc : P (B2 |B1 ) = 2/10. Si B1 et B2 sont raliss, avant le 3me tirage,
lurne est constitue de 9 boules noires et 1 blanche. On en dduit P (B3 |B1 B2 ) = 1/10. Finalement
P (B1 B2 B3 ) = 6/1000 = 3/500.
Proposition 2.2.2 (Formule des probabilits totales) Soit {An ; n N} un systme complet dvnements, tous de probabilit non nulle. Soit B un vnement. Alors :
X
P (B) =
P (An )P (B/An ).
nN

Cette formule permet de calculer la probabilit dun vnement B en le dcomposant suivant un systme
complet dvnements (En effet, B est gal la runion disjointes des B An ).

2.2.3

Evnements indpendants

Soient 2 vnements A et B. Ils sont indpendants si la ralisation de A naffecte pas la ralisation de B,


et inversement. On peut alors crire
P (A/B)

= P (A)

P (B/A)

= P (B)

On dit encore que A et B sont indpendants si et seulement la probabilit de ralisation simultane de


ces vnements est gal au produit de leurs probabilits individuelles :
P (A B) = P (A) P (B).
Si deux vnements A et B sont indpendants, alors il en est de mme pour A et B c , Ac et B, Ac et B c .
Dfinition 4 Un ensemble dvnements A1 , A2 , . . . , An est dit totalement indpendant si pour tout sousensemble I {1, 2, . . . , n}
Y
P (iI Ai ) =
P (Ai ).
iI

Les vnements sont deux deux indpendants si pour tous indices i, j (i 6= j),
P (Ai Aj ) = P (Ai ) P (Aj ).

11

Cours Probabilits / Pierre DUSART

Que pensez-vous des deux dfinitions ? Sont-elles quivalentes ?


Exemple : On jette deux ds quilibrs. Soient les vnements
A

= {la somme des ds vaut 7},

= {le premier d affiche 4}

= {le second d affiche 3}.

Calculer P (A B), P (A C), P (B C) et P (A|B C).

12

CHAPITRE 2. PROBABILITS

Chapitre

Variables alatoires
3.1

Dfinition dune variable alatoire

Une variable alatoire est une fonction dfinie sur lensemble des ventualits, cest--dire lensemble des
rsultats possibles dune exprience alatoire.
On sintressera aux valeurs prises xi par une variable alatoire X, vnement not (X = xi ), et plus
particulirement la probabilit dobtenir ces valeurs P (X = xi ).
Cest peu prs la mme chose quune variable statistique sauf que dans le cas dune variable statistique on
value un comportement ralis (moyenne, etc) alors que dans le cas de variables alatoires on suppose un
comportement futur (Dans ce cas, on parle desprance plutt que de moyenne par exemple) ou thorique.
Les variables alatoires sont utilises pour modliser le rsultat dun mcanisme non-dterministe.

3.1.1

Diffrents types de variables alatoires

Dfinition 5 Une variable alatoire (ou v.a.) est une application X : R. Si X() est au plus
dnombrable, on dit que X est un v.a. discrte sinon on dit quelle est continue.

Variable alatoire discrte


Si une variable alatoire X prend un nombre de valeurs fini ou dnombrable (son ensemble de dfinition
est inclus dans N), on parle de variable discrte.
On sintresse dfinir lensemble des valeurs possibles et leurs probabilits associes.
Quelques exemples :
nombre de face dans un lancer de 3 pices : X() de 0 3.
nombre de lancers avant dobtenir "6" avec un d : X() de 0 linfini ;
nombre de clients attendant au service aprs-vente : X() de 0 10.
nombre de cycles lecture/criture sur une cl USB : X() de 10000 100000.
nombre dappels arrivant un standard tlphonique en une minute de 0 10.

14

CHAPITRE 3. VARIABLES ALATOIRES

Variable alatoire continue


Une variable alatoire est dite continue si elle peut prendre toutes les valeurs dun intervalle. En particulier,
dans le cas o la variable alatoire peut prendre toute valeur relle (son ensemble de dfinition contient
un intervalle de R), on parle de variable alatoire relle.
Dans ce cas, il ne sagira plus de calculer une probabilit dapparition dune valeur donne mais dun
intervalle.
Quelques exemples :
temps dattente pour avoir le bus : X() [0, 100 ]
longueur de cheveux : X() [0, 4m]
intervalle entre deux averses : X() [10 , 20 ans]
moyenne des tailles de 20 tudiants pris au hasard : X() [, ]

3.1.2

Loi de probabilit

Une variable alatoire est totalement dfinie par sa loi de probabilit. Cette dernire est caractrise par :
lensemble des valeurs quelle peut prendre (son domaine de dfinition) ;
les probabilits attribues chacune des valeurs potentiellement prises P (X = x).
Dans ce cas, la loi de la variable alatoire est la loi de probabilit sur lensemble des valeurs possibles de
X qui affecte la probabilit P (X = xk ) au singleton {xk }.
Soit X : R. Dans le cas o X prend ses valeurs dans un intervalle rel, on cherche exprimer par
exemple la probabilit que X prenne ses valeurs dans ], [. On remarque que X() ], [)
X 1 (], [) et donc on pose P (X ], [) = P (X 1 (], [)).

3.1.3

Fonction de rpartition

Dfinition 6 La fonction de rpartition dune v.a. X est lapplication F de R dans [0, 1] dfinie par

F (x) = P (X < x) = P X 1 (] , x[) .
On sintresse souvent la probabilit cumule. Par exemple dans le cas de probabilits sur N :
P (X < n) = P (X = 0 ou X = 1 ou ou X = n 1).
Les vnements tant incompatibles entre eux, on obtient
P (X < n) =

n1
X

P (X = j),

j=0

et de faon plus gnrale, avec x R,


dx1e

P (X < x) =

P (X = j).

j=0

Ainsi pour X une v.a. discrte prenant les valeurs classes xi avec les probabilits pi , on a
X
F (x) =
pi .
xi <x

(Dans ce cas, F est une fonction en escaliers, continue gauche, ayant pour limite 0 en et 1 en +).

15

Cours Probabilits / Pierre DUSART

Proprits
1. F est non dcroissante.
2. F est continue gauche.
3. x0 R, P (X = x0 ) = limxx+ F (x) F (x0 ).
0

4. F () = 0 et F (+) = 1
5. P (a X < b) = F (b) F (a)
Preuves :
1. Montrons que F est croissante (x < y = F (x) F (y)). On a la runion disjointe ] , y[=
] , x[[x, y[ et F (y) = P (X 1 (] , y[) = P (X 1 (] , x[) X 1 ([x, y[)) et en utilisant les
proprits de P , F (y) = F (x) + P (X [x, y[) F (x).
2. Soit x0 R. X 1 ([x0 1/n, x0 [) dcrot vers quand n tend vers linfini, donc F (x0 )F (x0 1/n)
tend vers 0. Comme F est croissante, cela implique que F est continue gauche.
3. De mme, X 1 ([x0 , x0 + 1/n[) dcrot vers X 1 ({x0 }) donc la diffrence F (x0 + 1/n) F (x0 ) tend
vers P (X 1 {x0 }) quand n tend vers linfini.
4. F tant croissante, F () = limn F (n). Or ] , n[ dcrot vers quand n tend vers
linfini ; ainsi F (n) = P (X 1 (] , n[)) dcrot vers 0. De mme, ] , n[ crot vers R quand
n tend vers linfini et F (n) = P (X 1 (] , n[)) crot vers P (X R) = 1.
5. X 1 (] , b[) est la runion disjointe de X 1 (] , a[) et de X 1 ([a, b[) donc F (b) = P (X
[a, b[) + F (a).
Remarque : F est continue droite dans le cas des v.a. continues.
Preuve : Daprs la proprit 4 des fonction de rpartition, F est continue si et seulement si : x
R, P (X = x) = 0.
Remarque : Probabilit ponctuelle pour une variable continue.
La vraie distinction entre variables continues et discrtes tient dans le calcul de la probabilit ponctuelle.
La probabilit dun point c situ entre a et b serait limba P (a < X < b) = 0. Ainsi, la probabilit dun
point est par dfinition nulle pour les variables continues. Ainsi P (a < X < b) = P (a X b).
En ralit, il sagit bien souvent dun problme dchelle ou de prcision de mesure. On travaille toujours
sur des intervalles (par exemple la prcision de la mesure si on a une mesure au centimtre prs la valeur
x = 160 correspond x = 160 0.5 soit un intervalle de travail 160 0.5 < x < 160 + 0.5.

3.1.4

Densit de probabilit

Pour une variable continue, on travaille la plupart du temps avec un ensemble de dfinition sur les
rels. La probabilit ponctuelle P (X = x) = f (x) est la fonction de densit. La fonction de rpartition
F (x) = P (X < x) est dfinie par :
Z
x

F (x) =

f (t)dt

La densit de probabilit dune variable alatoire continue est la drive premire par rapport x de la
fonction de rpartition. Cette drive prend le nom de fonction de densit, note f (x) = dFdx(x) . Elle est
quivalente P (X = x) dans le cas des variables discrtes.
Pour calculer la probabilit P (a X < b) dans le cas dune variable continue, le calcul est le suivant
Rb
f (x)dx. Dveloppons cette expression :
a
P (a X < b)

= P (X < b) P (X < a)
Z b
Z a
=
f (t)dt
f (t)dt

= F (b) F (a)

16

CHAPITRE 3. VARIABLES ALATOIRES

Graphiquement, cela se traduit par la surface comprise entre a et b en dessous de la courbe de densit.
R +
P
Proprit : De la mme faon que pi 0 et i pi = 1, on a f (x) 0 et f (x)dx = 1.

3.2
3.2.1

Caractristiques dune variable alatoire


Tendance centrale

Les fractiles
On appelle quantile ou fractile dordre (0 < < 1) dune variable alatoire X dont la fonction de
rpartition est F (x), la valeur x telle que F (x ) = . La valeur x sappelle quantile dordre .
Remarque Dans le cas o X est une variable discrte, F (x ) = sentend P (X < x ) = .
Nous numrons ici quelques quantiles particuliers.
La mdiane : La mdiane est le quantile dordre = 1/2, en dautres termes la mdiane M ed est dfinie
par F (M ed) = 0, 5. La mdiane partage la population en deux parties gales, cest une caractristique
de tendance centrale.
Les quartiles : les quartiles, nots Qi (respectivement i = 1; 2; 3) correspondent aux quantiles dordre
( = 0, 25 ; 0,5 ; 0,75). Notons que Q2 = M ed.
Les dciles Le k-ime dcile (k = 1 9) est le quantile dordre k/10. En particulier, le 5-ime dcile
correspond la mdiane.
Le mode
On appelle mode (valeur dominante, valeur la plus probable) dune variable alatoire, la valeur M ode
pour laquelle lhistogramme de frquence prsente son maximum.
Dans le cas des variables discrtes, le Mode est la valeur de X associe la plus grande probabilit, do
lappellation valeur la plus probable.
Lorsque la variable alatoire X est continue, avec une fonction de densit pourvue dune drive premire
et dune drive seconde, le mode M est un maximum de la fonction densit et satisfait ce titre
f 0 (M ) = 0 et f 00 (M ) < 0 (concavit vers le bas).
Esprance mathmatique
Soit X une v.a. discrte prenant ses valeurs dans {x1 , . . . , xn } et dont les probabilits associes sont
P (X = xi ) = pi . On dfinit lesprance mathmatique de X, note E(X) par
E(X) =

n
X

pi xi .

i=1

Cette quantit nest dfinie que si la srie de terme gnral [pi xi ] converge.
Cest la moyenne thorique de X. Cette moyenne est rapprocher de la P
moyenne exprimentale o chaque
vnment X P
= xi se ralise
n
fois
dans
un
chantillon
de
taille
N
=
i
i ni . La moyenne exprimentale
P
vaut X = N1 i ni xi = i fi xi , o fi = nNi est la frquence observe dans chaque classe dvnement
X = xi .
R +
Dans le cas continu, E(X) = xf (x)dx o f (x) est la densit de probabilit de X. Cette quantit
R +
nexiste que si xf (x)dx est absolument convergente.

17

Cours Probabilits / Pierre DUSART

De faon gnrale, pour Y une fonction de X, on a


E(Y ) =

n
X

Z
pi yi

ou

y(x)f (x)dx

E(Y ) =

i=1

Par exemple, pour Y = X 2 , on a E(X 2 ) =

Pn

i=1

pi x2i

ou

E(X 2 ) =

R +

x2 f (x)dx.

Proprits : (Esprance dune constante). E(a) = a. Preuve.


Z
Z
E(a) =
af (x)dx = a
f (x)dx = a 1 = a.
D

On peut en dduire que E[E(X)] = E(X), puisque E(X) nest pas une variable alatoire.
Caractristique (oprateur linaire). E(aX + bY ) = aE(X) + bE(Y ). De manire gnrale,
!
!
X
X
E
ai Xi + b =
ai E(Xi ) + b
i

3.2.2

Paramtres de dispersion

Moments
Un moment non-centr dordre r est dfini de la manire suivante :
mr (X) = E(X r )
Application : pour une v.a. (variable
alatoire) discrte, mr (X) =
R
une v.a. continue, mr (X) = D xr f (x)dx.

pi xri , o pi = P (X = xi ) et pour

Remarque (Moments non-centrs empiriques, statistique descriptive). Rappelons quen statistiqueP


descriptive, ce moment non-centr, pour une v.a. discrte par exemple, est obtenue avec la formule mr = i fi xri ,
o fi est la frquence observe de la valeur xi .
Remarque (Cas particuliers).
(r = 0) m0 (X) = 1 ;
(r = 1) m1 (X) = E(X), esprance mathmatique ;
Un moment centr dordre r est dfini de la manire suivante :
r (X) = E[(X E(X))r ]
P
Soit pour une v.a. discrte : r (X) = i (xi E(X))r pi
R
et pour une v.a. continue : r (X) = D (x E(X))r f (x)dx
Remarque (Statistique descriptive). En
Pnstatistique descriptive, pour une variable discrte, le moment
centr dordre r est obtenu avec r = i=0 fi (xi x)r
Remarque (Cas particuliers).
(r = 0 ) 0 (X) = E[(X E(X))0 ] = E(1) = 1
(r = 1) 1 (X) = E[(X E(X))] = E(X) E[E(X)] = E(X) E(X) = 0
(r = 2 ) 2 (X) = E[(X E(X))2 ] = V (X) (cest la variance de X).
Variance
Dfinition 7 On appelle variance de X, not V (X), le moment centr dordre 2 de X (sil existe).
V (X) = E([X E(X)]2 ).

18

CHAPITRE 3. VARIABLES ALATOIRES

La variance mesure la dispersion autour de la moyenne. Lcart-type est la racine carre de la variance :
p
(X) = V (X).
Remarque (Formule de Koenig). Il est possible dexprimer la variance partir des moments non centrs.
V (X)

= E[(X E(X))2 ] = E[X 2 2XE(X) + E(X)2 ]


= E(X 2 ) + E(X)2 2E[XE(X)]
= E(X 2 ) + E(X)2 2E(X)E(X)

= E(X 2 ) E(X)2
V (X) = m2 (X) m1 (X)2

3.2.3

Caractristiques de forme

Le coefficient dasymtrie (skewness)


Graphiquement, il sagit de ltalement gauche ou droite de lhistogramme des frquences de la variable
statistique.

Le coefficient dasymtrie de Fisher : Outil banal de la statistique descriptive, il sagit du moment


centr dordre 3 normalis par le cube de lcart-type, cest--dire ( gamma un ) :
1 =
Remarque : 1 =

3
1 X
=
fi (xi x)3 .
3
3 i

3
3/2 .
2

Comme cest un nombre sans dimension, il permet de comparer des distributions mme si leurs chelles
diffrent. Lorsque ltalement est gauche (moyenne infrieure la mdiane), le coefficient dasymtrie
est ngatif et vice versa.
Le coefficient dasymtrie de Pearson 1 ( beta un ) est le carr du coefficient de Fisher, soit :
1 =

 2
3

Le coefficient dasymtrie de Yule et Kendall On a juste besoin des quartiles pour le calculer.
u=

(Q3 Q2 ) (Q3 Q1 )
.
(Q3 Q2 ) + (Q3 Q1 )

Comme il nexiste pas de table, donc pas de critre prcis de sparation entre symtrie et asymtrie, on
utilisera plutt ce coefficient comme lment de comparaison entre deux distributions.

19

Cours Probabilits / Pierre DUSART

Le coefficient daplatissement (kurtosis)


Gnralement, on observe le coefficient daplatissement (kurtosis) en mme temps que celui dasymtrie.
Le coefficient daplatissement de Pearson 2 est la valeur obtenue par le calcul suivant :
2 =

4
.
4

Un coefficient daplatissement lev indique que la distribution est plutt pointue en sa moyenne, et des
queues de distribution paisses.
Pour une variable alatoire suivant une loi normale centre rduite(loi vue par la suite), ce coefficient
daplatissement vaut 3. Cest pour cela que lon normalise la valeur pour mesurer lexcs daplatissement
pour obtenir le coefficient daplatissement de Fisher.
Le coefficient daplatissement de Fisher 2 est la valeur obtenue par le calcul suivant :
2 =
Remarque : 2 =

3.2.4

4
22

4
3.
4

3.

Ingalit de Bienaym-Chebyshev

Proposition 3.2.1 (Ingalit de Bienaym-Chebychev) Soit X une v.a. desprance mathmatique


et de variance 2 . Lingalit de Bienaym-Chebychev indique que pour tout nombre rel positif t, la
probabilit que X scarte de son esprance mathmatique dune grandeur suprieure t, a pour limite
suprieure 2 /t2 :
2
P (|X | t) 2
t
Preuve :
P
1. Dans le cas o X est discrte : On a 2 = i pi (xi )2 P
. En enlevant les termes, positifs, correspondant aux xi pour lesquels |xi | < t, on obtient 2 |xi |t pi (xi )2 . Dans cette somme,
P
les xi vrifient tous |xi |2 t2 donc en remplaant 2 t2 |xi |t pi = t2 p (|X | t).
2. Dans le cas o X est continue :
Z +
Z
2 =
(x )2 f (x)dx

(x )2 f (x)dx +

(x )2 f (x)dx

+t

car pour tout x, (x )2 f (x) est positive ou nulle. Dans les intervalles considrs x 6 [ t, + t],
on a (x )2 t2 donc
2 t2

Z

f (x)dx +


f (x)dx

+t

= t2 (1 F ( + t) + F ( t)) = t2 P (|X | t)

20

CHAPITRE 3. VARIABLES ALATOIRES

Remarque (Loi des grands nombres). Cette ingalit est importante car elle permet de dmontrer la loi
dite des "grands nombres". Elle stipule quil suffit dextraire un chantillon dun effectif suffisant dans
une population pour estimer lesprance mathmatique laide de la moyenne arithmtique, ou encore
pour estimer une probabilit laide dune frquence. On parle alors de convergence en probabilit.
Remarque 2 (Une expression plus gnrale de lingalit de Bienaym-Chebychev). La porte de lingalit
de Bienaym-Chebychev est bien plus large que celle couramment prsente dans les ouvrages. Elle peut
tre dfinie pour une fonction g(X) telle que
P (g(X) t)

E(g(X)k )
tk

La prsentation usuelle correspond k = 2 et g(X) = |X |.

3.2.5

Fonctions gnratrices

Fonction caractristique
La fonction caractristique dune variable alatoire X est dfinie sur R par
X (t) = E(eitX ),
2
o i est lunit imaginaire (i
1). Ainsi, pour une variable discrte, X (t) =
R =
variable continue, X (t) = eitx f (x)dx.

eitxk pk et pour une

Proprits de la fonction caractristique :


1. X (t) est bien dfiniew pour tout t rel.
2. La relation suivante sert, par exemple, calculer la fonction caractristique dune variable centre
rduite, partir de la fonction caractristique de la variable de dpart : pour tous a, b rels,
aX+b (t) = X (at)eitb .
3. Il y a aussi une relation entre les moments et la fonction caractristique dune variable alatoire.
P k
Lorsque les moments existent et que la srie converge : X (t) = k=0 i k!k tk o k est le moment
dordre k. Cette relation sert parfois pour calculer la moyenne (premier moment) et la variance
dune variable alatoire. Plus explicitement, 1 = X (0), E(X) = i0X (0), E(X 2 ) = 00X (0) et
(k)
k
k
Var(X) = 00X (0) + 02
X (0) ou encore X (0) = i E(X ).
4. Elle dtermine de faon unique la loi dune variable alatoire au sens o X = Y (galit de
fonctions) quivaut X et Y ont la mme loi.
P
Preuve
1. Dans le cas discret, X (t) = k eitxk pk . Cest la somme dune srie absolument converR +
gente car |eitxk pk | = pk . Dans le cas continu, X (t) = eitx f (x)dx. Cest une intgrale dfinie
absolument convergente car |eitx f (x)| = f (x) dont lintgrale sur R est gale 1.
2. Utiliser les proprits de la fonction exponentielle et de lesprance.
3. On a X (0) = E(1) = 1. En supposant les bonnes conditions de convergence, on a
!

k
k
X
XX
X
X
X
(itxn )k
i
i
itxn
k
X (t) =
e
pn =
pn =
pn xn tk =
(mk )tk
k!
k!
k!
n
n
n
k=0

k=0

k=0

De mme dans le cas continu :


#
Z + "X
Z

k
X
X
(itx)
(it)k + k
(it)k
itX
E(e ) =
f (x)dx =
x f (x)dx =
mk
.
k!
k!
k!

k=0

k=0

k=0

21

Cours Probabilits / Pierre DUSART

Par identification avec le dveloppement de X (t) en srie de Taylor-Mac-Laurin, on a bien la


proprit propose.
4. (admis)
Dfinition 8 On appelle fonction gnratrice des moment de la v.a. X, si elle existe, la fonction :
MX (t) = E(etX ).

22

CHAPITRE 3. VARIABLES ALATOIRES

Chapitre

Lois discrtes usuelles


4.1

Loi uniforme discrte

Lensemble des valeurs possibles est {1, 2, 3, , n}, n tant un paramtre de la loi. Chaque valeur reoit
la mme probabilit 1/n (Uniformit). On obtient la loi de probabilit suivante :
xi
pi

1
1/n

2
1/n

E(X)

V (X)

3
1/n

n
1/n

Pour une v.a. X qui suit cette loi, on a :


n+1
2
(n2 1)/12

En effet,
E(X) =

n
X

pi xi =

i=1

1X
1 n(n + 1)
n+1
k=
=
n
n
2
2
k=1

et
n

V (X)

X
i

=
=
=
V (X)

pi x2i (E(X))2 =

1X 2
k
n
k=1

n+1
2

2

1 n
(n + 1)2
(n + 1)(2n + 1)
n 6
4
4(n + 1)(2n + 1) 6(n + 1)(n + 1)
24
(n + 1)(8n + 4 6n 6)
(n + 1)(n 1)
=
24
12
n2 1
12

24

CHAPITRE 4. LOIS DISCRTES USUELLES

On peut galement dterminer sa fonction caractristique :


X (u)

1
n

1 X iu k
e
n

1 iu 1 eiun
e
n
1 eiu

eiuk

(somme des premiers termes dune suite gomtrique)

Or

eiu 1

= eiu/2+iu/2 eiu/2iu/2 = eiu/2 eiu/2 eiu/2


|
{z
}
2i sin(u/2)

iun

= e

inu/2+inu/2

inu/2inu/2

=e

inu/2

2i sin(nu/2)

Do
n+1

eiu 2
sin(nu/2)
1 eiun/2 sin(nu/2) iu
e
=

X (u) =
n eiu/2 sin(u/2)
n
sin(u/2)

4.2

Loi de Bernoulli

Cest une des lois les plus simples. Elle prend que deux valeurs possibles Vrai/Faux, codes 1 et 0. On
note p la probabilit associe la valeur 1 (ce sera le paramtre de la loi). Evidemment la probabilit
associe la valeur 0 sera 1 p (parfois note q pour plus de lisibilit dans les formules). On notera cette
loi B(p).
P1
Caractristiques : E(X) = p, V (X) = pq, X (u) = k=0 P (X = k)eiuk = P (X = 0) + P (X = 1)eiu =
q + peiu .

4.3

Loi binomiale

Considrons une preuve alatoire qui ne conduit qu deux ventualits exclusives : lune succs (V ) et
lautre chec F . Lunivers associ cette preuve est donc = {V ; F }.
Soient p la probabilit de lvnement {V } et q la probabilit de lvnement {F } (on a q = 1 p).
Lexprience consistant rpter n fois cette preuve de faon indpendante, est appele suite
dpreuves de Bernoulli, ou schma de Bernoulli.
On sintresse au nombre X de succs obtenus au cours de cette suite dpreuves, la probabilit de
lvnement : " on obtient dans un ordre quelconque k succs et n k checs " est gal
P (X = k) = Cnk pk q nk

avec k [0, .., n].

En effet, notons Ak lvnement "A se ralise exactement k fois durant les n expriences". Ak peut se
raliser de plusieurs manires chacune deux deux incompatibles, par exemple A peut se raliser durant
les k premires expriences alatoires et ne pas se raliser durant les nk dernires expriences alatoires.
Il y a Cnk faons de "placer " les k ralisations de A parmi les n expriences alatoires. La probabilit
dune de ces faons est gale pk (1 p)nk . Ce qui donne : P (Ak ) = Cnk pk q nk .

Cours Probabilits / Pierre DUSART

25

Dfinition 9 (Loi binomiale) On dit quune variable alatoire X, valeurs dans {0; 1; ...n}, suit une
loi binomiale si sa loi de probabilit est P (X = k) = Cnk pk q nk avec k {0, 1, 2, ..., n}, o n est un entier
naturel fix et o p est un rel de ]0; 1[. Les valeurs n et p sont les deux paramtres de cette loi, que lon
notera B(n, p)
Caractristiques :
Lesprance mathmatique dune variable alatoire suivant une loi B(n, p) est : E(X) = np
La variance mathmatique dune variable alatoire suivant une loi B(n, p) est : V (X) = npq = np(1p)
iu n
Sa fonction caractristique
P est X (u) = (q + pe ) .
Exercices : Retrouver que k P (X = k) = 1, E(X) et V (X) par calcul direct et en utilisant la fonction
caractristique.
Thorme 4.3.1 (Stabilit de la loi binomiale) Si Xn et Xm sont deux variables indpendantes suivant des lois binomiales respectivement Xn , B(n, p) et Xm , B(m, p) alors Xn + Xm , B(n + m, p).
Exemple : On dispose dune urne avec 1 boule blanche et 9 noires. On effectue 20 tirages avec remise. Soit
X le nombre de sortie de la boule blanche lissue des 20 tirages.La variable alatoire X suit B(n, p).

4.4

Loi hypergomtrique

Considrons une population deffectif N dont on sait quun pourcentage p dlments possdent un caractre tudi C. On extrait au hasard un chantillon de n lments, tirage exhaustif de n lments
(cest--dire n tirages sans remise). Quelle est alors la probabilit quexactement k dentre eux possdent
le caractre C ?
Si m dsigne le nombre dlments possdant le caractre C, alors p = m/N et on peut reformuler le
problme en remplaant la connaissance de p par celle de m et considrer le problme en termes de tirages
alatoires de boules dans une urne : il sagit dun tirage simultan de n objets parmi N (quivalent n
tirages sans remise) et on sintresse la variable alatoire X gale au nombre k (k m) dapparitions
dlments ayant le caractre tudi sachant que leur effectif dans la population est m.
k
Loi de probabilit : Parmi les n objet tirs, k sont souhaits et n k ne le sont pas. Il y a Cm
faons de
nk
constituer des lots de k objets parmi les m prsentant le caractre tudi et CN
faons
de
choisir
les
m
n
autres. Le nombre de cas possibles est CN
. Finalement, la loi de probabilit est fournie par la formule :

nk
k
nk
k
CN
CN
Cm
p CN (1p)
m
=
,
P (X = k) =
n
n
CN
CN

avec 0 k [N p].
On note H(N, n, p) la loi hypergomtrique de paramtre N, n et p.
Caractristiques : On peut montrer que lesprance mathmatique de X , H(N, n, p) est E(X) = np
n
(comme dans le cas de la loi binomiale). Sa variance est V (X) = N
N 1 npq. Sa fonction caractristiques
est complique.
Convergence : On remarque que si n (la taille de lchantillon) est petit devant N , alors la variance est
sensiblement npq, cest--dire celle de la loi binomiale. Ce rsultat nest pas un hasard... :
La limite pour N infini de sorte que m/N tende vers une limite finie p de la loi H(N, n, p) est la loi
binomiale B(n, p).

26

CHAPITRE 4. LOIS DISCRTES USUELLES

4.5

Loi gomtrique

La loi gomtrique est la loi du nombre dessais ncessaires pour faire apparatre un vnement de probabilit p.
On dit quune variable alatoire X suit la loi gomtrique de paramtre p, ce que lon note X , G(p) si :
1. X() = N
2. P (X = k) = q k1 p o q = 1 p.
Caractristiques :
E(X) =

1
p

V (X) =

q
p2

X (u) =

peiu
1 qeiu

Loi de Pascal dordre r : Cest la loi du nombre dessais ncessaires pour observer exactement r fois un
vnement de probabilit p. Cette loi est la somme de r lois gomtriques indpendantes.
On dit quune variable alatoire X suit la loi de Pascal de paramtres r et p, ce que lon note X , P(r, p)
si :
1. X() = {r, r + 1, }
r1 r kr
2. P (X = k) = Ck1
p q
o q = 1 p.

Caractristiques : X admet alors une esprance et une variance :


E(X) =

4.6

r
p

V (X) =

r(1 p)
.
p2

Loi de Poisson

Soit > 0. On dit quune variable alatoire X suit la loi de Poisson de paramtre , ce que lon note
X , P() si :
1. X() = N
k

2. P (X = k) = e k! .
La loi de Poisson est la loi des vnements rares (de petite probabilit).
Caractristiques :
E(X) =

V (X) = .

X (u) = e

(cos u+i sin u1)

Remarque : la loi de Poisson a t introduite en 1838 par Simon-Denis Poisson (1781-1840), qui lui a
donn son nom. Aucun rapport avec la loi de Fisher.
Exemple : [Le clbre exemple de Von Bortkiewicz]
Von Bortkiewicz a tudi le nombre de morts par ruade de cheval dans larme prussienne de 1875 1894
dans 200 corps de cavalerie : pendant 20 ans, il a tudi 10 corps de cavalerie par an
Nombre de morts par an
Nombre de corps de cavalerie

0
109

1
65

2
22

3
3

4
1

Calculer la moyenne du nombre de morts par an. Comparer la distribution relle la distribution
rsultant de lapplication de la loi de Poisson de paramtre .
Exercices : retrouver E(X), V (X), X (u).
(Solutions sur http://fr.wikipedia.org/wiki/Loi_de_Poisson)

27

Cours Probabilits / Pierre DUSART

Approximation de B par P

4.7

Lorsque n devient grand, le calcul des probabilits dune loi binomiale devient trs fastidieux. On va
donc, sous certaines conditions, trouver une approximation de P (X = k) plus manipulable. On constate
le comportement asymptotique : si n et p 0, alors X : B(n, p) P() avec np = .
Remarque : cette approximation est correcte ds que n > 30 et np < 5 ou ds que n > 50 et p < 0, 1.
k

Preuve : Montrons que P (X = k) = Cnk pk q nk tend vers e k! avec = np. Comme = np, on a p =
et q = 1 n que lon remplace dans la dfinition de la probabilit binomiale :
n!
P (X = k) =
k!(n k)!
Or 1


nk
n

= 1


n
n


k
n

= 1


n 1
,
n
qk

n(n 1) (n k + 1) k 1
P (X = k) =
k!
nk q k

 k 
nk

.
1
n
n
do

1
n

n

n(n 1) (n k + 1) k 1
=
nk
q k k!


n

1
n

Si n est assez grand (n 50 et p proche de 0 donc q proche de 1, on peut faire les approximations
suivantes :


1. n(n1)(nk+1)
= 1 1 n1 1 k1
1
n
nk
k
qk

k
n
3. 1 n e

2.

Ainsi P (X = k) e k! .

28

CHAPITRE 4. LOIS DISCRTES USUELLES

Chapitre

Couple de variables alatoires


5.1
5.1.1

Couple de v.a. discrtes


Loi dun couple de variables alatoires discrtes

Soient X et Y deux variables alatoires discrtes dfinies sur le mme espace probabilis (, A, P ). On
notera X() = {xi , i I} et Y () = {yj , j J}, lensemble des valeurs, ordonnes, prises respectivement
par X et Y (o I et J sont des ensembles dentiers).
On appelle couple (X, Y ) lapplication
(X, Y ) :

R2
7 (X(), Y ()).

Alors, lensemble (X, Y )() des valeurs prises par le couple (X, Y ) est inclus dans lensemble des couples
de rels suivants {(xi , yj ), (i, j) I J}.
Dfinition 10 On appelle loi conjointe ou loi du couple (X, Y ), lensemble des couples
{((xi , yj ), pij ), (i, j) I J}
o pij = P ((X = xi ) (Y = yj )) = P ((X, Y )1 ({(xi , yj )})). On pourra reprsenter cette loi par un
tableau double entre.
Proposition 5.1.1 {(xi , yj ), pij ), (i, j) I X
J} est la loi dun couple de variables discrtes si et seulement si pij 0 pour tout (i, j) I J et
pij = 1.
(i,j)IJ

Remarque : Dans ce contexte,

(i,j)IJ

pij =

X
iI
jJ

pij =

X
iI

!
X
X X

pij =
pij . On peut commenjJ

jJ

iI

cer par sommer sur les indices i puis les indices j ou inversement.

5.1.2

Lois marginales

Les variables X et Y sont appeles variables marginales du couple (X, Y ) et leur loi, appele loi marginale
de X (resp. de Y ) peut tre obtenue de la faon suivante :

30

CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Supposons connue la loi du couple (X, Y ) : {((xi , yj ), pij ), (i, j) I J}. On cherche maintenant
connatre la loi de X i.e. lensemble des couples {(xi , P (X = xi )), i I}. Or la famille des vnements
{(Y = yj ), j J} forme un systme complet dvnements, donc daprs la formule des probabilits
totales applique ce systme complet dvnements, on obtient :
X
X
pi := P (X = xi ) =
P ((X = xi ) (Y = yj )) =
pij .
jJ

jJ

De mme, la loi de Y sobtient laide de la formule des probabilits totales applique au systme complet
dvnements {(X = xi ), i I} :
X
X
pj := P (Y = yj ) =
P ((X = xi ) (Y = yj )) =
pij .
iI

5.1.3

iI

Lois conditionnelles

On dfinit les lois conditionnelles par


P (X = xi /Y = yj ) = PX|Y =yj (xi ) =

pij
pj

P (Y = yj /X = xi ) = PY |X=xi (yj ) =

pij
pi

et

5.1.4

Esprance, Variance

Sous rserve dexistence (dans le cas infini dnombrable), on a alors dans le cas discret
X
X
E(X) =
P (X = xi ) xi =
pi xi
i

V (X)

= (X) =

P (X = xi )(xi E(X))2 =

pi x2i (E(X))2 , ...

et de faon plus gnrale, nous pouvons dfinir la notion desprance mathmatique dune fonction g(X, Y )
du couple :
XX
E(g(X, Y )) =
pij g(xi , yj ) dans le cas discret,
i

Ainsi par exemple


E(XY ) =
E(X 2 ) =

5.1.5

Fonction de rpartition

Dfinition 11 Soit (X, Y ) un couple de variables alatoires. On appelle fonction de rpartition


conjointe de (X, Y ) la fonction F : R2 R dfinie par
F (x, y) = P (X < x et Y < y).
Dans le cas de deux variables discrtes,
F (x, y) =

X
{i / xi <x}
{j / yj <y}

Proprits :

pij .

31

Cours Probabilits / Pierre DUSART

1. P (X = xi et Y < yj ) = F (xi+1 , yj ) F (xi , yj ).


2. Les fonctions de rpartition FX et FY des lois marginales vrifient FX (x) = limy F (x, y) et
FY (y) = limx F (x, y).
Preuve :
1. On dcoupe en une runion disjointe (X, Y )1 (] , xi+1 [] , yj [) = (X, Y )1 (] , xi []
, yj [) (X, Y )1 ({xi }] , yj [).
2. X 1 (] , x[) = nN (X, Y )1 (] , x]] , n[).

5.1.6

Indpendance

Dfinition 12 Les v.a. X et Y sont indpendantes si pour tous i, j, les vnements {X = xi } et {Y = yj }


sont indpendants, cest--dire pij = pi pj ou encore P ((X, Y )1 ({xi } {yj })) = P (X 1 ({xi }))
P (Y 1 ({yj })).
Thorme 5.1.2 X et Y sont indpendantes si et seulement si pour tous x et y rels,
F (x, y) = FX (x) FY (y),
cest--dire si les vnement {X < x} et {Y < y} sont indpendants.
Preuve : Supposons X et Y indpendantes. Alors
X
X
F (x, y) =
pi pj =
X

pi

{i / xi <x}

F (x, y)

pi pj

{i / xi <x} {j / yj <y}

{i / xi <x}
{j / yj <y}

pj =

{j / yj <y}

pi FY (y) = FY (y)

{i / xi <x}

pi

{i / xi <x}

= FX (x)FY (y).

Rciproquement, si pour tous x, y, F (x, y) = FX (x)FY (y) alors, en remarquant que


X = xi et Y < yj+1 (X, Y ) = (xi , yj ) ou X = xi et Y < yj ,
F (xi+1 , yj+1 ) F (xi , yj+1 )

P (X = xi et Y < yj+1 ) = pij + P (X = xi et Y < yj )

pij + F (xi+1 , yj ) F (xi , yj ).

En appliquant lhypothse de dpart, on a F (xi+1 , yj+1 ) = FX (xi+1 )FY (yj+1 ), F (xi , yj+1 ) = FX (xi )FY (yj+1 ),
F (xi+1 , yj ) = FX (xi+1 )FY (yj ) et F (xi , yj ) = FX (xi )FY (yj ) do
pij = (FX (xi+1 ) FX (xi )) (FY (yj+1 ) FY (yj )) = pi pj .
Thorme 5.1.3 X et Y sont indpendantes si et seulement si pour tout couple dintervalles rels [a, a0 [
et [b, b0 [, on a
P (X [a, a0 [ et Y [b, b0 [) = P (X [a, a0 [) P (Y [b, b0 [).
(indpendance des vnements X [a, a0 [ et Y [b, b0 [)
Preuve : Si X et Y sont indpendantes,
X
pij =
{i / axi <a0 }
{j / byj <b0 }

X
{i / axi <a0 }

pi

X
{j / byj <b0 }

pj .

32

CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Rciproquement, on particularise le couple (a, a0 ) et (b, b0 ) en (xi , xi+1 ) et (yj , yj+1 ) respectivement.
pij

P (xi X < xi+1 et yj Y < yj+1 ) = P (xi X < xi+1 )P (yj Y < yj+1 )

P (X = xi )P (Y = yj ) = pi pj .

Proposition 5.1.4 Les v.a. X et Y sont indpendantes si et seulement si toutes les lois conditionnelles
sont identiques aux lois marginales.
Preuve : X, Y indpendantes alors pij = pi pj do
P (Y = yj /X = xi ) =

pij
pi pj
=
= pj = P (Y = yj ).
pi
pi

(mme chose pour X)


Rciproquement, on suppose que pour tous i, j, P (Y = yj /X = xi ) = P (Y = yj ).
P (X = xi et Y = yj ) = P (X = xi /Y = yj )P (X = xi ) = P (Y = yj )P (X = xi ).

5.1.7

Covariance et Corrlation

Dfinition 13 Soient X et Y deux variables alatoires. On appelle covariance de X et de Y , lexpression


Cov(X, Y ) = E [(X E(X)) (Y E(Y ))] .
En particulier, pour une variable discrte,
XX
Cov(X, Y ) =
pij (xi E(X))(yj E(Y )).
i

Proprits :
P P
1. Cov(X, Y ) = E(XY ) E(X)E(Y ) = i j pij xi yj E(X) E(Y ).
2. Pour tout rel, V (X + Y ) = V (X) + 2Cov(X, Y ) + 2 V (Y ).
3. Si X et Y sont indpendantes alors E(XY ) = E(X)E(Y ), Cov(X, Y ) = 0 et V (X + Y ) = V (X) +
V (Y ).
Preuve :
1. Voir thorme de Knig
2. Par dfinition de la variance
V (X + Y )

= E([X + Y E(X + Y )]2 ) = E([X E(X) + (Y E(Y ))]2 )


= E([X E(X)]2 + 2[X E(X)][Y E(Y )] + 2 [Y E(Y )]2 )
= E([X E(X)]2 ) + 2E([X E(X)][Y E(Y )]) + 2 E([Y E(Y )]2 )
= V (X) + 2Cov(X, Y ) + 2 V (Y )

3. E(XY ) =

XX
i

(ind) X X

pij xi yj =

pi pj xi yj =

X
i

pi xi

pj yj = E(X)E(Y ).

La rciproque est ....


Dfinition 14 Soient X et Y deux variables alatoires. On appelle coefficient de corrlation linaire
entre X et de Y , la quantit
Cov(X, Y )
r(X, Y ) =
.
(X)(Y )

33

Cours Probabilits / Pierre DUSART

Proprits :
1. r(X, Y ) [1, 1].
2. Pour tous rels a, b, c, d (a, c 6= 0), r(aX + b, cY + d) = r(X, Y ).
3. Si X et Y sont indpendantes alors r(X, Y ) = 0.
Preuve de (1) : V (X + Y ) 0 quel que soit . Cela implique que le polynme en , 2 V (Y ) +
2Cov(X, Y )+V (X) a un dterminant 0 = Cov(X, Y )2 V (X)V (Y ) ngatif ou nul. Ainsi Cov(X, Y )2
)2
V (X)V (Y ) et r(X, Y ) = Cov(X,Y
V (X)V (Y ) 1.

5.2

Couple de v.a. continues

Soient X et Y deux variables alatoires dfinies sur le mme espace probabilis (, P ). La loi de couple
sera dfinie partir de sa fonction de rpartition :

F (x, y) = P (X, Y )1 (] , x[] , y[) = P (X < x et Y < y).
Proprits :
1. F est totalement croissante au sens large, cest--dire que les fonctions partielles F (x, ) et F (, y)
sont croissantes pour tous x et y rels.
2. F (x, ) et F (, y) sont continues gauche
3.

lim F (x, y) = lim F (x, y) = 0,

lim F (n, n) = 1

n+

Preuve :
1. Soit y1 > y0 , Alors lensemble ] , x[] , y1 [ se dcompose en (] , x[] , y0 [)
(] , x[[y0 , y1 [). Ainsi F (x, y1 ) F (x, y0 ) = P ( (X, Y )1 (] , x[[y0 , y1 [)) 0.
2. On considre lensemble ] , x[] , y0 [ qui correspond la runion croissante des ensembles
] , x[] , y0 1/n[. On en dduit que F (x, y0 ) = limn F (x, y0 1/n) = limyy F (x, y)
0
puisque F (x, ) est croissante.
3. Lintersection dcroissante des ensembles ] , n[] , y[ est vide et la runion croissante des
] , n[] , n[ est R2 tout entier.
La probabilit pourra tre calcule sur tout type dintervalle partir de la fonction de rpartition :
P (X [a, a0 [ et Y < y) = F (a0 , y) F (a, y)
P (X [a, a0 [ et Y [b, b0 [) = F (a0 , b0 ) F (a, b0 ) + F (a, b) F (a0 , b)
Preuve : Il suffit de dcomposer en ensembles disjoints :
] , a0 [] , y[= (] , a[] , y[) ([a, a0 [] , y[)
[a, a0 [] , b0 [= [a, a0 [] , b[[a, a0 [[b, b0 [

5.2.1

Fonction densit de probabilit

Dfinition 15 Soient X et Y deux variables alatoires dfinies sur le mme espace probabilis (, P ).
2
La loi du couple (X, Y ) est dite absolument
R x R ycontinue sil existe une fonction positive f de R dans R, telle
que pour tous x et y rels, F (x, y) = f (u, v) du dv. La fonction f est dite densit de probabilit
du couple (X, Y ).

34

CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Proprits :
1. Pour tout A lment
de P(2 ), alors P ( (X, Y ) A) =
RR
En particulier, R2 f (u, v) du dv = 1.
2. En tout point o f est continue, f (x0 , y0 ) =

RR
A

f (u, v) du dv.

2F
xy (x0 , y0 ).

3. X et Y sont aussi absolument continues, et leurs densits de probabilits respectives sont


Z
Z
fX (x) =
f (x, y)dy
fY (y) =
f (x, y)dx.
R

Calcul de lesprance et de la variance :


ZZ
E(X) =
x f (x, y) dx dy
R2 Z Z
E(g(X, Y )) =
g(x, y) f (x, y) dx dy
ZZ
R2
V (X) =
(x E(X))2 f (x, y) dx dy

ZZ
E(Y ) =

y f (x, y) dx dy
R2

E(XY ) =
ZZ
V (Y ) =
(y E(Y ))2 f (x, y) dx dy

R2

R2

Lorsque les quantits sont dfinies, on pose, comme dans le cas discret,
Cov(X, Y ) = E(XY ) E(X)E(Y )

5.2.2

et

r(X, Y ) =

Cov(X, Y )
.
(X)(Y )

Lois marginales et lois conditionnelles

3 Si lon sintresse un vnement sur X quelle que soit la valeur prise par Y , on obtient la loi de la
v.a. X qui, dans le contexte dun couple de v.a., est appele (comme auparavant) loi marginale. Comme
pour le couple (X, Y ), les lois marginales de X et Y sont connues par leur fonction de rpartition :
FX (x) = P (X < x) = P (X < x, Y R) = lim F (x, y).
y+

De mme,
FY (y) = P (Y < y) = P (X R, Y < y) = lim F (x, y).
x+

3 Soit (X, Y ) un couple alatoire absolument continu, de densit de probabilit f . Soit fX la densit de
probabilit de X et un rel x tel que fX (x) 6= 0. La loi conditionnnelle de Y lie par la condition X = x
(x,y)
est dfinie par sa densit de probabilit fx (y) = ffX
(x) .

5.2.3

Indpendance

Dfinition 16 Les variables X et Y sont indpendantes si et seulement si la fonction de rpartition du


couple est gale au produit des fonctions de rpartitions des lois marginales : F (x, y) = FX (x)FY (y) pour
tous x et y rels.
Proposition 5.2.1 Les variables X et Y sont indpendantes si et seulement si pour tous x et y rels,
f (x, y) = fX (x)fY (y). Dans ce cas, Cov(X, Y ) = 0.
Preuve Si X et Y sont indpendantes, alors en drivant F (x, y) = FX (x)FY (y) par rapport x puis par
2F
rapport y, on obtient F
x (x, y) = fX (x)FY (y) puis xy (x, y) = fX (x)fY (y) et on utilise la proprit 2 :
2F
xy (x, y)

= f (x, y).

35

Cours Probabilits / Pierre DUSART

Rciproquement, si f (u, v) = fX (u) fY (v), alors


Z
Z x
Z x Z y
fX (u)
f (u, v) du dv =
F (x, y) =

De plus, si f (x, y) = fX (x) fY (y), E(XY ) =

RR
R2


fY (v) dv du = FX (x)FY (y).

xy fX (x)fY (y) dx dy = E(X)E(Y ) et ainsi

Cov(X, Y ) = 0.
Proposition 5.2.2 Les variables X et Y sont indpendantes si et seulement si pour tous couples dintervalles rels ([a, a0 [, [b, b0 [), on a



P (X, Y )1 ([a, a0 [[b, b0 [) = P X 1 ([a, a0 [) P Y 1 ([b, b0 [) .
Preuve Si X et Y sont indpendantes, alors

P (X, Y )1 ([a, a0 [[b, b0 [) = F (a, b) + F (a0 , b0 ) F (a, b0 ) F (a0 , b)
= FX (a)FY (b) + FX (a0 )FY (b0 ) FX (a)FY (b0 ) FX (a0 )FY (b)
(FX (a0 ) FX (a))(FY (b0 ) FY (b))


= P X 1 ([a, a0 [) P Y 1 ([b, b0 [)

Rciproquement, comme ] , a0 [] , b0 [ est la runion croissante des [n, a0 [[n, b0 [, en posant


a = b = n, a0 = x et b0 = y dans



P (X, Y )1 ([a, a0 [[b, b0 [) = P X 1 ([a, a0 [) P Y 1 ([b, b0 [) ,
On a F (x, y) = lim P
n


(X, Y )1 ([n, x[[n, y[) = lim P
n


X 1 ([n, x[) P


Y 1 ([n, y[) =

lim (FX (x) FX (n))(FY (y) FY (n)) = FX (x) FY (y).

Proposition 5.2.3 Les variables X et Y sont indpendantes si et seulement si les lois conditionnelles
sont identiques aux lois marginales (En particulier, Fx (y) ne dpendra pas de x).

5.3
5.3.1

Somme et Produit
Somme

On considre la variable alatoire Z = X + Y . On peut calculer E(Z) et V (Z) :


E(X + Y ) =
V (X + Y ) =
et V (X + Y ) =

E(X) + E(Y )
(vraie si X et Y sont indpendantes ou non)
V (X) + V (Y )
si X et Y indpendantes
V (X) + V (Y ) + 2 Cov(X, Y )
sinon

Si X et Y sont deux variables alatoires indpendantes, X+Y = X Y . Plus gnralement, si X1 , . . . , Xn


sont des variables alatoires indpendantes dans leur ensemble, alors .
X1 ++Xn = X1 Xn .
Remarque (admis) : En appliquant alors la transforme de Fourier X+Y cela permet de retrouver la
loi de X + Y .

36

CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Calcul de la fonction densit de Z = X + Y .


On suppose que X et Y sont indpendantes et absolument continues, de densits respectives fX et fY .
Alors la fonction de rpartition F de Z = X + Y est dfinie par :
R

R +
zx
F (z) = P (X + Y < z) = fX (x) fY (y)dy dx
R +
R +
= fX (x)FY (z x) dx = fY (y)FX (z y) dy (par symtrie)
Par drivation (thorme admis) par rapport z, la densit de probabilit de Z est dfinie par
Z +
Z +
f (z) =
fX (x)fY (z x) dx =
FY (y)FX (z y) dy.

f est le produit de convolution de fX et fY , not fX fY .

5.3.2

Produit

Lesprance du produit de deux variables alatoires est donn par la formule E(XY ) = E(X) E(Y ) +
Cov(X, Y ), Cov() est la covariance entre les variables. En particulier, lorsque X et Y sont indpendantes,
E(XY ) = E(X) E(Y ).

5.3.3

Fonction de variable alatoire

Soit une fonction drivable de R dans R. En posant Y = X, on obtient une nouvelle variable
alatoire, note (X), que lon tudiera laide de sa fonction de rpartition.
Exemple : Soit X exprimant la consommation en litres aux 100 kilomtres dune voiture. Aux Etats-Unis,
on sintresse plus la notion de distance parcourue avec un plein, que lon retranscrit sous la forme Z
est le nombre de miles parcourus avec un gallon dessence (Plus prcisment Z = 235/X).
1. Cas o est monotone croissante
Soit F la fonction de rpartition de X. La fonction de rpartition G de Y est dfinie, pour y rel,
par : G(y) = P (Y < y) = P (X < 1 (y)) = F (1 (y)), soit encore F (x) = G((x)). Si X est
absolument continue, Y aussi et leurs densits de probabilit respectives, f et g sont lies par :
f (x) = g((x))0 (x) ou g(y) = f (x)/0 (x) = f (1 (y))/0 (1 (y)).
Exemple : Y = eX a pour densit de probabilit g(y) = f (x)ex = f (ln y)/y.
2. Cas o est dcroissante
Alors X > x quivaut Y < (x), donc G(y) = 1 F (1 (y)), que lon peut crire F (x) =
1 G((x)). Dans le cas absolument continu, g(y) = f (x)/0 (x) = f (1 (y))/0 (1 (y)).
Exemple : Y = c/X o c > 0 et X est valeurs dans ]0, +[. G(y) = P (Y < y) = P ( Xc < y) =
P (X > yc ) = 1 F ( yc ) pour y > 0 et G(y) = 0 pour y 0.
3. Cas quelconque
On rsout alors au cas par cas linquation Y < y afin de trouver la fonction de rpartition de Y .
Exemple pour Y = X 2 :
pour y < 0, Y < y est impossible ainsi G(Y ) = 0.

pour y 0, Y < y correspond y < X < y alors G(Y ) = F ( y) F ( y). Dans le cas

1
+
o X est absolument continu, g(y) = 2
y (f ( y) + f ( y)) sur R .
Calcul de lesprance : E(Y ) =
continu.
Calcul de la variance : V (Y ) =
le cas continu.

pi (xi ) dans le cas discret et E(Y ) =


dans le cas discret et V (Y ) =

R
R

(x)f (x) dx dans le cas


dans

Chapitre

Lois continues usuelles


6.1

Loi continue uniforme

La variable alatoire U est distribue uniformment sur lintervalle [a, b] si sa densit de probabilit est
constante sur cet intervalle :

1/(b a) si x [a, b]
f (x) =
0
sinon
On dit que U suit la loi uniforme et on note U , U(a, b). Par consquent, sa fonction de rpartition est
donne par :

si x a
0
(x a)/(b a) si x [a, b]
F (x) =

1
si x > b
E(X) =

a+b
,
2

V (X) =

(b a)2
,
12

X (t) =

sin( ba t)
eibt eiat
= eit(a+b)/2 ba2
it(b a)
2 t

Exercice : calcul de 1 et 2 .

6.2

Loi exponentielle

On souhaite modliser lintervalle de temps sparant deux occurrences successives dun processus de
Poisson. Ainsi la probabilit quil ny ait aucune occurrence dans un intervalle de temps de longueur t est
gale p0 (t) = et (absence de mmoire de la loi exponentielle) o > 0 constituera le paramtre de
la loi. Cette loi permet entre autres de modliser la dure de vie de la radioactivit ou dun composant
lectronique.
La fonction de rpartition de la loi exponentielle E() est

1 ex si x 0
F (x) =
0
si x < 0
et sa fonction de densit


f (x) =

ex
0

si x 0
si x < 0

Caractristiques : E(X) = 1/, V (X) = 1/2 , X (t) = 1/(1 it/).

38

CHAPITRE 6. LOIS CONTINUES USUELLES

6.3
6.3.1

Loi normale
Rappel : calcul de lintgrale de Gauss

Soient
+

G=

x2

ZZ
dx

e(x

H=

et

+y 2 )

dx dy.

R+ R+

Compte tenu de ce que les variables x et y se sparent, le thorme de Fubini donne :


ZZ

ex ey dx dy =

H=

Z

R+ R+

 Z
2
ex dx

ey dy

= G2 .

On passe en coordonnes polaires en posant x = r cos et y = r sin ; les variables r et se sparent elles
aussi :
Z +
 Z !
ZZ
2
1
r 2
r 2
e r dr d =
d =
H=
e r dr

2 2
0
R+ [0, 2 [
0
R +
R +

2
car 0 er r dr = 12 0 eu du = 21 (par le changement de variable r = u). On en dduit : G2 =
R +

2
do G = 12 puisque G 0, et enfin : ex dx = 2G = par parit.

6.3.2

4,

Gaussienne

On appelle loi normale (ou gaussienne) centre rduite la loi dfinie par la densit de probabilit :
R R+ dfinie par :
t2
1
(t) = e 2 .
2
On peut vrifier quelle est continue et que son intgrale sur R est gale 1 : On sait que

R
(intgrale de Gauss) et en posant x = t/ 2, on trouve que R (t) dt = 1.

R +

ex dx =

Remarques :
1. la densit est une fonction paire ;
2. elle est indfiniment drivable et vrifie, pour tout t R, lidentit 0 (t) = t(t).
La reprsentation graphique de cette densit est une courbe en cloche (ou courbe de Gauss).
On dmontre par la suite que la loi dfinie par cette densit de probabilit admet une esprance nulle
2
et une variance gale 1. Sa fonction caractristique vaut X (u) = eu /2 ( ne pas confondre avec la
fonction densit). Le calcul se fait de la faon suivante :
Z

X (u) =

et
eitu dt.
2


2
Or t2 + iut = 21 (t2 2iut) = 12 (t2 2iut + (iut)2 (iut)2 ) = 21 (t iu)2 + u2 . On pose
x = t iu, ainsi
1
X (u) =
2

ex

/2u2 /2

eu /2
dx =
2

ex

/2

dx = eu

/2

39

Cours Probabilits / Pierre DUSART

6.3.3

Moments

Les moments de cette loi existent tous. Pour tout r N, le moment dordre r par rapport lorigine est :
Z

tn (t) dt.

mr =

En raison de la parit de lintgrande, tous les moments dordre impair sont nuls :
m2k+1 = 0.
Supposons prsent r pair : r = 2k , o k N. Si k 1, une intgration par parties donne :
Z

m2k =

t2k1 t(t)dt =

t2k1 0 (t)dt = (2k 1)

t2k2 (t)dt

ce qui fournit la relation de rcurrence :


m2k = (2k 1)m2k2 .
De cette relation, on dduit, comme m0 = 1, que :
m2k = 1 3 (2k 1) =

(2k)!
.
2k k!

En particulier, m1 = 0 et m2 = 1, ainsi lesprance est nulle (la loi est donc dite centre) et la variance
vaut m2 m21 = 1 (la loi est donc dite rduite). Ceci justifie lappellation de loi normale centre rduite.
Pour la suite on supposera = 0 et 2 = 1.
Des formules prcdentes, on dduit encore : m3 = 0 et m4 = 3.
La loi tant rduite, les moments centrs sont tous gaux aux moments par rapport lorigine de mme
rang ; en particulier : 2 = 2 = 1, 3 = 0 et 4 = 3 4 . On en dduit lasymtrie (skewness) : 1 = 33 = 0
et laplatissement (kurtosis) : 2 = 44 = 3.

6.3.4

Fonction de rpartition

On note la fonction de rpartition de la loi normale centre rduite. Elle est dfinie, pour tout rel x,
par :
Z x
Z x
t2
1
e 2 dt.
(x) =
(t)dt =
2

est la primitive de qui tend vers 0 en ; cette primitive ne sexprime pas laide des
fonctions usuelles (exponentielle, etc.) mais devient elle-mme une fonction usuelle, importante, pour
quiconque pratique le calcul des probabilits ou les statistiques. Les valeurs de cette fonction peuvent
donc se trouver sous la forme dune table ou directement dans des logiciels de calcul statistique.
Proprits de :
1. Elle est indfiniment drivable, et 0 =
2. Elle est strictement croissante, tend vers 0 en et vers 1 en +. (cest donc une bijection
R ]0, 1[ : pour tout p ]0, 1[, il existe un unique x R, not 1 (p), tel que (x) = p)
3. Pour tout x R, (x) = 1 (x) (ceci rsulte de la parit de la fonction densit) ; en particulier,
(0) = 0, 5. La table de valeurs sera donc tablie pour les valeurs x positives.

40

6.3.5

CHAPITRE 6. LOIS CONTINUES USUELLES

Loi Normale ou de Laplace-Gauss

Plus gnralement, on dit quune variable alatoire relle X suit une loi normale (ou loi normale gaussienne, loi de Laplace-Gauss) desprance et dcart type strictement positif si cette variable alatoire
relle X admet pour densit de probabilit la fonction suivante dfinie, pour tout nombre rel x, par :
d(x) =

1 x 2
1
e 2 ( ) .
2

Une telle variable alatoire est appele variable gaussienne. On notera X , N (, ). On aura alors
E(X) = , V (X) = 2 et X (u) = eiu

2 u2
2

On pourrait tudier cette loi prcisment mais on se ramne au cas prcdent (loi normale centre rduite)
en considrant le thorme suivant :
Thorme 6.3.1 Si X suit N (, ), alors Z =

suit N (0, 1).

Ainsi une seule loi sera tabule (celle de la loi normale centre rduite), les autres pourront tre dduites.
Cette loi est une des plus importantes dans la thorie des probabilits.

6.3.6

Somme de deux variables gaussiennes

Thorme 6.3.2 Si X et Y sont deux variables indpendantes suivant des lois normales de moyennes
respectives 1 et 2 et de variances 12 et 22 alors X + Y suit un loi normale de moyenne = 1 + 2
et de variance 2 = 12 + 22 .
Ce thorme se gnralise bien sr toute somme finie de variables alatoires normales indpendantes.
Preuve : Il sagit de dterminer la loi de Z = X + Y . Calculons sa fonction caractristique :
Z (t)

= X (t) Y (t)
= ei1 t

(1 t)2
2

= ei(1 +2 )t
On en dduit que Z suit N (1 + 2 ,

p
12 + 22 ).

ei2 t

(2 t)2
2

2 + 2 )t2
(1
2
2

41

Cours Probabilits / Pierre DUSART

6.3.7

Somme de carrs de variables gaussiennes

Soient k variables alatoires indpendantes X1 , , Xk de mme loi normale centre et rduite, alors par
dfinition la variable X, telle que
X=

k
X

Xi2

i=1

suit une loi du 2 k degrs de libert. La loi du 2 (prononcer khi-deux ) est une loi caractrise
par un paramtre dit degrs de libert valeur dans lensemble des entiers naturels (non nuls). Pour une
variable alatoire suivant une loi du 2 k degrs de libert, on notera la loi de 2 (k) la loi de X. Alors
la densit de note sera :
1
f (x) = k/2
xk/21 ex/2
2 (k/2)
pour tout x positif o (gamma) est la fonction
Z
: z 7

tz1 et dt.

Lesprance mathmatique de X vaut k et sa variance vaut 2k.

6.3.8

Approximation de B par N

(Voir Chap convergences pour justification)


Pour n assez grand, la loi binomiale se comporte comme une loi normale gaussienne desprance np et
de variance npq. Plus prcisment, le thorme de Moivre-Laplace prcise que si est la fonction de
rpartition de la loi normale centre rduite et si Xn suit une loi binomiale de paramtres n et p, on a
alors, pour tout rel t :


Xn np
t = (t).
lim P

n
npq
Le thorme de Berry-Esseen fournit une majoration de lerreur commise quand on remplace P (Xn x)
par P (Yn x) o Yn suit une loi normale desprance np et de variance npq : lerreur commise est
C
infrieure npq
o C < 0, 4784 (Korolev & Shevtsova (2010)).
En pratique, on remplace une loi binomiale par une loi normale pour n grand et p pas trop proche de 0
ni de 1 (par exemple pour n > 30, np > 5 et nq > 5 ou pour npq > 9)

6.3.9

Simulation

Pour simuler la loi normale, on peut utiliser la mthode de Box-Muller : Si U1 et U2 sont des variables
alatoires indpendantes qui suivent la loi uniforme sur ]0,1[, alors on dmontre assez aisment que les
variables alatoires :

T1 = 2 ln U1 cos(2U2 )
T2 = 2 ln U1 sin(2U2 )
suivent toutes deux la loi normale centre rduite (et sont indpendantes). On peut simuler toute loi
normale N (, ), en construisant la variable Y = + T1 .

42

6.4

CHAPITRE 6. LOIS CONTINUES USUELLES

Loi de Weibull

Cest une loi de probabilit continue applique aux dures de vie. Cest donc dans le contrle de fiabilit
que les entreprises ont tendance lutiliser, et plus prcisment lorsque le taux de dfaillance volue
comme une puissance du temps (ce qui est le cas le plus courant). Rappelons que lorsque ce taux est
constant, on utilise la loi exponentielle, forme particulire de celle de Weibull, et lorsque le taux augmente
proportionnellement au temps, cest la distribution de Rayleigh qui est employe.
La loi de Weibull repose sur deux paramtres positifs, lun de forme et lautre dchelle de temps. La
loi de Weibull trois paramtres prend en compte la "localisation", cest--dire un ventuel dcalage du
dpart de la courbe par rapport lorigine (soit gauche soit droite).
On prendra comme paramtre de forme, et tant celui de temps.
Le paramtre est habituellement suprieur 1 : le taux de dfaillance crot avec le temps. Sil est
infrieur, cest pendant le rodage que les risques de dfaillance sont levs et sil est gal 1, on retombe
sur la loi exponentielle.
Sa fonction de rpartition

F (x) =
et sa fonction de densit

f (x) =

1 ex
0

si x 0
si x < 0

x1 ex
0

Caractristiques : E(X) = (1 + 1/)/1/ , V (X) =


dEuler.

si x > 0
si x 0

(1+2/)(1+1/)
2/

o est la fonction Gamma

Proposition 6.4.1 Si X suit une loi exponentielle de paramtre alors X 1/ suit une loi de Weibull
W (, ).

6.5

Loi de Pareto

Lconomiste italien Vilfredo Pareto (1848-1923) observa au dbut du XXe sicle que 20% de la population
italienne possdait 80% de la richesse nationale do le nom de la loi 80-20 ou 20-80.
La loi de Pareto admet deux paramtres (c, ). Le premier paramtre (c > 0) tronque la distribution : le
domaine de dfinition de X suivant cette loi est alors restreint ]c, +[ (introduction de la contrainte
x > c). Le deuxime paramtre est le paramtre de forme > 0. Alors la distribution est caractrise
par :
 x k
P (X > x) =
c
avec x > c. La fonction de densit est alors
 c +1
f (x) =
c x
et la fonction de rpartition est
F (x) = 1
c
Caractristiques : E(X) = 1
pour > 1, V (X) =
> k. Fonction caractristique : (ict) (, ict)

 c 
x

2
(1)2 (2) c

pour > 2, E(X k ) =

k
c c

pour

43

Cours Probabilits / Pierre DUSART

6.6

Loi de Gumbel

Cest une loi de modlisation de valeurs extrmes dont la fonction de rpartition est la suivante :
F (x) = ee

(x)/

Sa fonction de densit est


f (x) = exe

Caractristiques de la loi : E(X) = + (o = 0.5772156 est la constante dEuler ), V (X) =


2 2 /6, mode= . Fonction caractristique : X (t) = (1 it)eit

44

CHAPITRE 6. LOIS CONTINUES USUELLES

Chapitre

Convergences
7.1

Convergence en probabilit

Rappel : Ingalit de Bienaym-Chebyshev


Soit X une variable alatoire admettant une esprance E(X) et de variance finie 2 (lhypothse de
variance finie garantit lexistence de lesprance).
Lingalit de Bienaym-Tchebychev snonce de la faon suivante : pour tout rel strictement positif,
P (|X E(X)| )

2
.
2

Dfinition 17 (Convergence en probabilit) On considre une suite (Xn ) dune v.a. dfinie sur ,
X une autre v.a. dfinie sur .
On dit que la suite (Xn ) converge en probabilit vers une constante relle ` si
> 0, lim P (|Xn `| > ) = 0.
n

On dit que la suite (Xn ) converge en probabilit vers X si


> 0, lim P (|Xn X| > ) = 0.
n

Consquence : Pour que (Xn ) converge en probabilit vers X, il faut et il suffit que E(Xn X) 0 et
V (Xn X) 0 lorsque n (la dmonstration passe par lingalit de Bienaym-Chebychev).

7.1.1

Exemple de la loi binomiale

On ralise n expriences indpendantes et on suppose que lors de chacune de ces expriences, la probabilit
dun vnement appel succs est p. Soit Sn le nombre de succs obtenus lors de ces n expriences. La
variance alatoire Sn , somme de n variables de Bernoulli indpendantes, de mme paramtre p, suit une
loi binomiale : Sn , B(n, p).
On sintresse alors la variable alatoire Snn , proportion de succs sur n expriences, a donc pur esprance
. Comme p(1 p) atteint son maximum lorsque
E( Snn ) = p et pour variance V ( Snn ) = n12 V (Sn ) = p(1p)
n
p = 1/2, on a ainsi p(1 p) 1/4. En appliquant lingalit de Bienaym-Chebyshev, il vient
P (|Sn /n p| )

p(1 p)
1

.
n2
4n2

46

CHAPITRE 7. CONVERGENCES

1
Ainsi pour tout > 0, il existe > 0 (plus prcisment > 4n
2 ) tel que P (|Sn /n p| ) < ou
Sn
encore limn P (|Sn /n p| ) = 0. La variable alatoire n converge en probabilit vers p.

7.1.2

Convergence en probabilit

Thorme 7.1.1 Soit (Xn ) une suite de varaiables alatoires sur le mme espace probabilis (, P )
admettant des esprances et des variances vrifiant
lim E(Xn ) = `

et lim V (Xn ) = 0,
n

alors les (Xn ) convergent en probabilit vers `.


Preuve Soit > 0. Posons E(Xn ) = ` + un avec lim un = 0. Alors il existe N N tel que :
n N |un | < /2
et donc partir du rang N ,
|Xn E(Xn )| < /2 |Xn `| < ,

(7.1)

car |Xn `| = |Xn E(Xn ) + E(Xn ) `| |Xn E(Xn )| + |E(Xn ) `|.


Limplication (7.1) peut tre encore crite sous la forme
|Xn `| |Xn E(Xn )| /2.
Par consquent, en utilisant lingalit de Bienaym-Chebyshev,
P (|Xn `| ) P (|Xn E(Xn )| /2)

V (Xn )
,
(/2)2

qui tend vers 0 quand n tend vers linfini.

7.1.3

Loi faible des grands nombres

Thorme 7.1.2 Soit (Xn ) une suite de variables alatoires indpendantes sur le mme espace
Pn probabilis (, P ) ayant une mme esprance mathmatique ` et des variances vrifiant limn n12 i=1 i2 = 0.
On pose Sn = X1 + + Xn alors Snn converge en probabilit vers `.
Si on considre une suite de variables alatoires (Xn ) indpendantes dfinies sur un mme espace probabilis, ayant mme esprance et mme variance finie notes respectivement E(X) et V (X). La loi faible des
grands nombres stipule que, pour tout rel strictement positif, la probabilit que la moyenne empirique
Sn
Sn
n sloigne de lesprance dau moins , tend vers 0 quand n tend vers linfini. La moyenne n converge
en probabilit vers lesprance commune E(X).

7.2

Convergence en loi

Dfinition 18 Soient (Xn ) et X des variables alatoires sur un mm espace probabilit (, P ), de foncL
tions de rpartition respectives Fn et F ; on dit que les (Xn ) convergent vers X en loi (et on note Xn X)
si en tout point x o F est continue, les Fn (x) convergent vers F (x).

47

Cours Probabilits / Pierre DUSART

Proprits : (admises)
1. La convergence en probabilit entrane la convergence en loi.
2. Si les (Xn ) et X sont des variables alatoires discrtes, alors Xn converge en loi vers X si et
seulement si
x R, lim P (Xn = x) = P (X = x).
n

Proposition 7.2.1 (Convergence de la loi hypergomtrique vers la loi binomiale) Soit (XN )
une suite de variables alatoires sur un mme espace probabilis, de loi hypergomtrique : XN ,
H(N, n, p) o n et p sont supposs constants. Alors (XN ) convergent en loi, quand N tend vers linfini, vers X de loi binomiale B(n, p) (mmes valeurs de paramtres).
Preuve La probabilit ponctuelle de XN est
P (XN = k) =

nk
k
CN
p CN q
n
CN

Lorsque N tend vers linfini avec n constant,


1
n1 1
Nn
N (N 1) (N n + 1)
= N n (1 ) (1
)
n!
N
N n!
n!
m
car (1 N ) 1 lorsque N tend vers linfini. De mme, lorsque N tend vers linfini avec p et k fixes, alors
n
CN
=

k
CN
p

(N p)k
k!

et

nk
CN
(1p)

(N (1 p))nk
.
(n k)!

Finalement,
pk (1 p)nk n!
= Cnk pk (1 p)nk ,
k!(n k)!
ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit la loi binomiale B(n, p).
P (XN = k)

Cest pour cela que lorsque la population (de taille N ) est trs grande, on peut assimiler la loi dune
variable alatoire comptant le nombre de russite sur un tirage sans remise (loi hypergomtrique) une
loi binomiale (tirage avec remise).
Proposition 7.2.2 (Convergence de la loi binomiale vers une loi de Poisson) Soit (Xn ) une suite
de variables alatoires binomiales sur un mme espace probabilis : pour tout n, Xn suit B(n, pn ). On
suppose que limn+ pn = 0 et limn+ npn = . Alors (Xn ) convergent en loi, quand n tend vers
linfini, vers une loi de Poisson de paramtre .
Preuve Pour k fix,
n(n 1) (n k + 1) k
pn (1 pn )nk
k!
1
k1
(npn )k
=
(1 pn )n (1 ) (1
)(1 pn )k
k!
n
n
On cherche la limite de (1pn )n = exp(n ln(1pn )) = exp(n ln(1npn /n)). Comme limn+ npn = , on
pose npn = + n avec limn+ n = 0 et ainsi ln(1 npn /n) /n donc limn+ (1 pn )n = e .
k
Comme k est fix, limn+ (1 n1 ) (1 k1
=1
n )(1 pn )
P (Xn = k)

Ainsi

k
,
n+
k!
ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit une loi de Poisson P(). Il
sagit donc dune convergence en loi en appliquant le point 2 des proprits.
lim P (Xn = k) = e

48

CHAPITRE 7. CONVERGENCES

Corollaire 7.2.3 (Application pratique) On peut remplacer B(n, p) par P() avec = np pour n
trs grand (n > 50) et p trs petit (p < 0, 1).

7.3
7.3.1

Convergence des fonctions caractristiques


Continuit

Thorme 7.3.1 (thorme de continuit de Levy) Soit (Xn ) une suite de variables alatoires de
fonctions caractristiques Xn et X une variable alatoire de fonction caractristique X , toutes sur un
mme espace probabilis. Si les (Xn ) convergent en loi vers X alors la suite de fonctions (Xn ) converge
uniformment vers X qur tout intervalle [a, a].
Inversement si les (Xn ) convergent vers une fonction dont la partie relle est continue en 0, alors
est la fonction caractristique dune variable alatoire X vers laquelle les Xn convergent en loi.
On peut le rsumer ainsi :
L

{t R; Xn (t) X (t)} {Xn X}

7.3.2

Thorme central limite

Corollaire 7.3.2 (Thorme central limite) Soit une suite (Xn ) de variables alatoires dfinies sur
le mme espace de probabilit, suivant la mme loi D et dont lesprance et lcart-type communes
existent et soient finis ( 6= 0). On suppose que les (Xn ) sont indpendantes.
Considrons la somme

n
converge en loi
Sn = X1 + + Xn . Alors lesprance de Sn est n et son cart-type vaut n et Sn
n
vers une variable alatoire normale centre rduite.
Preuve Posons Yi =

Xi

.
n

Alors
t
Yi (t) = Xi (t) = Xi ( )
n
n

Pour t fix, lorsque n tend vers linfini, t n est infiniment petit. Ecrivons le dveloppement limit, au
voisinage de 0, de la fonction caractristique dune variable alatoire W :
W (u)

W (0) + u 0W (0) +

1 + i u E(W )

t2 00
(0) + u2 (u)
2 W

u2
E(W 2 ) + u2 (u)
2

En posant W = Xi , u = t/( n), on a E(W ) = E(Xi ) = 0 et E(W 2 ) = E((Xi )2 ) = V (Xi ) =


2 do

t
t2
1
t2
1
Xi ( ) = 1 2 2 + (t3 / 3 n) = 1
+ i (n)
2 n
n
2n n
n
avec limn+ i (n) = 0.
Pn
n
Maintenant, posons Zn = Sn
= i=1 Yi .
n
Lindpendance des Xn entrane celle des Yi et ainsi
Zn (t)

n
Y

Yi (t)

i=1

exp

n
X

t2
1
ln n(1
+ i (n))
2n n
i=1

49

Cours Probabilits / Pierre DUSART

et limn+ Zn (t) = et

/2

qui est la fonction caractristique de N (0, 1).

Ce thorme tablit une proprit gnrale, qui va justifier limportance considrable de la loi normale,
la fois comme modle pour dcrire des situations pratiques, mais aussi comme outil thorique. Il snonce
ainsi :
Soit X1 , ..., Xi , ..., Xn , une suite de n variables alatoires indpendantes, de moyennes 1 , ..., i , ..., n ,
et de variances s1 2 , ..., si 2 , ..., sn 2 , et de lois de probabilit quelconques,
leur somme suit une
Pn
Pn loi qui,
lorsque n augmente, tend vers une loi normale de moyenne = i=1 i et de variance s2 = i=1 si 2 . Il
y a une seule condition restrictive, cest que les variances soient finies et quaucune ne soit prpondrante
devant les autres.
La loi normale comme modle : prenons lexemple du fonctionnement dun tour dusinage du bois. Le
rglage du tour a pour but dobtenir des pices prsentant une cote bien dfinie ; mais on sait que de
multiples causes perturbatrices agissent au cours de lusinage dune pice : vibrations, usures, variations de
courant ... Or si les causes perturbatrices sont nombreuses, si leurs effets interviennent de faon additive,
enfin si la dispersion provoque par chacune delles reste faible par rapport la dispersion totale, alors le
thorme central limite signifie quon doit observer une fluctuation globale trs voisine de la loi normale.
Et, comme ce mcanisme dintervention de causes perturbatrices est trs rpandu dans la nature, il en
rsulte que la loi normale occupe en statistique une place privilgie.

convergence de P vers N

7.3.3

Corollaire 7.3.3 Soit (Xn ) une suite de variables alatoires suivants des lois de Poisson de paramtres
n n
converge en loi vers N (0, 1).
n . Si limn+ n = , alors X

Preuve On utilise la fonction caractristique de la loi de Poisson de paramtre :


X (t) = e(cos t+i

sin t1)

En utilisant les proprits de la fonction caractristique (aX (t) = (at) et X+b (t) = eitb X (t)), il vient
(cos t +i sin t 1) i t ()

X (t) = eit e(cos t+i sin t1) puis X


(t) = e
e
. Or, lorsque tend vers

linfini, 1/ est au voisinage de 0 et


2

cos(t/ ) 1 (t/ 2 ) + 1 ()
sin(t/ ) (t/ ) + 1 ()

avec lim () = 0. Ou encore le dveloppement de lexposant avec 1/ au voisinage de 0 est

eit/
Ainsi

it
(it)2
1
1= +
+ ().
2

(cos(t/ ) + i sin(t/ ) 1) i t t2 /2

et X
(t) et

/2

, fonction caractristique de N (0, 1).

Application pratique : Pour suffisamment grand (disons > 1000), la distribution normale de moyenne
et de variance est une excellente approcimation de la distribution de Poisson de paramtre . Si
est plus grand que 10, alors la distribution normale est une bonne approximation si une correction de
continuit est applique, cest--dire P (X x) lorsque x est un entier positif ou nul est remplac par
P (X x + 0, 5).

50

7.3.4

CHAPITRE 7. CONVERGENCES

convergence de B vers N

Corollaire 7.3.4 (Thorme de Moivre-Laplace) Soit (Xn ) une suite de variables alatoires telles
np
que (Xn ) B(n, p). Alors Xnnpq
converge en loi vers la variable centre rduite Z N (0, 1) ou encore

Xn converge en loi vers N (np, npq).


Preuve On rappelle que lon a dfini une variable de Bernoulli comme une variable qui prend la valeur
1 avec la probabilit p, et la valeur 0 avec la probabilit (1 p), et montr que sa moyenne est gale p
et sa variance p(1 p). Or on peut considrer une variable binomiale comme la somme de n variables
de Bernoulli. Il rsulte du thorme central limite que, si n est suffisamment grand (en pratique partir
de n = 50), la loi binomiale peut tre approxime par une loi normale de moyenne np et de variance
np(1 p). Cest pourquoi les tables de la loi binomiale sarrtent gnralement n = 50.
Application pratique : on peut assimiler une loi binomiale une loi normale ds que np > 15 et nq > 15
ou n > 30, np > 5, nq > 5.

Table des matires

1 lments danalyse combinatoire

1.1

Quelques dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2

Arrangement avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3

Arrangement sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4

Permutation sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.5

Permutation avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.6

Combinaison sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.7

Combinaison avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2 Probabilits
2.1

2.2

Espace probabilis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.1.1

vnement et ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . . . . .

2.1.2

Axiomatique de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Probabilit conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.2.1

Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.2.2

Formule des probabilits composes . . . . . . . . . . . . . . . . . . . . . . . . . .

10

2.2.3

Evnements indpendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10

3 Variables alatoires
3.1

3.2

13

Dfinition dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

3.1.1

Diffrents types de variables alatoires . . . . . . . . . . . . . . . . . . . . . . . . .

13

3.1.2

Loi de probabilit

14

3.1.3

Fonction de rpartition

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

14

3.1.4

Densit de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

15

Caractristiques dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . .

16

3.2.1

16

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Tendance centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

52

TABLE DES MATIRES

3.2.2

Paramtres de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

17

3.2.3

Caractristiques de forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

3.2.4

Ingalit de Bienaym-Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . .

19

3.2.5

Fonctions gnratrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

4 Lois discrtes usuelles

23

4.1

Loi uniforme discrte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

4.2

Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

4.3

Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

24

4.4

Loi hypergomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

25

4.5

Loi gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

4.6

Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

26

4.7

Approximation de B par P

27

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 Couple de variables alatoires


5.1

5.2

5.3

29

Couple de v.a. discrtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

5.1.1

Loi dun couple de variables alatoires discrtes . . . . . . . . . . . . . . . . . . . .

29

5.1.2

Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

5.1.3

Lois conditionnelles

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

5.1.4

Esprance, Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

5.1.5

Fonction de rpartition

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

30

5.1.6

Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

5.1.7

Covariance et Corrlation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

Couple de v.a. continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

5.2.1

Fonction densit de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

33

5.2.2

Lois marginales et lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . .

34

5.2.3

Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

34

Somme et Produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

5.3.1

Somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

35

5.3.2

Produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

5.3.3

Fonction de variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

36

6 Lois continues usuelles

37

6.1

Loi continue uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

6.2

Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

37

6.3

Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

6.3.1

Rappel : calcul de lintgrale de Gauss . . . . . . . . . . . . . . . . . . . . . . . . .

38

6.3.2

Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38

53

Cours Probabilits / Pierre DUSART

6.3.3

Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

6.3.4

Fonction de rpartition

39

6.3.5

Loi Normale ou de Laplace-Gauss

. . . . . . . . . . . . . . . . . . . . . . . . . . .

40

6.3.6

Somme de deux variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . .

40

6.3.7

Somme de carrs de variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . .

41

6.3.8

Approximation de B par N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

6.3.9

Simulation

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41

6.4

Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

42

6.5

Loi de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

42

6.6

Loi de Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7 Convergences
7.1

45

Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

7.1.1

Exemple de la loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

45

7.1.2

Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46

7.1.3

Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46

7.2

Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

46

7.3

Convergence des fonctions caractristiques . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

7.3.1

Continuit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

7.3.2

Thorme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

48

7.3.3

convergence de P vers N

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

49

7.3.4

convergence de B vers N

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

50

Dure : 12h de cours


18 h TD

Vous aimerez peut-être aussi