Vous êtes sur la page 1sur 53

Licence 2-S3 SI-MASS

Anne 2013

Cours de Probabilits
Pierre DUSART
2
Chapitre 1
lments danalyse combinatoire

1.1 Quelques dfinitions


Disposition sans rptition : cest une disposition o un lment peut apparatre 0 ou 1 fois.
Disposition avec rptition : un lment peut figurer plus dune fois.
Disposition ordonne : lordre dobtention dun lment est important.
Ex. les lments constituant la plaque minralogique dun vhicule.
Disposition non-ordonne : lordre dobtention dun lment nest pas important, on nen tient pas compte
dans la caractrisation de la disposition.
Ex. Les numros issus dun tirage du loto.
Exemple 1 : On considre un ensemble deux lments {a, b}. Avec deux tirages sans rptition, on peut
obtenir {a, b} ou {b, a} ; Avec deux tirages avec rptition, on peut obtenir {a, a}, {a, b}, {b, a} ou {b, b}.
Cela correspond un tirage avec remise.
Exemple 2 : Prenons un jeu de d 6 faces (lments discernables) numrotes par = {1; 2; 3; 4; 5; 6}.
Aprs 3 jets, nous obtenons la ralisation A = (2; 5; 1) ; nous ritrons les jets et nous obtenons B =
(5; 1; 2). A et B sont quivalents si nous considrons que les dispositions sont non-ordonnes. En revanche,
ils ne sont pas quivalents si nous sommes dans le cadre dune disposition ordonne.
Qn
La valeur Factorielle(n), note n! est dfinie par n! = 1 2 n = i=1 i. Par convention 0! = 1. Nous
pouvons galement utiliser une dfinition rcursive

n! = n (n 1)!

1.2 Arrangement avec rptition


Soit un ensemble compos de n lments : card() = n. Nous constituons un chantillon E de taille p
(card(E) = p) partir des lments de . Si nous avons choisir p lments parmi n dans une disposition
ordonne (les places sont distinctes) et avec rptition (on peut choisir le mme lment plusieurs fois),
on dit quon a un arrangement de p lments parmi n. Le nombre darrangement avec rptition est np .
N.B. Dans ce cas, il est possible que p > n.
Raliser un arrangement avec rptition des lments de , cest aussi dfinir une application dun
ensemble E p lments dans . Lensemble des applications de E dans sera not E et on a
#(E ) = (#)#E .
4 CHAPITRE 1. LMENTS DANALYSE COMBINATOIRE

1.3 Arrangement sans rptition


Soit un ensemble avec card() = n. On constitue un chantillon de taille p (p n), la disposition est
ordonne et sans rptition. On dit quon a un arrangement sans rptition de p lments parmi n. Le
nombre de parrangements dun ensemble n lments est :

n!
Apn = .
(n p)!

Raliser un arrangement sans rptition des lments de , cest dterminer un puplet (x1 , . . . , xp )
dlments de deux deux distincts. Cest aussi dfinir une application injective dun ensemble E p
lments dans n lments.

1.4 Permutation sans rptition


Cest un arrangement sans rptition de n lments parmi n.

n!
Pn = Ann = = n!
(n n)!

Raliser une permutation des lments de , cest raliser un tirage exhaustif sans remise des lments
de en tenant compte de lordre du tirage. Cest aussi dfinir une bijection de ensemble sur lui-mme.
Lensemble des permutations dun ensemble n lments sappelle le groupe symtrique dordre n et se
note Sn . On a #Sn = n!.

1.5 Permutation avec rptition


On appelle permutation avec rptition de p lments o n sont distincts (n p), une disposition
ordonne de lensemble de ces p lments o le premier figure p1 fois, le second p2 fois, etc., tel que
p1 + p2 + + pn = p. Le nombre de permutation avec rptitions est p1 !p2p!!pn !
Dmonstration : (Voir pralablement la dfinition dune Combinaison sans rptition)
Pour construire un p-uplet correspondant une combinaison contenant p1 fois x1 , p2 fois x2 , ..., pn fois
xn , il suffit :
de choisir les p1 emplacements des x1 , parmi p1 + p2 + ... + pn places disponibles,
de choisir les p2 emplacements des x2 , parmi les p2 + ... + pn places restantes,
etc.
de choisir les pn emplacements des xn , parmi les pn places restantes.
Au total, il y a
p!
Cpp11+p2 ++pn Cpp22++pn Cppnn =
p1 !p2 ! pn !

Exemple [Nombre danagrammes du mot MATHMATIQUE] : nous voyons quen changeant les deux
lettres A, le mot reste identique, et par contre en transposant les lettres et E nous obtenons un mot
diffrent. (M :2 ;A :2 ;T :2 ;H :1 ; :1 ;I :1 ;Q :1 ;U :1 ;E :1) : #Anagrammes = 12!/(2!2!2!)
Exemple 2 : Nombre de quartets binaires de poids de Hamming gal 2 ;
Il y en a 6 =4 !/(2 !2 !) : (0011),(0101),(0110),(1001),(1010),(1100).
Cours Probabilits / Pierre DUSART 5

1.6 Combinaison sans rptition


On considre un ensemble constitu de n lments tous discernables. On forme un chantillon de taille
p. Si la disposition est non-ordonne et sans rptition, on dit que lon a une
 combinaison sans rptition
de p lments parmi n. Le nombre de ces combinaisons se note Cnp ou np .

n!
Cnp =
p!(n p)!
Proprits :
1. Cn0 = Cnn = 1
2. Cnp = Cnnp (complmentaire)
p p1
3. Cnp = Cn1 + Cn1 (triangle de Pascal)
Ap
4. Cnp = n
p!
p p1
Preuve que Cnp = Cn1 + Cn1 :

p p1 (n 1)! (n 1)!
Cn1 + Cn1 = +
p!(n p 1)! (p 1)!(n p)!
(n 1)! (n p) p (n 1)!
= +
p!(n p)! p!(n p)!
n (n 1)!
= = Cnp
p!(n p)!

Proposition 1.6.1 (Formule du binme)


n
X
(a + b)n = Cnp ap bnp .
p=0

Exercice : preuve de la formule du binme par rcurrence sur n


Preuve :
(a + b)n+1 = (a + b)(a + b)n
n
X
= (a + b) Cnp ap bnp
p=0
n
X n
X
= Cnp ap+1 bnp + Cnp ap bn+1p
p=0 p=0
n+1 n
X 0 0 0 X
= Cnp 1 ap bn+1p + Cnp ap bn+1p
p0 =1 p=0
n
! n
!
X X
= Cnp1 p
a b n+1p
+ Cnn an+1 b0 + Cn0 a0 bn+1 + Cnp p
a bn+1p

p=1 p=1
n
X
n+1
= a + (Cnp1 + Cnp ) ap bn+1p + bn+1
| {z }
p=1 p
Cn+1
n+1
X p
(a + b)n+1 = Cn+1 ap bn+1p .
p=0
6 CHAPITRE 1. LMENTS DANALYSE COMBINATOIRE

1.7 Combinaison avec rptition


Cest une disposition non-ordonne de p lments, choisir parmi n lments discernables, avec rptition.
Le nombre de combinaisons avec rptitions de n objets pris p p est :
p
Knp = Cn+p1

Exemple : [jeu de domino] Les pices sont constitues en disposant cte cte deux lments de lensemble
{blanc, 1, 2, 3, 4, 5, 6}. Si nous retournons un domino, nous changeons lordre des deux lments, mais le
domino reste identique (Cest donc une disposition non-ordonne). Nous avons une combinaison avec
rptition de 2 lments pris parmi les 7, et au total il y a K72 = 28 dominos dans un jeu.
Toute pcombinaison avec rptition peut scrire :

x1 : k1 fois, . . . , xn : kn fois
Pn
avec 0 ki p et i=1 ki = p.
On peut ainsi mettre en bijection lensemble des pcombinaisons avec rptition des n lments de E
avec les applications f : E N telles que

x1 7 f (x1 ) = k1 Xn
vrifiant f (xi ) = p
xn 7 f (xn ) = kn i=1

Exemple : Dans un jeu de dominos, un domino est une 2-combinaison avec rptition de lensemble
E = {blanc, 1, 2, 3, 4, 5, 6}. Chaque domino peut tre reprsent par une application de E dans {0, 1, 2}
qui associe chaque lment de E le nombre de fois o llment apparat sur le domino. Ainsi le domino
[blanc,blanc], est reprsent par lapplication f dfinie par

f (blanc) = 2, f (1) = 0, f (2) = 0, f (3) = 0, f (4) = 0, f (5) = 0, f (6) = 0

et le domino [blanc, 1] par lapplication f dfinie par

f (blanc) = 1, f (1) = 1, f (2) = 0, f (3) = 0, f (4) = 0, f (5) = 0, f (6) = 0.

On peut aussi mettre cet ensemble en bijection avec lensemble des manires de placer p objets dans n
botes :
bote 1 i n
x1 xi xn
k1 ki kn
Mais placer p objets dans n botes cest aussi se donner n + p 1 objets et dcider que n 1 dentre eux
seront des cloisons :
0} | 0| {z
|0 {z 0} | | 0| {z
0} .
k1 k2 kn

Inversement, toute faon de choisir n 1 objets qui seront des cloisons, on peut associer une et une
seule faon de placer p objets dans n botes.
Il y a une bijection entre lensemble des p-combinaisons avec rptition de E et lensemble des p-uplets
croissants dlments de E, ou encore des applications croissantes (au sens large) de {1, 2, ..., p} dans E.
p
Proprit : Knp = Knp1 + Kn1 .
p p1 p
Preuve : Cn+p1 = Cn+p2 + Cn+p2
Chapitre 2
Probabilits

2.1 Espace probabilis

2.1.1 vnement et ensemble fondamental

Une preuve est une exprience dont lissue nest pas prvisible car rpte dans des conditions identiques,
elle peut donner lieu des rsultats diffrents ou alatoires (exprience alatoire). Lensemble des rsultats
possibles sappelle lensemble fondamental (ou rfrentiel, univers des possibles) et sera not .
Un vnement est un ensemble de rsultats (un sous-ensemble de lunivers) dune exprience alatoire.
Comme lvnement est une affirmation concernant le rsultat dune exprience, nous devons pouvoir
dire, pour tout rsultat de lunivers, si lvnement se ralise ou non. Un vnement donn, souvent dfini
par une proposition, est identifi la partie de lunivers pour laquelle il est ralis.
On exige que la collection C des vnements dispose de la structure dune algbre de Boole :
1. C; C.
2. si A C; A C;
3. si A, B C A B C et A B C.
On peut prciser le calcul de probabilits dun vnement E. De manire simplifie, la probabilit thorique
vaut
nombre de cas favorables
P (E) = .
nombre total de cas

Exemple 1 : Si on lance un d 6 faces, le rfrentiel est compos des six faces = {1, 2, 3, 4, 5, 6}.
Exemple 2 : Si on lance trois fois une pice, le rfrentiel est compos des 23 arrangements avec rptition
des 2 faces distinctes notes P et F : = {P P P, P P F, P F P, P F F, F P P, F P F, F F P, F F F }.
Exemple 3 : Si on lance trois pices identiques simultanment, le rfrentiel est compos des 3-combinaisons
avec rptition des 2 faces distinctes notes P et F : = {P P P, P P F, F F P, F F F }. de cardinal K23 .
Question : On lance trois pices de monnaie. Quelle est la probabilit que toutes trois retombent du
mme ct, que ce soit pile ou face ?

Dfinition 1 Deux vnements A et B sont dits incompatibles sils ne peuvent se raliser simultanment
cest--dire lorsque lintersection des sous-ensembles A et B est vide : A B = .
8 CHAPITRE 2. PROBABILITS

2.1.2 Axiomatique de Kolmogorov


A chaque vnement, on associe un nombre positif compris entre 0 et 1, sa probabilit.
La thorie moderne des probabilits repose sur laxiomatique suivante :

Dfinition 2 On appelle probabilit sur (, C) (o est lensemble des vnements et C une classe de
parties de ), ou loi de probabilit, une application P de C dans [0, 1] telle que :
1. Pour tout vnement E, 0 P (E) 1.
2. P () = 1
3. pour tout ensemble dnombrable dvnements incompatibles A1 , A2 , ..., An , on a
X
P (Ai ) = P (Ai ). (-additivit de P )

Dfinition 3 On appelle espace probabilis le tripl (, C, P ) o est lensemble fondamental, C est une
collection de sous-ensembles de (la collection des vnements), qui possde la structure prcdente de
-algbre de Boole et P : C [0, 1] est une mesure de probabilit sur C.

Proprits lmentaires : de laxiomatique de Kolmogorov, on peut dduire les proprits suivantes :


1. P () = 0
2. P (A) = 1 P (A)
3. P (A B) = P (A) + P (B) P (A B)
4. P (A) P (B) si A B (ingalit de Boole)
P
5. P (i Ai ) i P (Ai ) (Il ny a stricte galit que si les vnements Ai sont deux deux
incompatibles.)
6. Si la suite (An ) crot vers A (cest--dire n, An An+1 et An = A) alors lim P (An ) = P (A).
7. Continuit monotone squentielle. Soient A1 A2 An . Si limn An = alors
limn P (An ) = 0
Dmonstration :
1. Soit E un vnement quelconque. Comme E = E, P (E ) = P (E). Dautre part, on sait
que E = (tout vnement est incompatible avec lvnement impossible) et daprs le 3me
axiome, P (E ) = P (E) + P (). Des deux galits, on obtient P () = 0.
2. A A = et A A = P () = P (A A) = P (A) + P (A) = 1 do P (A) = 1 P (A)

3. On dcoupe selon une partition de A B : on a P (A B) = P (A B) (B A) (A B) . Ces
ensembles sont deux deux incompatibles do P (AB) = P (AB)+P (BA)+P (AB). De plus,
P (A) = P (A B) + P (A B) et P (B) = P (B A) + P (A B), do P (A B) = P (A) P (A B)
et P (B A) = P (B) P (A B), valeurs que lon remplace dans la premire galit obtenue.
4. Daprs la proprit prcdente et la positivit de la probabilit, on a P (A B) = P (A) + P (B)
P (A B) P (A) + P (B),
Formule prcdente que lon peut gnraliser un nombre quelconque dvnements : P (i Ai )
5. P
i P (Ai ) avec galit si des vnements sont deux deux incompatibles.
6. On pose B1 = A1 et n 2, Bn = An \An1 . Les Bi sont disjoints et vrifient n1 Bn = n1 An
et n 1, nk=1 Bk = An . Par la proprit de -additivit, n1 P (Bn ) = P (n1 An ) et n
P
Pn
1, k=1 P (Bk ) = P (An ). Ainsi limn P (An ) = P (n An ) = P (A).
7. On note A = An . Comme An An+1 , An \An+1 . On pose B1 = A1 et Bn+1 = An+1 \An . Ainsi
n Bn = n An = A et nk=1 Bk = An . Ainsi limn P (An ) = limn P (Bk ) = P (A). En passage au
complmentaire, limn P (An ) = P (A). On peut prendre A = .
Cours Probabilits / Pierre DUSART 9

Thorme 2.1.1 (Thorme des probabilits totales) Soit = Bi un systme complet dvne-
ments (i.e. tel que les {Bi} constituent une partition de ). Alors
X
A : P (A) = P (A Bi ).
i

Exemples de construction :
1. Si P= {x1 , . . . , xn } est fini, on dfinit une probabilit sur P() en se donnant n nombres pi tels
que i pi = 1 en posant P ({xi }) = pi . On parle dquiprobabilit si pour tout i, P ({xi }) = n1 .
Dans ce cas, P (A) = card(A) . n
2. Si = {xn , n N} est dnombrable, on dfinit une probabilit sur P() en se donnant une srie
de terme gnral pn convergente termes positifs et de somme gale 1 en posant P ({xi }) = pi .
1
(par exemple : pn = 2n+1 )
3. Si est un intervalle ]a, c[, o a, c appartiennent R {, }, on peut dfinir une probabilit
sur tous les intervalles inclus dans en dfinissant une probabilit sur des intervalles de la forme
Rb Rc
]a, b[. Par exemple, P (]a, b[= a (t)dt o est une fonction positive qui vrifie a (t)dt = 1.
4. Si =]0, 1[2 , on obtient une probabilit en posant P (A) =surface de A.

2.2 Probabilit conditionnelle


On considre la ralisation de deux vnements A et B.
Que peut-on dduire sur la probabilit de lvnement B sachant que lvnement A est ralis ? Cette
probabilit est appele probabilit conditionnelle de A sachant B et se note P (A/B) ou PB (A).
Par dfinition, on a
P (A B)
P (A/B) = .
P (B)
Cette probabilit a posteriori est dite Probabilit de Bayes.
Exercice : montrer que PB est une probabilit sur .

2.2.1 Formule de Bayes


P (AB) P (AB) P (B/A)P (A)
Comme P (B/A) = P (A) , on a P (A/B) = P (B) = P (B) . La formule de Bayes est

P (B/A)P (A)
P (A/B) = .
P (B)

On remarque que P (B) = P (A B) + P (A B) = P (B/A)P (A) + P (B/A)P (A), ainsi


P (B/A)P (A)
P (A/B) = .
P (B/A)P (A) + P (B/A)P (A)
Plus gnralement si {Aj } est une partition de lensemble des possibles, pout tout i,
P (B/Ai )P (Ai )
P (Ai /B) = P .
j P (B/Aj )P (Aj )

Exemple : Soit un vnement A qui peut dpendre de N causes Ci diffrentes et incompatibles deux
deux (on ne peut avoir deux causes ralises simultanment). Etant donne la ralisation de lvnement
A, quelle est la probabilit que ce soit Ci qui en soit la cause ?
10 CHAPITRE 2. PROBABILITS

2.2.2 Formule des probabilits composes


Proposition 2.2.1 (Formule des probabilits composes) Soient n vnements A1 , ..., An tels que
P (A1 An ) 6= 0. Alors :

P (A1 An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 An1 )

Exemple : Une urne contient initialement 7 boules noires et 3 boules blanches. On tire successivement 3
boules : si on tire une noire, on lenlve, si on tire une blanche, on la retire, et on ajoute une noire la
place. Quelle est la probabilit de tirer 3 blanches la suite ?
On note Bi lvnement "La i-me boule tire est blanche". La probabilit recherche est :

P (B1 B2 B3 ) = P (B3 |B1 B2 ) P (B2 |B1 ) P (B1 ).

Clairement, P (B1 ) = 3/10. Maintenant, si B1 est ralis, avant le 2me tirage, lurne est constitue de 8
boules noires et 2 blanches. On a donc : P (B2 |B1 ) = 2/10. Si B1 et B2 sont raliss, avant le 3me tirage,
lurne est constitue de 9 boules noires et 1 blanche. On en dduit P (B3 |B1 B2 ) = 1/10. Finalement
P (B1 B2 B3 ) = 6/1000 = 3/500.

Proposition 2.2.2 (Formule des probabilits totales) Soit {An ; n N} un systme complet dv-
nements, tous de probabilit non nulle. Soit B un vnement. Alors :
X
P (B) = P (An )P (B/An ).
nN

Cette formule permet de calculer la probabilit dun vnement B en le dcomposant suivant un systme
complet dvnements (En effet, B est gal la runion disjointes des B An ).

2.2.3 Evnements indpendants


Soient 2 vnements A et B. Ils sont indpendants si la ralisation de A naffecte pas la ralisation de B,
et inversement. On peut alors crire

P (A/B) = P (A)
P (B/A) = P (B)

On dit encore que A et B sont indpendants si et seulement la probabilit de ralisation simultane de


ces vnements est gal au produit de leurs probabilits individuelles :

P (A B) = P (A) P (B).

Si deux vnements A et B sont indpendants, alors il en est de mme pour A et B c , Ac et B, Ac et B c .

Dfinition 4 Un ensemble dvnements A1 , A2 , . . . , An est dit totalement indpendant si pour tout sous-
ensemble I {1, 2, . . . , n} Y
P (iI Ai ) = P (Ai ).
iI

Les vnements sont deux deux indpendants si pour tous indices i, j (i 6= j),

P (Ai Aj ) = P (Ai ) P (Aj ).


Cours Probabilits / Pierre DUSART 11

Que pensez-vous des deux dfinitions ? Sont-elles quivalentes ?


Exemple : On jette deux ds quilibrs. Soient les vnements

A = {la somme des ds vaut 7},


B = {le premier d affiche 4}
C = {le second d affiche 3}.

Calculer P (A B), P (A C), P (B C) et P (A|B C).


12 CHAPITRE 2. PROBABILITS
Chapitre 3
Variables alatoires

3.1 Dfinition dune variable alatoire

Une variable alatoire est une fonction dfinie sur lensemble des ventualits, cest--dire lensemble des
rsultats possibles dune exprience alatoire.
On sintressera aux valeurs prises xi par une variable alatoire X, vnement not (X = xi ), et plus
particulirement la probabilit dobtenir ces valeurs P (X = xi ).
Cest peu prs la mme chose quune variable statistique sauf que dans le cas dune variable statistique on
value un comportement ralis (moyenne, etc) alors que dans le cas de variables alatoires on suppose un
comportement futur (Dans ce cas, on parle desprance plutt que de moyenne par exemple) ou thorique.
Les variables alatoires sont utilises pour modliser le rsultat dun mcanisme non-dterministe.

3.1.1 Diffrents types de variables alatoires

Dfinition 5 Une variable alatoire (ou v.a.) est une application X : R. Si X() est au plus
dnombrable, on dit que X est un v.a. discrte sinon on dit quelle est continue.

Variable alatoire discrte

Si une variable alatoire X prend un nombre de valeurs fini ou dnombrable (son ensemble de dfinition
est inclus dans N), on parle de variable discrte.
On sintresse dfinir lensemble des valeurs possibles et leurs probabilits associes.
Quelques exemples :
nombre de face dans un lancer de 3 pices : X() de 0 3.
nombre de lancers avant dobtenir "6" avec un d : X() de 0 linfini ;
nombre de clients attendant au service aprs-vente : X() de 0 10.
nombre de cycles lecture/criture sur une cl USB : X() de 10000 100000.
nombre dappels arrivant un standard tlphonique en une minute de 0 10.
14 CHAPITRE 3. VARIABLES ALATOIRES

Variable alatoire continue

Une variable alatoire est dite continue si elle peut prendre toutes les valeurs dun intervalle. En particulier,
dans le cas o la variable alatoire peut prendre toute valeur relle (son ensemble de dfinition contient
un intervalle de R), on parle de variable alatoire relle.
Dans ce cas, il ne sagira plus de calculer une probabilit dapparition dune valeur donne mais dun
intervalle.
Quelques exemples :
temps dattente pour avoir le bus : X() [0, 100 ]
longueur de cheveux : X() [0, 4m]
intervalle entre deux averses : X() [10 , 20 ans]
moyenne des tailles de 20 tudiants pris au hasard : X() [, ]

3.1.2 Loi de probabilit


Une variable alatoire est totalement dfinie par sa loi de probabilit. Cette dernire est caractrise par :
lensemble des valeurs quelle peut prendre (son domaine de dfinition) ;
les probabilits attribues chacune des valeurs potentiellement prises P (X = x).
Dans ce cas, la loi de la variable alatoire est la loi de probabilit sur lensemble des valeurs possibles de
X qui affecte la probabilit P (X = xk ) au singleton {xk }.

Soit X : R. Dans le cas o X prend ses valeurs dans un intervalle rel, on cherche exprimer par
exemple la probabilit que X prenne ses valeurs dans ], [. On remarque que X() ], [)
X 1 (], [) et donc on pose P (X ], [) = P (X 1 (], [)).

3.1.3 Fonction de rpartition


Dfinition 6 La fonction de rpartition dune v.a. X est lapplication F de R dans [0, 1] dfinie par

F (x) = P (X < x) = P X 1 (] , x[) .




On sintresse souvent la probabilit cumule. Par exemple dans le cas de probabilits sur N :

P (X < n) = P (X = 0 ou X = 1 ou ou X = n 1).

Les vnements tant incompatibles entre eux, on obtient


n1
X
P (X < n) = P (X = j),
j=0

et de faon plus gnrale, avec x R,


dx1e
X
P (X < x) = P (X = j).
j=0

Ainsi pour X une v.a. discrte prenant les valeurs classes xi avec les probabilits pi , on a
X
F (x) = pi .
xi <x

(Dans ce cas, F est une fonction en escaliers, continue gauche, ayant pour limite 0 en et 1 en +).
Cours Probabilits / Pierre DUSART 15

Proprits
1. F est non dcroissante.
2. F est continue gauche.
3. x0 R, P (X = x0 ) = limxx+ F (x) F (x0 ).
0

4. F () = 0 et F (+) = 1
5. P (a X < b) = F (b) F (a)
Preuves :
1. Montrons que F est croissante (x < y = F (x) F (y)). On a la runion disjointe ] , y[=
] , x[[x, y[ et F (y) = P (X 1 (] , y[) = P (X 1 (] , x[) X 1 ([x, y[)) et en utilisant les
proprits de P , F (y) = F (x) + P (X [x, y[) F (x).
2. Soit x0 R. X 1 ([x0 1/n, x0 [) dcrot vers quand n tend vers linfini, donc F (x0 )F (x0 1/n)
tend vers 0. Comme F est croissante, cela implique que F est continue gauche.
3. De mme, X 1 ([x0 , x0 + 1/n[) dcrot vers X 1 ({x0 }) donc la diffrence F (x0 + 1/n) F (x0 ) tend
vers P (X 1 {x0 }) quand n tend vers linfini.
4. F tant croissante, F () = limn F (n). Or ] , n[ dcrot vers quand n tend vers
linfini ; ainsi F (n) = P (X 1 (] , n[)) dcrot vers 0. De mme, ] , n[ crot vers R quand
n tend vers linfini et F (n) = P (X 1 (] , n[)) crot vers P (X R) = 1.
5. X 1 (] , b[) est la runion disjointe de X 1 (] , a[) et de X 1 ([a, b[) donc F (b) = P (X
[a, b[) + F (a).
Remarque : F est continue droite dans le cas des v.a. continues.
Preuve : Daprs la proprit 4 des fonction de rpartition, F est continue si et seulement si : x
R, P (X = x) = 0.
Remarque : Probabilit ponctuelle pour une variable continue.
La vraie distinction entre variables continues et discrtes tient dans le calcul de la probabilit ponctuelle.
La probabilit dun point c situ entre a et b serait limba P (a < X < b) = 0. Ainsi, la probabilit dun
point est par dfinition nulle pour les variables continues. Ainsi P (a < X < b) = P (a X b).
En ralit, il sagit bien souvent dun problme dchelle ou de prcision de mesure. On travaille toujours
sur des intervalles (par exemple la prcision de la mesure si on a une mesure au centimtre prs la valeur
x = 160 correspond x = 160 0.5 soit un intervalle de travail 160 0.5 < x < 160 + 0.5.

3.1.4 Densit de probabilit


Pour une variable continue, on travaille la plupart du temps avec un ensemble de dfinition sur les
rels. La probabilit ponctuelle P (X = x) = f (x) est la fonction de densit. La fonction de rpartition
F (x) = P (X < x) est dfinie par : Z x
F (x) = f (t)dt

La densit de probabilit dune variable alatoire continue est la drive premire par rapport x de la
fonction de rpartition. Cette drive prend le nom de fonction de densit, note f (x) = dFdx(x) . Elle est
quivalente P (X = x) dans le cas des variables discrtes.
Pour calculer la probabilit P (a X < b) dans le cas dune variable continue, le calcul est le suivant
Rb
a
f (x)dx. Dveloppons cette expression :
P (a X < b) = P (X < b) P (X < a)
Z b Z a
= f (t)dt f (t)dt

= F (b) F (a)
16 CHAPITRE 3. VARIABLES ALATOIRES

Graphiquement, cela se traduit par la surface comprise entre a et b en dessous de la courbe de densit.
P R +
Proprit : De la mme faon que pi 0 et i pi = 1, on a f (x) 0 et f (x)dx = 1.

3.2 Caractristiques dune variable alatoire

3.2.1 Tendance centrale


Les fractiles

On appelle quantile ou fractile dordre (0 < < 1) dune variable alatoire X dont la fonction de
rpartition est F (x), la valeur x telle que F (x ) = . La valeur x sappelle quantile dordre .
Remarque Dans le cas o X est une variable discrte, F (x ) = sentend P (X < x ) = .
Nous numrons ici quelques quantiles particuliers.
La mdiane : La mdiane est le quantile dordre = 1/2, en dautres termes la mdiane M ed est dfinie
par F (M ed) = 0, 5. La mdiane partage la population en deux parties gales, cest une caractristique
de tendance centrale.
Les quartiles : les quartiles, nots Qi (respectivement i = 1; 2; 3) correspondent aux quantiles dordre
( = 0, 25 ; 0,5 ; 0,75). Notons que Q2 = M ed.
Les dciles Le k-ime dcile (k = 1 9) est le quantile dordre k/10. En particulier, le 5-ime dcile
correspond la mdiane.

Le mode

On appelle mode (valeur dominante, valeur la plus probable) dune variable alatoire, la valeur M ode
pour laquelle lhistogramme de frquence prsente son maximum.
Dans le cas des variables discrtes, le Mode est la valeur de X associe la plus grande probabilit, do
lappellation valeur la plus probable.
Lorsque la variable alatoire X est continue, avec une fonction de densit pourvue dune drive premire
et dune drive seconde, le mode M est un maximum de la fonction densit et satisfait ce titre
f 0 (M ) = 0 et f 00 (M ) < 0 (concavit vers le bas).

Esprance mathmatique

Soit X une v.a. discrte prenant ses valeurs dans {x1 , . . . , xn } et dont les probabilits associes sont
P (X = xi ) = pi . On dfinit lesprance mathmatique de X, note E(X) par
n
X
E(X) = pi xi .
i=1

Cette quantit nest dfinie que si la srie de terme gnral [pi xi ] converge.
Cest la moyenne thorique de X. Cette moyenne est rapprocher de la P moyenne exprimentale o chaque
vnment X P = xi se ralise n i fois dans un chantillon de taille N = i ni . La moyenne exprimentale
vaut X = N1 i ni xi = i fi xi , o fi = nNi est la frquence observe dans chaque classe dvnement
P
X = xi .
R +
Dans le cas continu, E(X) = xf (x)dx o f (x) est la densit de probabilit de X. Cette quantit
R +
nexiste que si xf (x)dx est absolument convergente.
Cours Probabilits / Pierre DUSART 17

De faon gnrale, pour Y une fonction de X, on a


n
X Z +
E(Y ) = pi yi ou E(Y ) = y(x)f (x)dx
i=1
Pn R +
Par exemple, pour Y = X 2 , on a E(X 2 ) = i=1 pi x2i ou E(X 2 ) =
x2 f (x)dx.
Proprits : (Esprance dune constante). E(a) = a. Preuve.
Z Z
E(a) = af (x)dx = a f (x)dx = a 1 = a.
D D

On peut en dduire que E[E(X)] = E(X), puisque E(X) nest pas une variable alatoire.
Caractristique (oprateur linaire). E(aX + bY ) = aE(X) + bE(Y ). De manire gnrale,
! !
X X
E ai Xi + b = ai E(Xi ) + b
i i

3.2.2 Paramtres de dispersion


Moments

Un moment non-centr dordre r est dfini de la manire suivante :


mr (X) = E(X r )

pi xri , o pi = P (X = xi ) et pour
P
Application : pour une v.a. (variable alatoire) discrte, mr (X) = i
une v.a. continue, mr (X) = D xr f (x)dx.
R

Remarque (Moments non-centrs empiriques, statistique descriptive). Rappelons quen statistiquePdescrip-


tive, ce moment non-centr, pour une v.a. discrte par exemple, est obtenue avec la formule mr = i fi xri ,
o fi est la frquence observe de la valeur xi .
Remarque (Cas particuliers).
(r = 0) m0 (X) = 1 ;
(r = 1) m1 (X) = E(X), esprance mathmatique ;
Un moment centr dordre r est dfini de la manire suivante :
r (X) = E[(X E(X))r ]

Soit pour une v.a. discrte : r (X) = i (xi E(X))r pi


P

et pour une v.a. continue : r (X) = D (x E(X))r f (x)dx


R

Remarque (Statistique descriptive). En


Pnstatistique descriptive, pour une variable discrte, le moment
centr dordre r est obtenu avec r = i=0 fi (xi x)r
Remarque (Cas particuliers).
(r = 0 ) 0 (X) = E[(X E(X))0 ] = E(1) = 1
(r = 1) 1 (X) = E[(X E(X))] = E(X) E[E(X)] = E(X) E(X) = 0
(r = 2 ) 2 (X) = E[(X E(X))2 ] = V (X) (cest la variance de X).

Variance

Dfinition 7 On appelle variance de X, not V (X), le moment centr dordre 2 de X (sil existe).
V (X) = E([X E(X)]2 ).
18 CHAPITRE 3. VARIABLES ALATOIRES

La variance mesure la dispersion autour de la moyenne. Lcart-type est la racine carre de la variance :
p
(X) = V (X).

Remarque (Formule de Koenig). Il est possible dexprimer la variance partir des moments non centrs.

V (X) = E[(X E(X))2 ] = E[X 2 2XE(X) + E(X)2 ]


= E(X 2 ) + E(X)2 2E[XE(X)]
= E(X 2 ) + E(X)2 2E(X)E(X)
= E(X 2 ) E(X)2
V (X) = m2 (X) m1 (X)2

3.2.3 Caractristiques de forme


Le coefficient dasymtrie (skewness)

Graphiquement, il sagit de ltalement gauche ou droite de lhistogramme des frquences de la variable


statistique.

Le coefficient dasymtrie de Fisher : Outil banal de la statistique descriptive, il sagit du moment


centr dordre 3 normalis par le cube de lcart-type, cest--dire ( gamma un ) :
3 1 X
1 = = fi (xi x)3 .
3 3 i
3
Remarque : 1 = 3/2 .
2

Comme cest un nombre sans dimension, il permet de comparer des distributions mme si leurs chelles
diffrent. Lorsque ltalement est gauche (moyenne infrieure la mdiane), le coefficient dasymtrie
est ngatif et vice versa.

Le coefficient dasymtrie de Pearson 1 ( beta un ) est le carr du coefficient de Fisher, soit :


 2
3
1 = .
3

Le coefficient dasymtrie de Yule et Kendall On a juste besoin des quartiles pour le calculer.

(Q3 Q2 ) (Q3 Q1 )
u= .
(Q3 Q2 ) + (Q3 Q1 )

Comme il nexiste pas de table, donc pas de critre prcis de sparation entre symtrie et asymtrie, on
utilisera plutt ce coefficient comme lment de comparaison entre deux distributions.
Cours Probabilits / Pierre DUSART 19

Le coefficient daplatissement (kurtosis)

Gnralement, on observe le coefficient daplatissement (kurtosis) en mme temps que celui dasymtrie.
Le coefficient daplatissement de Pearson 2 est la valeur obtenue par le calcul suivant :
4
2 = .
4
Un coefficient daplatissement lev indique que la distribution est plutt pointue en sa moyenne, et des
queues de distribution paisses.
Pour une variable alatoire suivant une loi normale centre rduite(loi vue par la suite), ce coefficient
daplatissement vaut 3. Cest pour cela que lon normalise la valeur pour mesurer lexcs daplatissement
pour obtenir le coefficient daplatissement de Fisher.
Le coefficient daplatissement de Fisher 2 est la valeur obtenue par le calcul suivant :
4
2 = 3.
4
4
Remarque : 2 = 22
3.

3.2.4 Ingalit de Bienaym-Chebyshev


Proposition 3.2.1 (Ingalit de Bienaym-Chebychev) Soit X une v.a. desprance mathmatique
et de variance 2 . Lingalit de Bienaym-Chebychev indique que pour tout nombre rel positif t, la
probabilit que X scarte de son esprance mathmatique dune grandeur suprieure t, a pour limite
suprieure 2 /t2 :
2
P (|X | t) 2
t

Preuve :
1. Dans le cas o X est discrte : On a 2 = i pi (xi )2 P
P
. En enlevant les termes, positifs, corres-
pondant aux xi pour lesquels |xi | < t, on obtient 2 |xi |t pi (xi )2 . Dans cette somme,
les xi vrifient tous |xi |2 t2 donc en remplaant 2 t2 |xi |t pi = t2 p (|X | t).
P

2. Dans le cas o X est continue :


Z + Z t Z +
2 = (x )2 f (x)dx (x )2 f (x)dx + (x )2 f (x)dx
+t

car pour tout x, (x )2 f (x) est positive ou nulle. Dans les intervalles considrs x 6 [ t, + t],
on a (x )2 t2 donc
Z t Z + 
2 t2 f (x)dx + f (x)dx = t2 (1 F ( + t) + F ( t)) = t2 P (|X | t)
+t
20 CHAPITRE 3. VARIABLES ALATOIRES

Remarque (Loi des grands nombres). Cette ingalit est importante car elle permet de dmontrer la loi
dite des "grands nombres". Elle stipule quil suffit dextraire un chantillon dun effectif suffisant dans
une population pour estimer lesprance mathmatique laide de la moyenne arithmtique, ou encore
pour estimer une probabilit laide dune frquence. On parle alors de convergence en probabilit.
Remarque 2 (Une expression plus gnrale de lingalit de Bienaym-Chebychev). La porte de lingalit
de Bienaym-Chebychev est bien plus large que celle couramment prsente dans les ouvrages. Elle peut
tre dfinie pour une fonction g(X) telle que
E(g(X)k )
P (g(X) t)
tk

La prsentation usuelle correspond k = 2 et g(X) = |X |.

3.2.5 Fonctions gnratrices


Fonction caractristique

La fonction caractristique dune variable alatoire X est dfinie sur R par


X (t) = E(eitX ),
2
eitxk pk et pour une
P
o i est lunit imaginaire (i
R = 1). Ainsi, pour une variable discrte, X (t) = k
variable continue, X (t) = eitx f (x)dx.
Proprits de la fonction caractristique :
1. X (t) est bien dfiniew pour tout t rel.
2. La relation suivante sert, par exemple, calculer la fonction caractristique dune variable centre
rduite, partir de la fonction caractristique de la variable de dpart : pour tous a, b rels,
aX+b (t) = X (at)eitb .

3. Il y a aussi une relation entre les moments et la fonction caractristique dune variable alatoire.
P k
Lorsque les moments existent et que la srie converge : X (t) = k=0 i k!k tk o k est le moment
dordre k. Cette relation sert parfois pour calculer la moyenne (premier moment) et la variance
dune variable alatoire. Plus explicitement, 1 = X (0), E(X) = i0X (0), E(X 2 ) = 00X (0) et
(k)
Var(X) = 00X (0) + 02 k k
X (0) ou encore X (0) = i E(X ).
4. Elle dtermine de faon unique la loi dune variable alatoire au sens o X = Y (galit de
fonctions) quivaut X et Y ont la mme loi.

1. Dans le cas discret, X (t) = k eitxk pk . Cest la somme dune srie absolument conver-
P
Preuve
R +
gente car |eitxk pk | = pk . Dans le cas continu, X (t) = eitx f (x)dx. Cest une intgrale dfinie
absolument convergente car |eitx f (x)| = f (x) dont lintgrale sur R est gale 1.
2. Utiliser les proprits de la fonction exponentielle et de lesprance.
3. On a X (0) = E(1) = 1. En supposant les bonnes conditions de convergence, on a
k k
!
X
itxn
XX (itxn )k X i X X i
X (t) = e pn = pn = pn xn tk =
k
(mk )tk
n n
k! k! n
k!
k=0 k=0 k=0

De mme dans le cas continu :


Z + "X
#
k
(it)k + k (it)k
Z
itX (itx) X X
E(e ) = f (x)dx = x f (x)dx = mk .
k! k! k!
k=0 k=0 k=0
Cours Probabilits / Pierre DUSART 21

Par identification avec le dveloppement de X (t) en srie de Taylor-Mac-Laurin, on a bien la


proprit propose.
4. (admis)

Dfinition 8 On appelle fonction gnratrice des moment de la v.a. X, si elle existe, la fonction :

MX (t) = E(etX ).
22 CHAPITRE 3. VARIABLES ALATOIRES
Chapitre 4
Lois discrtes usuelles

4.1 Loi uniforme discrte

Lensemble des valeurs possibles est {1, 2, 3, , n}, n tant un paramtre de la loi. Chaque valeur reoit
la mme probabilit 1/n (Uniformit). On obtient la loi de probabilit suivante :

xi 1 2 3 n
pi 1/n 1/n 1/n 1/n

Pour une v.a. X qui suit cette loi, on a :

n+1
E(X) =
2
V (X) = (n2 1)/12

En effet,
n n
X 1X 1 n(n + 1) n+1
E(X) = pi xi = k= =
i=1
n n 2 2
k=1

et

n  2
X 1X 2 n+1
V (X) = pi x2i (E(X))2 = k
i
n 2
k=1
1 n (n + 1)2
= (n + 1)(2n + 1)
n 6 4
4(n + 1)(2n + 1) 6(n + 1)(n + 1)
=
24
(n + 1)(8n + 4 6n 6) (n + 1)(n 1)
= =
24 12
n2 1
V (X) =
12
24 CHAPITRE 4. LOIS DISCRTES USUELLES

On peut galement dterminer sa fonction caractristique :


X 1
X (u) = eiuk
n
k
1 X iu k
= e
n
k
1 iu 1 eiun
= e (somme des premiers termes dune suite gomtrique)
n 1 eiu
Or

eiu 1 = eiu/2+iu/2 eiu/2iu/2 = eiu/2 eiu/2 eiu/2



| {z }
2i sin(u/2)
iun inu/2+inu/2 inu/2inu/2 inu/2
e 1 = e e =e 2i sin(nu/2)

Do
n+1
1 eiun/2 sin(nu/2) iu eiu 2 sin(nu/2)
X (u) = e =
n eiu/2 sin(u/2) n sin(u/2)

4.2 Loi de Bernoulli


Cest une des lois les plus simples. Elle prend que deux valeurs possibles Vrai/Faux, codes 1 et 0. On
note p la probabilit associe la valeur 1 (ce sera le paramtre de la loi). Evidemment la probabilit
associe la valeur 0 sera 1 p (parfois note q pour plus de lisibilit dans les formules). On notera cette
loi B(p).
P1
Caractristiques : E(X) = p, V (X) = pq, X (u) = k=0 P (X = k)eiuk = P (X = 0) + P (X = 1)eiu =
q + peiu .

4.3 Loi binomiale


Considrons une preuve alatoire qui ne conduit qu deux ventualits exclusives : lune succs (V ) et
lautre chec F . Lunivers associ cette preuve est donc = {V ; F }.
Soient p la probabilit de lvnement {V } et q la probabilit de lvnement {F } (on a q = 1 p).
Lexprience consistant rpter n fois cette preuve de faon indpendante, est appele suite
dpreuves de Bernoulli, ou schma de Bernoulli.
On sintresse au nombre X de succs obtenus au cours de cette suite dpreuves, la probabilit de
lvnement : " on obtient dans un ordre quelconque k succs et n k checs " est gal

P (X = k) = Cnk pk q nk avec k [0, .., n].

En effet, notons Ak lvnement "A se ralise exactement k fois durant les n expriences". Ak peut se
raliser de plusieurs manires chacune deux deux incompatibles, par exemple A peut se raliser durant
les k premires expriences alatoires et ne pas se raliser durant les nk dernires expriences alatoires.
Il y a Cnk faons de "placer " les k ralisations de A parmi les n expriences alatoires. La probabilit
dune de ces faons est gale pk (1 p)nk . Ce qui donne : P (Ak ) = Cnk pk q nk .
Cours Probabilits / Pierre DUSART 25

Dfinition 9 (Loi binomiale) On dit quune variable alatoire X, valeurs dans {0; 1; ...n}, suit une
loi binomiale si sa loi de probabilit est P (X = k) = Cnk pk q nk avec k {0, 1, 2, ..., n}, o n est un entier
naturel fix et o p est un rel de ]0; 1[. Les valeurs n et p sont les deux paramtres de cette loi, que lon
notera B(n, p)

Caractristiques :
Lesprance mathmatique dune variable alatoire suivant une loi B(n, p) est : E(X) = np
La variance mathmatique dune variable alatoire suivant une loi B(n, p) est : V (X) = npq = np(1p)
iu n
P est X (u) = (q + pe ) .
Sa fonction caractristique
Exercices : Retrouver que k P (X = k) = 1, E(X) et V (X) par calcul direct et en utilisant la fonction
caractristique.

Thorme 4.3.1 (Stabilit de la loi binomiale) Si Xn et Xm sont deux variables indpendantes sui-
vant des lois binomiales respectivement Xn , B(n, p) et Xm , B(m, p) alors Xn + Xm , B(n + m, p).

Exemple : On dispose dune urne avec 1 boule blanche et 9 noires. On effectue 20 tirages avec remise. Soit
X le nombre de sortie de la boule blanche lissue des 20 tirages.La variable alatoire X suit B(n, p).

4.4 Loi hypergomtrique


Considrons une population deffectif N dont on sait quun pourcentage p dlments possdent un ca-
ractre tudi C. On extrait au hasard un chantillon de n lments, tirage exhaustif de n lments
(cest--dire n tirages sans remise). Quelle est alors la probabilit quexactement k dentre eux possdent
le caractre C ?
Si m dsigne le nombre dlments possdant le caractre C, alors p = m/N et on peut reformuler le
problme en remplaant la connaissance de p par celle de m et considrer le problme en termes de tirages
alatoires de boules dans une urne : il sagit dun tirage simultan de n objets parmi N (quivalent n
tirages sans remise) et on sintresse la variable alatoire X gale au nombre k (k m) dapparitions
dlments ayant le caractre tudi sachant que leur effectif dans la population est m.
k
Loi de probabilit : Parmi les n objet tirs, k sont souhaits et n k ne le sont pas. Il y a Cm faons de
nk
constituer des lots de k objets parmi les m prsentant le caractre tudi et CN m faons de choisir les
n
autres. Le nombre de cas possibles est CN . Finalement, la loi de probabilit est fournie par la formule :

nk k nk
p CN (1p)
k CN
Cm CN m
P (X = k) = n = n ,
CN CN

avec 0 k [N p].
On note H(N, n, p) la loi hypergomtrique de paramtre N, n et p.
Caractristiques : On peut montrer que lesprance mathmatique de X , H(N, n, p) est E(X) = np
n
(comme dans le cas de la loi binomiale). Sa variance est V (X) = N
N 1 npq. Sa fonction caractristiques
est complique.
Convergence : On remarque que si n (la taille de lchantillon) est petit devant N , alors la variance est
sensiblement npq, cest--dire celle de la loi binomiale. Ce rsultat nest pas un hasard... :
La limite pour N infini de sorte que m/N tende vers une limite finie p de la loi H(N, n, p) est la loi
binomiale B(n, p).
26 CHAPITRE 4. LOIS DISCRTES USUELLES

4.5 Loi gomtrique


La loi gomtrique est la loi du nombre dessais ncessaires pour faire apparatre un vnement de pro-
babilit p.
On dit quune variable alatoire X suit la loi gomtrique de paramtre p, ce que lon note X , G(p) si :
1. X() = N
2. P (X = k) = q k1 p o q = 1 p.
Caractristiques :
1 q peiu
E(X) = V (X) = X (u) =
p p2 1 qeiu

Loi de Pascal dordre r : Cest la loi du nombre dessais ncessaires pour observer exactement r fois un
vnement de probabilit p. Cette loi est la somme de r lois gomtriques indpendantes.
On dit quune variable alatoire X suit la loi de Pascal de paramtres r et p, ce que lon note X , P(r, p)
si :
1. X() = {r, r + 1, }
r1 r kr
2. P (X = k) = Ck1 p q o q = 1 p.
Caractristiques : X admet alors une esprance et une variance :

r r(1 p)
E(X) = V (X) = .
p p2

4.6 Loi de Poisson


Soit > 0. On dit quune variable alatoire X suit la loi de Poisson de paramtre , ce que lon note
X , P() si :
1. X() = N
k
2. P (X = k) = e k! .
La loi de Poisson est la loi des vnements rares (de petite probabilit).
Caractristiques :
E(X) = V (X) = .
(cos u+i sin u1)
X (u) = e .

Remarque : la loi de Poisson a t introduite en 1838 par Simon-Denis Poisson (1781-1840), qui lui a
donn son nom. Aucun rapport avec la loi de Fisher.
Exemple : [Le clbre exemple de Von Bortkiewicz]
Von Bortkiewicz a tudi le nombre de morts par ruade de cheval dans larme prussienne de 1875 1894
dans 200 corps de cavalerie : pendant 20 ans, il a tudi 10 corps de cavalerie par an

Nombre de morts par an 0 1 2 3 4


Nombre de corps de cavalerie 109 65 22 3 1

Calculer la moyenne du nombre de morts par an. Comparer la distribution relle la distribution
rsultant de lapplication de la loi de Poisson de paramtre .
Exercices : retrouver E(X), V (X), X (u).
(Solutions sur http://fr.wikipedia.org/wiki/Loi_de_Poisson)
Cours Probabilits / Pierre DUSART 27

4.7 Approximation de B par P


Lorsque n devient grand, le calcul des probabilits dune loi binomiale devient trs fastidieux. On va
donc, sous certaines conditions, trouver une approximation de P (X = k) plus manipulable. On constate
le comportement asymptotique : si n et p 0, alors X : B(n, p) P() avec np = .
Remarque : cette approximation est correcte ds que n > 30 et np < 5 ou ds que n > 50 et p < 0, 1.
k
Preuve : Montrons que P (X = k) = Cnk pk q nk tend vers e k! avec = np. Comme = np, on a p =
n
et q = 1 n que lon remplace dans la dfinition de la probabilit binomiale :
 k  nk
n!
P (X = k) = 1 .
k!(n k)! n n

nk n k n 1
   
Or 1 n = 1 n 1 n = 1 n qk
, do
n n
n(n 1) (n k + 1) k 1 n(n 1) (n k + 1) k 1
 

P (X = k) = 1 = 1
k! nk q k n nk q k k! n

Si n est assez grand (n 50 et p proche de 0 donc q proche de 1, on peut faire les approximations
suivantes :
1. n(n1)(nk+1) = 1 1 n1 1 k1
 
nk n 1
k
2. k
qk
n
3. 1 n e
k
Ainsi P (X = k) e k! .
28 CHAPITRE 4. LOIS DISCRTES USUELLES
Chapitre 5
Couple de variables alatoires

5.1 Couple de v.a. discrtes

5.1.1 Loi dun couple de variables alatoires discrtes


Soient X et Y deux variables alatoires discrtes dfinies sur le mme espace probabilis (, A, P ). On
notera X() = {xi , i I} et Y () = {yj , j J}, lensemble des valeurs, ordonnes, prises respectivement
par X et Y (o I et J sont des ensembles dentiers).
On appelle couple (X, Y ) lapplication
(X, Y ) : R2
7 (X(), Y ()).
Alors, lensemble (X, Y )() des valeurs prises par le couple (X, Y ) est inclus dans lensemble des couples
de rels suivants {(xi , yj ), (i, j) I J}.

Dfinition 10 On appelle loi conjointe ou loi du couple (X, Y ), lensemble des couples
{((xi , yj ), pij ), (i, j) I J}
o pij = P ((X = xi ) (Y = yj )) = P ((X, Y )1 ({(xi , yj )})). On pourra reprsenter cette loi par un
tableau double entre.

Proposition 5.1.1 {(xi , yj ), pij ), (i, j) I X


J} est la loi dun couple de variables discrtes si et seule-
ment si pij 0 pour tout (i, j) I J et pij = 1.
(i,j)IJ

!
X X X X X X
Remarque : Dans ce contexte, pij = pij = pij = pij . On peut commen-
(i,j)IJ iI iI jJ jJ iI
jJ
cer par sommer sur les indices i puis les indices j ou inversement.

5.1.2 Lois marginales


Les variables X et Y sont appeles variables marginales du couple (X, Y ) et leur loi, appele loi marginale
de X (resp. de Y ) peut tre obtenue de la faon suivante :
30 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Supposons connue la loi du couple (X, Y ) : {((xi , yj ), pij ), (i, j) I J}. On cherche maintenant
connatre la loi de X i.e. lensemble des couples {(xi , P (X = xi )), i I}. Or la famille des vnements
{(Y = yj ), j J} forme un systme complet dvnements, donc daprs la formule des probabilits
totales applique ce systme complet dvnements, on obtient :
X X
pi := P (X = xi ) = P ((X = xi ) (Y = yj )) = pij .
jJ jJ

De mme, la loi de Y sobtient laide de la formule des probabilits totales applique au systme complet
dvnements {(X = xi ), i I} :
X X
pj := P (Y = yj ) = P ((X = xi ) (Y = yj )) = pij .
iI iI

5.1.3 Lois conditionnelles


On dfinit les lois conditionnelles par
pij
P (X = xi /Y = yj ) = PX|Y =yj (xi ) =
pj
et
pij
P (Y = yj /X = xi ) = PY |X=xi (yj ) =
pi

5.1.4 Esprance, Variance


Sous rserve dexistence (dans le cas infini dnombrable), on a alors dans le cas discret
X X
E(X) = P (X = xi ) xi = pi xi
i i
X X
2
V (X) = (X) = P (X = xi )(xi E(X))2 = pi x2i (E(X))2 , ...
i i

et de faon plus gnrale, nous pouvons dfinir la notion desprance mathmatique dune fonction g(X, Y )
du couple : XX
E(g(X, Y )) = pij g(xi , yj ) dans le cas discret,
i j
Ainsi par exemple
E(XY ) =
E(X 2 ) =

5.1.5 Fonction de rpartition


Dfinition 11 Soit (X, Y ) un couple de variables alatoires. On appelle fonction de rpartition
conjointe de (X, Y ) la fonction F : R2 R dfinie par
F (x, y) = P (X < x et Y < y).

Dans le cas de deux variables discrtes,


X
F (x, y) = pij .
{i / xi <x}
{j / yj <y}

Proprits :
Cours Probabilits / Pierre DUSART 31

1. P (X = xi et Y < yj ) = F (xi+1 , yj ) F (xi , yj ).


2. Les fonctions de rpartition FX et FY des lois marginales vrifient FX (x) = limy F (x, y) et
FY (y) = limx F (x, y).
Preuve :
1. On dcoupe en une runion disjointe (X, Y )1 (] , xi+1 [] , yj [) = (X, Y )1 (] , xi []
, yj [) (X, Y )1 ({xi }] , yj [).
2. X 1 (] , x[) = nN (X, Y )1 (] , x]] , n[).

5.1.6 Indpendance
Dfinition 12 Les v.a. X et Y sont indpendantes si pour tous i, j, les vnements {X = xi } et {Y = yj }
sont indpendants, cest--dire pij = pi pj ou encore P ((X, Y )1 ({xi } {yj })) = P (X 1 ({xi }))
P (Y 1 ({yj })).

Thorme 5.1.2 X et Y sont indpendantes si et seulement si pour tous x et y rels,

F (x, y) = FX (x) FY (y),

cest--dire si les vnement {X < x} et {Y < y} sont indpendants.

Preuve : Supposons X et Y indpendantes. Alors


X X X
F (x, y) = pi pj = pi pj
{i / xi <x} {i / xi <x} {j / yj <y}
{j / yj <y}
X X X X
= pi pj = pi FY (y) = FY (y) pi
{i / xi <x} {j / yj <y} {i / xi <x} {i / xi <x}

F (x, y) = FX (x)FY (y).

Rciproquement, si pour tous x, y, F (x, y) = FX (x)FY (y) alors, en remarquant que

X = xi et Y < yj+1 (X, Y ) = (xi , yj ) ou X = xi et Y < yj ,

F (xi+1 , yj+1 ) F (xi , yj+1 ) = P (X = xi et Y < yj+1 ) = pij + P (X = xi et Y < yj )


= pij + F (xi+1 , yj ) F (xi , yj ).

En appliquant lhypothse de dpart, on a F (xi+1 , yj+1 ) = FX (xi+1 )FY (yj+1 ), F (xi , yj+1 ) = FX (xi )FY (yj+1 ),
F (xi+1 , yj ) = FX (xi+1 )FY (yj ) et F (xi , yj ) = FX (xi )FY (yj ) do

pij = (FX (xi+1 ) FX (xi )) (FY (yj+1 ) FY (yj )) = pi pj .

Thorme 5.1.3 X et Y sont indpendantes si et seulement si pour tout couple dintervalles rels [a, a0 [
et [b, b0 [, on a
P (X [a, a0 [ et Y [b, b0 [) = P (X [a, a0 [) P (Y [b, b0 [).
(indpendance des vnements X [a, a0 [ et Y [b, b0 [)

Preuve : Si X et Y sont indpendantes,


X X X
pij = pi pj .
{i / axi <a0 } {i / axi <a0 } {j / byj <b0 }
{j / byj <b0 }
32 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Rciproquement, on particularise le couple (a, a0 ) et (b, b0 ) en (xi , xi+1 ) et (yj , yj+1 ) respectivement.

pij = P (xi X < xi+1 et yj Y < yj+1 ) = P (xi X < xi+1 )P (yj Y < yj+1 )
= P (X = xi )P (Y = yj ) = pi pj .

Proposition 5.1.4 Les v.a. X et Y sont indpendantes si et seulement si toutes les lois conditionnelles
sont identiques aux lois marginales.

Preuve : X, Y indpendantes alors pij = pi pj do


pij pi pj
P (Y = yj /X = xi ) = = = pj = P (Y = yj ).
pi pi
(mme chose pour X)
Rciproquement, on suppose que pour tous i, j, P (Y = yj /X = xi ) = P (Y = yj ).

P (X = xi et Y = yj ) = P (X = xi /Y = yj )P (X = xi ) = P (Y = yj )P (X = xi ).

5.1.7 Covariance et Corrlation


Dfinition 13 Soient X et Y deux variables alatoires. On appelle covariance de X et de Y , lexpres-
sion
Cov(X, Y ) = E [(X E(X)) (Y E(Y ))] .
En particulier, pour une variable discrte,
XX
Cov(X, Y ) = pij (xi E(X))(yj E(Y )).
i j

Proprits :
P P
1. Cov(X, Y ) = E(XY ) E(X)E(Y ) = i j pij xi yj E(X) E(Y ).
2. Pour tout rel, V (X + Y ) = V (X) + 2Cov(X, Y ) + 2 V (Y ).
3. Si X et Y sont indpendantes alors E(XY ) = E(X)E(Y ), Cov(X, Y ) = 0 et V (X + Y ) = V (X) +
V (Y ).
Preuve :
1. Voir thorme de Knig
2. Par dfinition de la variance

V (X + Y ) = E([X + Y E(X + Y )]2 ) = E([X E(X) + (Y E(Y ))]2 )


= E([X E(X)]2 + 2[X E(X)][Y E(Y )] + 2 [Y E(Y )]2 )
= E([X E(X)]2 ) + 2E([X E(X)][Y E(Y )]) + 2 E([Y E(Y )]2 )
= V (X) + 2Cov(X, Y ) + 2 V (Y )
XX (ind) X X X X
3. E(XY ) = pij xi yj = pi pj xi yj = pi xi pj yj = E(X)E(Y ).
i j i j i j
La rciproque est ....

Dfinition 14 Soient X et Y deux variables alatoires. On appelle coefficient de corrlation linaire


entre X et de Y , la quantit
Cov(X, Y )
r(X, Y ) = .
(X)(Y )
Cours Probabilits / Pierre DUSART 33

Proprits :
1. r(X, Y ) [1, 1].
2. Pour tous rels a, b, c, d (a, c 6= 0), r(aX + b, cY + d) = r(X, Y ).
3. Si X et Y sont indpendantes alors r(X, Y ) = 0.
Preuve de (1) : V (X + Y ) 0 quel que soit . Cela implique que le polynme en , 2 V (Y ) +
2Cov(X, Y )+V (X) a un dterminant 0 = Cov(X, Y )2 V (X)V (Y ) ngatif ou nul. Ainsi Cov(X, Y )2
)2
V (X)V (Y ) et r(X, Y ) = Cov(X,Y
V (X)V (Y ) 1.

5.2 Couple de v.a. continues


Soient X et Y deux variables alatoires dfinies sur le mme espace probabilis (, P ). La loi de couple
sera dfinie partir de sa fonction de rpartition :

F (x, y) = P (X, Y )1 (] , x[] , y[) = P (X < x et Y < y).




Proprits :
1. F est totalement croissante au sens large, cest--dire que les fonctions partielles F (x, ) et F (, y)
sont croissantes pour tous x et y rels.
2. F (x, ) et F (, y) sont continues gauche
3. lim F (x, y) = lim F (x, y) = 0, lim F (n, n) = 1
x y n+
Preuve :
1. Soit y1 > y0 , Alors lensemble ] , x[] , y1 [ se dcompose en (] , x[] , y0 [)
(] , x[[y0 , y1 [). Ainsi F (x, y1 ) F (x, y0 ) = P ( (X, Y )1 (] , x[[y0 , y1 [)) 0.
2. On considre lensemble ] , x[] , y0 [ qui correspond la runion croissante des ensembles
] , x[] , y0 1/n[. On en dduit que F (x, y0 ) = limn F (x, y0 1/n) = limyy F (x, y)
0
puisque F (x, ) est croissante.
3. Lintersection dcroissante des ensembles ] , n[] , y[ est vide et la runion croissante des
] , n[] , n[ est R2 tout entier.
La probabilit pourra tre calcule sur tout type dintervalle partir de la fonction de rpartition :

P (X [a, a0 [ et Y < y) = F (a0 , y) F (a, y)


P (X [a, a0 [ et Y [b, b0 [) = F (a0 , b0 ) F (a, b0 ) + F (a, b) F (a0 , b)

Preuve : Il suffit de dcomposer en ensembles disjoints :

] , a0 [] , y[= (] , a[] , y[) ([a, a0 [] , y[)


[a, a0 [] , b0 [= [a, a0 [] , b[[a, a0 [[b, b0 [

5.2.1 Fonction densit de probabilit


Dfinition 15 Soient X et Y deux variables alatoires dfinies sur le mme espace probabilis (, P ).
2
La loi du couple (X, Y ) est dite absolument
R x R ycontinue sil existe une fonction positive f de R dans R, telle
que pour tous x et y rels, F (x, y) = f (u, v) du dv. La fonction f est dite densit de probabilit
du couple (X, Y ).
34 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Proprits :
de P(2 ), alors P ( (X, Y ) A) =
RR
1. Pour tout A lment
RR A
f (u, v) du dv.
En particulier, R2 f (u, v) du dv = 1.
2F
2. En tout point o f est continue, f (x0 , y0 ) = xy (x0 , y0 ).
3. X et Y sont aussi absolument continues, et leurs densits de probabilits respectives sont
Z Z
fX (x) = f (x, y)dy fY (y) = f (x, y)dx.
R R

Calcul de lesprance et de la variance :


ZZ ZZ
E(X) = x f (x, y) dx dy E(Y ) = y f (x, y) dx dy
R2 Z Z R2
E(g(X, Y )) = g(x, y) f (x, y) dx dy E(XY ) =
ZZ R2 ZZ
V (X) = (x E(X))2 f (x, y) dx dy V (Y ) = (y E(Y ))2 f (x, y) dx dy
R2 R2

Lorsque les quantits sont dfinies, on pose, comme dans le cas discret,

Cov(X, Y )
Cov(X, Y ) = E(XY ) E(X)E(Y ) et r(X, Y ) = .
(X)(Y )

5.2.2 Lois marginales et lois conditionnelles


3 Si lon sintresse un vnement sur X quelle que soit la valeur prise par Y , on obtient la loi de la
v.a. X qui, dans le contexte dun couple de v.a., est appele (comme auparavant) loi marginale. Comme
pour le couple (X, Y ), les lois marginales de X et Y sont connues par leur fonction de rpartition :

FX (x) = P (X < x) = P (X < x, Y R) = lim F (x, y).


y+

De mme,
FY (y) = P (Y < y) = P (X R, Y < y) = lim F (x, y).
x+

3 Soit (X, Y ) un couple alatoire absolument continu, de densit de probabilit f . Soit fX la densit de
probabilit de X et un rel x tel que fX (x) 6= 0. La loi conditionnnelle de Y lie par la condition X = x
est dfinie par sa densit de probabilit fx (y) = ffX
(x,y)
(x) .

5.2.3 Indpendance
Dfinition 16 Les variables X et Y sont indpendantes si et seulement si la fonction de rpartition du
couple est gale au produit des fonctions de rpartitions des lois marginales : F (x, y) = FX (x)FY (y) pour
tous x et y rels.

Proposition 5.2.1 Les variables X et Y sont indpendantes si et seulement si pour tous x et y rels,
f (x, y) = fX (x)fY (y). Dans ce cas, Cov(X, Y ) = 0.

Preuve Si X et Y sont indpendantes, alors en drivant F (x, y) = FX (x)FY (y) par rapport x puis par
2F
rapport y, on obtient F
x (x, y) = fX (x)FY (y) puis xy (x, y) = fX (x)fY (y) et on utilise la proprit 2 :
2F
xy (x, y) = f (x, y).
Cours Probabilits / Pierre DUSART 35

Rciproquement, si f (u, v) = fX (u) fY (v), alors


Z x Z y Z x Z y 
F (x, y) = f (u, v) du dv = fX (u) fY (v) dv du = FX (x)FY (y).

RR
De plus, si f (x, y) = fX (x) fY (y), E(XY ) = R2
xy fX (x)fY (y) dx dy = E(X)E(Y ) et ainsi

Cov(X, Y ) = 0.

Proposition 5.2.2 Les variables X et Y sont indpendantes si et seulement si pour tous couples din-
tervalles rels ([a, a0 [, [b, b0 [), on a

P (X, Y )1 ([a, a0 [[b, b0 [) = P X 1 ([a, a0 [) P Y 1 ([b, b0 [) .


  

Preuve Si X et Y sont indpendantes, alors

P (X, Y )1 ([a, a0 [[b, b0 [) = F (a, b) + F (a0 , b0 ) F (a, b0 ) F (a0 , b)




= FX (a)FY (b) + FX (a0 )FY (b0 ) FX (a)FY (b0 ) FX (a0 )FY (b)
= (FX (a0 ) FX (a))(FY (b0 ) FY (b))
= P X 1 ([a, a0 [) P Y 1 ([b, b0 [)
 

Rciproquement, comme ] , a0 [] , b0 [ est la runion croissante des [n, a0 [[n, b0 [, en posant


a = b = n, a0 = x et b0 = y dans

P (X, Y )1 ([a, a0 [[b, b0 [) = P X 1 ([a, a0 [) P Y 1 ([b, b0 [) ,


  

(X, Y )1 ([n, x[[n, y[) = lim P X 1 ([n, x[) P Y 1 ([n, y[) =


  
On a F (x, y) = lim P
n n
lim (FX (x) FX (n))(FY (y) FY (n)) = FX (x) FY (y).
n

Proposition 5.2.3 Les variables X et Y sont indpendantes si et seulement si les lois conditionnelles
sont identiques aux lois marginales (En particulier, Fx (y) ne dpendra pas de x).

5.3 Somme et Produit

5.3.1 Somme
On considre la variable alatoire Z = X + Y . On peut calculer E(Z) et V (Z) :

E(X + Y ) = E(X) + E(Y ) (vraie si X et Y sont indpendantes ou non)


V (X + Y ) = V (X) + V (Y ) si X et Y indpendantes
et V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ) sinon

Si X et Y sont deux variables alatoires indpendantes, X+Y = X Y . Plus gnralement, si X1 , . . . , Xn


sont des variables alatoires indpendantes dans leur ensemble, alors .

X1 ++Xn = X1 Xn .

Remarque (admis) : En appliquant alors la transforme de Fourier X+Y cela permet de retrouver la
loi de X + Y .
36 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES

Calcul de la fonction densit de Z = X + Y .


On suppose que X et Y sont indpendantes et absolument continues, de densits respectives fX et fY .
Alors la fonction de rpartition F de Z = X + Y est dfinie par :
R + R 
zx
F (z) = P (X + Y < z) = fX (x) fY (y)dy dx
R + R +
= fX (x)FY (z x) dx = fY (y)FX (z y) dy (par symtrie)

Par drivation (thorme admis) par rapport z, la densit de probabilit de Z est dfinie par
Z + Z +
f (z) = fX (x)fY (z x) dx = FY (y)FX (z y) dy.

f est le produit de convolution de fX et fY , not fX fY .

5.3.2 Produit
Lesprance du produit de deux variables alatoires est donn par la formule E(XY ) = E(X) E(Y ) +
Cov(X, Y ), Cov() est la covariance entre les variables. En particulier, lorsque X et Y sont indpendantes,
E(XY ) = E(X) E(Y ).

5.3.3 Fonction de variable alatoire


Soit une fonction drivable de R dans R. En posant Y = X, on obtient une nouvelle variable
alatoire, note (X), que lon tudiera laide de sa fonction de rpartition.
Exemple : Soit X exprimant la consommation en litres aux 100 kilomtres dune voiture. Aux Etats-Unis,
on sintresse plus la notion de distance parcourue avec un plein, que lon retranscrit sous la forme Z
est le nombre de miles parcourus avec un gallon dessence (Plus prcisment Z = 235/X).

1. Cas o est monotone croissante


Soit F la fonction de rpartition de X. La fonction de rpartition G de Y est dfinie, pour y rel,
par : G(y) = P (Y < y) = P (X < 1 (y)) = F (1 (y)), soit encore F (x) = G((x)). Si X est
absolument continue, Y aussi et leurs densits de probabilit respectives, f et g sont lies par :
f (x) = g((x))0 (x) ou g(y) = f (x)/0 (x) = f (1 (y))/0 (1 (y)).
Exemple : Y = eX a pour densit de probabilit g(y) = f (x)ex = f (ln y)/y.
2. Cas o est dcroissante
Alors X > x quivaut Y < (x), donc G(y) = 1 F (1 (y)), que lon peut crire F (x) =
1 G((x)). Dans le cas absolument continu, g(y) = f (x)/0 (x) = f (1 (y))/0 (1 (y)).
Exemple : Y = c/X o c > 0 et X est valeurs dans ]0, +[. G(y) = P (Y < y) = P ( Xc < y) =
P (X > yc ) = 1 F ( yc ) pour y > 0 et G(y) = 0 pour y 0.
3. Cas quelconque
On rsout alors au cas par cas linquation Y < y afin de trouver la fonction de rpartition de Y .
Exemple pour Y = X 2 :
pour y < 0, Y < y est impossible ainsi G(Y ) = 0.

pour y 0, Y < y correspond y < X < y alors G(Y ) = F ( y) F ( y). Dans le cas
1 +
o X est absolument continu, g(y) = 2 y (f ( y) + f ( y)) sur R .
P R
Calcul de lesprance : E(Y ) = i pi (xi ) dans le cas discret et E(Y ) = R
(x)f (x) dx dans le cas
continu.
Calcul de la variance : V (Y ) = dans le cas discret et V (Y ) = dans
le cas continu.
Chapitre 6
Lois continues usuelles

6.1 Loi continue uniforme


La variable alatoire U est distribue uniformment sur lintervalle [a, b] si sa densit de probabilit est
constante sur cet intervalle : 
1/(b a) si x [a, b]
f (x) =
0 sinon
On dit que U suit la loi uniforme et on note U , U(a, b). Par consquent, sa fonction de rpartition est
donne par :
0 si x a
F (x) = (x a)/(b a) si x [a, b]
1 si x > b

a+b (b a)2 eibt eiat sin( ba t)


E(X) = , V (X) = , X (t) = = eit(a+b)/2 ba2
2 12 it(b a) 2 t

Exercice : calcul de 1 et 2 .

6.2 Loi exponentielle


On souhaite modliser lintervalle de temps sparant deux occurrences successives dun processus de
Poisson. Ainsi la probabilit quil ny ait aucune occurrence dans un intervalle de temps de longueur t est
gale p0 (t) = et (absence de mmoire de la loi exponentielle) o > 0 constituera le paramtre de
la loi. Cette loi permet entre autres de modliser la dure de vie de la radioactivit ou dun composant
lectronique.
La fonction de rpartition de la loi exponentielle E() est
1 ex si x 0

F (x) =
0 si x < 0
et sa fonction de densit
ex

si x 0
f (x) =
0 si x < 0

Caractristiques : E(X) = 1/, V (X) = 1/2 , X (t) = 1/(1 it/).


38 CHAPITRE 6. LOIS CONTINUES USUELLES

6.3 Loi normale

6.3.1 Rappel : calcul de lintgrale de Gauss

Soient
Z + ZZ
x2 2
+y 2 )
G= e dx et H= e(x dx dy.
0 R+ R+

Compte tenu de ce que les variables x et y se sparent, le thorme de Fubini donne :


ZZ Z +  Z + 
2 2 2 2
H= ex ey dx dy = ex dx ey dy = G2 .
R+ R+ 0 0

On passe en coordonnes polaires en posant x = r cos et y = r sin ; les variables r et se sparent elles
aussi :
ZZ Z +  Z !
r 2 r 2
2 1
H= e r dr d = e r dr d =

R+ [0, 2 [ 0 0 2 2
R + 2 R +
car 0 er r dr = 12 0 eu du = 21 (par le changement de variable r = u). On en dduit : G2 =
4,
R + 2
do G = 12 puisque G 0, et enfin : ex dx = 2G = par parit.

6.3.2 Gaussienne

On appelle loi normale (ou gaussienne) centre rduite la loi dfinie par la densit de probabilit :
R R+ dfinie par :
1 t2
(t) = e 2 .
2
R + 2
On peut vrifier quelle est continue et que son intgrale sur R est gale 1 : On sait que
ex dx =
R
(intgrale de Gauss) et en posant x = t/ 2, on trouve que R (t) dt = 1.
Remarques :
1. la densit est une fonction paire ;
2. elle est indfiniment drivable et vrifie, pour tout t R, lidentit 0 (t) = t(t).
La reprsentation graphique de cette densit est une courbe en cloche (ou courbe de Gauss).
On dmontre par la suite que la loi dfinie par cette densit de probabilit admet une esprance nulle
2
et une variance gale 1. Sa fonction caractristique vaut X (u) = eu /2 ( ne pas confondre avec la
fonction densit). Le calcul se fait de la faon suivante :

+ 2
et
Z
X (u) = eitu dt.
2
2
Or t2 + iut = 21 (t2 2iut) = 12 (t2 2iut + (iut)2 (iut)2 ) = 21 (t iu)2 + u2 . On pose


x = t iu, ainsi

+ 2 +
eu /2
Z Z
1 2
/2u2 /2 2 2
X (u) = ex dx = ex /2
dx = eu /2
.
2 2
Cours Probabilits / Pierre DUSART 39

6.3.3 Moments
Les moments de cette loi existent tous. Pour tout r N, le moment dordre r par rapport lorigine est :
Z +
mr = tn (t) dt.

En raison de la parit de lintgrande, tous les moments dordre impair sont nuls :

m2k+1 = 0.

Supposons prsent r pair : r = 2k , o k N. Si k 1, une intgration par parties donne :


Z + Z + Z +
m2k = t2k1 t(t)dt = t2k1 0 (t)dt = (2k 1) t2k2 (t)dt

ce qui fournit la relation de rcurrence :

m2k = (2k 1)m2k2 .

De cette relation, on dduit, comme m0 = 1, que :

(2k)!
m2k = 1 3 (2k 1) = .
2k k!
En particulier, m1 = 0 et m2 = 1, ainsi lesprance est nulle (la loi est donc dite centre) et la variance
vaut m2 m21 = 1 (la loi est donc dite rduite). Ceci justifie lappellation de loi normale centre rduite.
Pour la suite on supposera = 0 et 2 = 1.
Des formules prcdentes, on dduit encore : m3 = 0 et m4 = 3.
La loi tant rduite, les moments centrs sont tous gaux aux moments par rapport lorigine de mme
rang ; en particulier : 2 = 2 = 1, 3 = 0 et 4 = 3 4 . On en dduit lasymtrie (skewness) : 1 = 33 = 0
et laplatissement (kurtosis) : 2 = 44 = 3.

6.3.4 Fonction de rpartition


On note la fonction de rpartition de la loi normale centre rduite. Elle est dfinie, pour tout rel x,
par : Z x Z x
1 t2
(x) = (t)dt = e 2 dt.
2

est la primitive de qui tend vers 0 en ; cette primitive ne sexprime pas laide des
fonctions usuelles (exponentielle, etc.) mais devient elle-mme une fonction usuelle, importante, pour
quiconque pratique le calcul des probabilits ou les statistiques. Les valeurs de cette fonction peuvent
donc se trouver sous la forme dune table ou directement dans des logiciels de calcul statistique.
Proprits de :
1. Elle est indfiniment drivable, et 0 =
2. Elle est strictement croissante, tend vers 0 en et vers 1 en +. (cest donc une bijection
R ]0, 1[ : pour tout p ]0, 1[, il existe un unique x R, not 1 (p), tel que (x) = p)
3. Pour tout x R, (x) = 1 (x) (ceci rsulte de la parit de la fonction densit) ; en particulier,
(0) = 0, 5. La table de valeurs sera donc tablie pour les valeurs x positives.
40 CHAPITRE 6. LOIS CONTINUES USUELLES

6.3.5 Loi Normale ou de Laplace-Gauss

Plus gnralement, on dit quune variable alatoire relle X suit une loi normale (ou loi normale gaus-
sienne, loi de Laplace-Gauss) desprance et dcart type strictement positif si cette variable alatoire
relle X admet pour densit de probabilit la fonction suivante dfinie, pour tout nombre rel x, par :

1 1 x 2
d(x) = e 2 ( ) .
2

Une telle variable alatoire est appele variable gaussienne. On notera X , N (, ). On aura alors
2 u2
E(X) = , V (X) = 2 et X (u) = eiu 2 .
On pourrait tudier cette loi prcisment mais on se ramne au cas prcdent (loi normale centre rduite)
en considrant le thorme suivant :

X
Thorme 6.3.1 Si X suit N (, ), alors Z = suit N (0, 1).

Ainsi une seule loi sera tabule (celle de la loi normale centre rduite), les autres pourront tre dduites.
Cette loi est une des plus importantes dans la thorie des probabilits.

6.3.6 Somme de deux variables gaussiennes

Thorme 6.3.2 Si X et Y sont deux variables indpendantes suivant des lois normales de moyennes
respectives 1 et 2 et de variances 12 et 22 alors X + Y suit un loi normale de moyenne = 1 + 2
et de variance 2 = 12 + 22 .

Ce thorme se gnralise bien sr toute somme finie de variables alatoires normales indpendantes.
Preuve : Il sagit de dterminer la loi de Z = X + Y . Calculons sa fonction caractristique :

Z (t) = X (t) Y (t)


(1 t)2 (2 t)2
= ei1 t 2 ei2 t 2
2 + 2 )t2
(1 2
= ei(1 +2 )t 2

p
On en dduit que Z suit N (1 + 2 , 12 + 22 ).
Cours Probabilits / Pierre DUSART 41

6.3.7 Somme de carrs de variables gaussiennes

Soient k variables alatoires indpendantes X1 , , Xk de mme loi normale centre et rduite, alors par
dfinition la variable X, telle que
k
X
X= Xi2
i=1

suit une loi du 2 k degrs de libert. La loi du 2 (prononcer khi-deux ) est une loi caractrise
par un paramtre dit degrs de libert valeur dans lensemble des entiers naturels (non nuls). Pour une
variable alatoire suivant une loi du 2 k degrs de libert, on notera la loi de 2 (k) la loi de X. Alors
la densit de note sera :
1
f (x) = k/2 xk/21 ex/2
2 (k/2)

pour tout x positif o (gamma) est la fonction


Z +
: z 7 tz1 et dt.
0

Lesprance mathmatique de X vaut k et sa variance vaut 2k.

6.3.8 Approximation de B par N

(Voir Chap convergences pour justification)


Pour n assez grand, la loi binomiale se comporte comme une loi normale gaussienne desprance np et
de variance npq. Plus prcisment, le thorme de Moivre-Laplace prcise que si est la fonction de
rpartition de la loi normale centre rduite et si Xn suit une loi binomiale de paramtres n et p, on a
alors, pour tout rel t :
 
Xn np
lim P t = (t).
n npq

Le thorme de Berry-Esseen fournit une majoration de lerreur commise quand on remplace P (Xn x)
par P (Yn x) o Yn suit une loi normale desprance np et de variance npq : lerreur commise est
C
infrieure npq o C < 0, 4784 (Korolev & Shevtsova (2010)).
En pratique, on remplace une loi binomiale par une loi normale pour n grand et p pas trop proche de 0
ni de 1 (par exemple pour n > 30, np > 5 et nq > 5 ou pour npq > 9)

6.3.9 Simulation

Pour simuler la loi normale, on peut utiliser la mthode de Box-Muller : Si U1 et U2 sont des variables
alatoires indpendantes qui suivent la loi uniforme sur ]0,1[, alors on dmontre assez aisment que les
variables alatoires :

T1 = 2 ln U1 cos(2U2 )
T2 = 2 ln U1 sin(2U2 )

suivent toutes deux la loi normale centre rduite (et sont indpendantes). On peut simuler toute loi
normale N (, ), en construisant la variable Y = + T1 .
42 CHAPITRE 6. LOIS CONTINUES USUELLES

6.4 Loi de Weibull


Cest une loi de probabilit continue applique aux dures de vie. Cest donc dans le contrle de fiabilit
que les entreprises ont tendance lutiliser, et plus prcisment lorsque le taux de dfaillance volue
comme une puissance du temps (ce qui est le cas le plus courant). Rappelons que lorsque ce taux est
constant, on utilise la loi exponentielle, forme particulire de celle de Weibull, et lorsque le taux augmente
proportionnellement au temps, cest la distribution de Rayleigh qui est employe.
La loi de Weibull repose sur deux paramtres positifs, lun de forme et lautre dchelle de temps. La
loi de Weibull trois paramtres prend en compte la "localisation", cest--dire un ventuel dcalage du
dpart de la courbe par rapport lorigine (soit gauche soit droite).
On prendra comme paramtre de forme, et tant celui de temps.
Le paramtre est habituellement suprieur 1 : le taux de dfaillance crot avec le temps. Sil est
infrieur, cest pendant le rodage que les risques de dfaillance sont levs et sil est gal 1, on retombe
sur la loi exponentielle.
Sa fonction de rpartition

1 ex

si x 0
F (x) =
0 si x < 0
et sa fonction de densit
x1 ex

si x > 0
f (x) =
0 si x 0

(1+2/)(1+1/)
Caractristiques : E(X) = (1 + 1/)/1/ , V (X) = 2/
o est la fonction Gamma
dEuler.

Proposition 6.4.1 Si X suit une loi exponentielle de paramtre alors X 1/ suit une loi de Weibull
W (, ).

6.5 Loi de Pareto


Lconomiste italien Vilfredo Pareto (1848-1923) observa au dbut du XXe sicle que 20% de la population
italienne possdait 80% de la richesse nationale do le nom de la loi 80-20 ou 20-80.
La loi de Pareto admet deux paramtres (c, ). Le premier paramtre (c > 0) tronque la distribution : le
domaine de dfinition de X suivant cette loi est alors restreint ]c, +[ (introduction de la contrainte
x > c). Le deuxime paramtre est le paramtre de forme > 0. Alors la distribution est caractrise
par :
 x k
P (X > x) =
c
avec x > c. La fonction de densit est alors
 c +1
f (x) =
c x
et la fonction de rpartition est  c 
F (x) = 1
x
c 2 k
Caractristiques : E(X) = 1 pour > 1, V (X) = (1)2 (2) c pour > 2, E(X k ) = c c pour
> k. Fonction caractristique : (ict) (, ict)
Cours Probabilits / Pierre DUSART 43

6.6 Loi de Gumbel


Cest une loi de modlisation de valeurs extrmes dont la fonction de rpartition est la suivante :
(x)/
F (x) = ee .

Sa fonction de densit est x


f (x) = exe
Caractristiques de la loi : E(X) = + (o = 0.5772156 est la constante dEuler ), V (X) =
2 2 /6, mode= . Fonction caractristique : X (t) = (1 it)eit
44 CHAPITRE 6. LOIS CONTINUES USUELLES
Chapitre 7
Convergences

7.1 Convergence en probabilit


Rappel : Ingalit de Bienaym-Chebyshev
Soit X une variable alatoire admettant une esprance E(X) et de variance finie 2 (lhypothse de
variance finie garantit lexistence de lesprance).
Lingalit de Bienaym-Tchebychev snonce de la faon suivante : pour tout rel strictement positif,
2
P (|X E(X)| ) .
2
Dfinition 17 (Convergence en probabilit) On considre une suite (Xn ) dune v.a. dfinie sur ,
X une autre v.a. dfinie sur .
On dit que la suite (Xn ) converge en probabilit vers une constante relle ` si
> 0, lim P (|Xn `| > ) = 0.
n

On dit que la suite (Xn ) converge en probabilit vers X si


> 0, lim P (|Xn X| > ) = 0.
n

Consquence : Pour que (Xn ) converge en probabilit vers X, il faut et il suffit que E(Xn X) 0 et
V (Xn X) 0 lorsque n (la dmonstration passe par lingalit de Bienaym-Chebychev).

7.1.1 Exemple de la loi binomiale


On ralise n expriences indpendantes et on suppose que lors de chacune de ces expriences, la probabilit
dun vnement appel succs est p. Soit Sn le nombre de succs obtenus lors de ces n expriences. La
variance alatoire Sn , somme de n variables de Bernoulli indpendantes, de mme paramtre p, suit une
loi binomiale : Sn , B(n, p).
On sintresse alors la variable alatoire Snn , proportion de succs sur n expriences, a donc pur esprance
E( Snn ) = p et pour variance V ( Snn ) = n12 V (Sn ) = p(1p)
n . Comme p(1 p) atteint son maximum lorsque
p = 1/2, on a ainsi p(1 p) 1/4. En appliquant lingalit de Bienaym-Chebyshev, il vient
p(1 p) 1
P (|Sn /n p| ) .
n2 4n2
46 CHAPITRE 7. CONVERGENCES

1
Ainsi pour tout > 0, il existe > 0 (plus prcisment > 4n 2 ) tel que P (|Sn /n p| ) < ou
Sn
encore limn P (|Sn /n p| ) = 0. La variable alatoire n converge en probabilit vers p.

7.1.2 Convergence en probabilit


Thorme 7.1.1 Soit (Xn ) une suite de varaiables alatoires sur le mme espace probabilis (, P )
admettant des esprances et des variances vrifiant

lim E(Xn ) = ` et lim V (Xn ) = 0,


n n

alors les (Xn ) convergent en probabilit vers `.

Preuve Soit > 0. Posons E(Xn ) = ` + un avec lim un = 0. Alors il existe N N tel que :

n N |un | < /2

et donc partir du rang N ,

|Xn E(Xn )| < /2 |Xn `| < , (7.1)

car |Xn `| = |Xn E(Xn ) + E(Xn ) `| |Xn E(Xn )| + |E(Xn ) `|.


Limplication (7.1) peut tre encore crite sous la forme

|Xn `| |Xn E(Xn )| /2.

Par consquent, en utilisant lingalit de Bienaym-Chebyshev,

V (Xn )
P (|Xn `| ) P (|Xn E(Xn )| /2) ,
(/2)2

qui tend vers 0 quand n tend vers linfini.

7.1.3 Loi faible des grands nombres


Thorme 7.1.2 Soit (Xn ) une suite de variables alatoires indpendantes sur le mme espace
Pn probabi-
lis (, P ) ayant une mme esprance mathmatique ` et des variances vrifiant limn n12 i=1 i2 = 0.
On pose Sn = X1 + + Xn alors Snn converge en probabilit vers `.

Si on considre une suite de variables alatoires (Xn ) indpendantes dfinies sur un mme espace probabi-
lis, ayant mme esprance et mme variance finie notes respectivement E(X) et V (X). La loi faible des
grands nombres stipule que, pour tout rel strictement positif, la probabilit que la moyenne empirique
Sn Sn
n sloigne de lesprance dau moins , tend vers 0 quand n tend vers linfini. La moyenne n converge
en probabilit vers lesprance commune E(X).

7.2 Convergence en loi


Dfinition 18 Soient (Xn ) et X des variables alatoires sur un mm espace probabilit (, P ), de fonc-
L
tions de rpartition respectives Fn et F ; on dit que les (Xn ) convergent vers X en loi (et on note Xn X)
si en tout point x o F est continue, les Fn (x) convergent vers F (x).
Cours Probabilits / Pierre DUSART 47

Proprits : (admises)
1. La convergence en probabilit entrane la convergence en loi.
2. Si les (Xn ) et X sont des variables alatoires discrtes, alors Xn converge en loi vers X si et
seulement si
x R, lim P (Xn = x) = P (X = x).
n

Proposition 7.2.1 (Convergence de la loi hypergomtrique vers la loi binomiale) Soit (XN )
une suite de variables alatoires sur un mme espace probabilis, de loi hypergomtrique : XN ,
H(N, n, p) o n et p sont supposs constants. Alors (XN ) convergent en loi, quand N tend vers lin-
fini, vers X de loi binomiale B(n, p) (mmes valeurs de paramtres).

Preuve La probabilit ponctuelle de XN est


k nk
CN p CN q
P (XN = k) = n .
CN
Lorsque N tend vers linfini avec n constant,
n N (N 1) (N n + 1) 1 n1 1 Nn
CN = = N n (1 ) (1 )
n! N N n! n!
m
car (1 N ) 1 lorsque N tend vers linfini. De mme, lorsque N tend vers linfini avec p et k fixes, alors

k (N p)k nk (N (1 p))nk
CN p et CN (1p) .
k! (n k)!
Finalement,
pk (1 p)nk n!
P (XN = k) = Cnk pk (1 p)nk ,
k!(n k)!
ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit la loi binomiale B(n, p).

Cest pour cela que lorsque la population (de taille N ) est trs grande, on peut assimiler la loi dune
variable alatoire comptant le nombre de russite sur un tirage sans remise (loi hypergomtrique) une
loi binomiale (tirage avec remise).

Proposition 7.2.2 (Convergence de la loi binomiale vers une loi de Poisson) Soit (Xn ) une suite
de variables alatoires binomiales sur un mme espace probabilis : pour tout n, Xn suit B(n, pn ). On
suppose que limn+ pn = 0 et limn+ npn = . Alors (Xn ) convergent en loi, quand n tend vers
linfini, vers une loi de Poisson de paramtre .

Preuve Pour k fix,


n(n 1) (n k + 1) k
P (Xn = k) = pn (1 pn )nk
k!
(npn )k 1 k1
= (1 pn )n (1 ) (1 )(1 pn )k
k! n n
On cherche la limite de (1pn )n = exp(n ln(1pn )) = exp(n ln(1npn /n)). Comme limn+ npn = , on
pose npn = + n avec limn+ n = 0 et ainsi ln(1 npn /n) /n donc limn+ (1 pn )n = e .
k
Comme k est fix, limn+ (1 n1 ) (1 k1
n )(1 pn ) =1
Ainsi
k
lim P (Xn = k) = e ,
n+ k!
ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit une loi de Poisson P(). Il
sagit donc dune convergence en loi en appliquant le point 2 des proprits.
48 CHAPITRE 7. CONVERGENCES

Corollaire 7.2.3 (Application pratique) On peut remplacer B(n, p) par P() avec = np pour n
trs grand (n > 50) et p trs petit (p < 0, 1).

7.3 Convergence des fonctions caractristiques

7.3.1 Continuit
Thorme 7.3.1 (thorme de continuit de Levy) Soit (Xn ) une suite de variables alatoires de
fonctions caractristiques Xn et X une variable alatoire de fonction caractristique X , toutes sur un
mme espace probabilis. Si les (Xn ) convergent en loi vers X alors la suite de fonctions (Xn ) converge
uniformment vers X qur tout intervalle [a, a].
Inversement si les (Xn ) convergent vers une fonction dont la partie relle est continue en 0, alors
est la fonction caractristique dune variable alatoire X vers laquelle les Xn convergent en loi.
On peut le rsumer ainsi :
L
{t R; Xn (t) X (t)} {Xn X}

7.3.2 Thorme central limite


Corollaire 7.3.2 (Thorme central limite) Soit une suite (Xn ) de variables alatoires dfinies sur
le mme espace de probabilit, suivant la mme loi D et dont lesprance et lcart-type communes
existent et soient finis ( 6= 0). On suppose que les (Xn ) sont indpendantes.
Considrons la somme
n
Sn = X1 + + Xn . Alors lesprance de Sn est n et son cart-type vaut n et Sn n
converge en loi
vers une variable alatoire normale centre rduite.

Xi
Preuve Posons Yi = n
. Alors
t
Yi (t) = Xi (t) = Xi ( )
n n
Pour t fix, lorsque n tend vers linfini, t n est infiniment petit. Ecrivons le dveloppement limit, au
voisinage de 0, de la fonction caractristique dune variable alatoire W :
t2 00
W (u) = W (0) + u 0W (0) + (0) + u2 (u)
2 W
u2
= 1 + i u E(W ) E(W 2 ) + u2 (u)
2

En posant W = Xi , u = t/( n), on a E(W ) = E(Xi ) = 0 et E(W 2 ) = E((Xi )2 ) = V (Xi ) =
2 do
t t2 1 t2 1
Xi ( ) = 1 2 2 + (t3 / 3 n) = 1 + i (n)
n 2 n n 2n n
avec limn+ i (n) = 0.
n Pn
Maintenant, posons Zn = Sn n
= i=1 Yi .
Lindpendance des Xn entrane celle des Yi et ainsi
n
Y
Zn (t) = Yi (t)
i=1
n
!
X t2 1
= exp ln n(1 + i (n))
i=1
2n n
Cours Probabilits / Pierre DUSART 49

2
et limn+ Zn (t) = et /2
qui est la fonction caractristique de N (0, 1).

Ce thorme tablit une proprit gnrale, qui va justifier limportance considrable de la loi normale,
la fois comme modle pour dcrire des situations pratiques, mais aussi comme outil thorique. Il snonce
ainsi :
Soit X1 , ..., Xi , ..., Xn , une suite de n variables alatoires indpendantes, de moyennes 1 , ..., i , ..., n ,
et de variances s1 2 , ..., si 2 , ..., sn 2 , et de lois de probabilit quelconques,
Pn leur somme suit une
Pn loi qui,
lorsque n augmente, tend vers une loi normale de moyenne = i=1 i et de variance s2 = i=1 si 2 . Il
y a une seule condition restrictive, cest que les variances soient finies et quaucune ne soit prpondrante
devant les autres.
La loi normale comme modle : prenons lexemple du fonctionnement dun tour dusinage du bois. Le
rglage du tour a pour but dobtenir des pices prsentant une cote bien dfinie ; mais on sait que de
multiples causes perturbatrices agissent au cours de lusinage dune pice : vibrations, usures, variations de
courant ... Or si les causes perturbatrices sont nombreuses, si leurs effets interviennent de faon additive,
enfin si la dispersion provoque par chacune delles reste faible par rapport la dispersion totale, alors le
thorme central limite signifie quon doit observer une fluctuation globale trs voisine de la loi normale.
Et, comme ce mcanisme dintervention de causes perturbatrices est trs rpandu dans la nature, il en
rsulte que la loi normale occupe en statistique une place privilgie.

7.3.3 convergence de P vers N


Corollaire 7.3.3 Soit (Xn ) une suite de variables alatoires suivants des lois de Poisson de paramtres
n n
n . Si limn+ n = , alors X
converge en loi vers N (0, 1).
n

Preuve On utilise la fonction caractristique de la loi de Poisson de paramtre :

X (t) = e(cos t+i sin t1)


.

En utilisant les proprits de la fonction caractristique (aX (t) = (at) et X+b (t) = eitb X (t)), il vient
(cos t +i sin t 1) i t ()
X (t) = eit e(cos t+i sin t1) puis X
(t) = e e . Or, lorsque tend vers

linfini, 1/ est au voisinage de 0 et
2
cos(t/ ) 1 (t/ 2 ) + 1 ()
sin(t/ ) (t/ ) + 1 ()

avec lim () = 0. Ou encore le dveloppement de lexposant avec 1/ au voisinage de 0 est


it (it)2 1
eit/
1= + + ().
2

Ainsi
(cos(t/ ) + i sin(t/ ) 1) i t t2 /2
2
et X
(t) et /2
, fonction caractristique de N (0, 1).

Application pratique : Pour suffisamment grand (disons > 1000), la distribution normale de moyenne
et de variance est une excellente approcimation de la distribution de Poisson de paramtre . Si
est plus grand que 10, alors la distribution normale est une bonne approximation si une correction de
continuit est applique, cest--dire P (X x) lorsque x est un entier positif ou nul est remplac par
P (X x + 0, 5).
50 CHAPITRE 7. CONVERGENCES

7.3.4 convergence de B vers N


Corollaire 7.3.4 (Thorme de Moivre-Laplace) Soit (Xn ) une suite de variables alatoires telles
np
que (Xn ) B(n, p). Alors Xnnpq converge en loi vers la variable centre rduite Z N (0, 1) ou encore

Xn converge en loi vers N (np, npq).

Preuve On rappelle que lon a dfini une variable de Bernoulli comme une variable qui prend la valeur
1 avec la probabilit p, et la valeur 0 avec la probabilit (1 p), et montr que sa moyenne est gale p
et sa variance p(1 p). Or on peut considrer une variable binomiale comme la somme de n variables
de Bernoulli. Il rsulte du thorme central limite que, si n est suffisamment grand (en pratique partir
de n = 50), la loi binomiale peut tre approxime par une loi normale de moyenne np et de variance
np(1 p). Cest pourquoi les tables de la loi binomiale sarrtent gnralement n = 50.

Application pratique : on peut assimiler une loi binomiale une loi normale ds que np > 15 et nq > 15
ou n > 30, np > 5, nq > 5.
Table des matires

1 lments danalyse combinatoire 3


1.1 Quelques dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Arrangement avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Arrangement sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4 Permutation sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.5 Permutation avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.6 Combinaison sans rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.7 Combinaison avec rptition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Probabilits 7
2.1 Espace probabilis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 vnement et ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2 Axiomatique de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Probabilit conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Formule des probabilits composes . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.3 Evnements indpendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Variables alatoires 13
3.1 Dfinition dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Diffrents types de variables alatoires . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.2 Loi de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.3 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.4 Densit de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Caractristiques dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2.1 Tendance centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
52 TABLE DES MATIRES

3.2.2 Paramtres de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


3.2.3 Caractristiques de forme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.4 Ingalit de Bienaym-Chebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2.5 Fonctions gnratrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

4 Lois discrtes usuelles 23


4.1 Loi uniforme discrte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4 Loi hypergomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.5 Loi gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.6 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.7 Approximation de B par P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

5 Couple de variables alatoires 29


5.1 Couple de v.a. discrtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.1 Loi dun couple de variables alatoires discrtes . . . . . . . . . . . . . . . . . . . . 29
5.1.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5.1.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.4 Esprance, Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.5 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.1.6 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.7 Covariance et Corrlation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2 Couple de v.a. continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.1 Fonction densit de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.2.2 Lois marginales et lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.2.3 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.3 Somme et Produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.3.1 Somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.3.2 Produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3.3 Fonction de variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

6 Lois continues usuelles 37


6.1 Loi continue uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6.3 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.3.1 Rappel : calcul de lintgrale de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . 38
6.3.2 Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Cours Probabilits / Pierre DUSART 53

6.3.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.3.4 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.3.5 Loi Normale ou de Laplace-Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.3.6 Somme de deux variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.3.7 Somme de carrs de variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . 41
6.3.8 Approximation de B par N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.3.9 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.4 Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.5 Loi de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.6 Loi de Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

7 Convergences 45
7.1 Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.1.1 Exemple de la loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.1.2 Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.1.3 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.3 Convergence des fonctions caractristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.3.1 Continuit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.3.2 Thorme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.3.3 convergence de P vers N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7.3.4 convergence de B vers N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

Dure : 12h de cours


18 h TD

Vous aimerez peut-être aussi