Académique Documents
Professionnel Documents
Culture Documents
Cours Proba 2013 PDF
Cours Proba 2013 PDF
Anne 2013
Cours de Probabilits
Pierre DUSART
2
Chapitre 1
lments danalyse combinatoire
n! = n (n 1)!
n!
Apn = .
(n p)!
Raliser un arrangement sans rptition des lments de , cest dterminer un puplet (x1 , . . . , xp )
dlments de deux deux distincts. Cest aussi dfinir une application injective dun ensemble E p
lments dans n lments.
n!
Pn = Ann = = n!
(n n)!
Raliser une permutation des lments de , cest raliser un tirage exhaustif sans remise des lments
de en tenant compte de lordre du tirage. Cest aussi dfinir une bijection de ensemble sur lui-mme.
Lensemble des permutations dun ensemble n lments sappelle le groupe symtrique dordre n et se
note Sn . On a #Sn = n!.
Exemple [Nombre danagrammes du mot MATHMATIQUE] : nous voyons quen changeant les deux
lettres A, le mot reste identique, et par contre en transposant les lettres et E nous obtenons un mot
diffrent. (M :2 ;A :2 ;T :2 ;H :1 ; :1 ;I :1 ;Q :1 ;U :1 ;E :1) : #Anagrammes = 12!/(2!2!2!)
Exemple 2 : Nombre de quartets binaires de poids de Hamming gal 2 ;
Il y en a 6 =4 !/(2 !2 !) : (0011),(0101),(0110),(1001),(1010),(1100).
Cours Probabilits / Pierre DUSART 5
n!
Cnp =
p!(n p)!
Proprits :
1. Cn0 = Cnn = 1
2. Cnp = Cnnp (complmentaire)
p p1
3. Cnp = Cn1 + Cn1 (triangle de Pascal)
Ap
4. Cnp = n
p!
p p1
Preuve que Cnp = Cn1 + Cn1 :
p p1 (n 1)! (n 1)!
Cn1 + Cn1 = +
p!(n p 1)! (p 1)!(n p)!
(n 1)! (n p) p (n 1)!
= +
p!(n p)! p!(n p)!
n (n 1)!
= = Cnp
p!(n p)!
p=1 p=1
n
X
n+1
= a + (Cnp1 + Cnp ) ap bn+1p + bn+1
| {z }
p=1 p
Cn+1
n+1
X p
(a + b)n+1 = Cn+1 ap bn+1p .
p=0
6 CHAPITRE 1. LMENTS DANALYSE COMBINATOIRE
Exemple : [jeu de domino] Les pices sont constitues en disposant cte cte deux lments de lensemble
{blanc, 1, 2, 3, 4, 5, 6}. Si nous retournons un domino, nous changeons lordre des deux lments, mais le
domino reste identique (Cest donc une disposition non-ordonne). Nous avons une combinaison avec
rptition de 2 lments pris parmi les 7, et au total il y a K72 = 28 dominos dans un jeu.
Toute pcombinaison avec rptition peut scrire :
x1 : k1 fois, . . . , xn : kn fois
Pn
avec 0 ki p et i=1 ki = p.
On peut ainsi mettre en bijection lensemble des pcombinaisons avec rptition des n lments de E
avec les applications f : E N telles que
x1 7 f (x1 ) = k1 Xn
vrifiant f (xi ) = p
xn 7 f (xn ) = kn i=1
Exemple : Dans un jeu de dominos, un domino est une 2-combinaison avec rptition de lensemble
E = {blanc, 1, 2, 3, 4, 5, 6}. Chaque domino peut tre reprsent par une application de E dans {0, 1, 2}
qui associe chaque lment de E le nombre de fois o llment apparat sur le domino. Ainsi le domino
[blanc,blanc], est reprsent par lapplication f dfinie par
On peut aussi mettre cet ensemble en bijection avec lensemble des manires de placer p objets dans n
botes :
bote 1 i n
x1 xi xn
k1 ki kn
Mais placer p objets dans n botes cest aussi se donner n + p 1 objets et dcider que n 1 dentre eux
seront des cloisons :
0} | 0| {z
|0 {z 0} | | 0| {z
0} .
k1 k2 kn
Inversement, toute faon de choisir n 1 objets qui seront des cloisons, on peut associer une et une
seule faon de placer p objets dans n botes.
Il y a une bijection entre lensemble des p-combinaisons avec rptition de E et lensemble des p-uplets
croissants dlments de E, ou encore des applications croissantes (au sens large) de {1, 2, ..., p} dans E.
p
Proprit : Knp = Knp1 + Kn1 .
p p1 p
Preuve : Cn+p1 = Cn+p2 + Cn+p2
Chapitre 2
Probabilits
Une preuve est une exprience dont lissue nest pas prvisible car rpte dans des conditions identiques,
elle peut donner lieu des rsultats diffrents ou alatoires (exprience alatoire). Lensemble des rsultats
possibles sappelle lensemble fondamental (ou rfrentiel, univers des possibles) et sera not .
Un vnement est un ensemble de rsultats (un sous-ensemble de lunivers) dune exprience alatoire.
Comme lvnement est une affirmation concernant le rsultat dune exprience, nous devons pouvoir
dire, pour tout rsultat de lunivers, si lvnement se ralise ou non. Un vnement donn, souvent dfini
par une proposition, est identifi la partie de lunivers pour laquelle il est ralis.
On exige que la collection C des vnements dispose de la structure dune algbre de Boole :
1. C; C.
2. si A C; A C;
3. si A, B C A B C et A B C.
On peut prciser le calcul de probabilits dun vnement E. De manire simplifie, la probabilit thorique
vaut
nombre de cas favorables
P (E) = .
nombre total de cas
Exemple 1 : Si on lance un d 6 faces, le rfrentiel est compos des six faces = {1, 2, 3, 4, 5, 6}.
Exemple 2 : Si on lance trois fois une pice, le rfrentiel est compos des 23 arrangements avec rptition
des 2 faces distinctes notes P et F : = {P P P, P P F, P F P, P F F, F P P, F P F, F F P, F F F }.
Exemple 3 : Si on lance trois pices identiques simultanment, le rfrentiel est compos des 3-combinaisons
avec rptition des 2 faces distinctes notes P et F : = {P P P, P P F, F F P, F F F }. de cardinal K23 .
Question : On lance trois pices de monnaie. Quelle est la probabilit que toutes trois retombent du
mme ct, que ce soit pile ou face ?
Dfinition 1 Deux vnements A et B sont dits incompatibles sils ne peuvent se raliser simultanment
cest--dire lorsque lintersection des sous-ensembles A et B est vide : A B = .
8 CHAPITRE 2. PROBABILITS
Dfinition 2 On appelle probabilit sur (, C) (o est lensemble des vnements et C une classe de
parties de ), ou loi de probabilit, une application P de C dans [0, 1] telle que :
1. Pour tout vnement E, 0 P (E) 1.
2. P () = 1
3. pour tout ensemble dnombrable dvnements incompatibles A1 , A2 , ..., An , on a
X
P (Ai ) = P (Ai ). (-additivit de P )
Dfinition 3 On appelle espace probabilis le tripl (, C, P ) o est lensemble fondamental, C est une
collection de sous-ensembles de (la collection des vnements), qui possde la structure prcdente de
-algbre de Boole et P : C [0, 1] est une mesure de probabilit sur C.
Thorme 2.1.1 (Thorme des probabilits totales) Soit = Bi un systme complet dvne-
ments (i.e. tel que les {Bi} constituent une partition de ). Alors
X
A : P (A) = P (A Bi ).
i
Exemples de construction :
1. Si P= {x1 , . . . , xn } est fini, on dfinit une probabilit sur P() en se donnant n nombres pi tels
que i pi = 1 en posant P ({xi }) = pi . On parle dquiprobabilit si pour tout i, P ({xi }) = n1 .
Dans ce cas, P (A) = card(A) . n
2. Si = {xn , n N} est dnombrable, on dfinit une probabilit sur P() en se donnant une srie
de terme gnral pn convergente termes positifs et de somme gale 1 en posant P ({xi }) = pi .
1
(par exemple : pn = 2n+1 )
3. Si est un intervalle ]a, c[, o a, c appartiennent R {, }, on peut dfinir une probabilit
sur tous les intervalles inclus dans en dfinissant une probabilit sur des intervalles de la forme
Rb Rc
]a, b[. Par exemple, P (]a, b[= a (t)dt o est une fonction positive qui vrifie a (t)dt = 1.
4. Si =]0, 1[2 , on obtient une probabilit en posant P (A) =surface de A.
P (B/A)P (A)
P (A/B) = .
P (B)
Exemple : Soit un vnement A qui peut dpendre de N causes Ci diffrentes et incompatibles deux
deux (on ne peut avoir deux causes ralises simultanment). Etant donne la ralisation de lvnement
A, quelle est la probabilit que ce soit Ci qui en soit la cause ?
10 CHAPITRE 2. PROBABILITS
Exemple : Une urne contient initialement 7 boules noires et 3 boules blanches. On tire successivement 3
boules : si on tire une noire, on lenlve, si on tire une blanche, on la retire, et on ajoute une noire la
place. Quelle est la probabilit de tirer 3 blanches la suite ?
On note Bi lvnement "La i-me boule tire est blanche". La probabilit recherche est :
Clairement, P (B1 ) = 3/10. Maintenant, si B1 est ralis, avant le 2me tirage, lurne est constitue de 8
boules noires et 2 blanches. On a donc : P (B2 |B1 ) = 2/10. Si B1 et B2 sont raliss, avant le 3me tirage,
lurne est constitue de 9 boules noires et 1 blanche. On en dduit P (B3 |B1 B2 ) = 1/10. Finalement
P (B1 B2 B3 ) = 6/1000 = 3/500.
Proposition 2.2.2 (Formule des probabilits totales) Soit {An ; n N} un systme complet dv-
nements, tous de probabilit non nulle. Soit B un vnement. Alors :
X
P (B) = P (An )P (B/An ).
nN
Cette formule permet de calculer la probabilit dun vnement B en le dcomposant suivant un systme
complet dvnements (En effet, B est gal la runion disjointes des B An ).
P (A/B) = P (A)
P (B/A) = P (B)
P (A B) = P (A) P (B).
Dfinition 4 Un ensemble dvnements A1 , A2 , . . . , An est dit totalement indpendant si pour tout sous-
ensemble I {1, 2, . . . , n} Y
P (iI Ai ) = P (Ai ).
iI
Les vnements sont deux deux indpendants si pour tous indices i, j (i 6= j),
Une variable alatoire est une fonction dfinie sur lensemble des ventualits, cest--dire lensemble des
rsultats possibles dune exprience alatoire.
On sintressera aux valeurs prises xi par une variable alatoire X, vnement not (X = xi ), et plus
particulirement la probabilit dobtenir ces valeurs P (X = xi ).
Cest peu prs la mme chose quune variable statistique sauf que dans le cas dune variable statistique on
value un comportement ralis (moyenne, etc) alors que dans le cas de variables alatoires on suppose un
comportement futur (Dans ce cas, on parle desprance plutt que de moyenne par exemple) ou thorique.
Les variables alatoires sont utilises pour modliser le rsultat dun mcanisme non-dterministe.
Dfinition 5 Une variable alatoire (ou v.a.) est une application X : R. Si X() est au plus
dnombrable, on dit que X est un v.a. discrte sinon on dit quelle est continue.
Si une variable alatoire X prend un nombre de valeurs fini ou dnombrable (son ensemble de dfinition
est inclus dans N), on parle de variable discrte.
On sintresse dfinir lensemble des valeurs possibles et leurs probabilits associes.
Quelques exemples :
nombre de face dans un lancer de 3 pices : X() de 0 3.
nombre de lancers avant dobtenir "6" avec un d : X() de 0 linfini ;
nombre de clients attendant au service aprs-vente : X() de 0 10.
nombre de cycles lecture/criture sur une cl USB : X() de 10000 100000.
nombre dappels arrivant un standard tlphonique en une minute de 0 10.
14 CHAPITRE 3. VARIABLES ALATOIRES
Une variable alatoire est dite continue si elle peut prendre toutes les valeurs dun intervalle. En particulier,
dans le cas o la variable alatoire peut prendre toute valeur relle (son ensemble de dfinition contient
un intervalle de R), on parle de variable alatoire relle.
Dans ce cas, il ne sagira plus de calculer une probabilit dapparition dune valeur donne mais dun
intervalle.
Quelques exemples :
temps dattente pour avoir le bus : X() [0, 100 ]
longueur de cheveux : X() [0, 4m]
intervalle entre deux averses : X() [10 , 20 ans]
moyenne des tailles de 20 tudiants pris au hasard : X() [, ]
Soit X : R. Dans le cas o X prend ses valeurs dans un intervalle rel, on cherche exprimer par
exemple la probabilit que X prenne ses valeurs dans ], [. On remarque que X() ], [)
X 1 (], [) et donc on pose P (X ], [) = P (X 1 (], [)).
On sintresse souvent la probabilit cumule. Par exemple dans le cas de probabilits sur N :
P (X < n) = P (X = 0 ou X = 1 ou ou X = n 1).
Ainsi pour X une v.a. discrte prenant les valeurs classes xi avec les probabilits pi , on a
X
F (x) = pi .
xi <x
(Dans ce cas, F est une fonction en escaliers, continue gauche, ayant pour limite 0 en et 1 en +).
Cours Probabilits / Pierre DUSART 15
Proprits
1. F est non dcroissante.
2. F est continue gauche.
3. x0 R, P (X = x0 ) = limxx+ F (x) F (x0 ).
0
4. F () = 0 et F (+) = 1
5. P (a X < b) = F (b) F (a)
Preuves :
1. Montrons que F est croissante (x < y = F (x) F (y)). On a la runion disjointe ] , y[=
] , x[[x, y[ et F (y) = P (X 1 (] , y[) = P (X 1 (] , x[) X 1 ([x, y[)) et en utilisant les
proprits de P , F (y) = F (x) + P (X [x, y[) F (x).
2. Soit x0 R. X 1 ([x0 1/n, x0 [) dcrot vers quand n tend vers linfini, donc F (x0 )F (x0 1/n)
tend vers 0. Comme F est croissante, cela implique que F est continue gauche.
3. De mme, X 1 ([x0 , x0 + 1/n[) dcrot vers X 1 ({x0 }) donc la diffrence F (x0 + 1/n) F (x0 ) tend
vers P (X 1 {x0 }) quand n tend vers linfini.
4. F tant croissante, F () = limn F (n). Or ] , n[ dcrot vers quand n tend vers
linfini ; ainsi F (n) = P (X 1 (] , n[)) dcrot vers 0. De mme, ] , n[ crot vers R quand
n tend vers linfini et F (n) = P (X 1 (] , n[)) crot vers P (X R) = 1.
5. X 1 (] , b[) est la runion disjointe de X 1 (] , a[) et de X 1 ([a, b[) donc F (b) = P (X
[a, b[) + F (a).
Remarque : F est continue droite dans le cas des v.a. continues.
Preuve : Daprs la proprit 4 des fonction de rpartition, F est continue si et seulement si : x
R, P (X = x) = 0.
Remarque : Probabilit ponctuelle pour une variable continue.
La vraie distinction entre variables continues et discrtes tient dans le calcul de la probabilit ponctuelle.
La probabilit dun point c situ entre a et b serait limba P (a < X < b) = 0. Ainsi, la probabilit dun
point est par dfinition nulle pour les variables continues. Ainsi P (a < X < b) = P (a X b).
En ralit, il sagit bien souvent dun problme dchelle ou de prcision de mesure. On travaille toujours
sur des intervalles (par exemple la prcision de la mesure si on a une mesure au centimtre prs la valeur
x = 160 correspond x = 160 0.5 soit un intervalle de travail 160 0.5 < x < 160 + 0.5.
La densit de probabilit dune variable alatoire continue est la drive premire par rapport x de la
fonction de rpartition. Cette drive prend le nom de fonction de densit, note f (x) = dFdx(x) . Elle est
quivalente P (X = x) dans le cas des variables discrtes.
Pour calculer la probabilit P (a X < b) dans le cas dune variable continue, le calcul est le suivant
Rb
a
f (x)dx. Dveloppons cette expression :
P (a X < b) = P (X < b) P (X < a)
Z b Z a
= f (t)dt f (t)dt
= F (b) F (a)
16 CHAPITRE 3. VARIABLES ALATOIRES
Graphiquement, cela se traduit par la surface comprise entre a et b en dessous de la courbe de densit.
P R +
Proprit : De la mme faon que pi 0 et i pi = 1, on a f (x) 0 et f (x)dx = 1.
On appelle quantile ou fractile dordre (0 < < 1) dune variable alatoire X dont la fonction de
rpartition est F (x), la valeur x telle que F (x ) = . La valeur x sappelle quantile dordre .
Remarque Dans le cas o X est une variable discrte, F (x ) = sentend P (X < x ) = .
Nous numrons ici quelques quantiles particuliers.
La mdiane : La mdiane est le quantile dordre = 1/2, en dautres termes la mdiane M ed est dfinie
par F (M ed) = 0, 5. La mdiane partage la population en deux parties gales, cest une caractristique
de tendance centrale.
Les quartiles : les quartiles, nots Qi (respectivement i = 1; 2; 3) correspondent aux quantiles dordre
( = 0, 25 ; 0,5 ; 0,75). Notons que Q2 = M ed.
Les dciles Le k-ime dcile (k = 1 9) est le quantile dordre k/10. En particulier, le 5-ime dcile
correspond la mdiane.
Le mode
On appelle mode (valeur dominante, valeur la plus probable) dune variable alatoire, la valeur M ode
pour laquelle lhistogramme de frquence prsente son maximum.
Dans le cas des variables discrtes, le Mode est la valeur de X associe la plus grande probabilit, do
lappellation valeur la plus probable.
Lorsque la variable alatoire X est continue, avec une fonction de densit pourvue dune drive premire
et dune drive seconde, le mode M est un maximum de la fonction densit et satisfait ce titre
f 0 (M ) = 0 et f 00 (M ) < 0 (concavit vers le bas).
Esprance mathmatique
Soit X une v.a. discrte prenant ses valeurs dans {x1 , . . . , xn } et dont les probabilits associes sont
P (X = xi ) = pi . On dfinit lesprance mathmatique de X, note E(X) par
n
X
E(X) = pi xi .
i=1
Cette quantit nest dfinie que si la srie de terme gnral [pi xi ] converge.
Cest la moyenne thorique de X. Cette moyenne est rapprocher de la P moyenne exprimentale o chaque
vnment X P = xi se ralise n i fois dans un chantillon de taille N = i ni . La moyenne exprimentale
vaut X = N1 i ni xi = i fi xi , o fi = nNi est la frquence observe dans chaque classe dvnement
P
X = xi .
R +
Dans le cas continu, E(X) = xf (x)dx o f (x) est la densit de probabilit de X. Cette quantit
R +
nexiste que si xf (x)dx est absolument convergente.
Cours Probabilits / Pierre DUSART 17
On peut en dduire que E[E(X)] = E(X), puisque E(X) nest pas une variable alatoire.
Caractristique (oprateur linaire). E(aX + bY ) = aE(X) + bE(Y ). De manire gnrale,
! !
X X
E ai Xi + b = ai E(Xi ) + b
i i
pi xri , o pi = P (X = xi ) et pour
P
Application : pour une v.a. (variable alatoire) discrte, mr (X) = i
une v.a. continue, mr (X) = D xr f (x)dx.
R
Variance
Dfinition 7 On appelle variance de X, not V (X), le moment centr dordre 2 de X (sil existe).
V (X) = E([X E(X)]2 ).
18 CHAPITRE 3. VARIABLES ALATOIRES
La variance mesure la dispersion autour de la moyenne. Lcart-type est la racine carre de la variance :
p
(X) = V (X).
Remarque (Formule de Koenig). Il est possible dexprimer la variance partir des moments non centrs.
Comme cest un nombre sans dimension, il permet de comparer des distributions mme si leurs chelles
diffrent. Lorsque ltalement est gauche (moyenne infrieure la mdiane), le coefficient dasymtrie
est ngatif et vice versa.
Le coefficient dasymtrie de Yule et Kendall On a juste besoin des quartiles pour le calculer.
(Q3 Q2 ) (Q3 Q1 )
u= .
(Q3 Q2 ) + (Q3 Q1 )
Comme il nexiste pas de table, donc pas de critre prcis de sparation entre symtrie et asymtrie, on
utilisera plutt ce coefficient comme lment de comparaison entre deux distributions.
Cours Probabilits / Pierre DUSART 19
Gnralement, on observe le coefficient daplatissement (kurtosis) en mme temps que celui dasymtrie.
Le coefficient daplatissement de Pearson 2 est la valeur obtenue par le calcul suivant :
4
2 = .
4
Un coefficient daplatissement lev indique que la distribution est plutt pointue en sa moyenne, et des
queues de distribution paisses.
Pour une variable alatoire suivant une loi normale centre rduite(loi vue par la suite), ce coefficient
daplatissement vaut 3. Cest pour cela que lon normalise la valeur pour mesurer lexcs daplatissement
pour obtenir le coefficient daplatissement de Fisher.
Le coefficient daplatissement de Fisher 2 est la valeur obtenue par le calcul suivant :
4
2 = 3.
4
4
Remarque : 2 = 22
3.
Preuve :
1. Dans le cas o X est discrte : On a 2 = i pi (xi )2 P
P
. En enlevant les termes, positifs, corres-
pondant aux xi pour lesquels |xi | < t, on obtient 2 |xi |t pi (xi )2 . Dans cette somme,
les xi vrifient tous |xi |2 t2 donc en remplaant 2 t2 |xi |t pi = t2 p (|X | t).
P
car pour tout x, (x )2 f (x) est positive ou nulle. Dans les intervalles considrs x 6 [ t, + t],
on a (x )2 t2 donc
Z t Z +
2 t2 f (x)dx + f (x)dx = t2 (1 F ( + t) + F ( t)) = t2 P (|X | t)
+t
20 CHAPITRE 3. VARIABLES ALATOIRES
Remarque (Loi des grands nombres). Cette ingalit est importante car elle permet de dmontrer la loi
dite des "grands nombres". Elle stipule quil suffit dextraire un chantillon dun effectif suffisant dans
une population pour estimer lesprance mathmatique laide de la moyenne arithmtique, ou encore
pour estimer une probabilit laide dune frquence. On parle alors de convergence en probabilit.
Remarque 2 (Une expression plus gnrale de lingalit de Bienaym-Chebychev). La porte de lingalit
de Bienaym-Chebychev est bien plus large que celle couramment prsente dans les ouvrages. Elle peut
tre dfinie pour une fonction g(X) telle que
E(g(X)k )
P (g(X) t)
tk
3. Il y a aussi une relation entre les moments et la fonction caractristique dune variable alatoire.
P k
Lorsque les moments existent et que la srie converge : X (t) = k=0 i k!k tk o k est le moment
dordre k. Cette relation sert parfois pour calculer la moyenne (premier moment) et la variance
dune variable alatoire. Plus explicitement, 1 = X (0), E(X) = i0X (0), E(X 2 ) = 00X (0) et
(k)
Var(X) = 00X (0) + 02 k k
X (0) ou encore X (0) = i E(X ).
4. Elle dtermine de faon unique la loi dune variable alatoire au sens o X = Y (galit de
fonctions) quivaut X et Y ont la mme loi.
1. Dans le cas discret, X (t) = k eitxk pk . Cest la somme dune srie absolument conver-
P
Preuve
R +
gente car |eitxk pk | = pk . Dans le cas continu, X (t) = eitx f (x)dx. Cest une intgrale dfinie
absolument convergente car |eitx f (x)| = f (x) dont lintgrale sur R est gale 1.
2. Utiliser les proprits de la fonction exponentielle et de lesprance.
3. On a X (0) = E(1) = 1. En supposant les bonnes conditions de convergence, on a
k k
!
X
itxn
XX (itxn )k X i X X i
X (t) = e pn = pn = pn xn tk =
k
(mk )tk
n n
k! k! n
k!
k=0 k=0 k=0
Dfinition 8 On appelle fonction gnratrice des moment de la v.a. X, si elle existe, la fonction :
MX (t) = E(etX ).
22 CHAPITRE 3. VARIABLES ALATOIRES
Chapitre 4
Lois discrtes usuelles
Lensemble des valeurs possibles est {1, 2, 3, , n}, n tant un paramtre de la loi. Chaque valeur reoit
la mme probabilit 1/n (Uniformit). On obtient la loi de probabilit suivante :
xi 1 2 3 n
pi 1/n 1/n 1/n 1/n
n+1
E(X) =
2
V (X) = (n2 1)/12
En effet,
n n
X 1X 1 n(n + 1) n+1
E(X) = pi xi = k= =
i=1
n n 2 2
k=1
et
n 2
X 1X 2 n+1
V (X) = pi x2i (E(X))2 = k
i
n 2
k=1
1 n (n + 1)2
= (n + 1)(2n + 1)
n 6 4
4(n + 1)(2n + 1) 6(n + 1)(n + 1)
=
24
(n + 1)(8n + 4 6n 6) (n + 1)(n 1)
= =
24 12
n2 1
V (X) =
12
24 CHAPITRE 4. LOIS DISCRTES USUELLES
Do
n+1
1 eiun/2 sin(nu/2) iu eiu 2 sin(nu/2)
X (u) = e =
n eiu/2 sin(u/2) n sin(u/2)
En effet, notons Ak lvnement "A se ralise exactement k fois durant les n expriences". Ak peut se
raliser de plusieurs manires chacune deux deux incompatibles, par exemple A peut se raliser durant
les k premires expriences alatoires et ne pas se raliser durant les nk dernires expriences alatoires.
Il y a Cnk faons de "placer " les k ralisations de A parmi les n expriences alatoires. La probabilit
dune de ces faons est gale pk (1 p)nk . Ce qui donne : P (Ak ) = Cnk pk q nk .
Cours Probabilits / Pierre DUSART 25
Dfinition 9 (Loi binomiale) On dit quune variable alatoire X, valeurs dans {0; 1; ...n}, suit une
loi binomiale si sa loi de probabilit est P (X = k) = Cnk pk q nk avec k {0, 1, 2, ..., n}, o n est un entier
naturel fix et o p est un rel de ]0; 1[. Les valeurs n et p sont les deux paramtres de cette loi, que lon
notera B(n, p)
Caractristiques :
Lesprance mathmatique dune variable alatoire suivant une loi B(n, p) est : E(X) = np
La variance mathmatique dune variable alatoire suivant une loi B(n, p) est : V (X) = npq = np(1p)
iu n
P est X (u) = (q + pe ) .
Sa fonction caractristique
Exercices : Retrouver que k P (X = k) = 1, E(X) et V (X) par calcul direct et en utilisant la fonction
caractristique.
Thorme 4.3.1 (Stabilit de la loi binomiale) Si Xn et Xm sont deux variables indpendantes sui-
vant des lois binomiales respectivement Xn , B(n, p) et Xm , B(m, p) alors Xn + Xm , B(n + m, p).
Exemple : On dispose dune urne avec 1 boule blanche et 9 noires. On effectue 20 tirages avec remise. Soit
X le nombre de sortie de la boule blanche lissue des 20 tirages.La variable alatoire X suit B(n, p).
nk k nk
p CN (1p)
k CN
Cm CN m
P (X = k) = n = n ,
CN CN
avec 0 k [N p].
On note H(N, n, p) la loi hypergomtrique de paramtre N, n et p.
Caractristiques : On peut montrer que lesprance mathmatique de X , H(N, n, p) est E(X) = np
n
(comme dans le cas de la loi binomiale). Sa variance est V (X) = N
N 1 npq. Sa fonction caractristiques
est complique.
Convergence : On remarque que si n (la taille de lchantillon) est petit devant N , alors la variance est
sensiblement npq, cest--dire celle de la loi binomiale. Ce rsultat nest pas un hasard... :
La limite pour N infini de sorte que m/N tende vers une limite finie p de la loi H(N, n, p) est la loi
binomiale B(n, p).
26 CHAPITRE 4. LOIS DISCRTES USUELLES
Loi de Pascal dordre r : Cest la loi du nombre dessais ncessaires pour observer exactement r fois un
vnement de probabilit p. Cette loi est la somme de r lois gomtriques indpendantes.
On dit quune variable alatoire X suit la loi de Pascal de paramtres r et p, ce que lon note X , P(r, p)
si :
1. X() = {r, r + 1, }
r1 r kr
2. P (X = k) = Ck1 p q o q = 1 p.
Caractristiques : X admet alors une esprance et une variance :
r r(1 p)
E(X) = V (X) = .
p p2
Remarque : la loi de Poisson a t introduite en 1838 par Simon-Denis Poisson (1781-1840), qui lui a
donn son nom. Aucun rapport avec la loi de Fisher.
Exemple : [Le clbre exemple de Von Bortkiewicz]
Von Bortkiewicz a tudi le nombre de morts par ruade de cheval dans larme prussienne de 1875 1894
dans 200 corps de cavalerie : pendant 20 ans, il a tudi 10 corps de cavalerie par an
Calculer la moyenne du nombre de morts par an. Comparer la distribution relle la distribution
rsultant de lapplication de la loi de Poisson de paramtre .
Exercices : retrouver E(X), V (X), X (u).
(Solutions sur http://fr.wikipedia.org/wiki/Loi_de_Poisson)
Cours Probabilits / Pierre DUSART 27
nk n k n 1
Or 1 n = 1 n 1 n = 1 n qk
, do
n n
n(n 1) (n k + 1) k 1 n(n 1) (n k + 1) k 1
P (X = k) = 1 = 1
k! nk q k n nk q k k! n
Si n est assez grand (n 50 et p proche de 0 donc q proche de 1, on peut faire les approximations
suivantes :
1. n(n1)(nk+1) = 1 1 n1 1 k1
nk n 1
k
2. k
qk
n
3. 1 n e
k
Ainsi P (X = k) e k! .
28 CHAPITRE 4. LOIS DISCRTES USUELLES
Chapitre 5
Couple de variables alatoires
Dfinition 10 On appelle loi conjointe ou loi du couple (X, Y ), lensemble des couples
{((xi , yj ), pij ), (i, j) I J}
o pij = P ((X = xi ) (Y = yj )) = P ((X, Y )1 ({(xi , yj )})). On pourra reprsenter cette loi par un
tableau double entre.
!
X X X X X X
Remarque : Dans ce contexte, pij = pij = pij = pij . On peut commen-
(i,j)IJ iI iI jJ jJ iI
jJ
cer par sommer sur les indices i puis les indices j ou inversement.
Supposons connue la loi du couple (X, Y ) : {((xi , yj ), pij ), (i, j) I J}. On cherche maintenant
connatre la loi de X i.e. lensemble des couples {(xi , P (X = xi )), i I}. Or la famille des vnements
{(Y = yj ), j J} forme un systme complet dvnements, donc daprs la formule des probabilits
totales applique ce systme complet dvnements, on obtient :
X X
pi := P (X = xi ) = P ((X = xi ) (Y = yj )) = pij .
jJ jJ
De mme, la loi de Y sobtient laide de la formule des probabilits totales applique au systme complet
dvnements {(X = xi ), i I} :
X X
pj := P (Y = yj ) = P ((X = xi ) (Y = yj )) = pij .
iI iI
et de faon plus gnrale, nous pouvons dfinir la notion desprance mathmatique dune fonction g(X, Y )
du couple : XX
E(g(X, Y )) = pij g(xi , yj ) dans le cas discret,
i j
Ainsi par exemple
E(XY ) =
E(X 2 ) =
Proprits :
Cours Probabilits / Pierre DUSART 31
5.1.6 Indpendance
Dfinition 12 Les v.a. X et Y sont indpendantes si pour tous i, j, les vnements {X = xi } et {Y = yj }
sont indpendants, cest--dire pij = pi pj ou encore P ((X, Y )1 ({xi } {yj })) = P (X 1 ({xi }))
P (Y 1 ({yj })).
En appliquant lhypothse de dpart, on a F (xi+1 , yj+1 ) = FX (xi+1 )FY (yj+1 ), F (xi , yj+1 ) = FX (xi )FY (yj+1 ),
F (xi+1 , yj ) = FX (xi+1 )FY (yj ) et F (xi , yj ) = FX (xi )FY (yj ) do
Thorme 5.1.3 X et Y sont indpendantes si et seulement si pour tout couple dintervalles rels [a, a0 [
et [b, b0 [, on a
P (X [a, a0 [ et Y [b, b0 [) = P (X [a, a0 [) P (Y [b, b0 [).
(indpendance des vnements X [a, a0 [ et Y [b, b0 [)
Rciproquement, on particularise le couple (a, a0 ) et (b, b0 ) en (xi , xi+1 ) et (yj , yj+1 ) respectivement.
pij = P (xi X < xi+1 et yj Y < yj+1 ) = P (xi X < xi+1 )P (yj Y < yj+1 )
= P (X = xi )P (Y = yj ) = pi pj .
Proposition 5.1.4 Les v.a. X et Y sont indpendantes si et seulement si toutes les lois conditionnelles
sont identiques aux lois marginales.
P (X = xi et Y = yj ) = P (X = xi /Y = yj )P (X = xi ) = P (Y = yj )P (X = xi ).
Proprits :
P P
1. Cov(X, Y ) = E(XY ) E(X)E(Y ) = i j pij xi yj E(X) E(Y ).
2. Pour tout rel, V (X + Y ) = V (X) + 2Cov(X, Y ) + 2 V (Y ).
3. Si X et Y sont indpendantes alors E(XY ) = E(X)E(Y ), Cov(X, Y ) = 0 et V (X + Y ) = V (X) +
V (Y ).
Preuve :
1. Voir thorme de Knig
2. Par dfinition de la variance
Proprits :
1. r(X, Y ) [1, 1].
2. Pour tous rels a, b, c, d (a, c 6= 0), r(aX + b, cY + d) = r(X, Y ).
3. Si X et Y sont indpendantes alors r(X, Y ) = 0.
Preuve de (1) : V (X + Y ) 0 quel que soit . Cela implique que le polynme en , 2 V (Y ) +
2Cov(X, Y )+V (X) a un dterminant 0 = Cov(X, Y )2 V (X)V (Y ) ngatif ou nul. Ainsi Cov(X, Y )2
)2
V (X)V (Y ) et r(X, Y ) = Cov(X,Y
V (X)V (Y ) 1.
Proprits :
1. F est totalement croissante au sens large, cest--dire que les fonctions partielles F (x, ) et F (, y)
sont croissantes pour tous x et y rels.
2. F (x, ) et F (, y) sont continues gauche
3. lim F (x, y) = lim F (x, y) = 0, lim F (n, n) = 1
x y n+
Preuve :
1. Soit y1 > y0 , Alors lensemble ] , x[] , y1 [ se dcompose en (] , x[] , y0 [)
(] , x[[y0 , y1 [). Ainsi F (x, y1 ) F (x, y0 ) = P ( (X, Y )1 (] , x[[y0 , y1 [)) 0.
2. On considre lensemble ] , x[] , y0 [ qui correspond la runion croissante des ensembles
] , x[] , y0 1/n[. On en dduit que F (x, y0 ) = limn F (x, y0 1/n) = limyy F (x, y)
0
puisque F (x, ) est croissante.
3. Lintersection dcroissante des ensembles ] , n[] , y[ est vide et la runion croissante des
] , n[] , n[ est R2 tout entier.
La probabilit pourra tre calcule sur tout type dintervalle partir de la fonction de rpartition :
Proprits :
de P(2 ), alors P ( (X, Y ) A) =
RR
1. Pour tout A lment
RR A
f (u, v) du dv.
En particulier, R2 f (u, v) du dv = 1.
2F
2. En tout point o f est continue, f (x0 , y0 ) = xy (x0 , y0 ).
3. X et Y sont aussi absolument continues, et leurs densits de probabilits respectives sont
Z Z
fX (x) = f (x, y)dy fY (y) = f (x, y)dx.
R R
Lorsque les quantits sont dfinies, on pose, comme dans le cas discret,
Cov(X, Y )
Cov(X, Y ) = E(XY ) E(X)E(Y ) et r(X, Y ) = .
(X)(Y )
De mme,
FY (y) = P (Y < y) = P (X R, Y < y) = lim F (x, y).
x+
3 Soit (X, Y ) un couple alatoire absolument continu, de densit de probabilit f . Soit fX la densit de
probabilit de X et un rel x tel que fX (x) 6= 0. La loi conditionnnelle de Y lie par la condition X = x
est dfinie par sa densit de probabilit fx (y) = ffX
(x,y)
(x) .
5.2.3 Indpendance
Dfinition 16 Les variables X et Y sont indpendantes si et seulement si la fonction de rpartition du
couple est gale au produit des fonctions de rpartitions des lois marginales : F (x, y) = FX (x)FY (y) pour
tous x et y rels.
Proposition 5.2.1 Les variables X et Y sont indpendantes si et seulement si pour tous x et y rels,
f (x, y) = fX (x)fY (y). Dans ce cas, Cov(X, Y ) = 0.
Preuve Si X et Y sont indpendantes, alors en drivant F (x, y) = FX (x)FY (y) par rapport x puis par
2F
rapport y, on obtient F
x (x, y) = fX (x)FY (y) puis xy (x, y) = fX (x)fY (y) et on utilise la proprit 2 :
2F
xy (x, y) = f (x, y).
Cours Probabilits / Pierre DUSART 35
RR
De plus, si f (x, y) = fX (x) fY (y), E(XY ) = R2
xy fX (x)fY (y) dx dy = E(X)E(Y ) et ainsi
Cov(X, Y ) = 0.
Proposition 5.2.2 Les variables X et Y sont indpendantes si et seulement si pour tous couples din-
tervalles rels ([a, a0 [, [b, b0 [), on a
= FX (a)FY (b) + FX (a0 )FY (b0 ) FX (a)FY (b0 ) FX (a0 )FY (b)
= (FX (a0 ) FX (a))(FY (b0 ) FY (b))
= P X 1 ([a, a0 [) P Y 1 ([b, b0 [)
Proposition 5.2.3 Les variables X et Y sont indpendantes si et seulement si les lois conditionnelles
sont identiques aux lois marginales (En particulier, Fx (y) ne dpendra pas de x).
5.3.1 Somme
On considre la variable alatoire Z = X + Y . On peut calculer E(Z) et V (Z) :
X1 ++Xn = X1 Xn .
Remarque (admis) : En appliquant alors la transforme de Fourier X+Y cela permet de retrouver la
loi de X + Y .
36 CHAPITRE 5. COUPLE DE VARIABLES ALATOIRES
Par drivation (thorme admis) par rapport z, la densit de probabilit de Z est dfinie par
Z + Z +
f (z) = fX (x)fY (z x) dx = FY (y)FX (z y) dy.
5.3.2 Produit
Lesprance du produit de deux variables alatoires est donn par la formule E(XY ) = E(X) E(Y ) +
Cov(X, Y ), Cov() est la covariance entre les variables. En particulier, lorsque X et Y sont indpendantes,
E(XY ) = E(X) E(Y ).
Exercice : calcul de 1 et 2 .
Soient
Z + ZZ
x2 2
+y 2 )
G= e dx et H= e(x dx dy.
0 R+ R+
On passe en coordonnes polaires en posant x = r cos et y = r sin ; les variables r et se sparent elles
aussi :
ZZ Z + Z !
r 2 r 2
2 1
H= e r dr d = e r dr d =
R+ [0, 2 [ 0 0 2 2
R + 2 R +
car 0 er r dr = 12 0 eu du = 21 (par le changement de variable r = u). On en dduit : G2 =
4,
R + 2
do G = 12 puisque G 0, et enfin : ex dx = 2G = par parit.
6.3.2 Gaussienne
On appelle loi normale (ou gaussienne) centre rduite la loi dfinie par la densit de probabilit :
R R+ dfinie par :
1 t2
(t) = e 2 .
2
R + 2
On peut vrifier quelle est continue et que son intgrale sur R est gale 1 : On sait que
ex dx =
R
(intgrale de Gauss) et en posant x = t/ 2, on trouve que R (t) dt = 1.
Remarques :
1. la densit est une fonction paire ;
2. elle est indfiniment drivable et vrifie, pour tout t R, lidentit 0 (t) = t(t).
La reprsentation graphique de cette densit est une courbe en cloche (ou courbe de Gauss).
On dmontre par la suite que la loi dfinie par cette densit de probabilit admet une esprance nulle
2
et une variance gale 1. Sa fonction caractristique vaut X (u) = eu /2 ( ne pas confondre avec la
fonction densit). Le calcul se fait de la faon suivante :
+ 2
et
Z
X (u) = eitu dt.
2
2
Or t2 + iut = 21 (t2 2iut) = 12 (t2 2iut + (iut)2 (iut)2 ) = 21 (t iu)2 + u2 . On pose
x = t iu, ainsi
+ 2 +
eu /2
Z Z
1 2
/2u2 /2 2 2
X (u) = ex dx = ex /2
dx = eu /2
.
2 2
Cours Probabilits / Pierre DUSART 39
6.3.3 Moments
Les moments de cette loi existent tous. Pour tout r N, le moment dordre r par rapport lorigine est :
Z +
mr = tn (t) dt.
En raison de la parit de lintgrande, tous les moments dordre impair sont nuls :
m2k+1 = 0.
(2k)!
m2k = 1 3 (2k 1) = .
2k k!
En particulier, m1 = 0 et m2 = 1, ainsi lesprance est nulle (la loi est donc dite centre) et la variance
vaut m2 m21 = 1 (la loi est donc dite rduite). Ceci justifie lappellation de loi normale centre rduite.
Pour la suite on supposera = 0 et 2 = 1.
Des formules prcdentes, on dduit encore : m3 = 0 et m4 = 3.
La loi tant rduite, les moments centrs sont tous gaux aux moments par rapport lorigine de mme
rang ; en particulier : 2 = 2 = 1, 3 = 0 et 4 = 3 4 . On en dduit lasymtrie (skewness) : 1 = 33 = 0
et laplatissement (kurtosis) : 2 = 44 = 3.
est la primitive de qui tend vers 0 en ; cette primitive ne sexprime pas laide des
fonctions usuelles (exponentielle, etc.) mais devient elle-mme une fonction usuelle, importante, pour
quiconque pratique le calcul des probabilits ou les statistiques. Les valeurs de cette fonction peuvent
donc se trouver sous la forme dune table ou directement dans des logiciels de calcul statistique.
Proprits de :
1. Elle est indfiniment drivable, et 0 =
2. Elle est strictement croissante, tend vers 0 en et vers 1 en +. (cest donc une bijection
R ]0, 1[ : pour tout p ]0, 1[, il existe un unique x R, not 1 (p), tel que (x) = p)
3. Pour tout x R, (x) = 1 (x) (ceci rsulte de la parit de la fonction densit) ; en particulier,
(0) = 0, 5. La table de valeurs sera donc tablie pour les valeurs x positives.
40 CHAPITRE 6. LOIS CONTINUES USUELLES
Plus gnralement, on dit quune variable alatoire relle X suit une loi normale (ou loi normale gaus-
sienne, loi de Laplace-Gauss) desprance et dcart type strictement positif si cette variable alatoire
relle X admet pour densit de probabilit la fonction suivante dfinie, pour tout nombre rel x, par :
1 1 x 2
d(x) = e 2 ( ) .
2
Une telle variable alatoire est appele variable gaussienne. On notera X , N (, ). On aura alors
2 u2
E(X) = , V (X) = 2 et X (u) = eiu 2 .
On pourrait tudier cette loi prcisment mais on se ramne au cas prcdent (loi normale centre rduite)
en considrant le thorme suivant :
X
Thorme 6.3.1 Si X suit N (, ), alors Z = suit N (0, 1).
Ainsi une seule loi sera tabule (celle de la loi normale centre rduite), les autres pourront tre dduites.
Cette loi est une des plus importantes dans la thorie des probabilits.
Thorme 6.3.2 Si X et Y sont deux variables indpendantes suivant des lois normales de moyennes
respectives 1 et 2 et de variances 12 et 22 alors X + Y suit un loi normale de moyenne = 1 + 2
et de variance 2 = 12 + 22 .
Ce thorme se gnralise bien sr toute somme finie de variables alatoires normales indpendantes.
Preuve : Il sagit de dterminer la loi de Z = X + Y . Calculons sa fonction caractristique :
p
On en dduit que Z suit N (1 + 2 , 12 + 22 ).
Cours Probabilits / Pierre DUSART 41
Soient k variables alatoires indpendantes X1 , , Xk de mme loi normale centre et rduite, alors par
dfinition la variable X, telle que
k
X
X= Xi2
i=1
suit une loi du 2 k degrs de libert. La loi du 2 (prononcer khi-deux ) est une loi caractrise
par un paramtre dit degrs de libert valeur dans lensemble des entiers naturels (non nuls). Pour une
variable alatoire suivant une loi du 2 k degrs de libert, on notera la loi de 2 (k) la loi de X. Alors
la densit de note sera :
1
f (x) = k/2 xk/21 ex/2
2 (k/2)
Le thorme de Berry-Esseen fournit une majoration de lerreur commise quand on remplace P (Xn x)
par P (Yn x) o Yn suit une loi normale desprance np et de variance npq : lerreur commise est
C
infrieure npq o C < 0, 4784 (Korolev & Shevtsova (2010)).
En pratique, on remplace une loi binomiale par une loi normale pour n grand et p pas trop proche de 0
ni de 1 (par exemple pour n > 30, np > 5 et nq > 5 ou pour npq > 9)
6.3.9 Simulation
Pour simuler la loi normale, on peut utiliser la mthode de Box-Muller : Si U1 et U2 sont des variables
alatoires indpendantes qui suivent la loi uniforme sur ]0,1[, alors on dmontre assez aisment que les
variables alatoires :
T1 = 2 ln U1 cos(2U2 )
T2 = 2 ln U1 sin(2U2 )
suivent toutes deux la loi normale centre rduite (et sont indpendantes). On peut simuler toute loi
normale N (, ), en construisant la variable Y = + T1 .
42 CHAPITRE 6. LOIS CONTINUES USUELLES
(1+2/)(1+1/)
Caractristiques : E(X) = (1 + 1/)/1/ , V (X) = 2/
o est la fonction Gamma
dEuler.
Proposition 6.4.1 Si X suit une loi exponentielle de paramtre alors X 1/ suit une loi de Weibull
W (, ).
Consquence : Pour que (Xn ) converge en probabilit vers X, il faut et il suffit que E(Xn X) 0 et
V (Xn X) 0 lorsque n (la dmonstration passe par lingalit de Bienaym-Chebychev).
1
Ainsi pour tout > 0, il existe > 0 (plus prcisment > 4n 2 ) tel que P (|Sn /n p| ) < ou
Sn
encore limn P (|Sn /n p| ) = 0. La variable alatoire n converge en probabilit vers p.
Preuve Soit > 0. Posons E(Xn ) = ` + un avec lim un = 0. Alors il existe N N tel que :
n N |un | < /2
V (Xn )
P (|Xn `| ) P (|Xn E(Xn )| /2) ,
(/2)2
Si on considre une suite de variables alatoires (Xn ) indpendantes dfinies sur un mme espace probabi-
lis, ayant mme esprance et mme variance finie notes respectivement E(X) et V (X). La loi faible des
grands nombres stipule que, pour tout rel strictement positif, la probabilit que la moyenne empirique
Sn Sn
n sloigne de lesprance dau moins , tend vers 0 quand n tend vers linfini. La moyenne n converge
en probabilit vers lesprance commune E(X).
Proprits : (admises)
1. La convergence en probabilit entrane la convergence en loi.
2. Si les (Xn ) et X sont des variables alatoires discrtes, alors Xn converge en loi vers X si et
seulement si
x R, lim P (Xn = x) = P (X = x).
n
Proposition 7.2.1 (Convergence de la loi hypergomtrique vers la loi binomiale) Soit (XN )
une suite de variables alatoires sur un mme espace probabilis, de loi hypergomtrique : XN ,
H(N, n, p) o n et p sont supposs constants. Alors (XN ) convergent en loi, quand N tend vers lin-
fini, vers X de loi binomiale B(n, p) (mmes valeurs de paramtres).
k (N p)k nk (N (1 p))nk
CN p et CN (1p) .
k! (n k)!
Finalement,
pk (1 p)nk n!
P (XN = k) = Cnk pk (1 p)nk ,
k!(n k)!
ce qui correspond la probabilit ponctuelle dune variable alatoire qui suit la loi binomiale B(n, p).
Cest pour cela que lorsque la population (de taille N ) est trs grande, on peut assimiler la loi dune
variable alatoire comptant le nombre de russite sur un tirage sans remise (loi hypergomtrique) une
loi binomiale (tirage avec remise).
Proposition 7.2.2 (Convergence de la loi binomiale vers une loi de Poisson) Soit (Xn ) une suite
de variables alatoires binomiales sur un mme espace probabilis : pour tout n, Xn suit B(n, pn ). On
suppose que limn+ pn = 0 et limn+ npn = . Alors (Xn ) convergent en loi, quand n tend vers
linfini, vers une loi de Poisson de paramtre .
Corollaire 7.2.3 (Application pratique) On peut remplacer B(n, p) par P() avec = np pour n
trs grand (n > 50) et p trs petit (p < 0, 1).
7.3.1 Continuit
Thorme 7.3.1 (thorme de continuit de Levy) Soit (Xn ) une suite de variables alatoires de
fonctions caractristiques Xn et X une variable alatoire de fonction caractristique X , toutes sur un
mme espace probabilis. Si les (Xn ) convergent en loi vers X alors la suite de fonctions (Xn ) converge
uniformment vers X qur tout intervalle [a, a].
Inversement si les (Xn ) convergent vers une fonction dont la partie relle est continue en 0, alors
est la fonction caractristique dune variable alatoire X vers laquelle les Xn convergent en loi.
On peut le rsumer ainsi :
L
{t R; Xn (t) X (t)} {Xn X}
2
et limn+ Zn (t) = et /2
qui est la fonction caractristique de N (0, 1).
Ce thorme tablit une proprit gnrale, qui va justifier limportance considrable de la loi normale,
la fois comme modle pour dcrire des situations pratiques, mais aussi comme outil thorique. Il snonce
ainsi :
Soit X1 , ..., Xi , ..., Xn , une suite de n variables alatoires indpendantes, de moyennes 1 , ..., i , ..., n ,
et de variances s1 2 , ..., si 2 , ..., sn 2 , et de lois de probabilit quelconques,
Pn leur somme suit une
Pn loi qui,
lorsque n augmente, tend vers une loi normale de moyenne = i=1 i et de variance s2 = i=1 si 2 . Il
y a une seule condition restrictive, cest que les variances soient finies et quaucune ne soit prpondrante
devant les autres.
La loi normale comme modle : prenons lexemple du fonctionnement dun tour dusinage du bois. Le
rglage du tour a pour but dobtenir des pices prsentant une cote bien dfinie ; mais on sait que de
multiples causes perturbatrices agissent au cours de lusinage dune pice : vibrations, usures, variations de
courant ... Or si les causes perturbatrices sont nombreuses, si leurs effets interviennent de faon additive,
enfin si la dispersion provoque par chacune delles reste faible par rapport la dispersion totale, alors le
thorme central limite signifie quon doit observer une fluctuation globale trs voisine de la loi normale.
Et, comme ce mcanisme dintervention de causes perturbatrices est trs rpandu dans la nature, il en
rsulte que la loi normale occupe en statistique une place privilgie.
En utilisant les proprits de la fonction caractristique (aX (t) = (at) et X+b (t) = eitb X (t)), il vient
(cos t +i sin t 1) i t ()
X (t) = eit e(cos t+i sin t1) puis X
(t) = e e . Or, lorsque tend vers
linfini, 1/ est au voisinage de 0 et
2
cos(t/ ) 1 (t/ 2 ) + 1 ()
sin(t/ ) (t/ ) + 1 ()
Ainsi
(cos(t/ ) + i sin(t/ ) 1) i t t2 /2
2
et X
(t) et /2
, fonction caractristique de N (0, 1).
Application pratique : Pour suffisamment grand (disons > 1000), la distribution normale de moyenne
et de variance est une excellente approcimation de la distribution de Poisson de paramtre . Si
est plus grand que 10, alors la distribution normale est une bonne approximation si une correction de
continuit est applique, cest--dire P (X x) lorsque x est un entier positif ou nul est remplac par
P (X x + 0, 5).
50 CHAPITRE 7. CONVERGENCES
Preuve On rappelle que lon a dfini une variable de Bernoulli comme une variable qui prend la valeur
1 avec la probabilit p, et la valeur 0 avec la probabilit (1 p), et montr que sa moyenne est gale p
et sa variance p(1 p). Or on peut considrer une variable binomiale comme la somme de n variables
de Bernoulli. Il rsulte du thorme central limite que, si n est suffisamment grand (en pratique partir
de n = 50), la loi binomiale peut tre approxime par une loi normale de moyenne np et de variance
np(1 p). Cest pourquoi les tables de la loi binomiale sarrtent gnralement n = 50.
Application pratique : on peut assimiler une loi binomiale une loi normale ds que np > 15 et nq > 15
ou n > 30, np > 5, nq > 5.
Table des matires
2 Probabilits 7
2.1 Espace probabilis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 vnement et ensemble fondamental . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2 Axiomatique de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Probabilit conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Formule des probabilits composes . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2.3 Evnements indpendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Variables alatoires 13
3.1 Dfinition dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Diffrents types de variables alatoires . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.2 Loi de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.3 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.4 Densit de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Caractristiques dune variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2.1 Tendance centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
52 TABLE DES MATIRES
6.3.3 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.3.4 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
6.3.5 Loi Normale ou de Laplace-Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.3.6 Somme de deux variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . . . 40
6.3.7 Somme de carrs de variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . 41
6.3.8 Approximation de B par N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.3.9 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.4 Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.5 Loi de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6.6 Loi de Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
7 Convergences 45
7.1 Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.1.1 Exemple de la loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.1.2 Convergence en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.1.3 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.3 Convergence des fonctions caractristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.3.1 Continuit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.3.2 Thorme central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.3.3 convergence de P vers N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7.3.4 convergence de B vers N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50