Vous êtes sur la page 1sur 84

Processus stochastiques et modlisation (Cours et exercices corrigs) L3 MIAGE, Universit de Nice-Sophia Antipolis 2011-2012 Chapitres 1,2,3

Sylvain Rubenthaler

Table des matires


1 vnements alatoires et variables alatoires 1.1 vnements et probabilits . . . . . . . . . . . . . 1.2 Variables alatoires . . . . . . . . . . . . . . . . . 1.3 Esprance et moments . . . . . . . . . . . . . . . 1.3.1 Dnitions . . . . . . . . . . . . . . . . . 1.3.2 Proprits . . . . . . . . . . . . . . . . . . 1.4 Fonctions de rpartition jointes . . . . . . . . . . . 1.4.1 Dnitions gnrales . . . . . . . . . . . . 1.4.2 Indpendance . . . . . . . . . . . . . . . . 1.5 Sommes et convolutions . . . . . . . . . . . . . . 1.6 Changement de variable . . . . . . . . . . . . . . 1.7 Lois de probabilits usuelles ( connatre par cur) 1.7.1 Lois discrtes . . . . . . . . . . . . . . . . 1.7.2 Lois continues . . . . . . . . . . . . . . . 1.8 Exercices . . . . . . . . . . . . . . . . . . . . . . 1.8.1 noncs des exercices . . . . . . . . . . . 1.8.2 Corrigs des exercices . . . . . . . . . . . 1 1 3 6 6 8 9 9 11 13 15 16 16 17 17 17 20 31 31 31 31 34 34 35 37 40 40 41 43 43 45 49 49 53 53

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . .

Thormes limites et mthode de Monte-Carlo 2.1 Les direntes notions de convergence . . . . . . . . 2.2 Thormes limites . . . . . . . . . . . . . . . . . . . 2.2.1 Loi des grands nombres . . . . . . . . . . . 2.2.2 Application de la loi des grands nombres . . 2.2.2.1 Dessin de la fonction de rpartition 2.2.2.2 Dessin de la densit . . . . . . . . 2.2.3 Thorme central-limite . . . . . . . . . . . 2.2.4 Application du TCL . . . . . . . . . . . . . 2.2.4.1 Sondages . . . . . . . . . . . . . . 2.2.4.2 Planche de Galton . . . . . . . . . 2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 noncs . . . . . . . . . . . . . . . . . . . . 2.3.2 Corrigs . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

Probabilits et esprances conditionnelles 3.1 Conditionnement dans le cas discret . . . . . . . . . . . . . . . . . . . . . . . 3.2 Sommes alatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Probabilits conditionnelles dans le cas mlang . . . . . . . . . . . . . . . . . i

3.4 3.5 3.6 3.7

Moments et loi dune somme alatoire . . . Conditionnement par une variable continue Statistiques pour les nuls . . . . . . . . . . Exercices . . . . . . . . . . . . . . . . . . 3.7.1 noncs . . . . . . . . . . . . . . . 3.7.2 Corrigs . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

55 58 59 60 60 62 71 73 75 77

Liste des symboles Index A Table de la loi normale B Fonctions, intgrales et sommes usuelles

ii

Prface
Ce cours est une introduction aux probabilits utilisant quelques notions de programmation. Les exemples de programmation seront donns en scilab 1 . Ce cours sadresse des tudiants de la lire MIAGE, les notions mathmatiques sont simplies. Les corrigs des exercices sont volontairement succint et contiennent involontairement des erreurs. Cela devrait faire rchir les tudiants. Cette version est provisoire. Les chapitres suivants seront ajouts plus tard. Informations utiles (examens, corrigs ...) : http://www.math.unice.fr/~rubentha/enseignement

1. http://www.scilab.org/products/scilab/download

iii

iv

Chapitre 1

vnements alatoires et variables alatoires


1.1 vnements et probabilits

Nous donnons ici des rgles calculs sans rentrer dans le dtail des dnitions mathmatiques. Dnition 1.1.1. Nous notons lensemble de toutes les possibilits (un lment quelconque de sera souvent not et sappellera un ala). On dira aussi que est lensemble des possibles, lunivers, lunivers des possibles, ... Un vnement (que lon peut aussi orthographier vnement) est une partie de . Exemple 1.1.2. Si on jette un d, A = on tire un 6 = { , on tire un 6} est un vnement (dans lgalit prcdente, les trois termes veulent dire la mme chose. De mme, B = le rsultat est suprieur ou gal 3 est aussi un vnement. Dnition 1.1.3. Soient A, B deux vnements. Lvnement il arrive A ou B (ce qui veut dire que lon a au moins lun des deux) sappelle la runion de A et B et se note A B. On notera aussi A B = { , A ou B}. Exemple 1.1.4. On reprend lexemple du lancer de d. Soit A = le rsultat est pair, B = le rsultat est suprieur ou gal 3. Alors A B = le rsultat est dans {2, 3, 4, 5, 6}. Dnition 1.1.5. Soient A, B deux vnements. Lvnement il arrive A et B (ce qui veut dire que lon a les deux en mme temps) sappelle lintersectionde A et B et se note A B. On notera aussi A B = { , A et B}. Exemple 1.1.6. Avec les A, B de lexemple prcdent , A B = le rsultat est dans {4, 6}. Dnition 1.1.7. Soient une liste au plus dnombrable dvnements A1 , A2 , . . . (au plus dnombrable veut dire que lon peut numroter ces vnements avec de indices entiers, la liste des indices est nie ou innie). Lvnement lun au moins de ces vnements a lieu se note A1 A2 = i=1 Ai . Attention, si on a une liste nie dvnements A1 , . . . , An , i=1 Ai veut dire par convention A1 A2 An . Lvnement tous ces vnements ont lieu se note A1 A2 = i=0 Ai . 1

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

Dnition 1.1.8. La probabilit dun vnement A se note P(A). Nous avons toujours P() = 1. Lvnement impossible se note et vrie P() = 0. Pour tout vnement A, 0 P(A) 1. Exemple 1.1.9. On reprend lexemple du lancer de d ci-dessus. Soit A = le rsultat est 1. Alors P(A) = 1/6. Les rgles de calcul qui suivent sont plus importantes que les dnitions prcdentes. Dnition 1.1.10. Deux vnements A, B sont dits disjoints si A B = (on ne peut pas avoir la fois A et B). Exemple 1.1.11. Toujours avec le lancer de d, soit A = le rsultat est pair, B = le rsultat est impair. Alors A B = , ces deux vnements sont disjoints (le rsultat ne peut pas tre pair et impair). Proposition 1.1.12. Loi daddition. Si deux vnements A, B sont disjoints alors P(A B) = P(A) + P( B). Si une liste au plus dnombrable dvnements A1 , A2 , . . . est telle que i, j 1, Ai A j = , alors P( i=1 P( Ai ). i=1 Ai ) = Exemple 1.1.13. Toujours avec lexemple du lancer de d. Soit A = le rsultat est pair, B = le rsultat est gal 3. Nous avons A B = 0 et donc P(A B) = P(A) + P( B) = 1/6 + 3/6 = 4/6 = 2/3. Proposition 1.1.14. Loi des probabilits totales. Soit une liste au plus dnombrable dvnements A1 , A2 , . . . telle que i, j 1, Ai A j = et = i=1 Ai . Soit B un vnement. Alors P( B) = P ( A B ) . i i=1 Dmonstration. Soient i, j 1. Montrons par labsurde que (Ai B) (A j B) = . Si (Ai B) (A j B), alors Ai A j , or Ai A j = , nous avons donc l une contradiction. Montrons que B = i=1 ( B Ai ). Soit B. Nous avons = i=1 Ai donc j tel que A j . Donc B A j . Donc ( B A ). Donc B ( B Ai ). i i=1 i=1 Soit ( B A ). Il existe j tel que B A j , donc B. Donc i i=1 i=1 ( B Ai ) B. On dduit de ces deux points que B = i=1 ( B Ai ). Nous avons par la proposition 1.1.12,

P( B) =
i=1

P( B Ai ) .

Proposition 1.1.15. Proprits de P. Si A, B sont deux vnements tels que A B alors P(A) P( B). Dmonstration. Notons B\A = { : B, A} (cette dnition est valable aussi si A B). Nous avons B = A ( B\A) et A ( B\A) = . Donc, par la proposition 1.1.12, P( B) = P(A) + P( B\A). Ces quantits sont positives donc P(A) P( B). Notation 1.1.16. On notera P(A, B) pour dire P(A B).

1.2. VARIABLES ALATOIRES

1.2

Variables alatoires

Dnition 1.2.1. Une variable alatoire valeurs dans un ensemble E est une application de dans E. Notation 1.2.2. Nous noterons v.a.r. (variable alatoire relle) pour parler dune variable alatoire valeurs relles. Exemple 1.2.3. Soit X le rsultat dun lancer de d. Lensemble { : X () = 6} est un vnement. La notation P(X = 6) est un raccourci pour dire P({ : X () = 6}). Pour simuler X en scilab, on peut se servir de linstruction suivante Algorithme 1.1 Lancer de d grand(1,1,uin,1,6) // grand est le gnrateur de nombres alatoires de scilab // les deux premiers paramtres $(1,1)$ indiquent que lordinateur renvoie un // tableau de taille $1\times 1$(donc une seule variable) // uin indique que le rsultat est un entier // les deux derniers paramtres $(1,6)$ indique que le rsultat est entre $1$ et $6$ // uin indique que la variable est uniforme dans $\{1,\dots,6\}$ ($1,\dots,6$ ont la mme probabilit de //sortir ($1/6$)) Voici le rsultat de plusieurs appels successifs de cette instruction : >grand(1,1,uin,1,6) ans = 4. >grand(1,1,uin,1,6) ans = 5. >grand(1,1,uin,1,6) ans = 2. >grand(1,1,uin,1,6) ans = 5. Dnition 1.2.4. Fonction de rpartition Soit X une variable alatoire valeurs dans R. La fonction de rpartition de X est la fonction t R P(X t) R. Exemple 1.2.5. Soit X le rsultat dun lancer de d. Nous avons i {1, . . . , 6}, P(X = i) = 1/6. Soit t < 1. Nous avons { : X () t} = (X nest jamais t) donc P(X t) = 0. Soit t [1; 2[. Nous avons { : X () t} = { : X () = 1} (que lon peut crire plus simplement {X t} = {X = 1}. Donc P(X t) = P(X = 1) = 1/6. Soit t [2; 3[. Nous avons { : X () t} = { : X () {1, 2}} (que lon peut crire plus simplement {X t} = {X = 1 ou 2}. Donc P(X t) = P({X = 1} {X = 2}) = P(X = 1) + P(X = 2) = 2/6 (on peut utiliser la proposition 1.1.12 parce que {X = 1} {X = 2} = ). ... Soit t 6. Nous avons {X t} = donc P(X t) = 1. Nous pouvons maintenant dessiner la fonction de rpartition de X (gure 1.1). Proposition 1.2.6. Proprits de la fonction rpartition Soit X une variables alatoire valeurs relles et soit F sa fonction de rpartition. Soient a, b R. Nous avons : 1. P(X > a) = 1 F (a),

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

Figure 1.1 Fonction de rpartition pour le lancer de d 2. P(a < X b) = F (b) F (a), 3. P(X = x) = F ( x) lim 0 F ( x ) = F ( x) F ( x) (F ( x) signie la limite gauche de F en x). Dmonstration. 1. Nous avons 1 = P(X R) = P(X > a) + P(X a) (le lecteur vriera lui-mme que nous pouvons bien appliquer la proposition 1.1.12). Donc P(X > a) = 1 P(X a) = 1 F (a). 2. Nous avons P(X b) = P(X a) + P(a < X b) (mme remarque que ci-dessus) donc P(a < X b) = F (b) F (a). 3. Ce point est admis. Exemple 1.2.7. Reprenons lexemple prcdent. En utilisant la proposition ci-dessus, nous obtenons : P(X > 2) = 1 P(X 2) = 1 (P(X = 1) + P(X = 2)) = 4/6 = 2/3, P(X = 2) = F (2) F (2) = 2/6 1/6 = 1/6. Dnition 1.2.8. Une variable alatoire X est dite discrte sil existe nombre au plus dnombrable de valeurs x1 , x2 , . . . telles que i, ai := P(X = xi ) > 0. (Notation : nous utilisons ici le symbole := pour dire ai est dni comme tant gal P(X = xi ).) La fonction (qui sapplique aux xi ) xi pX ( xi ) = ai sappelle la fonction de masse de la variable X. Proposition 1.2.9. Soit X une variable alatoire relle discrte, de fonction de masse pX et de fonction de rpartition F X . Nous avons la relation (i) pX ( xi ) = F X ( xi ) F X ( xi ) . La fonction F X est constante par morceaux. Elle ne change de valeurs quaux points xi . Exemple 1.2.10. Reprenons lexemple prcdent du lancer de d. La variable X est discrte et nous avons bien P(X = 2) = F (2) F (2).

1.2. VARIABLES ALATOIRES

Dnition 1.2.11. Une v.a.r. X est dite continue si sa fonction de rpartition F est une fonction continue. Dnition 1.2.12. Soit X une v.a.r. Sil existe une fonction f de R dans R+ telle que a < b R, P(a X b) =
a b

f ( x)dx ,

alors cette fonction f sappelle la densit de probabilit de X (on dit aussi la densit tout court). Proposition 1.2.13. La dnition ci-dessus implique que si X a une densit f alors a, b [; +], P(a X b) =
a b

f ( x)dx ,

et P(X = a) = 0 . Proposition 1.2.14. Soit X une v.a.r. Si X a une densit f alors X est continue et x R, F ( x) =
x

f (t)dt .

Proposition 1.2.15. Si X est une v.a.r. de fonction de rpartition F telle que F est drivable, alors X a une densit f qui est gale ( x) f ( x) = F ( x) . Si F est drivable partour sauf en un nombre ni de point, X est encore continue et elle a pour densit f = F (que lon peut calculer partout sauf en un nombre ni de points, on met nimporte quelle valeur pour f aux points o F nest pas drivable). Remarque 1.2.16. Sil y a un nombre ni de points o la drive de Fest complique calculer, on peut se contenter dassigner f des valeurs arbitraires en ces points. Exemple 1.2.17. Soit X une v.a.r. ayant la fonction de rpartition suivante (voir gure 1.2 pour le dessin) (il sagit de la variable uniforme sur [0; 1]) 0 si x 0 x si 0 x 1 1 si 1 x .

F ( x) =

Cette fonction F est continue donc X est une variable continue. La fonction F est drivable partout sauf aux points 0, 1. Calculons la drive f = F , nous obtenons (voir gure 1.3 pour le dessin) : 0 si x < 1 f ( x) = 1 si 0 x 1 0 si 1 < x . Remarquons que les valeurs f (0) et f(1) sont arbitraires.

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

Figure 1.2 Fonction de rpartition de la variable uniforme sur [0; 1]. Algorithme 1.2 Variable uniforme sur [0; 1] grand(1,1,unf,0,1) // gnre une variable alatoire uniforme dans [0, 1] // les deux premiers pramtres veulent dire quon rcupre un tableau 1 1 // de variables alatoires, donc une seule variable Voici le rsultat de plusieurs appels successifs de cette instruction >grand(1,1,unf,0,1) ans = 0.9811097 >grand(1,1,unf,0,1) ans = 0.9571669 >grand(1,1,unf,0,1) ans = 0.1098618 Il existe des v.a.r. qui ne sont ni discrtes ni continues mais nous nen parlerons pas dans ce cours.

1.3
1.3.1

Esprance et moments
Dnitions

Dnition 1.3.1. Si X est une v.a.r. discrte (qui prend les valeurs x1 , x2 , . . . ) son moment dordre m est E( X m ) = xim P(X = xi )
i1 m si cette srie converge absolument (cest dire limn+ n i=1 | xi | P( X = xi ) < +). Dans le cas contraire, on dit que le moment dordre m nexiste pas. Le moment dordre 1 sappelle la moyenne.

1.3. ESPRANCE ET MOMENTS

Figure 1.3 Densit de la variable uniforme sur [0; 1]. Dnition 1.3.2. Si X est une v.a.r. continue de densit f , son moment dordre m est E(X m ) =
+

xm f ( x)dx

si cette intgrale converge absolument (ce qui est quivalent : M lim M+ M | x|m f ( x)dx < +). Dans le cas contraire, on dit que le moment dordre m nexiste pas. Dnition 1.3.3. Le moment dordre 1 dune v.a.r. X sappelle son esprance (on dit aussi sa moyenne). Nous avons E(1) = 1 (la moyenne de la variable constante gale 1 est 1). Dnition 1.3.4. Soit X une v.a.r. de moyenne X . Le moment dordre 2 de X X sappelle la variance de X. Ce moment est donc gal E((X X )2 ) = E((X E(X ))2 ). Nous noterons Var(X ) la variance de X. Dnition 1.3.5. On appelle mdiane dune v.a.r. X toute valeur telle que P(X ) 1/2 et P(X ) 1/2 . Exemple 1.3.6. Soit X une v.a.r. uniforme sur [0; 1] (voir exemple 1.2.17). Notons f la densit de X. Calculons E(X ) = = =
+

x f ( x)dx
0

0dx +
0 1

xdx +
1

0dx

x2 2

=
0

1 . 2

Calculons maintenant la variance de X

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES 1 E((X )2 ) 2 = =


+

x
0

1 2

f ( x)dx
1

0dx +
0 3 1

1 2

dx +
1

0dx

1 1 = 3 x 2 0 = 1 1 1 3 8 8

1 . 12

1.3.2

Proprits

Si X est une v.a.r. et g : R R alors Y = g(X ) est encore une v.a.r. Proposition 1.3.7. Si de plus, X est une variable discrte (qui prend les valeurs x1 , x2 , . . . ), alors E(g(X )) =
i1

g( xi )P(X = xi )

si cette srie converge absolument. Proposition 1.3.8. Dans le cas o X est une variable continue de densit f , alors E(g(X )) = si cette intgrale converge absolument. Exemple 1.3.9. On reprend lexemple prcdent. Calculons E(eX ) = = =
+ 1 +

g( x) f ( x)dx

e x f ( x)dx

e x dx
0 [e x ]1 0

= e1 1 .

Proposition 1.3.10. Linarit de lesprance. Soient X, Y deux v.a.r. et , R, E(X + Y ) = E(X ) + E(Y ) .

Lemme 1.3.11. Soient X1 , . . . , Xn des v.a.r. et soient h1 , . . . , hm des fonctions de Rn dans R, alors : m m E h ( X , . . . , X ) = E(h j (X1 , . . . , Xn )) . j 1 n
j=1 j=1

Proposition 1.3.12. Croissance de lesprance. Si X, Y sont deux v.a.r. telles que , X () Y () alors E(X ) E(Y ).

1.4. FONCTIONS DE RPARTITION JOINTES

1.4
1.4.1

Fonctions de rpartition jointes


Dnitions gnrales

Dnition 1.4.1. Soient X, Y deux v.a.r., leur fonction de distribution jointe est la fonction R2 R (une fonction de deux variables) dnie par F XY ( x, y) = P(X x, Y y) . Rappelons que P(X x, Y y) veut dire P({X x} {Y y}). Le couple (X, Y ) est dit possder une densit sil existe une fonction fXY (de deux variables) telle que F XY ( x, y) =
x y

fXY (u, v)dudv , x, y .

(1.4.1)

La fonction F X ( x) = limy+ F XY ( x, y) est gale la fonction de rpartition de la variable X. On lappelle la fonction de distribution marginale de X. De mme, FY (y) = lim x+ F XY ( x, y) est la fonction de rpartition de Y. Si F XY a une densit fXY alors F X et FY ont les densits respectives x f X ( x) =
+

fXY ( x, y)dy , y fY (y) =

fXY ( x)dx .

Exemple 1.4.2. Soient X, Y de fonction de rpartition jointe F XY ( x, y) = 0 min( x, 1) min(y, 1) si x ou y < 0 sinon .

Algorithme 1.3 Fonction F XY function [z]=FXY(x,y) if (x<0) then r=0 ; else if (y<0) then r=0 ; else r=min(1,x)*min(1,y) end, end, z=r ; endfunction On remarque quil existe une densit : 1 fXY ( x, y) = 0 si x, y [0; 1] sinon .

10

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

Vrions que nous avons bien la relation (1.4.1) pour x [0; 1], y > 1 :
x y

fXY (u, v)dudv

= +

0dudv +
0

0dudv
x y

x 1 0

1dxdy +
0

0dxdy
1

= = =
0

1dx x min(1, x) min(1, y) .

Calculon la fonction de rpartition marginale de X : min(1, x) F X ( x) = lim F XY ( x, y) = 0 y+ si x 0 sinon .

Le graphe de F X est le mme que celui de la gure 1.2. Calculons la densit marginale de X : f X ( x) = = = fXY ( x, y)dy si x [0; 1] 0 1 1dy si x [0; 1] 0 0 si x [0; 1] 1 si x [0; 1] .
+

Son graphe est le mme que celui de la gure 1.3. Notation 1.4.3. Fonction indicatrice Soit A E des ensemble quelconques. Nous introduisons 1 1A : x E 0 Lemme 1.4.4. Si A est un vnement, alors E(1A ) = P(A) . Dmonstration. La variable alatoire 1A () est une variable discrte ( valeurs dans {0, 1}. Nous avons P(1A = 1) = P(A), P(1A = 0) = P(Ac ), donc E(1A ) = = P(A) 1 + P(Ac ) 0 P(A) . si x A si x A .

Exemple 1.4.5. La fonction 1[0;1] . Son graphe est celui de la gure 1.3.

1.4. FONCTIONS DE RPARTITION JOINTES Algorithme 1.4 Fonction indicatrice de [0; 1] function [z]=indicator(x) if (x<1) then if (x>=0) then r=1 ; else r=0 ; end, else r=0 ; end, z=r ; endfunction Cette fonction est gale fX de lexemple prcdent.

11

1.4.2

Indpendance

Dnition 1.4.6. Soient X, Y deux v.a.r. de fonction de rpartition jointe F XY et de fonctions de rpartition marginales F X , FY (respectivement pour X et Y). Si F XY ( x, y) = F X ( x) FY (y), x, y alors on dit que X et Y sont indpendantes. On notera X Y pour dire que X et Y sont indpendantes. Remarque 1.4.7. Deux appels successifs de variables alatoires lordinateur renvoient deux variables indpendantes. Lemme 1.4.8. Si X, Y sont deux v.a.r. de densit jointe fXY et de densits marginales (respectivement) fX , fY alors fXY = fX fY (cest dire, x, y, fXY ( x, y) = fX ( x) fY (y). Proposition 1.4.9. Si X, Y sont deux v.a.r. indpendantes et f , g sont deux fonctions alors f (X ) et g(Y ) sont deux variables indpendantes et E( f (X )g(Y )) = E( f (X )) E(g(Y )) . Proposition 1.4.10. Si X, Y sont deux variables indpendantes et U, V sont deux ensembles, alors les vnement {X U } et {Y V } vrient P({X U } {Y V }) = P(X U ) P(Y V ) et on dit que les vnements {X U }, {Y V } sont indpendants. Exemple 1.4.11. Soient X, Y les rsultats de deux lancers de d. On suppose X Y. Calculons laide de la proposition prcdente P({X {1, 2}} {Y 4}) = = P(X {1, 2}) P(Y 4) 1 1 1 = . 3 2 6

Dnition 1.4.12. Soient X, Y deux v.a.r. indpendantes de moyennes X , Y respectivement. La covariance de X et Y est la quantit suivante : XY := E((X X )(Y Y )) = E(XY ) X Y . (1.4.2)

12

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

Remarque 1.4.13. La deuxime galit dans (1.4.2) est une consquence de la proposition 1.3.10 (linarit de lesprance). Calculons : E((X X )(Y X )) = (par prop. 1.3.10) = E(XY X Y Y X + X Y ) E(XY ) X E(Y ) Y E(X ) + X Y .

Remarquons que si X = Y, nous avons montr Var(X ) = E((X X )2 ) = E(X 2 ) E(X )2 . (1.4.3)

Dnition 1.4.14. La fonction de rpartition jointe de v.a.r. X1 , X2 , . . . , Xn est dnie par F ( x1 , . . . , xn ) = P({X1 x1 } {X2 < x2 } {Xn < xn }) , que lon peut galement noter : P(X1 x1 , X2 x2 , . . . , Xn xn ). Notons F Xi la fonction de rpartition de Xi (i). Si F = F X1 F X2 ...F Xn alors les variables X1 , . . . , Xn sont dites indpendantes. Exemple 1.4.15. Reprenons lexemple 1.4.2. Nous avons calcul que la fonction de rpartition de X est min(1, x) si x 0 x = 1[0;+[ ( x) min(1, x) , 0 sinon o nous utilisons la notation 1.4.3. On peut montrer de mme que la fonction de rpartition de Y est FY = F X (ce qui veut dire FY (u) = F X (u), u). Nous avons F XY = F X FY donc X Y. Lemme 1.4.16. Soient U1 , U2 , . . . des variables indpendantes, toutes de loi B( p) (p [0; 1] x). Alors, n N , U1 + + Un B(n, p) . Dmonstration. Soit n N . La variable U1 + + Un est valeurs dans {0, 1, 2, . . . , n}. Soit k {0, 1, . . . , n}. Nous avons {U 1 + + U n = k } = I {1,...n},#I =k ({Ui = 1, i I } {Ui = 0, i I c }) ,

et cette runion est disjointe. Donc : P(U1 + + Un = k) =


I {1,...,n},#I =k

P({Ui = 1, i I } {Ui = 0, i I c }) P(Ui = 1)


I {1,...,n},#I =k iI i I c k

(les Ui sont indpendants) = = =


I {1,...,n},#I =k n k 1 Cn .

P(Ui = 0)

1 2

1 2

nk

1.5. SOMMES ET CONVOLUTIONS

13

1.5

Sommes et convolutions

Proposition 1.5.1. Si X, Y sont deux v.a.r. indpendantes de fonctions de densit fX , fY respectivement. Alors, la fonction de densit de leur somme Z = X + Y est la convolution de fX et fY , cest dire la fonction : z fZ (z) =
+

fX (z u) fY (u)du ,

remarquons que la dernire quantit est gale (par changement de variable)


+

fY (z u) fX (u)du .

Exemple 1.5.2. Soient X, Y deux variables alatoires uniformes sur [0; 1] et indpendantes (voir exemple 1.2.17 pour la dnition de la variable uniforme). Ces variables ont la densit : x f ( x) = 1[0;1] ( x) . Calculons la densit de Z = X + Y (nous la notons fZ ). Pour tout z R, fZ (z) =
+

f (z u) f (u)du = =

1[0;1] (z u)1[0;1] (u)du


1 0

1[0;1] (z u)du .

Donc si z [0; 2] alors fZ (z) = 0. Si z [1; 2] , remarquons que 1[0;1] (z u) = 1 si et seulement si z u [0; 1], cest dire z 1 u z. Pour z [1; 2], z 1 [0; 1] et z 1 donc fZ (z) = Si z [0; 1], z 1 0 et z [0; 1] donc fZ (z) =
0 z 1 z1

1du = 2 z .

1du = z .

Le dessin de fZ est dans la gure 1.4.

Figure 1.4 Densit de la somme de deux variables uniformes sur [0; 1] indpendantes.

14

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

2 Proposition 1.5.3. 1. Si X, Y sont deux v.a.r. indpendantes de variances 2 X , Y respec2 2 tivement, alors la variance de X + Y est X + Y .

2. Si X1 , . . . , Xn sont des v.a.r. indpendantes telles que i, Xi est de variance 2 i . Alors 2 X1 + + Xn est de variance 2 + + . n 1 Dmonstration. Nous ne dmontrons ici que le premier point. Nous avons : E(X + Y ) = et E((X + Y E(X ) E(Y ))2 ) = (car X Y) = = E((X E(X ))2 + (Y E(Y ))2 + 2(X E(X ))(Y E(Y )))
2 2 X + Y + 2E( X E( X )) E(Y E(Y )) 2 2 X + Y + 0 .

E(X ) + E(Y )

Proposition 1.5.4. Si X, Y sont deux variables discrtes indpendantes avec X valeurs dans { x1 , x2 , . . .} et Y valeurs dans {y1 , y2 , . . .}, alors Z = X + Y est valeurs dans { xi + y j : i, j 1} et i0 , j0 1, P(Z = xi0 + y j0 ) =
i, j1: xi +y j = xi0 + y j0

P(X = x j )P(Y = y j ) .

Dmonstration. Soient i0 , j0 0. Calculons P(Z = xi0 + y j0 ) = (runion disjointe) =


i, j0: xi +y j = xi0 +y j0

P(i, j0: xi +y j = xi0 +y j0 {X = xi , Y = y j }) P(X = xi , Y = y j ) P(X = xi )P(Y = y j ) .


i, j0: xi +y j = xi0 +y j0

(car X Y)

Exemple 1.5.5. Soient X Y valeurs dans N (N = {0, 1, 2, 3, . . .} tels que i 0, P(X = i) = 1 2 , P(Y = i) = i+1 . 2i+1 3

1.6. CHANGEMENT DE VARIABLE Soit Z = X + Y. La variable Z est valeurs dans N. Soit n N, calculons
n

15

P(Z = n) =
j=0 n

P(X = j)P(Y = n j) 1 2 j+1


n j=0

=
j=0

3j 2j

2 3n j+1

2 1 3 3n 2 1 3 3n 4 1 3 3n

(somme gomtrique)

= = =

3 n+ 1 1 2 3 1 2 n+1 3 1 2

4 1 . 2n1 3n+1

1.6

Changement de variable

Soit X une v.a.r. valeurs dans un intervalle (a; b) (que nous notons avec des parenthses pour dire que lintervalle peut tre ouvert ou ferm en chacune des bornes) et g une fonction bijective (a; b) (c; d) ((c; d) est un autre intervalle) (g est donc soit croissante, soit dcroissante). Notons g1 la fonction inverse de g. Posons Y = g(X ). La variable Y est valeurs dans (c; d). Soit F X , F X les fonctions de rpartitions de X, Y respectivement. Lemme 1.6.1. Nous avons les relations : 1. Si g est croissante : y ]c; d[, FY (y) = F X (g1 (y)). 2. Si g est dcroissante : y ]c; d[, FY (y) = P(X = g1 (y)) + 1 F X (g1 (y)) . On ne se proccupe pas de ce qui peut se passer en c et d. Dmonstration. 1. Si g est croissante : y (c; d), FY (y) = = = = Si g est dcroissante : y (c; d), FY (y) = = = = = P(Y y) P(g(X ) y) P(X g1 (y)) P(X = g1 (y)) + P(X > g1 (y)) P(X = g1 (y)) + 1 F X (g1 (y)) . P(Y y) P(g(X ) y) P(X g1 (y)) F X (g1 (y)) .

16

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

Proposition 1.6.2. Formule de changement de variable pour la densit. Si X a une densit fX alors Y a une densit fY nulle en dehors de (c; d) et telle que : 1. Si g est croissante : y (c; d), fY (y) = 2. Si g est dcroissante : y (c; d), fY (y) = fX (g1 (y)) . g (g1 (y)) fX (g1 (y)) . g (g1 (y))

On ne se proccupe pas de ce qui peut se passer en c et d. Exemple 1.6.3. Soit X variable uniforme sur [0; 1]. Soit Y = X 2 . Soit g la fonction x [0; 1] g( x) = x2 [0; 1]. Cette fonction est bijective et Y = g(X ). La densit fX de X vrie fX ( x) = 1 si x [0; 1]. La densit fY de Y est donc nulle en dehors de [0; 1] et pour y [0; 1] : fY (y) = 1 . 2 y

Exemple 1.6.4. Soit X N (0, 1) (voir section suivante pour la dnition). Soit fX la densit de X. Soient > 0, R. Posons Y = X + . Nous voulons calculer la densit de Y. La fonction x R x + est bijective croissante de rciproque g1 (y) = (y )/. Donc la densit de Y est la fonction : y Donc Y N (0, 1).
2 2 fX (g1 (y)) exp (y ) /2 1 = . 1 g (g (y)) 2

1.7

Lois de probabilits usuelles ( connatre par cur)

Notation 1.7.1. Nous noterons X . . . pour dire X suit la loi ....

1.7.1

Lois discrtes

a) Loi uniforme. Soit E ensemble ni de cardinal n, X est une variable uniforme sur E si x E , P(X = x) = 1 n. b) Loi de Bernoulli de paramtre p ( [0, 1]) , note B( p) : X valeurs dans {0, 1} telle que P(X = 1) = p, P(X = 0) = 1 p. c) Loi binmiale de paramtres n, p (n N , p [0, 1]), note B(n, p) : X valeurs dans k k {0, . . . , n} telle que k {0, . . . , n}, P(X = k) = Cn p (1 p)nk . d) Loi gomtrique de paramtre p ( [0, 1]), note G( p) : X valeurs dans N telle que k N, P(X = k) = (1 p)k1 p. e) Loi de Poisson de paramtre (> 0), note P() : X valeurs dans N telle que k N, k P(X = k) = k! e

1.8. EXERCICES

17

1.7.2

Lois continues

1 a) Loi uniforme sur [a, b] (a < b), note U ([a, b]) : de densit x b a 1[a,b] ( x). b) Loi exponentielle de paramtre ( > 0), note E() : de densit x e x 1R+ ( x). c) Loi gaussienne (ou normale) de moyenne m ( R) et de variance 2 ( R+ ), note N (m, 2 ) : m)2 de densit x 1 2 exp ( x2 2 2

1.8
1.8.1

Exercices
noncs des exercices

1. Soient A, B des vnements. Montrer que P(A) = P(A B) + P(A Bc ) (o Bc = { , B}, cest le complmentaire de B). 2. Soient A, B des vnements. Montrer que P(A B) = P(A) + P( B) P(A B) (On pourra utiliser le rsultat de lexercice prcdent.) 3. (a) Faire un dessin de la fonction de rpartition 0 si x 0 3 F ( x) = x si 0 < x < 1 1 si x 1 . (b) Dterminer la fonction de densit correspondante dans les rgions : x 0, 0 < x < 1, x 1. (c) Quelle est la moyenne de cette distribution ? (On demande ici la moyenne de X variable alatoire de fonction de rpartition F .) (d) Si X a F pour fonction de rpartition, calculer P(1/4 X 3/4). 4. Soit Z une variable alatoire discrte pouvant prendre les valeurs 0, 1, 2, 3. La fonction de masse de Z est la suivante 1 1 1 1 p(0) = , p(1) = , P(2) = , P(3) = . 4 2 8 8 (a) Dessiner la fonction de rpartition de Z . (b) Calculer E(Z ). (c) Calculer la variance de Z . 5. Soient X, Y des v.a.r. de fonctions de rpartition F X , FY respectivement. (a) Soit Z = max(X, Y ). Montrer que la fonction de rpartition de Z est z FZ (z) = F X (z)FY (z). (b) Soit W = min(X, Y ). Montre que la fonction de rpartition de W est w 1 (1 F X (w))(1 FY (w)). 6. Algorithme 1.5 Simulation de variable alatoire U=grand(1,1,unf,0,1) ; // simule une loi uniforme dans [0 ;1] X=U^(1/2) ; // racine carre de U disp(X) ; // ache le rsultat X

18

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES (a) Lalgorithme ci-dessus simule une variable alatoire X . Calculer la densit de X (on la notera fX ). (b) Calculer la fonction de rpartition F X de X . (c) Calculer E(X ). (d) Calculer Var(X ). 7.

Algorithme 1.6 Simulation de variable alatoire U=grand(1,1,unf,0,1) ; X=-log(U) ; Y=-log(1-U) ; disp(X) ; disp(Y) ; (a) Lalgorithme ci-dessus simule des variables alatoires X, Y . Calculer la densit de X (note fX ). Calculer la densit de Y (note fY ). (b) Calculer les fonctions de rpartition de X, Y (notes respectivement F X , FY ). (c) Calculer la fonction de rpartition de rpartition jointe de X et Y . Les variables X, Y sont-elles indpendantes ? 8. Soit V une v.a.r. de fonction de rpartition donne par la procdure suivante (A > 0 est une constante quelconque). Algorithme 1.7 Fonction de rpartition (exercice 8) function [r]=repartition(x) if (x<0) then y=0 ; else if (x<=1) then y=1-(1-x)^A ; else y=1 ; end, end, r=y ; endfunction (a) (b) (c) (d) (e) Donner une expression mathmatique de F . Calculer la densit de la variable V . Faire un dessin de la densit pour A = 1/2. Calculer E(V ) pour A = 1/2. Calculer Var(V ) pour A = 1/2.

9. Rappelons la dnition de 1A la variable alatoire fonction indicatrice dun vnement A (voir la notation 1.4.3). Pour tout , nous avons 1 si A 1A () = 0 sinon .

1.8. EXERCICES

19

En dautres termes, 1A est une v.a.r. qui vaut 1 si lvnement A a lieu et 0 sinon. Montrer les points suivants. (a) 1Ac = 1 1A , (b) 1AB = 1A 1B = min(1A , 1B ), (c) 1AB = max(1A , 1B ). 10. Algorithme 1.8 Pile ou face b=0 ; N= 1 ; x=grand(1,1,uin,0,1) ; // variable alatoire qui vaut 0 ou 1 (avec proba. 1/2) while (b==0) N=N+1 ; y=grand(1,1,uin,0,1) ; if (x==y) then b=1 ; end, x=y ; end, disp("N=",N) ; (a) Calculer la fonction de masse de N . (b) Soit A = { : N () est pair } (cest lvnement N est pair) et B = { : N () 6}. Calculer P(A), P( B), P(A B). 11. Soient U, W des v.a.r. telles que P({U > u} {W > w}) = P(U > u)P(W > w) , u, v . Montrer que U W. 12. Soient X Y de fonctions de masse 1 1 , PX (3) = , 2 2 1 1 1 PY (1) = , PY (2) = , PY (3) = . 6 3 2 Calculer la fonction de masse de Z = X + Y . Soient U V de fonctions de masse 1 1 1 PU (0) = , PU (1) = , PU (2) = , 3 3 3 1 1 PV (1) = , PV (2) = . 2 3 Calculer la fonction de masse de W = U + V . Soient X Y de densits avec X E(1), Y E(2). Calculer la densit de X + Y . On joue pile ou face 5 fois de suite. Quelle est la probabilit dobtenir 3 faces en tout ? Soit X P() ( > 0). Calculer P(X = 2), P(X 2). La dure de vie (en anne) dune ampoule est alatoire de loi E(2). Calculer la probabilit que cette dure de vie soit 1,5 anne. Calculer la probabilit que cette dure soit = 1,5 anne. PX (0) =

13.

14. 15. 16. 17.

20

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

1.8.2

Corrigs des exercices

1. Nous avons = B Bc et B Bc = . Donc, par la loi des probabilits totales, P(A) = P(A B) + P(A Bc ). 2. Nous avons A B = (A Bc ) B et (A Bc ) B = donc P(A B) = P(A Bc ) + P( B). Et par lexercice prcdent : P(A B) = P(A) P(A B) + P( B) . 3. (a)

Figure 1.5 Dessin de la fonction de rpartition. (b) Aux points o F nest pas drivable (cest dire en fait, seulement le point 1), on peut prendre la valeur que lon veut (ci-dessous, f (1) = 3). Si vous ne savez pas driver en 0, vous pouvez mettre nimporte quelle valeur. Pour x < 0 : f ( x) = F ( x) = 0. Pour 0 x 1 : f ( x) = F ( x) = 3 x2 . Pour 1 < x : f ( x) = F ( x) = 0. (c) Calculons
+

x f ( x)dx

=
0

3 x3 dx 3 4 x 4
1

= (d) Calculons P 1 3 X 4 4

=
0

3 . 4

1 1 3 +P <X 4 4 4 1 1 3 1 = F F +F F 4 4 4 4 27 1 = 0+ 64 64 26 13 = = . 64 32 = P X=

1.8. EXERCICES 4.

21

(a) Nous dessinons des petites boules en 0, 1, 2, 3 pour montrer que F (0) = 1/4, F (0) = 0, F (1) = 3/4, F (1) = 1/4, ...

Figure 1.6 Dessin de la fonction de rpartition. (b) Calculons E(Z ) = = = p(0) 0 + p(1) 1 + P(2) 2 + P(3) 3 1 1 3 + 2+ 2 8 8 4+2+3 9 = . 8 8

(c) Calculons 2 7 7 E Z8 = p(0) 0 8

+ p(1) 1
2

7 8

7 7 + p(3) 3 8 8 1 49 1 1 1 81 1 289 = + + + 4 64 2 64 8 64 8 64 1 98 4 81 289 = + + + 64 8 8 8 8 + p(2) 2 = 5. (a) Remarquons que z, {Z z} = {X z} {Y z}. Nous avons donc P(Z z) = (car X Y) = P({X z} {Y z}) P(X z)P(Y z) = F X (z)FY (z) . 1 472 59 = . 64 8 64

(b) Remarquons que w, {W > w} = {X > w} {Y > w}. Nous avons donc P(W > w) = (car X Y) = = P({X > w} {Y > w}) P(X > w)P(Y > w) (1 F X (w))(1 Fy ( x)) .

22

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES Do le rsultat. 6. (a) La variable U produite par lalgorithme est une variable uniforme sur [0; 1]. Nous avons X = U 1/2 donc X est valeurs dans [0; 1]. Lapplication g : u [0; 1] u1/2 [0; 1] est bijective croissante de rciproque x [0; 1] x2 [0; 1]. La densit de la variable U est fU : u R 1[0;1] (u). Calculons la densit de X en x [0; 1] en utilisant la formule de changement de variable : f X ( x) = = fU (g1 ( x)) g (g1 ( x)) 1 = 2x .
1 2 x2

La densit de X est donc fX : x R 1[0;1] ( x) 2 x. (b) Calculons la fonction de rparition F X de X . Puisque X est valeurs dans [0; 1], t < 0, P(X < t) = 0 et t 1, P(X t) = 1. Soit t [0; 1], P(X t) = = =
t

fX (u)du
t

2udu
0 [u2 ]t0

= t2 . 0 2 Donc la fonction de rpartition de X est F X : t t 1 (c) Calculons E(X ) = = = (d) Calculons E(X 2 ) = = =
+ 1 +

si t < 0 si t [0; 1] si t 1 .

x fX ( x)dx
1

2 x2 dx
0

2 x3 3

=
0

2 . 3

x2 fX ( x)dx

2 x3 dx
0

2 x4 4

=
0

1 . 2
1 2

Nous avons (par la formule (1.4.3))Var(X ) = E(X 2 ) E(X )2 =

4 12

2 12

=1 6.

1.8. EXERCICES 7.

23

(a) La variable U est uniforme sur [0; 1]. Soit g la fonction dnie sur ]0; 1[ par g(t) = log(t). La fonction g est bijective de ]0; 1[ sur ]0; +[ et elle est dcroissante. Sa rciproque est y ]0; +[ ey . Voir le dessin dans la gure 1.7. Nous avons

Figure 1.7 Dessin de g (exercice 7) g (t ) = 1 t , t ]0; 1[. Calculons, x ]0; +[, f X ( x) = = 1[0;1] (g1 ( x)) g (g1 ( x)) 1 = e x .

1 e x

Donc, x R, fX ( x) = 1]0;+[ ( x)e x . Soit h : u ]0; 1[ log(1 u) ]0; +[. La fonction h est bijective croissante de fonction rciproque y ]0; +[ 1 ey . Nous avons h (t) = 11 t , t ]0; 1[. Calculons, x ]0; = [, fY ( x ) = = (b) Calculons t ]0; +[, P(X t) = (car g est dcroissante) = = = = = P( log(U ) t) P(U g1 (t)) P(U et ) P(U > et ) + P(U = et ) 1 P(U et ) + 0 1 et . 1[0;1] (h1 ( x)) h (h1 ( x)) 1 = e x .
1 1(1e x )

24

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES Et t 0, P(X t) = 0. Calculons t ]0; 1[, P(Y t) = (car h est croissante) = = = Et t 0, P(Y t) = 0. (c) Calculons la fonction de rpartition jointe de X et Y , x, y ]0; 1[ P(X x, Y y) = = = = = P( log(U ) x, log(1 U ) y) P(U e x , U 1 ey ) 0 si e x > 1 ey P(e x U 1 ey ) sinon si e x > 1 ey 0 P(U = e x ) + 1 ey e x sinon 1]0;+[ (1 ey e x ) (1 ey e x ) . P( log(1 U ) t) P(U h1 (t)) P(U 1 et ) 1 et .

1 Prenons x = y = log(2). Nous avons F XY ( x, y) = 1 1 2 2 = 0 et F X ( x) F Y (y) = 1 1 1 (1 2 )(1 2 ) = 4 . Donc F XY F X FY . Donc X et Y ne sont pas indpendantes.

8. (a) Nous avons 0 F (v) = 1 (1 v)A 1 Une autre criture possible est F (v) = 1[0;1] (v)(1 (1 v)A ) + 1]1;+] (v) , v (cest toujours la mme fonction). (b) Calculons la densit (note f ). La fonction F est drivable sur R\{0, 1}. Ltude en 0 et 1 est un peu plus complique et on ne sen proccupe pas (cf. remarque 1.2.16). Si v < 0, F (v) = 0. Si v ]0; 1[, F (v) = A(1 v)A1 . Si v > 1, F (v) = 1. Nous avons donc 0 si v < 0 A 1 v R , f (v) = si v [0; 1[ A(1 v) 0 si v 1 . Remarquons que dans lexpression ci-dessus, nous avons pris de manire arbitraire f (1) = 0, f (0) = 0. (c) Le dessin est dans la gure 1.8 . si v < 0 si 0 v 1 si v > 1 .

1.8. EXERCICES

25

Figure 1.8 Fonction de densit (exercice 8) (d) Calculons E(V ) = = (intgration par parties) = = = (e) Calculons E(V 2 ) = = (int. par parties) (int. par parties) = = = =
+ 1 0 +

v f (v)dv
1 0

1 v (1 v)1/2 dv 2
1 0 1 0

v ((1 v)1/2 ) + 2 0 + (1 v)3/2 3 2 . 3


1 0

(1 v)1/2 dv

v2 f (v)dv

1 v2 (1 v)1/2 dv 2
1 0 1 0 1 1 0

v2 ((1 v)1/2 ) +

2v(1 v)1/2 dv 4 (1 v)3/2 dv 3

2 0 + 2v ( (1 v)3/2 )) + 3 0 4 2 0 + (1 v)5/2 3 5 8 . 15
1 0

26

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES Donc Var(V ) = = = 9. (a) Pour tout , 1 1Ac () = 0 si Ac (ce qui est quivalent A) et 1 1Ac () = 1 si A (ce qui est quivalent A). Donc 1 1Ac = 1Ac . (b) Pour tout , 1 si A et B 0 si A et B 1A ()1B () = 0 si A et B 0 si x A et B . 1 si A B = 0 sinon = et 1 0 0 0 si si si si A et A et A et A et B B B B 1AB () , E(V 2 ) E(V )2 4 8 15 9 24 20 4 = . 45 45

min(1A (), 1B ()) = = (c) Pour tout ,

1AB () .

max(1A (), 1B ()) =

1 1 1 0

si si si si

A et A et A et A et

B B B B

= 1AB () . 10. Notons X1 , X2 , . . . les rsultats successifs des appels grand(1,1,uin,0,1). Ces variables sont indpendantes de fonction de masse pX telle que pX (0) = 1/2, pX (1) = 1/2. La boucle while sarrte ds que deux tirages successifs sont gaux 0. La variable alatoire N est valeurs dans 2, 3, 4, . . . (a) Nous avons P( N (vnements disjoints) (X1 X2 ) = 2) = P({X1 = 1, X2 = 1} {X1 = 0, X2 = 0}) = P(X1 = 1, X2 = 1) + P(X1 = 0, X2 = 0) = P(X1 = 1)P(X2 = 1) + P(X1 = 0)P(X2 = 0) 1 1 1 = + = . 4 4 2

1.8. EXERCICES De manire gnrale, soit k 3, k pair. Notons C = {X1 = 0, X2 = 1, X3 = 0, . . . , Xk1 = 0, Xk = 1} , D = {X1 = 1, X2 = 0, X3 = 1, . . . , Xk = 0} . Nous avons P(N = = = (vnements disjoints) (X1 , X2 , . . . indpendants) = = = k + 1) = P({N > k} {Xk = Xk+1 }) P((C {Xk = Xk+1 }) (D {Xk = Xk+1 })) P((C {Xk+1 = 1}) (D {Xk+1 = 0})) P(C {Xk+1 = 1}) + P(D {Xk+1 = 0}) P(X1 = 0)P(X2 = 1) . . . P(Xk+1 = 1) +P(X1 = 1) . . . P(Xk+1 = 0) 1 1 1 + k +1 = k . k + 1 2 2 2

27

Le mme rsultat et le mme raisonnement sont vrais pour k impair. (b) P(N pair) = (vnements disjoints) =
i2,i

P(i2,i pair {N = i}) P(N = i) pair 1


i2,i

= = (srie gomtrique) = 1 2 1 2

pair 1 1 + + + ... 8 32 1 4 2 = = . 1 6 3 1 4

2i1

P( B) = (vnements disjoints) = =

P({N = 2} {N = 3} {N = 6}) P(2) + P(3) + + P(6)


6 i=2

1 2i1
1 5 2 1 2

(srie gomtrique)

1 1 2 1

1 . 32

P(A B) = (vnements disjoints) = =

P({N = 2} {N = 4} {N = 6}) 1 1 1 + + 2 8 32 16 + 4 + 1 21 1 = = . 32 32 2

28

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

11. Pour tous vnements A, B, nous utilisons la notation C = A B pour dire C = A B et A B = . Notons FU , FW les fonctions de rpartition de U, W respectivement. Calculons u, v ({U u} {W w})c = {U > u} {W > w} donc : P(U u, W w) = 1 P({U > u} {W > w}) (car {U > u} {W > w} = {U > u} ({U u} {W > w)) = 1 [P(U > u) + P(U u, W > w)] ( car {W > w} = ({U u} {W > w}) ({U > u} {W > w})) = 1 [1 P(U u) + P(W > w) P(U > u, W > v)] = FU (u) (1 FW (w)) (1 FU (u))(1 Fw (W )) = FU (u)FW (w) . 12. La variable Z est valeurs dans {1, 2, 3, 4, 5, 6}. Calculons P(Z = 1) (car X Y) de mme : = = P(X = 0, Y = 1) 1 pX (0) pY (1) = , 12

1 , 6 1 P(Z = 3) = P(X = 0, Y = 3) = , 4 1 , P(Z = 4) = P(X = 3, Y = 1) = 12 1 P(Z = 5) = P(X = X = 3, Y = 2) = , 6 1 P(Z = 6) = P(X = 3, Y = 3) = . 4 13. La variable W est valeurs dans {1, 2, 3, 4}. Calculons P(Z = 2) = P(X = 0, Y = 2) = P(W = 1) = P(U = 0, V = 1) P(U = 0)P(V = 1) = 1 , 6

(car U V) = P(W = 2) (runion disjointe) = = = de mme :

P({U = 0, V = 2}

{U = 1, V = 1})

P(U = 0, V = 2) + P(U = 1, V = 1) P(U = 0)P(V = 2) + P(U = 1)P(V = 1) 1 1 1 + = , 6 6 3 1 1 1 + = , 6 6 3

(car U V) =

P(W = 3) = P(U = 1, V = 2) + P(U = 2, V = 1) = P(W = 4) = P(U = 2, V = 2) = 1 . 6

1.8. EXERCICES

29

14. Notons f la densit de X + Y . Notons fX la densit de X et fY la densit de Y . Calculons pour x < 0, f ( x) = =


+

fX (t) fy ( x t)dt
+

1[0;+[ (t)et 1[0;+[ 2e2( xt) dt .

Pour tout t R, min(t, x t) < 0 donc 1[0;+[ (t) 1[0;+[ ( x t) = 0. Donc f ( x) = 0. Prenons maintenant x 0, f X ( x) = = =
0 + + 0 x

1[0;+[ (t)et 1[0;+[ 2e2( xt) dt et 1[0;+[ 2e2( xt) dt

et 2e2( xt) dt
x

= = 2e = Donc la densit cherche est

2e2 x+t dt
x [et ]0

0 2 x

2(e x e2 x ) .

x R 1[0;+[ ( x) 2(e x e2 x ) . 15. Notons X1 , . . . , X5 ( valeurs dans {P, F }) les rsultats successifs. Ces variables sont indpendantes. Notons A lvnement dont on veut calculer la probabilit. Nous avons (ici # veut dire cardinal) A= Donc P(A) =
I {1,2,...,3},#I =3 I {1,2,...,3},#I =3 { Xi

= F, i I , X j = P, j I c } .

P(Xi = F, i I , X j = P, j I c ) P(Xi = F )
I {1,2,...,3},#I =3 iI j I c

(les Xk sont indpendants) = = 1 25 I {1,2,...,3},#I =3 1 . 25

P(X j = P)

3 = C5

16. P(X = 2) = P(X 2) = (runion disjointe) = 2 2 e 2!

P({X = 0} {X = 1} {X = 2}) 2 e2 + e2 + e2 . 2!

30

CHAPITRE 1. VNEMENTS ALATOIRES ET VARIABLES ALATOIRES

17. Soit X cette dure de vie. Calculons (en utilisant la proposition 1.2.13) P(X 1, 5) = =
+ 1,5

2e2t dt
+ 3/ 2

e2t

= e3 ,

P(X = 1, 5) = 0 .

Chapitre 2

Thormes limites et mthode de Monte-Carlo


2.1 Les direntes notions de convergence
p.s.

On sintresse ici des v.a.r. Dnition 2.1.1. On dit que Xn converge presque srement vers X et on note Xn X si
n+

P({ : X () = lim Xn () = X }) = 1 .
n+

Dnition 2.1.2. Soit p > 0, on dit que Xn converge dans L p vers X et on note Xn X si n+ E(|X Xn | p ) 0
n+

Lp

Dnition 2.1.3. On dit que Xn converge en probabilit vers X et on note Xn X si > 0, n+ P(|X Xn | ) 0.
n+

proba.

Dnition 2.1.4. On dit que Xn converge en loi vers X et on note Xn X si continue n+ borne de R dans R, E((Xn )) E((X )).
n +

loi

Attention, ces notions ne sont pas quivalentes.

2.2
2.2.1

Thormes limites
Loi des grands nombres

Thorme 2.2.1. Loi des grands nombres. Soient X1 , X2 , X3 , ... des v.a.r. indpendantes et de mme loi (nous dirons aussi indpendantes et identiquement distibues, ou i.i.d.) telles que 2 E(X1 ) < . Alors X1 + X2 + + Xn p.s. S n := E(X1 ) . (2.2.1) n+ n La quantit S n ci-dessus sappelle la moyenne empirique de X1 , . . . , Xn . 31

32

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO

Daprs la dnition 2.1.1, (2.2.1) veut dire que P({ : S n () E(X )}) = 1. La convern+ gence na pas lieu forcment pour tous les . Exemple 2.2.2. Soient des variables i.i.d. X1 , X2 , . . . de loi B(1/2). Nous avons
2 E(X1 ) =

P(X1 = 0) 02 + P(X1 = 1) 12 1 < . 2

Nous pouvons donc appliquer la loi des grands nombres : X1 + + Xn p.s. 1 E(X1 ) = . n+ n 2

S n :=

La convergence na pas lieu pour tous les . Il existe en eet 0 tel que Xi (0 ) = 1, i. Dans ce cas S n (0 ) 1 .
n+

Le thorme nous dit que lensemble { : S n () ne converge pas vers E(X1 )} est de prob1 abilit nulle et que lensemble { : S n () 2 } est de probabilit 1.
n+

Algorithme 2.1 Illustration de la loi des grands nombres N=100 ; X=[] ; S=0 ; for i=1 :N U=grand(1,1,bin,1,1/2) ; // on tire une variable de Bernoulli de paramtre 1/2 S=S+U ; // S va contenir les sommes partielles des variables de Bernoulli X=[X,S/i] ; // on range dans un vecteur X les quantits S/i (correspond au S i de lexemple ci-dessus) end, xbasc() ; // eace la fentre graphique plot2d([1 :1 :N],X,2) ; // dessine un graphe des valeurs dans X (les points sont relis par // des traits bleus) plot2d([0 :1 :N],0.5*ones(1,N+1),0) ; // dessine une ligne horizontale y = 0, 5 en // pointills plot2d([0 :1 :N],0*ones(1,N+1),rect=[0,-0.2,N,1]) ; // dessine une ligne horizontale // y = 0 en noir en xant les bornes (rect=[xmin,ymin,xmax,ymax])

Une premire excution de lalgorithme ache le graphique suivant :

2.2. THORMES LIMITES

33

Figure 2.1 Essai no 1

On voit une suite S i () qui converge vers 1/2. Lanons une deuxime xcution, nous obtenons :

Figure 2.2 Essai no 2

Le dessin est dirent mais nous avons toujours convergence vers 1/2. Voir http:// www-sop.inria.fr/mefisto/java/tutorial1/tutorial1.html (Applet : Pile ou face) pour une version dynamique des illustrations ci-dessus.

34

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO

2.2.2
2.2.2.1

Application de la loi des grands nombres


Dessin de la fonction de rpartition

Supposons que nous disposions de ralisations indpendantes X1 (), X2 (), . . . (dans R) dune mme loi (cest dire que les variables X1 , X2 , . . . sont i.i.d. et ont toute la mme fonction de rpartition, que nous noterons F ). Nous aimerions faire un dessin approximatif de F . Soit t R. Pour tout i, nous introduisons la variable Ui = 1];t] (Xi ). Nous avons, en utilisant la proprit de croissance de lesprance (proposition 1.3.12) E(Ui2 ) E(1) = 1 < . Donc, par la loi des grans nombres U1 + + Un p.s. E(U1 ) . S n := n+ n Or E(U1 ) = P(X t) 1 + P(X > t) 0 = P(X t). Cette remarque nous donne un moyen de calculer F (t). Ce genre de mthode sappelle une mthode de Monte-Carlo. Commenons par crire une fonction qui simule une variable alatoire. Algorithme 2.2 Fonction variable function [z]=variable(u) // le paramtre u ne joue aucun rle dans le rsultat z=grand(1,1,unf,0,1) ; // ici nous simulons en fait une variable connue (uniforme // sur [0; 1]) endfunction Calculons ensuite S N pour un certain N (et un certain t dnissant les variables Ui ). Algorithme 2.3 Calcul de S N N=10000 ; // nous prenons N trs grand t=0.5 ; // nous xons t s=0 ; for i=1 :N X=variable(1) ; // nous tirons une variable X avec la fonction variable if (X<t) then U=1 ; else U=0 ; end, // U vaut 1 si X t et 0 sinon s=s+U ; end, // s contient la somme de toutes les variables U tires dans la boucle disp(s/N) ; // ache s/N Voici un exemple de ce que lon obtient en plusieurs xcutions de ce programme > 0.57 > 0.47 > 0.4911 > 0.4996 > 0.5039 Nous nobtenons pas deux fois la mme chose mais chaque fois, le rsultat est proche de E(U1 ) = 1/2.

2.2. THORMES LIMITES

35

Dans le mme esprit, lalgorithme 2.4 dessine une approximation numrique de la fonction de rpartition. Le rsultat est dans la gure 2.3. Algorithme 2.4 Approximation numrique de la fonction de rpartition N=100 ; % on choisit N trs grand a=-1 ; b=2 ; % on va dessiner F entre a et b h=0.1 ; % pas dapproximation de la fonction F X=[] ; for i=1 :N x=variable(1) ; X=[X,x] ; end, // on remplit un vecteur X avec des tirages de la variable alatoire (X1 , X2 , . . . ) t=a-h ; T=[] ; // T va contenir les valeurs de t pour lesquelles on calcule F(t) F=[] ; // F va contenir les approximations de F(t) while(t<b) // t parcourt a,a+h,a+2h,... t=t+h ; T=[T,t] ; C=nd(X<t) ; // C contient les indices i pour lesquels Xi t F=[F,length(C)/N] ; // length (C) est la longueur de C // length(C)/N est proche de F(t) par la loi des grands nombres end, xbasc() ; plot2d(T,F,5,rect=[a,-0.2,b,1.2]) ; Cet algorithme tire des variables alatoires i.i.d. X1 , X2 , . . . , XN de mme fonction de rpartition F . Pour chaque t {a + kh : k N, a + kh < b}, lalgorithme calcule #{i : Xi t}. xons un tel t. Notons, i, Ui = 1];t] (Xi ). Nous remarquons que #{i : Xi t} = U1 + + U N . N

Donc, par la loi des grands nombres, #{i : Xi t} devrait tre proche de E(U1 ) = = = = 2.2.2.2 Dessin de la densit P(U1 = 0) 0 + P(U1 = 1) 1 P(U1 = 1) P(X1 t) F (t ) .

Supposons que nous disposions de ralisations indpendantes X1 (), X2 (), . . . (dans R) dune mme loi continue (cest dire que les variables X1 , X2 , . . . sont i.i.d. et ont toute la mme densit, que nous noterons f ). Nous supposons ici que f est continue. Nous aimerions faire un dessin approximatif de f . Soit a < b R. Pour tout i, nous introduisons la variable Ui = 1[a;b] (Xi ). Nous avons, en utilisant la proprit de croissance de lesprance (proposition 1.3.12) E(Ui2 ) E(1) = 1 < . Donc, par la loi des grands nombres S n := U1 + + Un p.s. E(U1 ) . n+ n

36

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO

Figure 2.3 Approximation numrique de la fonction de rpartition

Or E(U1 ) = = =
a

P(U1 = 0) 0 + P(U1 = 1) 1 P(X1 [a; b])


b

f ( x)dx .

Puisque f est borne, 1 ba


b

f ( x)dx f (a) (b a) sup | f (t)|


a t R

(nous ne dmontrons pas ce point). Cette remarque nous donne un moyen de calculer f (t). Nous prenons b a petit, et n grand (voir ... pour une discussion sur le choix de ces paramtres). Nous allons maintenant crire un algorithme bas sur ces ides. Commenons par crire une fonction qui simule une variable alatoire. Algorithme 2.5 Simulation de variable alatoire function [z]=mystere(x) u=grand(1,2,unf,0,1) ; // on remplit un vecteur 1 2 avec deux variables alatoires // U ([0; 1]) indpendantes z=cos(2*%pi*u(1,1))*sqrt(-log(u(1,2))) ; endfunction Lalgorithme 2.6 dessine une approximation de la densit. Un dessin produit par ce programme se trouve dans la gure 2.4.

2.2. THORMES LIMITES Algorithme 2.6 Programme pour dessiner la densit (approximativement) a=-3 ; b=3 ; // on va dessiner la fonction entre a et b h=0.2 ; // on choisit un pas dapproximation N=10000 ; // on choisit N grand X=[] // X va contenir les variables alatoires simules avec la fonction mystere for i=1 :N x=mystere(1) ; X=[X x] ; // on remplit X end, t=a-h ; T=[] ; approx=[] ; // approx va contenir les valeurs successives de lapproximation de f while (t<b) // t parcourt a,a+h,... on sarrte quand on dpasse b t=t+h/2 ; T=[T t] ; // T contient les valeurs successives de t C=nd(X<t+h) ; // C contient les indices de X pour lesquels la valeur est <t+h D=nd(X>t) ; // D contient les indices de X pour lesquels la valeur est >t E=intersect(C,D) ; // E contient les valeurs communes C et D approx=[approx length(E)/(h*N)] ; // on remplit le vecteur approx end, clf() ; plot2d(T,approx,5,rect=[a-0.5,-0.5,b+0.5,max(approx)+0.5]) ; drawaxis(x=[a-0.5,1,b+0.5],y=0,dir=d,tics=v) ; // dessin dun axe horizontal drawaxis(x=0,y=[-0.5,1,max(approx)+0.5],dir=r,tics=v) ; // dessin dun axe vertical

37

2.2.3

Thorme central-limite

Thorme 2.2.3. Thorme central-limite (ou TCL). Soient X1 , X2 , . . . des v.a.r. i.i.d. telles que Var(X1 ) = 2 < . Alors avec Z N (0, 2 ). Exemple 2.2.4. Soient U1 , U2 , . . . i.i.d. de loi B(1/2). Posons i, Vi = 2(Ui 1/2). Par la loi des grands nombres, V1 + + Vn p.s. E(V1 ) . n+ n Et E(V1 ) = = = P(V1 = 1) (1) + P(V1 = 1) 1 P(U1 = 0) (1) + P(U1 = 1) 1 0. n X1 + + Xn loi E(X1 ) Z n+ n

Le thorme central-limite nous dit que pour toute fonction borne , E n V1 + + Vn n


n+

E((Z ))

38

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO

1.0 0.9

0.5

0.0 3.50

1.00

3.50

0.5 3 2 1 0

0.5 1 2 3

Figure 2.4 Dessin approximatif de la densit avec une certaine variable Z N (0, 2 ) o 2 = = = = Var(V1 )
2 E(V1 ) E(V1 )2

P(V1 = 1) (1)2 + P(V1 = 1) 12 1.

Le central-limite peut aussi sinterprter de la manire suivante : pour n grand, thorme + Vn +Vn 2 est (presque) de loi N (0 , ) . Le programe suivant simule cette variable . n V1 + n V1 + n n Algorithme 2.7 Simulation de variable alatoire N=1000 ; U=grand(1,N,bin,1,1/2) ; // au lieu de faire une boucle, on simule N variables de // Bernoulli indpendantes que lon range dans une matrice de taille 1N V=2*(U-0.5*ones(1,N)) ; // sur chaque composante des vecteurs, // nous avons Vi = 2(Ui 1/2) disp(sum(V)/sqrt(N)) ; Des appels successifs ce programme renvoient par exemple : - 0.4427189 0.1897367

2.2. THORMES LIMITES 3.2887688 - 0.1264911 0.1264911 0.3794733 ... Nous obtenons un rsultat dirent chaque fois. Ces variables sont indpendantes et de mme loi (approximativement N (0, 1)). Nous appliquons les ides de 2.2.2.2 pour faire un dessin approximatif de la densit (voir algorithme 2.8). Nous Algorithme 2.8 Vrication du thorme central-limite N1=10000 ; N2=10000 ; h=0.2 ; a=-3 ; b=3 ; X=[] ; for i=1 :N2 U=grand(1,N1,bin,1,1/2) ; V=2*(U-0.5*ones(1,N1)) ; X=[X sum(V)/sqrt(N1)] ; end, clf() ; // partir de l, le code pour faire le dessin est identique celui de lalgorithme 2.6 obtenons le dessin de la gure 2.5 dans lequel on reconnat la densit de la loi N (0, 1).

39

Figure 2.5 Dessin approximatif de la densit de N (0, 1)

40

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO

2.2.4
2.2.4.1

Application du TCL
Sondages

On sintresse au nombre de gens qui achtent de la lessive Ariel en France. On ne peut pas interroger toute la population et on se contente donc dun chantillon de personnes. Introduisons la variable 1 si la i-me personne interroge achte Ariel Xi = 0 si la i-me personne interroge nachte pas Ariel. Les variables Xi sont supposes i.i.d. avec P(Xi = 1) = p (ce sont nos hypothses de modlisation). La quantit p est celle que nous cherchons dterminer. Remarquons que E(X1 ) = p 1 + (1 p) 0 = p. Par la loi (forte) des grands nombres X1 + + Xn p.s. E(X1 ) = p. n + n
+ Xn Quelle taille n dchantillon slectionner pour que X1 + soit proche de p ? Supposons que n lon veuille n tel que la probabilit de se tromper de plus de 0, 01 dans notre estime de p soit plus petite que 0, 1, cest dire

X1 + + Xn p 0, 01 0, 1 . n

(2.2.2)

Notons 2 = Var(X1 ). Nous avons P X1 + + Xn p 0, 01 n (par TCL) (X1 p) + + (Xn p) n 0, 01 n n 0, 01 P Z avec Z N (0, 1) = P =
+

n0,01

e x /2 dx 2
2 n0,01

= 2 1

2 e x /2 dx . 2

(2.2.3) n 0, 01/ 1.65.

Nous voyons sur une table (cf. annexe A) quil sut de prendre n tel que Calculons Var(X1 ) = = = Nous avons alors que 2 1, 65 p(1 p) n 0, 01
2 E(X1 ) E(X1 )2

p 12 + (1 p) 02 p2 p p2 = p(1 p) .

ralise (2.2.2). Mais justement, nous ne connaissons pas p. Nous tudions la fonction p [0, 1] p(1 p) .

2.2. THORMES LIMITES

41

Figure 2.6 Parabole p p(1 p) Cest une parabole qui atteint son max. en 1/2. Donc, p [0, 1], 2 1, 65 p(1 p) 1, 65 0, 5 0, 5 0, 01 0, 01 Donc il sut de prendre n = 2.2.4.2 Planche de Galton
2 1,65 0,50,5 . 0,01 2

Voir lanimation : http://www-sop.inria.fr/sysdys/java/tutorial1/node11.html. On appelle ce dispositif une planche de Galton. Voir la gure 2.7 pour une capture dcran de cette exprience . Notons n le nombre de niveau sur la planche de Galton. On va supposer n pair. Chaque bille rebondit alatoirement chaque niveau. Par convention, elle se dplace chaque niveau de +1 ou 1 en abscisse (un cran vers la gauche ou vers la droite). On obtient +1 (ou 1) avec probabilit 1/2. Nous avons donc labscisse nale dune bille qui a la loi de Z = X1 + X2 + + Xn , avec X1 , . . . , Xn i.i.d. de loi suivante +1 X1 = 1 avec proba. 1/2 avec proba. 1/2 .

Une telle variable Z est valeurs dans {n, n + 2, . . . , 0, 2, . . . , n}, cest dire {n + 2k : k {1, 2, . . . , n}}. Calculons, k {0, 1, . . . , n}, la quantit P(Z = n + 2k). Nous remarquons que {X1 + + Xn = n + 2k} =
{ j1 ,... jk }{1,...,n} { Xi

= 1, i {X j1 , . . . , X jk } et X j = 1, i {1, . . . , n}\{ j1 , . . . , jk }} .

42

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO

Figure 2.7 Planche de Galton

Donc P(Z = n + 2k) =


{ j1 ,..., jk }{1,...,n}

P(Xi = 1, i {X j1 , . . . , X jk } et X j = 1, i {1, . . . , n}\{ j1 , . . . , jk }) (car les X1 , . . . , Xn sont indpendants) =


{ j1 ,..., jk }{1,...,n}

1 2

k = Cn

1 2

k Rappelons que Cn est le nombre de parties k lments dans un ensemble n lments. Lanimation rfrence ci-dessus nest pas facile comprendre car le programme renormalise le graphe au cours de lxcution. Plusieurs billes sont jetes donc on obtient Z1 , . . . , Zm variables i.i.d. de mme loi que Z. Pour tout k impair, la k-me barre de lhistogramme en partant de lorigine a la hauteur m n1 1{k} (Zi ) , 2 m i=1 n 2

(la renormalisation complique dernire quantit

vient de la renormalisation automatique du graphe) cette n P(Z = k) m+ 2


p.s.

(2.2.4)

2.3. EXERCICES

43

par la loi des grands nombres. Fixons k impair et notons c = k/ n. La k-me barre de lhistogramme est labscisse c. Nous avons n P(X1 + + Xn = k) = 2 = n P (X1 + + Xn [k 1; k + 1]) 2 n X1 + + Xn P [c 1/ n; c + 1/ n] . 2 n

Le thorme de Dini (que nous nnonons pas dans ce polycopi) et le TCL nous donnent ensuite 2 2 p.s. e x /2 n (2.2.5) P(X1 + + Xn = k) n+ 2 22 avec
2 2 = Var(X1 ) = E(X1 ) E(X1 ) = 2 .

Les quations (2.2.4) et (2.2.5) expliquent la forme en cloche de la simulation ci-dessus.

2.3
2.3.1

Exercices
noncs

1. Soient U1 , U2 , . . . indpendantes et identiquement distribues de loi E(1) (loi exponentielle de paramtre 1). (a) Calculer E(U1 ), Var(U1 ). (b) Estimer P(U1 + + Un n(1 + )) pour n = 100, = 1/10. 2. Soit f : R R telle que x, y, | f ( x) f (y)| C inf(1, | x y|) pour une certaine constante C. (a) Si Xn X (rappel : pour p.t. , Xn () X ()), montrer que E( f (X )) n+ n+ E( f (Xn )) 0.
n+ p.s.

(b) Soit > 0, toujours sous lhypothse Xn X , montrer que P(| f (Xn ) f (X )| n+ ) 0.
n+

p.s.

3. On achte un stock dampoules pour un lampadaire. Les ampoules ont une dure de vie de loi E(). La premire ampoule dure un temps X1 , on la remplace immdiatement et la deuxime qui dure un temps X2 . . .Soit T > 0. On admet que le nombre dampoules N grilles pendant le temps T est tel que N est de loi P(T ). On suppose que T N. (a) Calculer m = E(N ). (b) Soit p N . Montrer que P(N m + p) = P(X1 + + Xm+ p T ). (c) On suppose maintenant que = 1, T = 20, p = 5. Donner une valeur numrique approche de P(N m + p) laide de la table jointe. (d) Avec les mmes valeurs numriques que ci-dessus, combien dampoules faut-il acheter au minimum pour que P(se retrouver court dampoules avant le temps T ) < 0.05 ?

44

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO 4. Pour sa migration annuelle, une grenouille part dune mare situe sur un plan au point de coordonnes (25, 0) dans le repre orthonorm xOy. Elle est repre par sa position Zn au temps n. On suppose que :

au temps 0, sa position est Z0 = (25, 0) et n 0, Zn+1 = Zn + (1, 0) + Un , o les variables Un sont i.i.d. avec P(Un = (0, 1/ 2)) = 1/2, P(Un = (0, 1/ 2)) = 1/2. Ainsi chaque tape de sa progression, la grenouille avance de +1 dans la direction Ox et se dporte en mme temps de 1/ 2 dans la direction perpendiculaire Oy. Sur laxe des ordonnes se trouve cette anne une autoroute neuve. On dcide de creuser des tunnels sous lautoroute le long dune certaine zone pour permettre le passage de cette grenouille. La zone tunnels se situe entre des points dordonnes a et b. Si la grenouille arrive dans cette zone, elle passe dans un tunnel et sinon elle se fait craser. Voir gure 2.8 pour un dessin.

(25,0)

1 0 0 1 0 autoroute 1 0 1 0 (0,b) 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 x 0 1 O1 0 0 1 0 1 0 1 0 1 11111zone de tunnels 00000 0 1 0 1 0 1 0 (0,a) 1 0 1 0 1 1 0


Figure 2.8 Plan

(a) quel instant passe-t-elle par lautoroute ? (b) Supposons que lon construise une zone de tunnels entre les points dordonnes 5 et 5 (compris). Donner une approximation de la probabilit qua la grenouille de passer par un tunnel. (Dans les calculs, on arrondira au deuxime chire aprs la virgule pour simplier.) (c) On dcide de construire une zone de tunnels entre des point dordonnes x et + x ( x > 0). Donner une valeur approximative de x telle que la probabilit de survie de la grenouille soit 0.9. (Dans les calculs, on arrondira au deuxime chire aprs la virgule pour simplier.)

2.3. EXERCICES

45

2.3.2
1.

Corrigs
(a) E(U1 ) =
0 +

xe x dx
+ 0

= = = (b)
2 E(U1 )

[ xe x ]+ 0 + 0 + [e x ]+ 0

e x dx

1.

=
0

x2 e x dx
+ 0

= [ x2 e x ]+ 0 + = [2 xe x ]+ 0 +

2 xe x dx 2e x dx

= 2. Donc Var(U1 ) = 1.

(c) Les variables U1 , U2 , . . . sont L2 , on peut donc appliquer le thorme central-limite. P(U1 + + Un n(1 + )) (TCL) = P U1 1 + + Un 1 n n P(Z 1) avec Z N (0, 1). Et on lit sur la table que cette dernire valeur vaut ( peu prs) 1 0.8413 = 0, 1587. 2. (a) E( N ) =
n0

n n
n1

(T )n eT n! (T )n eT n! (T )k k!

= = = (b) P(N m + p) = = =

(T )eT
k0

P( on a grill plus de m + p ampoules dans [0, T ]) P(les m + p premires ampoules ont dj grill quand on arrive en T ) P(X1 + + Xm+ p < T )

46

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO (c) On remarque que Var(X1 ) = 1/2 , E(X1 ) = 1/. P(N m + p) = P(X1 + + Xm+ p T ) X1 E(X1 ) + + Xm+ p E(Xm+ p ) = P (1/) m + p T (m + p)/ < (1/) m + p
T (m+ p)/ (1/) m+ p

(TCL) On calcule
T (m1+ p)/ (1/)

et /2 dt . 2
2

m1+ p

= 1. On a par parit :
1

et /2 dt 2
2

= =

(daprs la table)

et /2 dt 1 2 1 t2 /2 e 1 dt 2 1 0, 8413 = 0.1587 .
2

(d) Ici, on cherche p pour que P(N m + p) 0.05. Comme avant : P(N m + p)
TCL
T (m+ p)/ (1/2 ) m+ p

et /2 dt 2
2

T (m+ p)/ (1/2 ) m+ p

et /2 dt . 2
2

T (m+ p)/ On regarde la table et on voit quil faut prendre (1 1.65. Une rapide /2 ) m+ p tude de fonction montre quil faut prendre m + p 29.

3.

(a) P(N m + p) = = = P( on a grill plus de m + p ampoules dans [0, T ]) P(les m + p premires ampoules ont dj grill quand on arrive en T ) P(X1 + + Xm+ p < T )

(b) On remarque que Var(X1 ) = 1/2 , E(X1 ) = 1/. P(N m + p) = = P(X1 + + Xm+ p T ) X1 E(X1 ) + + Xm+ p E(Xm+ p ) P (1/) m + p T (m + p)/ < (1/) m + p
T (m+ p)/ (1/) m+ p

(TCL)

et /2 dt . 2
2

2.3. EXERCICES On calcule


T (m1+ p)/ (1/)

47 = 1. On a par parit :
1

m1+ p

et /2 dt 2
2

(daprs la table)

et /2 dt 1 2 1 t2 /2 e = 1 dt 2 = 1 0, 8413 = 0.1587 .
2 T (m+ p)/ (1/2 ) m+ p

(c) Ici, on cherche p pour que P(N m + p) 0.05. Comme avant : P(N m + p)
TCL

et /2 dt 2
2

T (m+ p)/ (1/2 ) m+ p

et /2 dt . 2
2

4.

T (m+ p)/ 1.65. Une rapide On regarde la table et on voit quil faut prendre (1 /2 ) m+ p tude de fonction montre quil faut prendre m + p 29. (a) chaque pas de temps, la grenouille se dplace de 1 vers la droite (et de manire alatoire vers le haut ou le bas) donc elle passe par laxe des ordonnes (cest dire lautoroute) au temps 25. (b) Lordonne de la grenouille au temps n peut scrire V1 + + Vn o Vn = 1/ 2 avec probabilit 1/2 et Vn = 1/ 2 avec probabilit 1/2 (pour tout k, Vk est la composante verticale du vecteur Uk ). Les variables Vk sont desprance m = 0 et de variance 2 = 1/2. La probabilit de passer par un tunnel est :

P(|V1 + + V25 | 5) V1 + + V25 25m = P 2 . 25 Les variables Vi sont i.i.d., intgrables et de variance nie donc par le thorme central-limite :
2 t /2 e et /2 P(ordonne de Z25 [5, 5]) dt = 1 + 2 dt . 2 2 2 On trouve sur la table jointe au sujet que P(ordonne de Z25 [5, 5]) 0.84. ` (c) On veut trouver x tel que P(ordonne de Z25 [ x, x]) 0.9. On a par le thorme central-limite :
2 2

P(ordonne de Z25 [5, 5])

+ 2

P(ordonne de Z25 [ x, x])

= = =

P(|V1 + + V25 | x) x V1 + + V25 25m P 5 25


x 2/5 x 2/5

et /2 dt 2
2

1 + 2

x 2/ 5

Daprs la table, il faut x 2/5 1.65 donc x 5.83. La grenouille se trouve toujours sur des points de coordonnes entires donc il sut de prendre x = 5.

et /2 dt . 2
2

48

CHAPITRE 2. THORMES LIMITES ET MTHODE DE MONTE-CARLO

Chapitre 3

Probabilits et esprances conditionnelles

Figure 3.1 Xkcd : http://xkcd.com

3.1

Conditionnement dans le cas discret

Dnition 3.1.1. La probabilit conditionnelle P(A| B) dun vnement A sachant un vnement B est dnie par P(A B) P(A| B) = si P( B) > 0 . (3.1.1) P( B) On attribue une valeur arbitraire P(A| B) si P( B) = 0. Dnition 3.1.2. Soient X, Y des v.a. discrtes valeurs dans un ensemble I. La fonction de masse conditionnelle pX |Y (.|y) de X sachant Y = y est dnie par x , pX |Y ( x|y) = P(X = x, Y = y) si P(Y = y) > 0 . P(Y = y) 49 (3.1.2)

50

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

On attribue une valeur arbitraire pX |Y ( x|y) si P(Y = y) = 0. On peut rcrire (3.1.2) en terme des fonctions de masse pXY , pY :

pX |Y ( x|y) =

pXY ( x, y) , si pY (y) > 0 . pY (y)

Remarque 3.1.3. Observons que x pX |Y ( x|y) est une fonction de masse ( y x), cest dire : pX |Y ( x|y) 0 et I pX |Y (|y) = 1, x, y. La loi des probabilits totales nous donne

P(X = x) =
yI

pX |Y ( x|y) pY (y) .

Dans les cas o pY (y) = 0, pX |Y ( x|y) est dni par une valeur quelconque mais cela ninue pas sur la somme ci-dessus. De manire gnrale, les valeurs choisies pour pX |Y ( x|y) dans les cas pY (y) = 0 ninuent pas sur les calculs ci-dessous.

Exemple 3.1.4. Soit N B(q, M ) (pour des constantes q ]0; 1[, M N = N\{0} = {1, 2, 3, . . .}). On tire N, puis on tire X B( p, N ) (p est une constante ]0; 1[). Calculons la loi de X. La variable X est valeurs dans {1, 2, . . . , M }. Les donnes du problme sont :

k k pX |N (k|n) = Cn p (1 p)n1 , k = 0, 1, . . . , n

et

n M n pN (n) = C n . M q (1 q)

3.1. CONDITIONNEMENT DANS LE CAS DISCRET Nous appliquons la loi des probabilits totales pour obtenir (k {1, 2, . . . , M }) P(X = k)
M

51

=
n=0 M

pX |N (k|n) pN (n)

=
n= 0

k k n M q 1[0;n] (k)Cn p (1 p)nk C n M q (1 q) M

=
n=k M

k k n M q Cn p (1 p)nk C n M q (1 q)

=
n=k

n! M! pk (1 p)nk qn (1 q) Mn k!(n k)! n!( M n)!


k M n=k

= =

M! k q p (1 q) M k! 1q

1 q (1 p)nk (n k)!( M n)! 1q

nk

M! q pk (1 q) M k!( M k)! 1q

k M n=k

( M k)! q (1 p)nk (n k)!( M n)! 1q


k M k j=0 j j CM k (1 p) j

nk

(changement dindice j = n k) = q M! pk (1 q) M k!( M k)! 1q q 1q

(formule du binme) = M! (1 p)q pk (1 q) Mk 1 + k!( M k)! 1q


M k

k M k = Ck . M ( pq) (1 pq)

Donc X est de loi B( pq, M ). Exemple 3.1.5. Problme de Monty Hall (on pourra consulter http://fr.wikipedia. org/wiki/Probl% C3% A8me_de_Monty_Hall ). Il sagit dun jeu tlvis. Le candidat se trouve devant trois portes. Derrire lune dentre elles se trouve une voiture et derrire les deux autres se trouvent des chvres. La position de la voiture est une variable alatoire uniforme valeurs dans {A, B, C } (A, B, C sont les noms des trois portes, la voiture a la probabilit 1/3 de se trouver derrire chacune dentre elles). Les trois portes A, B, C sont alignes de gauche droite. Le jeu se droule suivant les phases suivantes. Le candidat slectionne une porte. Le prsentateur de lmission ouvre, parmi les deux portes restantes, une porte derrire laquelle se trouve une chvre. Si le candidat a slectionn une porte avec une chvre, le prsentateur na pas le choix de la porte quil va ouvrir. Dans le cas contraire, le prsentateur a deux choix possibles et tire pile ou face pour dcider quel porte il ouvre. Le candidat ouvre ensuite la porte de son choix et gagne ce quil trouve derrire celle-ce (une chvre ou une voiture). On part du principe que le candidat prfre gagner la voiture. Nous allons examiner deux stratgies : Le candidat ouvre la porte quil a slectionne, indpendamment de la porte ouverte par le prsentateur.

52

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

Le candidat change de porte, cest dire quil ouvre la porte qui nest ni slectionne par lui, ni ouverte par le prsentateur. Question : quelle stratgie ore le plus de chances de gagner la voiture ? La rponse est quil vaut mieux changer de porte. Nous allons ici en faire une dmonstration. Voir lexercice 1 pour une simulation numrique. Soit U valeurs dans {P, F } la variable pile ou face utilise par le prsentateur (sil en a besoin) (cette variables est indpendante des autres variables). On peut supposer, par exemple, que si le candidat a slectionn une porte avec une voiture, le prsentateur choisit la porte avec une chvre la plus gauche si U = P et lautre porte avec une chvre si U = F. Supposons que le candidat ait choisi la porte A (pour des raisons de symtrie, les autres cas sont quivalents). Notons A = c lvnement une chvre est derrire la porte A, A = v lvnement la voiture est derrire la porte A, ... etc ..., B = p pour lvnement le prsentateur ouvre la porte B. Nous voulons calculer : P(A = c| B = p) = Or P( B = p) = = = Donc P(A = c| B = p) = P({C = v}) + P({A = v} {U = P}) 1 1 1 + 3 3 2 1 . 2 (1/3) 2 = . (1/2) 3 P({A = c} { B = p}) P(C = v) = . P( B = p) P( B = p)

On en conclut que le candidat a intrt changer de porte. Dnition 3.1.6. Soient X, Y des variables discrtes valeurs dans un ensemble I. Soit g une fonction telle que E(|g(X )|) < . Nous dnissons lesprance conditionnelle de g(X ) sachant Y = y par E(g(X )|Y = y) = g( x) pX |Y ( x|y) , si pY (y) > 0 ,
x I

et lesprance conditionnelle nest pas dnie en y si pY (y) = 0. La loi des probabilits totales nous donne E(g(X )) = E(g(X )|Y = y) pY (y) .
yI

La quantit E(g(X )|Y = y) est une fonction de y. Nous notons E(g(X )|Y ) la variable alatoire telle E(g(X )|Y )() = E(g(X )|Y = y) pour tout tel que Y () = y. La loi des probabilits totales nous donne E(g(X )) = E(E(g(X )|Y )) . Proposition 3.1.7. Soient X, X1 , X2 , Y des variables discrtes valeurs dans un ensemble I (dnies conjointement). Soient g, g1 , g2 des fonctions telles que E(|g(X )|) < (pareil pour g1 , g2 , X1 , X2 ). Soit h une fonction borne. Soit : R2 R telle que E(|(X, Y )|) < . Nous prenons c1 , c2 R Nous avons les proprits suivantes. 1. E(c1 g1 (X1 ) + c2 g2 (X2 )|Y = y) = c1 E(g1 (X1 )|Y = y) + c2 E(g2 (X2 )|Y = y)

3.2. SOMMES ALATOIRES 2. Si g( x) 0, x, alors E(g(X )|Y = y) 0, y. 3. E((X, Y )|Y = y) = E((X, y)|Y = y) 4. Si X Y, alors E(g(X )|Y = y) = E(g(X )). 5. E(g(X )h(Y )|Y = y) = h(y)E(g(X )|Y = y) 6. E(g(X )h(Y )) =
yI

53

h(y)E(g(X )|Y = y) pY (y) = E(h(Y )E(g(X )|Y ))

Si nous appliquons ces formules avec g 1 ou h 1, nous obtenons E(c|Y = y) = c , E(h(Y )|Y = y) = h(y) , E(g(X )) =
yI

E(g(X )|Y = y) pY (y) = E(E(g(X )|Y )) .

(3.1.3)

Voir la dmonstration de la proposition 3.4.1 pour des exemples dutilisation de ces proprits.

3.2

Sommes alatoires

Soient 1 , 2 , . . . des v.a.r. i.i.d. Soit N une variable alatoire valeurs dans N de fonction de masse pN . Nous dnissons la somme alatoire si N = 0 0 X= 1 + + N si N > 0 . On peut abrger cette formule en X = 1 + + N (avec la convention que X = 0 si N = 0). Exemple 3.2.1. File dattente. Soit N le nombre de client arrivant un guichet pendant une certaine priode. Soit i le temps de service requis par le i-me client. Alors X = 1 + + N est le temps total de service requis.

3.3

Probabilits conditionnelles dans le cas mlang

Soient X, N deux variables alatoires dnies conjointement. Supposons que N est valeurs dans N. Dnition 3.3.1. La formule (3.1.1) nous permet de dnir la fonction de rpartition conditionnelle x F X |N ( x|n) de X sachant N = n par F X |N ( x|n) = P(X x, N = n) , si P(N = n) > 0 , P(N = n)

et cette quantit nest pas dnie si P(N = n) = 0. Si, de plus, X est une variable continue et que x F X |N ( x|n) est drivable en tout x pour tous les n tels que P(N = n) > 0, alors on peut dnir la densit conditionnelle x fX |N ( x|n) de X sachant N = n par fX |N ( x|n) = d F X |N ( x|n) , si P(N = n) > 0 . dx

La fonction x fX |N ( x|n) est une fonction de densit (n tel que P(N = n) > 0).

54

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

Proposition 3.3.2. Sous les hypothse ci-dessus, nous avons P(a X b, N = n) =


a b

fX |N ( x|n)dx pN (n) , a b .

La loi des probabilits totales nous donne la densit fX de X :


+

f X ( x) =
n=0

fX |N ( x|n) pN (n) .

Dnition 3.3.3. Soit g une fonction telle que E(|g(X )|) < . Lesprance conditionnelle de g(X ) sachant N = n est dnie par E(g(X )|N = n) =
+

g( x) fX |N ( x|n)dx .

Nous dnissons lesprance conditionnelle de g(X ) sachant N par E(g(X )|N ) = la v.a.r. qui vaut E(g(X )|N = n) quand N = n . Cest donc une variable alatoire dnie comme une fonction de N. Proposition 3.3.4. La loi des probabilits totales nous donne
+

E(g(X )) =
n=0

E(g(X )|N = n) pN (n) = E(E(g(X )|N )) .

Dmonstration. Nous remarquons que


+

E(g(X )|N ) =
n= 0

E(g(X )|N = n)1{n} (N ) .

(Nous notons 1{n} (N ) la variable alatoire 1{n} (N ())). Lgalit ci-dessus est une galit entre variables alatoires relles, cest dire entre fonctions de dans R. Pour tout ,
+

E(g(X )|N = n)1{n} (N ())


n= 0

E(g(X )|N = N ())

(tous les termes de la somme sont nuls sauf un). Nous en dduisons
+

E(E(g(X )|N )) = (par prop. 1.3.10 de linarit de E) =

E(
n=0 +

E(g(X )|N = n)1{n} (N )) E(g(X )|N = n)E(1{n} (N )) .

n=0

Nous ne justions pas ici pourquoi nous pouvons appliquer la proposition 1.3.10 une somme innie. Remarquons que les quantits E(g(X )|N = n) sortent de lesprance parce que ce sont

3.4. MOMENTS ET LOI DUNE SOMME ALATOIRE des rels. Nous avons, par le lemme 1.4.4,
+

55

E(E(g(X )|N ))

=
n=0 +

E(g(X )|N = n) pN (n)


+

=
n=0

g( x) fX |N ( x|n)dx pN (n)
+

(linarit de

= =

+ f ( x | n ) p ( n ) g( x ) X |N N dx
n= 0

(prop. 3.3.2)

g( x) fX ( x)dx

= E(g(X )) .

3.4

Moments et loi dune somme alatoire

On se replace dans le cadre de la section 3.2. Supposons que 1 est une variable discrte. Supposons que 1 et N ont les moments suivants nis E(1 ) = , Var(1 ) = 2 , E(N ) = , Var(N ) = 2 . Proposition 3.4.1. Nous avons E(X ) = , Var(X ) = 2 + 2 2 . Dmonstration. Calculons E(X ) =
+ n=0 E( X | N = n) pN (n) + n=1 E(1 + + N | N = n) + n=1 E(1 + + n | N = n) + n=1 E(1 + + n ) pN (n) = + n=1 n pN (n)

(par (3.1.3)) (par prop. 3.1.7, 3) (par prop. 3.1.7, 4)

= = =

= .

Nous avons Var(X ) = E((X )2 ) = E((X N + N )2 ) = E((X N )2 ) + E((N )2 ) + 2E((X N )(N )) .

56 Et E((X N )2 )

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

=
n= 0 +

E((X N )2 |N = n) pN (n)

=
n=0

E((1 + + n n)2 |N = n) pN (n)


+

=
n=0 +

E((1 + + n n)2 ) pN (n) E((i )( j )) pN (n)


+

=
n= 0

2 2 E((1 ) ) + + E((n ) ) +

i, j{1,...,n},i j

=
n=0

n2 pN (n) = 2 ,

et E(2 (N )2 ) = 2 E((N )2 ) = 2 2 , et
+

E((X N )(N ))

= =

n=0 +

E((X n)(n )|N = n) pN (n) (n )E((X n)|N = n) pN (n) = 0


n=0

car n 0, E(X n|N = n) = E(1 + + n n) = 0. Nous avons donc Var(X ) = 2 + 2 2 .

Dnition 3.4.2. Convole n-me. Soit f : R R telle que on dnit la convole n-me de f par rcurrence f
1

| f ( x)|dx < . Pour n N ,

= f,f

( x) =

(n1)

( x u) f (u)du , x .

Soit p : Z [0; 1] une fonction de masse. Pour n N , on dnit la convole n-me de p par rcurrence p 1 = p , j Z , p n ( j) = p (n1) ( j i) p(i) .
iZ

Proposition 3.4.3. Si les variables 1 , 2 , . . . sont continues de densit f et pN (0) = 0, alors Z = 1 + + N est continue, de densit
+

x fZ ( x) =
n=1

( x) pN (n) .

3.4. MOMENTS ET LOI DUNE SOMME ALATOIRE

57

En particulier, si N est constante gale n, la densit de Z est f n . Si les variables 1 , 2 , . . . sont discrtes valeurs dans Z de fonction de masse p , alors Z = 1 + + N est discrte, de fonction de masse Z
+

j Z pN (0) +
n=1

p n ( j) pN (n) .

En particulier, si N est constante gale n, la fonction de masse de Z est j 1{0} ( j) si n = 0 p n si n > 0 . Dmonstration. Nous ncrivons que la dmonstration pour le cas discret. Si N est constante gal 0, alors Z = 0, donc la fonction de masse de Z est 1 si j = 0 = 1{0} ( j) . j 0 sinon Si N est constante gal n N , montrons par rcurrence que la fonction de masse de Z est p n . Cest le case pour n = 1. Si cest vrai en n 1. Notons Y = 1 + + n1 . La fonction de masse de Y est p (n1) . Par la proposition 1.5.4, j Z P(Z = j) =
k , r Z: k + r = j

P(Y = k, n = j) P(Y = k)P(n = j) =


k,rZ:k+r= j i Z

(car Y n ) =

P(Y = j i)P(n = i) p (n1) ( j i) p (i) = p n ( j) .


iZ

(par hypothse de rcurrence) = Si N nest pas une constante, nous avons P(Z = 0) = pN (0) , et n N ,
+

P(Z = n) =
k=0

P(Z = n|N = k) pn (k)


+ +

(car P(Z = n|N = 0) = 0) =


k =1

P(Z = n|N = k) pN (k) =


k =1

p k (n) pN (k) .

Exemple 3.4.4. On se place dans le cadre de la proposition ci-dessus avec des i continues et z , f (z) = 1[0;+[ (z)ez , pour un certain > 0, n N , pN (n) = (1 )n1 , pour un certain ]0; 1[. Montrons par rcurrence que f R.
n n1 z (z) = 1[0;+[ (z) (n e , z 1)! z
n

58

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES Cest vrai pour n = 1. Si cest vrai en n 1, calculons z f
n

(z)

= = =

f
+

(n1)

(z u) f (u)du n1 (z u)n2 e(zu) 1[0;+[ (u)eu du (n 2)! e e


u

1[0;+[ (z u) 0 z
n1 (z 0 (n2)!

u)

n2 (zu)

du

si z < 0 sinon .

Donc, z 0, f
n

(z) = = =

n (z u)n2 ez du 0 (n 2)! z n ez (z u)n1 (n 2)! n1 0 n z n1 e z . (n 1)!


z +

Donc la densit de Z est z fZ (z) = (somme exponentielle) Donc Z E(). = = e n ez zn1 (1 )n1 (n 1)! exp((1 )z) .

n= 1 z

3.5

Conditionnement par une variable continue

Dnition 3.5.1. Soient X, Y des v.a.r. continues dnies de manire conjointe par une densit de probabilit ( x, y) fX,Y ( x, y). Nous dnissons la densit de probabilit conditionnelle x fX |Y ( x|y) de X sachant Y = y par fX |Y ( x|y) = fX,Y ( x, y) , si fY (y) > 0 . fY (y)

La densit conditionnelle nest pas dnie si fY (y) = 0. Nous dnissons la fonction de rpartition conditionnelle x F X |Y ( x|Y = y) de X sachant Y = y par F X |Y ( x | Y = y ) =
x

fX |Y (|y)d , si fY (y) > 0 .

Si on prend g telle que E(|g(X )|) < , lesprance conditionnelle de g(X ) sachant Y = y est dnie par E(g(X )|Y = y) =
+

g( x) fX |Y ( x| x)dx , si fY (y) > 0 .

Proposition 3.5.2. Sous les hypothse, de la dnition prcdente, nous avons les proprits suivantes.

3.6. STATISTIQUES POUR LES NULS 1. Pour tout a b, c d P(a < X < b, c < Y < d) =
c d a b

59

fX |Y ( x|y)dx fY (y)dy .

2. Les proprits de la proposition 3.3.2 sont encore vraies, condition dadapter le point 6 en E(g(X )h(Y )) = = Dans l cas h 1, nous obtenon E(g(X )) = E(E(g(X )|Y )) = Exemple 3.5.3. Soient X, Y de densit jointe fX,Y ( x, y) = Calculons la densit de y : fY (y) = = = = 1 ( x/y)y e 1]0;+[ ( x)1]0;+[ (y)dx y + 1 ( x/y)y e dx 1]0;+[ (y) y 0 + ey 1]0;+[ (y) ye x/y 0 y y 1]0;+[ (y)e .
+ +

E(h(Y )E(g(X )|Y ))


+

h(y)E(g(X )|Y = y) fY (y)dy .

E(g(X )|Y = y) fY (y)dy .

1 ( x/y)y e 1]0;+[ ( x)1]0;+[ (y) . y

Puis nous calculons la densit conditionnelle (dnie seulement pour y > 0) fX |Y ( x|y) = fX,Y ( x, y) 1 = 1]0;+[ ( x) e x/y . fy (y) y

Donc, conditionnellement Y = y, X est de loi E(1/y).

3.6

Statistiques pour les nuls


(H1) : les tirages sont de loi B(1/2)

On dispose dun gnrateur de nombre alatoires de loi B(1/2). On veut tester lhypothse

contre lhypothse (H2) : les tirages sont de loi B(1) ((H2) veut dire que les variables ne sont pas alatoires mais constantes gales 1). On choisit [0; 1/2]. La procdure de test est la suivante : on tire X1 , . . . , Xn avec notre gnrateur (pour

60

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

+ Xn un certain n), si X1 + [0; 1/2 + / n], on donne le rsultat (H1) est vraie et sinon on n donne le rsultat (H2) est vraie. Soient U1 , U2 , . . . i.i.d. de loi B(1/2). Nous nous intressons aux probabilits derreur suivantes : P(dire (H1)|(H2)) (dire que (H1) est vraie alors que (H2) est vraie) et P(dire (H2)|(H1)) (dire que (H2) est vraie alors que (H1) est vraie). Calculons P(dire (H1)|(H2)) = P( n 1 + ) = 0, n 2 n

P(dire (H2)|(H1)) = = =

U1 + + Un 1 + n 2 n (U1 1/2) + + (Un 1/2) P n n (U1 1/2) + + (Un 1/2) . P n

Par exemple, xons = 1. Supposons que lon tire 10 fois avec ce gnrateur et que lon obtienne X1 = = X10 = 1 . La procdure de test va renvoyer le verdict (H2) est vraie. Calculons la probabilit derreur (U1 1/2) + + (Un 1/2) n P(Z )

P(dire (H2)|(H1))

(TCL)

avec Z N (0, 2 ) (2 = Var(U1 )). Nous avons Var(U1 ) = = E((U1 1/2)2 ) 1 . 4

Soit Y = Z/. Par lexemple 1.6.4, Y N (0, 1). Nous avons P(Z ) = = (lecture de la table) = P( Z 2) 1 P(Y 2) 1 0, 9772 0, 0228 .

3.7
3.7.1

Exercices
noncs

1. crire un programme permettant de comparer les stratgies dans le problme de Monty Hall (cf. exemple 3.1.5). Justier la procdure propose. 2. Soit N le rsultat dun lancer de d. On tire N fois pile ou face et on appelle X le nombre de faces obtenues. (a) Calculer P(N = 3, X = 2).

3.7. EXERCICES (b) Calculer P(X = 5). (c) Calculer E(X ). 3. Soit X P() ( > 0). Calculer lesprance de X sachant que X est impair.

61

4. On jette 4 pices de 1 euros et 6 pices de 2 euros. Soit N le nombre total de faces observ. Si N = 4, quelle est la probabilit (conditionnelle) que exactement 2 pices de 1 euro soient tombes sur face ? 5. On jette un d rouge une seule fois. Puis on jette un d vert de manire rptitive jusqu ce que la somme du d rouge et du d vert soit gale 4 ou 7, et on arrte alors de jeter le d vert. Quelle est la probabilit de sarrter avec une somme gale 4 ? 6. On sintresse lalgorithme suivant. Algorithme 3.1 Simulation de variable alatoire N=grand(1,1,uin,1,6) ; s=0 ; for i=1 :N U=grand(1,1,bin,1,1/2) ; // U est une variable de loi B(1/2) s=s+U ; end, printf(%i \n,s) ; // achage de s (au format entier) Notons Z la variable ache. (a) Calculer E(Z ) et Var(Z ). (b) Calculer la fonction de masse de Z . 7. On sintresse lalgorithme suivant. Algorithme 3.2 Simulation de variable alatoire N= 0 ; for i=1 :6 N=N+grand(1,1,bin,1,1/2) ; // on ajoute N des variables de loi B(1/2) end, Z=0 ; for i=1 :N Z=Z+grand(1,1,bin,1,1/2) ; end, printf(%i \n,Z) ; // achage de Z (a) Calculer E(Z ), Var(Z ). (b) Calculer P(Z = 2). 8. On sintresse lalgorithme suivant.

62

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

Algorithme 3.3 Simulation de variable alatoire P=grand(1,1,unf,0,1) ; S=0 ; for i=1 :3 U=grand(1,1,bin,1,P) ; S=S+U ; end, printf(%i \n,S) ; Quelle est la probabilit que ce programme ache 2 ? 9. On sintresse lalgorithme suivant. Algorithme 3.4 Simulation de variables alatoires function [z]=expo(t) // on remarque que le rsultat de la fonction ne dpend pas de t u=grand(1,1,unf,0,1) ; // u est de loi U ([0; 1]) z=-log(1-u) ; endfunction b=0 ; s=0 ; while (b==0) s=s+1 ; r=expo(1) ; if (r>1) then b=1 ; end, end, printf("temps total = %i, variable = %f\n",s,r) ; // ache s et r (a) Quelle est la loi de la variable renvoye par un appel la fonction expo ? (b) Quelle est la loi de la variable s ache ? (c) Quelle est la loi de la variable r ache ?

3.7.2

Corrigs

1. On se xe une stratgie (par exemple, changer de porte), on simule un jeu et on note 1 si on gagne la voiture U= 0 sinon . Si on recommence lexprience n fois, gnrant ainsi des rsultats i.i.d. U1 , U2 , . . . la loi des grands nombres nous dit que U1 + U2 + + Un p.s. E(U1 ) = P(gagner la voiture) . n+ n (3.7.1)

Donc la loi des grands nombres nous dit que lon peut approcher P(gagner la voiture) par une moyenne empirique. Lalgorithme 3.5 simule plusieurs jeux dans lesquels le joueur change de porte et calcule la moyenne empirique de (3.7.1) pour un certain n. 2.

3.7. EXERCICES Algorithme 3.5 Simulation du jeu de Monty Hall n=100000 ; // on choisit n grand // les portes sont numrotes 0,1,2 function [z]=comp(i,j) // on rentre deux numros de portes distincts dans cette fonction // et elle ressort k tel que {i,j,k}={0,1,2} b=0 ; k=-1 ; while (b=0) k=k+1 ; if (k==i) then b=0 ; else if (k==j) then b=0 ; else b=1 ; end, end, end, z=k ; endfunction s=0 ; for i=1 :n // on recommence la mme exprience n fois V=grand(1,1,uin,0,2) ; // V est le numro de la porte de la voiture, il est tir au hasard //dans {0,1,2} S=grand(1,1,uin,0,2) ; // S est le numro slectionn par le joueur (au hasard) if (S==V) then // si S=V, le prsentateur choisit au hasar parmi les 2 portes restantes U=-1+2*grand(1,1,uin,0,1) ; // U vaut +1 ou -1 avec proba. 1/2 P=modulo(S+U,3) ; // cest le reste de la division euclidienne de S+U par 3 else // si S V alors le prsentateur na pas de choix faire P=comp(S,V) ; end, // P est le numro de la porte ouverte par le prsentateur F=comp(S,P) ; // le joueur ouvre la seule porte quil na pas slectionne et que le // prsentateur na pas ouverte if (F==V) then U=1 ; else U=0 ; end, // U vaut 1 si le joueur gagne la voiture et 0 sinon s=s+U ; end, printf(estimation de la proba. de succes si on change de porte : %f,s/n) ; // achage // du rsultat

63

(a) Pour chaque tirage de pile ou face, on note i = 1 si le rsultat est face et i = 0 sinon. Nous avons donc 1 + + n est le nombre total de faces sur n tirages (n).

64

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES Nous avons X = 1 + + N et donc P(N = 3, X = 2) = = = P(X = 2|N = 3)P(N = 3) P(1 + + N = 2|N = 3)P(N = 3)

P(1 + 2 + 3 = 2|N = 3)P(N = 3) 1 = P(1 + 2 + 3 = 2) 6 3 1 2 1 = C3 2 6 11 1 = 3 = . 8 6 16 (b) Calculons


6

P(X = 5) =
j=1 6

P(X = 5|N = j)P(N = j) 1{5,6} ( j)C 5 j


j=1

= = = 1 2 1 2

1 2

1 6

1 5 6 C + C6 6 6 1 1 (6 + 1) = 6 2
5

7 . 6

(c) Nous pouvons utiliser la proposition sur les moments dune somme alatoire E(X ) = = = E(1 )E(N ) 11 (1 + 2 + + 6) 26 1 6 7 21 7 = = . 12 2 12 4
+ i=0 { X

3. Notons Y la variable qui vaut 1 si X est impair et 0 sinon. Nous avons P(Y = 1) = =
i=0 +

P(
+

= 2i + 1})

P(X = 2i + 1) 2i+1 e (2i + 1)!

=
i=0

= Nous avons donc x , pX |Y ( x, 1) = =

sinh()e . pX,Y (X = x, Y = 1) pY (Y = 1) si x pair 0 P( X = x ) si x impair .


pY (Y =1)

3.7. EXERCICES Donc, pour x impair, x x 1 e = . sinh()e x! sinh()

65

pX |Y ( x, 1) =

Donc
+

E(X |Y = 1) =
j=0 +

pX |Y (2 j + 1, 1)(2 j + 1) 2 j+1 (2 j + 1) sinh()


+

=
j=0

= = = = =

sinh()

(2 j + 1)2 j
j=0

("technique de la srie drive") (srie gomtrique)

+ d 2 j + 1 sinh() d j=0 d sinh() d 1 2 1 2 + 2 sinh() (1 2 )2 1 + 2 . sinh() (1 2 )2

Nous ne justions pas cette technique de la srie drive. Elle est utile dans de nombreux exercices. 4. Notons X1 , X2 , X3 , X4 les variables alatoires ( valeurs dans {P, F }) rsultats du lancer des 4 pices de 1 euro. Notons X7 , . . . , X10 les variables alatoires ( valeurs dans {P, F }) rsultats du lancer des 6 pices de 2 euros. Les variables X1 , . . . , X10 sont i.i.d. (avec P(X1 = F ) = 1/2). Calculons P(N = 4) = P( =
{i1 ,...,i4 }{1,...,10} {i1 ,...,i4 }{1,...,10} { Xi

= F, i {i1 , . . . , i4 } et Xi = P, i

{i1 , . . . , i4 }} {i1 , . . . , i4 }})

P({Xi = F, i {i1 , . . . , i4 } et Xi = P, i (par indpendance des Xi ) =


{i1 ,...,i4 }{1,...,10}

1 2

10

4 = C10

1 2

10

66 et

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

P(#{i {1, . . . 4} : Xi = F } = 2, N = 4) = P(#{i {1, . . . 4} : Xi = F } = 2, #{i {5, . . . 10} : Xi = F } = 2) = P( =


{i1 ,i2 }{1,...,4},{ j1 , j2 }{5,...,10} 2 2 = C4 C6 {i1 ,i2 }{1,...,4},{ j1 , j2 }{5,...,10} { Xi

= F ssi i {i1 , i2 , j1 , j2 }})

P({Xi = F ssi i {i1 , i2 , j1 , j2 }}) 1 2


10

Donc la probabilit recherche est 1 1 4!6!4!6! = = . 2!2!4!2!10! 8 10 3 7 1680 5. Notons X0 la rsultat du d rouge et X1 , X2 , . . . les rsultats successifs du d vert. Nous avons {arrt sur un 4} =
i1

({1 X0 3} {arrt en i}) = i1 ({1 X0 3} {7 X1 , 4 X1 }, j {1, . . . , i 1}} {Xi = 4 X1 } . (3.7.2)

{X j

Donc 1 (en utilisant lindpendance des Xi )


+

P({arrt sur un 4}) =


i=1

3 6

4 6

i1

1 3 = 6 36

+ i=1

4 6

i1

(somme gomtrique) = 6.

3 1 36 1

4 6

3 6 1 = . 36 2 4

(3.7.3)

(a) Notons U1 , U2 , . . . les variables tires successivement dans la boucle de lalgorithme. Les variables N, U1 , U2 , . . . sont indpendantes. Nous avons Z = U1 + + U N . Calculons 1 1 E(U1 ) = , Var(U1 ) = , 2 2 1 7 E(N ) = (1 + + 6) = , 6 2 1 6 7 13 91 2 2 2 E(N ) = (1 + 2 + + 6 ) = = , 6 66 6 91 49 182 156 26 13 Var(N ) = = = = . 6 4 12 12 6 Nous avons donc 17 7 E(Z ) = = , 22 4 7 1 1 13 7 13 21 + 13 34 17 Var(Z ) = + = + = = = . 22 4 6 4 24 24 24 12
1. Attention, astuce : dans (3.7.2), lensemble {1, . . . , i 1} est vide si i = 1. Il faut donc calculer part la probabilit P(1 X0 3, X1 = 4 X1 ) =
3 6

1 6 . Cest bien le premier terme de la somme dans (3.7.3) car

4 0 6

= 1.

3.7. EXERCICES (b) Calculons, pour n N et k {0, . . . , n},


k P(U1 + + Un = k) = Cn

67

1 2

La variable Z est valeurs dans {0, . . . , 6}. Calculons, pour k {0, . . . , 6},
+

P(Z = k) =
n=1 6

P(Z = k|N = n)P(N = n) P(Z = k|N = n)P(N = n) ,


n=1

= or P(Z = k|N = n) = 0 si n < k, donc

P(Z = k) =
n=max(k,1)

k Cn

1 2

1 . 6

7. Notons U1 , ..., U6 les variables B(1/2) utilises dans la premire boucle et notons N = U1 + + U6 . Notons V1 , V2 , . . . les variables B(1/2) utilises dans la deuxime boucle et notons Z = V1 + + VN . La variable Z est celle ache par le programme. (a) Nous avons E(V1 ) = 1 1 , Var(V1 ) = , 2 2 6 = 3, 2

E( N ) =

E(N 2 ) =
1i, j6

E(Ui U j )
2 6E(U1 ) + 30E(U1 )E(U2 ) 30 42 21 3+ = = , 4 4 2

(les Ui sont i.i.d.)

= =

Var(N ) = Donc E(Z ) =

21 3 9= . 2 2 3 1 3= , 2 2

Var(Z ) =

3 1 3 12 + 3 15 + = = . 2 4 2 8 8

68

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES (b) Calculons


6

P(Z = 2) (P(Z = 2|N = n) = 0 si n 1)

=
n= 0 6

P(Z = 2|N = n)P(N = n)


n P(Z = 2|N = n)C6 n= 2 6

= =
n= 2 6

1 2

2 n Cn C6

1 2

=
n= 2

n!6! 1 2!(n 2)!n!(6 n)! 2


6 n2 C4 n= 2 k C4 k =0

= (changement dindicek = n 2) (formule du binme) = = =

65 8 30 8
4

1 2

n 2

1 2
4

30 1 1+ 8 2 4 30 3 . 8 24

8. Notons U1 , U2 , U3 les variables successives gnres par la boucle. La variable P suit une loi U ([0; 1]). Conditionnellement P, les Ui suivent la loi B(P). Notons S = U1 +U2 +U3 . Conditionnellement P, S suit une loi B(3, P). Calculons P(S = 2) = = 9. (a) La variable u tire lors dun appel la fonction expo est de loi U ([0; 1]) (de densit u R 1[0;1] (u)). Notons R la variable log(1 u). La fonction g : t ]0; 1]] log(1 t) R+ est bijective dcroissante, dinverse g1 : y [0; +[ 1 ey . Nous avons R() [0; +] (pour tout ). Notons f la densit de R. Nous avons donc f (y) = 0 si y < 0. Par la formule de changement de variable, nous avons pour y 0, f (y) = = 1[0;1] (g1 (y)) g (g1 (y)) 1
1 1(1exp(y)) + +

P(S = 2|P = y)1[0;1] (y)dy

= ey .

3.7. EXERCICES Donc la densit de R est la fonction y R 1[0;+[ (y)ey , (Mme si ce nest pas demand, on peut remarquer que R est de loi E(1)).

69

(b) Notons R1 , R2 , . . . les variables successivement simules dans la boucle while. Notons T la variable s ache la n du programme. La boucle while sarrte ds que lon tire une variable Ri > 1. Donc 2 , k N , P(T = k) = (les R j sont indpendants) =
i=1

P({Ri 1, i {1, . . . , k 1}} {Rk > 1})


k 1

P(Ri 1) P(Rk > 1) .

Calculons P(R1 1) = = = P(R1 > 1) =


1 1

1[0;+] (y)ey dy
1

ey dy
0 1 [ey ]1 0 =1e , +

1[0;+] (y)ey dy ey dy

=
1

= Les R1 , R2 , . . . sont de mme loi donc P(T = k) =

1 [ey ]+ 1 =e .

(1 e1 )k1 e1 .

(On peut remarquer, mme si ce nest pas demand, que T G(e1 ).) (c) La variable r (que nous noterons R) ache la n du programme est toujours > 1. Donc, t 1, P(R t) = 0. Calculons, pour un t > 1, P(R t) = =
k=1 +

P(
+

+ k=1 ({T

= k} {R t}))

P(T = k, R t) P(T = k, Rk t)
k=1 +

= =
k=1 +

P(R1 1, . . . , Rk1 1, Rk ]1; t]) P(R1 1)k1 P(1 < R1 t) .


k=1

(les R j sont i.i.d.)

2. Attention, nous utilisons dans le calcul suivant diverses conventions dans le cas k = 1. Les tudiants peu laise avec ces conventions peuvent toujours faire un calcul part pour k = 1, le rsultat sera le mme.

70

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES Rappelons la fonction de rpartition de la loi E(1) : F : x R 1[0;+[ ( x)(1 e x ) . Nous avons P(R1 1) = F (1) , P(1 < R1 t) = F (t) F (1) . Donc
+

P(R t) (somme gomtrique)

=
k =1

(1 e1 )k1 (e1 et ) (e1 et ) 1 1 (1 e1 )

= =

e1 et = e(t1) . e1

(Ce qui dnit compltement la loi de R.)

Liste des symboles


:= # 1 \ E galit de dnition Cardinal Fonction indicatrice Priv de Intersection Runion Esprance

E(g(X )|N ) Esprance conditionnelle E(g(X )|N = n) Esprance conditionnelle N P B(.) B(., .) E G N P U N

Entiers naturels Probabilit Loi de Bernoulli Loi binmiale Loi exponentielle Loi gomtrique Loi gaussienne Loi de Poisson Loi uniforme Entiers strictements positifs Ensemble des possibles Ala Convergence en probabilit Convergence en loi Convergence p.s. Convergence L p 71


Lp p.s. loi P

72

CHAPITRE 3. PROBABILITS ET ESPRANCES CONDITIONNELLES

P(A| B) Probabilit conditionnelle Indpendance suit la loi ... Runion disjointe Var
c

Variance Complmentaire Nombre de parties (...)

C.. f
n

Convole n-me

F X |N ( x|n) Fonction de rpartition conditionnelle fX |N ( x|n) Densit conditionnelle pX |Y Fonction de masse conditionnelle

Index
Ala, 1 Au plus dnombrable, 1 Changement de variable, 15 Complmentaire, 17 Convergence L p , 31 en loi, 31 en probabilit, 31 presque sre, 31 Convergence absolue, 6 Convole n-me, 56 Convolution, 13, 56 Cosinus hyperbolique, 78 Covariance, 11 Densit (de probabilit), 5, 9 Densit conditionnelle, 53, 58 Disjoints, 2 galit de dnition, 4 Ensemble des possibles, 1 Entiers strictement positifs, 50 Esprance, 7 Esprance conditionnelle, 52, 54, 58 vnement, 1 vnements indpendants, 11 Exponentielle, 78 Fonction de distribution marginale, 9 Fonction de masse, 4 Fonction de masse conditionnelle, 49 Fonction de rpartition conditionnelle, 53, 58 Fonction de rpartition, 3 Fonction indicatrice, 10 Fonctions de rpartition jointes, 9 Formule du binme, 77 Lancer de d, 3 Loi binmiale, 16 de Bernoulli, 16 de Poisson, 16 exponentielle, 17 gomtrique, 16 gaussienne, 17 normale, 17 uniforme, 16, 17 Loi daddition, 2 Loi des grands nombres, 31 Loi des probabilits totales, 2 Lois discrtes, 16 Mdiane, 7 Moment, 6 Monte-Carlo, 34 Moyenne, 6, 7 Moyenne empirique, 31 Nombre de parties (...), 42, 77 Planche de Galton, 41 Priv de, 2 Probabilit, 2 Probabilit conditionnelle, 49 Probabilit dune runion disjointe, 2 Problme de Monty Hall, 51 Proprits de P, 2 Runion, 1 Runion disjointe, 28 Sinus hyperbolique, 78 Somme arithmtique, 77 Somme de carrs, 77 Somme gomtrique, 77 Sondages, 40 Statistiques, 59

i.i.d., 31 Indpendantes et identiquement distribues, 31 Intersection, 1, 2 TCL, 37 73

74 Technique de la srie drive, 65 Temps darrt, 69 Thorme central-limite, 37 v.a.r., 3 Variable alatoire, 3 Variable continue, 5 Variable discrte, 4 Variable uniforme, 5 Variables indpendantes, 11, 12 Variance, 7, 12

INDEX

75

Appendix A

Table de la loi normale

Figure A.1: Table de la loi normale

Appendix B

Fonctions, intgrales et sommes usuelles


Nous rappelons (a, b)
b a b e x dx = [e x ]b + ea . a = e

Par intgration par parties, nous avons


b a

xe x dx = [ xe x ]b a+
a

e x dx .

Et ,
b a

x1 e x dx = x1 e x

b a

+ ( 1)
a

x2 e x dx .

Formule du binme (de Newton) :


n

x, y R , 0 k n (k, n N) , ( x + y)n =
k=0

k k n k Cn xy ,

n! k = k!(n o Cn k)! (cest nombre de parties k lments dans un ensemble n lments). Somme gomtrique : n

p R , n N ,
k=0

pk =
+

1 pn+1 , 1 p 1 . 1 p

si, de plus ,| p| < 1 ,


k=0

pk =

Somme arithmtique 1 + 2 + + n = Somme de carrs 12 + 22 + + n2 = 77

n(n + 1) . 2

n(n + 1)(2n + 1) . 6

Exponentielle : x R , ex =

+ n=0

xn . n!

Cosinus hyperbolique : x R , cosh( x) = Sinus hyperbolique : x R , sinh( x) = e x e x = 2


+ n=0

e x + e x = 2

+ n=0

x 2n . (2n)!

x2n+1 . (2n + 1)!

78