Vous êtes sur la page 1sur 80

cole Polytechnique

lves voie 2

Semestre d'accueil

Introduction au calcul des probabilits


Rsum de cours

Alexandre POPIER, Olivier WINTENBERGER

Anne : 2006-2007

La thorie des probabilits concerne la modlisation du hasard et le calcul des probabilits, son valuation. Ces techniques doivent faire partie des connaissances de base de tous les ingnieurs, trs souvent confronts des systmes ou des situations de plus en plus complexes et parfois gouvernes en partie par le hasard. Elles jouent par exemple un rle essentiel dans l'valuation de la sret de fonctionnement des systmes d'information et de communication, ou en nance quantitative (pricing d'options, couvertures, etc.). Le texte qui suit constitue un rsum du cours d'initiation en probabilits du semestre d'accueil pour les lves de la voie 2 en premire anne de l'cole Polytechnique. Il ne saurait se substituer un expos complet et comment et encore moins la pratique d'exercices d'application. Il peut nanmoins servir de rfrence ou d'aide-mmoire en ce qui concerne les notions et outils de base de ces disciplines, exposs selon le cheminement naturel d'un cours. Pour les tudiants, nous ajoutons qu'ils trouveront des informations sur les cours (contenu, modications, lieux, horaires, etc.) sur la page Internet suivante : - http://owintenb.free.fr/accueil.html Pour avoir des complments, nous renvoyons le lecteur aux direntes rfrences la n du cours et leurs bibliographies respectives.

Nous remercions Alexis Bienvene et Paul Doukhan pour nous avoir permis de nous inspirer largement de leurs cours de probabilit et statistique. Ces notes de cours sont videmment une version prliminaire et nous serions reconnaissant tout lecteur de nous faire part des fautes qu'il y aura dtectes l'adresse suivante : - owintenb@univ-paris1.fr.

TABLE DES MATIRES

Table des matires


1 Premire approche dans le cas ni, dnombrement
1.1 Motivation et introduction . . . . . . . . . . . . . . . . . . . . 1.1.1 Espace des observables . . . . . . . . . . . . . . . . . . 1.1.2 Probabilit . . . . . . . . . . . . . . . . . . . . . . . . 1.1.3 Le cas quiprobable . . . . . . . . . . . . . . . . . . . . Notions de dnombrement . . . . . . . . . . . . . . . . . . . . 1.2.1 Premires dnitions . . . . . . . . . . . . . . . . . . . 1.2.2 Principes de la somme et du produit . . . . . . . . . . 1.2.3 Dnombrement des p-listes . . . . . . . . . . . . . . . . 1.2.4 Dnombrement des Arrangements et des Permutations 1.2.5 Dnombrement des Combinaisons . . . . . . . . . . . . 1.2.6 Proprits des coecients binmiaux . . . . . . . . . . Autre exemple important : le schma Succs-chec ni. . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . L'espace de probabilit (, F, P) . . . . . . . . . . . 2.1.1 L'espace des observables . . . . . . . . . . 2.1.2 La tribu des vnements F . . . . . . . . . . 2.1.3 La probabilit P . . . . . . . . . . . . . . . . Indpendance et probabilits conditionnelles . . . . 2.2.1 Probabilits conditionnelles . . . . . . . . . L'espace des observables est au plus dnombrable. . 2.3.1 Un exemple : le schma Succs-chec inni. Exercices . . . . . . . . . . . . . . . . . . . . . . . . lment alatoire . . . . . . . . . . . . . . . . . 3.1.1 Dnition . . . . . . . . . . . . . . . . . 3.1.2 Loi de probabilit d'un lment alatoire 3.1.3 Variables indpendantes . . . . . . . . . 3.1.4 Fonction de rpartition . . . . . . . . . . Variables alatoires discrtes . . . . . . . . . . . 3.2.1 Moments . . . . . . . . . . . . . . . . . . 3.2.2 Fonction gnratrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 . 1 . 3 . 4 . 5 . 5 . 5 . 6 . 6 . 7 . 7 . 9 . 10 . . . . . . . . . . . . . . . . .

1.2

1.3 1.4 2.1

2 Axiomes du calcul des probabilits

13

2.2 2.3 2.4 3.1

13 13 13 15 18 19 21 22 24

3 lment alatoire

27

3.2

27 27 28 29 29 31 32 33

6 3.3

TABLE DES MATIRES 3.2.3 Lois discrtes classiques . . . . . . . . . . . . . Variables alatoires densit . . . . . . . . . . . . . . . 3.3.1 Probabilit absolument continue . . . . . . . . . 3.3.2 Variables alatoires relles absolument continues 3.3.3 Moments . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Fonction caractristique . . . . . . . . . . . . . 3.3.5 Lois absolument continues classiques . . . . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34 37 37 39 39 40 40 42

3.4 4.1 4.2 4.3 4.4

4 Deux thormes limites et leurs applications

Loi des grands nombres . . . . . . . . . . . . . . . . . . . Thorme central limite . . . . . . . . . . . . . . . . . . Applications . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Application numrique : mthode de Monte Carlo 4.3.2 Application statistique : modle de Bernoulli . . . Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . .

51

51 53 54 54 54 61

A Tables des lois B Tables statistiques

65 67

Chapitre 1 Premire approche dans le cas ni, dnombrement


1.1 Motivation et introduction
La thorie des probabilits a pour objectif de modliser des expriences o plusieurs rsultats sont possibles, mais o leur ralisation n'est pas dtermine l'avance : lancer de ds, prix d'une action, perturbations sur une ligne tlphonique, les d'attente, etc. Ceci pour valuer les risques et mettre sur pied des stratgies pour faire face aux alas. Ainsi un joueur au casino devra prendre en compte les chances de gain pour optimiser ses mises. Dans ce chapitre, on va s'intresser uniquement aux expriences pour lesquelles le nombre de rsultats est ni. La premire dicult est donc de dcrire correctement l'exprience, an d'numrer tous les rsultats possibles. On regroupe ces issues possibles dans un ensemble, not traditionnellement et appel espace des observables ou espace des issues. On appelle vnement toute partie de . Le deuxime problme est alors d'attribuer chaque vnement A un nombre compris entre 0 et 1 qui estime les chances qu'a cet vnement de se raliser. On appelle ce nombre la probabilit de A. Une fois ces deux premires tapes franchies, on peut eectuer tout un tas de calculs sur cet ensemble , comme par exemple dterminer si un jeu de hasard est quitable, c'est--dire si en moyenne tous les joueurs ont autant de chances de gagner (au casino ou la Franaise des Jeux, il n'y a aucun jeu quitable...).

1.1.1 Espace des observables


Dans chaque situation, l'espace des observables (ou des issues) est donc not , alors que les lments de , appels observations, seront nots . Voyons sur des exemples comment on modlise une exprience alatoire.

Exemple :

On considre un d 6 faces, numrotes de 1 6. On appelle l'ensemble des rsultats possibles d'un lancer, = {1, 2, 3, 4, 5, 6}. Si on suppose que le d est quilibr, on associe

2 CHAPITRE 1. PREMIRE APPROCHE DANS LE CAS FINI, DNOMBREMENT chaque rsultat la probabilit 1/6. On pense donc une probabilit comme une fonction P sur telle que :

P(1) + P(2) + P(3) + P(4) + P(5) + P(6) = 1.

(1.1)

Exemple :

On considre le mme d, sauf que sur la sixime face le nombre 6 est remplac par le 5. Il y a donc deux faces o 5 est inscrit. L'ensemble des rsultats est dirent : = {1, 2, 3, 4, 5}. Comme le d est quilibr, les faces 1,2,3 et 4 ont chacune la probabilit 1/6 de sortir, alors que P(5) = 2/6.

Dans le premier exemple, quelle est la probabilit qu'un nombre pair sorte ? Il sut de dcomposer cet vnement, disons A, en les dirents rsultats qu'il contient : A = {2, 4, 6}. P(A) = P(2) + P(4) + P(6) = 1/2.

Exemple :

Il existe des cas o le choix de n'est pas aussi immdiat que dans l'exemple du d. Nous allons dvelopper une exprience simple o choisir la modlisation permet d'valuer rigoureusement le risque. On a 3 cartes colories sur chaque face : rouge-rouge (RR), blanc-blanc (BB) et rougeblanc (RB). Une personne tire une carte au hasard et vous en montre une face, elle aussi tire au hasard. Si la face montre est R, que pariez-vous pour la couleur de la face cache? Intuitivement, il y a trois cas possibles qui se produisent avec la mme probabilit : deux cas o la face montre est R lorsque la carte est RR, un cas o la face montre est R lorsque la carte est RB. Donc deux cas o la face cache sera R, et un cas o elle sera B. On a donc deux fois plus de chance de gagner en pariant R. Plus rigoureusement, l'exprience modliser consiste en deux tapes : on choisit une carte parmi {RR, BB, RB}, puis on choisit une des deux faces. On va supposer que dans la notation XY des cartes, X correspond au recto et Y au verso. On traduit que ces choix se font au hasard en disant que tous les rsultats possibles ont mme probabilit. On va dcrire sparment les deux tapes. Le choix d'une carte est un lment de

1 = {RR, BB, RB} ,


et on appelle P1 la probabilit sur 1 , avec

P1 (RR) = P1 (RB) = P1 (BB) = 1/3.


Puis le choix d'une face correspond un lment de 2 = {r, v} (r pour recto, v pour verso) et P2 (r) = P2 (v) = 1/2. Pour l'exprience, l'ensemble des tirages est l'ensemble des couples (carte,face) :

= {(RR, r), (RR, v), (RB, r), (RB, v), (BB, r), (BB, v)} = 1 2 .

1.1. MOTIVATION ET INTRODUCTION La probabilit associe aux rsultats de est P :

P(carte, f ace) = P1 (carte)P2 (f ace) = 1/6.


Le fait que P se factorise traduit l'indpendance des deux tapes (voir chapitre 2.2). On dcompose l'vnement A (( la face montre est R et la face cache est R )) en lments de :

A = {(RR, r), (RR, v)} .


De mme D est (( la face montre est R et la face cache est B )), soit D = {(RB, r)}. On voit donc que P(A) = 2/6 alors que P(D) = 1/6. On en dduit qu'il faut mieux parier que la face cache est rouge.

1.1.2 Probabilit
On va dnir la notion de probabilit sur un ensemble ni . Avant, des rappels de thorie des ensembles : si A et B , on note AB = { A ou B}, et AB = { A et B}. On interprte l'vnement A B comme tant (( A ou B se ralisent )), et A B comme tant (( A et B se ralisent )). On note A \ B = { A et B} et Ac (= A) = \ A. L'vnement Ac est appel vnement complmentaire de A. On dit que deux vnements A et B sont disjoints s'ils n'ont aucun lment en commum, c'est--dire si A B = , o est l'ensemble vide. Remarquons que A et Ac sont toujours disjoints, ainsi que {} et { } si = . Les vnements considrs sont des sous-ensembles de : A . Ce sont aussi des lments de P(), l'ensemble de toutes les parties de . Par exemple, si = {1, 2, 3}, alors

P() = {, {1} , {2} , {3} , {1, 2} , {1, 3} , {2, 3} , {1, 2, 3}} .


Plus gnralement :

des parties de a 2N lments.

Proposition 1.1 Si un ensemble a un nombre ni N d'lments, alors P() l'ensemble Preuve :

Soit = {1 , . . . , n }. On introduit pour une partie A de la fonction caractristique de A : 1 si A, 1 A () = 1 0 sinon. Il y a une bijection entre P(), l'ensemble des partitions de et {0; 1} , l'ensemble des applications de dans {0; 1} :

P() {0; 1} A 1 A. 1

4 CHAPITRE 1. PREMIRE APPROCHE DANS LE CAS FINI, DNOMBREMENT L'application rciproque est dnie par { ; (y) = 1}. Donc Card(P()) = Card({0; 1} ) = 2N . Dans l'introduction, on voulait associer un vnement (c'est--dire une partie de ) un nombre compris entre [0, 1]. Donc une probabilit va tre une fonction sur P(), qui doit vrier certaines conditions du style de (1.1). Ceci se traduit ainsi :

Dnition 1.2 (Probabilit (cas ni)) Une probabilit P est une fonction de P()
dans [0, 1] telle que : 1. P() = 1; 2. P(A B) = P(A) + P(B) si A et B sont disjoints. 2 pour une dnition rigoureuse pour quelconque).
Quelques rsultats immdiats :

Remarque 1.3 Attention : cette dnition n'est valable que si est ni (voir chapitre

Proprits 1.4 De la dnition 1.2, on obtient


1. 2. 3. 4. 5.

P(Ac ) = 1 P(A); P() = 0; P(A) = P(A B) + P(A B); P(A B) = P(A) + P(B) P(A B); P({} { }) = P({}) + P({ }) si = .

Toutes ces proprits de P se comprennent trs bien si on garde l'esprit qu'elles servent modliser une exprience alatoire.

1.1.3 Le cas quiprobable


Considrons le cas particulier o tous les rsultats possibles ont la mme probabilit de se raliser : (, ) 2 , P({}) = P({ }). Cette hypothse convient par exemple pour modliser un d quilibr et plus gnralement les jeux de hasard (cartes, roulette, etc.). Alors, comme = {},

P() =

P({}) = 1,

d'o, d'aprs l'hypothse d'quiprobabilit, pour tout 0 ,

1=

P({0 }) = Card() P({0 }),

c'est--dire : P({0 }) = 1/ Card(). On se reportera la section suivante pour la dnition de Card. Maintenant, si A P(),

P(A) =
A

P({}) =

Card(A) . Card()

(1.2)

1.2. NOTIONS DE DNOMBREMENT

La probabilit ainsi dnie est appele probabilit uniforme sur . On voit donc que le calcul des probabilits dans ce cas trs particulier revient un calcul de cardinal d'ensemble. C'est l'objet de la section suivante.

1.2 Notions de dnombrement


1.2.1 Premires dnitions
Dnition 1.5 On rappelle que le cardinal d'un ensemble ni , not Card(), reprsente
son nombre d'lments.
Par exemple avec = {0, . . . , 10}, on a :

Card() = 11.
Plus gnralement, si  Y : ensemble p lments {y1 , . . . , yp },  X : ensemble n lments {x1 , . . . , xn }. alors l'ensemble des applications de Y dans X (not X Y ) est tel que

Card(X Y ) = np .
En eet, il y a n manires de choisir f (y1 ) parmi {x1 , . . . , xn }, n manires de choisir f (y2 ) parmi {x1 , . . . , xn }, etc.

Dnition 1.6 Une partition d'un ensemble est une famille d'ensembles {Ai }i=1,...,p
telle que :

Ai = ,
i=1,...,p

Ai

Aj = ds que i = j.

Dans tout ce qui suit, nous noterons n! le produit 1 2 3 n, ce produit s'appelle factorielle n. On convient que 0! = 1. Le produit cartsien de p ensemble E1 , E2 , . . . , Ep , not E1 E2 Ep , reprsente l'ensemble des p-uplets (e1 , e2 , . . . , ep ) o e1 E1 , e2 E2 , . . . , ep Ep .

1.2.2 Principes de la somme et du produit


On appelle le principe de la somme, la relation entre la somme des cardinaux d'une partition de et le cardinal de . Si des ensembles A1 , A2 , . . . , Ap constituent une partition d'un ensemble ni , alors :

Card(A1 ) + Card(A2 ) + + Card(Ap ) = Card().


Soient A et B deux parties d'un ensemble ni . On dduit immdiatement du principe de la somme les relations suivantes :

Card(A B) = Card(A) + Card(B) Card(A B), Card(Ac ) = Card() Card(A).

6 CHAPITRE 1. PREMIRE APPROCHE DANS LE CAS FINI, DNOMBREMENT L'axiome 2 de la notion de probabilit (cf. dnition 1.2) est cohrent avec ce principe. On peut vrier ainsi que la probabilit uniforme dnie par (1.2) satisfait bien les axiomes d'une probabilit dcrits dans la dnition 1.2. Si une situation comporte p tapes orant respectivement n1 , n2 , . . . , np possibilits alors le nombre total d'issues est :

n1 n2 np .
Du principe du produit (ou multiplicatif) dcoule le cardinal du produit cartsien : si 1 , 2 , . . . , p sont p ensembles de cardinal ni, alors :

Card(1 2 p ) = Card(1 ) Card(2 ) Card(p ).

1.2.3 Dnombrement des p-listes


Dnition 1.7 Soient n N et un ensemble de cardinal n. Soit p N. Une p-liste
(ou liste de longueur p) est un p-uplet d'lments de .
p facteurs

Une p-liste est donc un lment de p = . On suppose que la 0-liste existe, c'est la liste qui ne comporte aucun lment.

p-listes de est np .

Thorme 1.8 Soit un ensemble de cardinal ni n. Le cardinal de l'ensemble p des

La dmonstration de ce thorme dcoule simplement du principe multiplicatif.

1.2.4 Dnombrement des Arrangements et des Permutations


0 p n. Un p-arrangement (ou arrangement de p lments) de est une p-liste d'lments distincts de . Une permutation de est un arrangement des n lments de .

Dnition 1.9 Soit un ensemble de cardinal ni n et p un entier naturel tel que

Thorme 1.10 Soit un ensemble ni de cardinal n et p un entier naturel tel que
0 p n.  Le nombre d'arrangements de p lments de est :

Ap = n(n 1) (n p + 1) = n
 Le nombre de permutations de est : An = n!. n

n! (n p)!

Exemples :
 Le tierc : une course de chevaux comporte 20 partants. Combien peut-il y avoir de rsultats possibles de tiercs dans l'ordre? Soit l'ensemble des numros des chevaux. On a Card() = 20. Un tierc correspond un arrangement de 3 lments de , il y en a A3 = 6840. 20

1.2. NOTIONS DE DNOMBREMENT

 Nombre de mots de 5 lettres, ayant un sens ou non, de notre alphabet : A5 . 26  Tirage ordonn : Une urne contient 10 boules numrotes 0, 1, . . . , 10. On en tire successivement trois sans remise. Combien y a-t-il de tirages dirents?

1.2.5 Dnombrement des Combinaisons


Dnition 1.11 Soit un ensemble de cardinal ni n et p un entier naturel tel que
0 p n. Un p-combinaison (ou combinaison de p lments) de est une p-liste non ordonne d'lments distincts de . La 2-combinaison (1, 2) regroupe les 2-listes (1, 2) et (2, 1). 0 p n. Le nombre de combinaisons de p lments de est :
p Cn =

Thorme 1.12 Soit un ensemble ni de cardinal n et p un entier naturel tel que
Ap n! n = . p! p!(n p)! n p
.

p Les coecients Cn sont aussi appels coecients binmiaux. Ils sont parfois nots p Si p est strictement suprieur n, on convient que dans ce cas Cn = 0.

ils sont bien entiers.

p Remarque 1.13 Bien que les coecients Cn soient dnis sous la forme d'une fraction,

Preuve :

Dnombrons les arrangements de p lments d'un ensemble ni de cardinal n. Un arrangement est caractris par : p  Le choix d'une partie de a p lments (notons qu'il y a Cn choix de telles parties).  La faon d'ordonner les p lments de la partie choisie (p! faons). p Le principe multiplicatif donne alors Ap = p!Cn , d'o le thorme. n

Exemples :
 Le loto : on tire au hasard six boules parmi 49. Combien y a-t-il de tirages possibles? 6 C'est le nombre de faons de choisir six objets parmi 49, soit C49 = 13983816. 2  Nombres de dominos avec 7 numros : C7 + 7 = 28.  Tirage simultan ou non ordonn : une urne contient 10 boules, numrotes de 1 10. On en tire simultanment 3. Combien y a-t-il de tirages dirents?

1.2.6 Proprits des coecients binmiaux


Proprits 1.14 (Symtrie) Pour tout entier n et tout entier p tel que 0 p n, on
a:
np p Cn = Cn .

8 CHAPITRE 1. PREMIRE APPROCHE DANS LE CAS FINI, DNOMBREMENT On en dduit :


0 n 1 n1 Cn = Cn = 1; Cn = Cn = n.

Proprits 1.15 (Relation de Pascal) Pour tout entier n 2 et tout entier p tel que
1 p n 1, on a :
p1 p p Cn = Cn1 + Cn1 .

Preuve :
 Dmonstration ensembliste : Soit un ensemble de cardinal ni n avec n 2. Soit a un lment x de . Remarquons que les parties p lments de se partagent en deux catgories :
p  celles ne contenant pas a, il y en a Cn1 , p1  celles contenant a, il y en a Cn1 .

tant en prsence d'une partition, le principe de la somme permet de conclure.  Dmonstration algbrique :
p p1 Cn1 + Cn1 =

(n 1)! (n 1)! + p!(n 1 p)! (p 1)!(n p)! (n 1)!(n p) + (n 1)!p n! = = . p!(n p)! p!(n p)!

p On en dduit que les coecients Cn sont des entiers (pour tout entier naturel p compris entre 0 et n). Le triangle de Pascal. La relation de Pascal permet de calculer les coecients binmiaux de la faon suivante : pour trouver un certain coecient, on additionne dans le tableau suivant les coecients situs ( juste au dessus )) et (( juste au dessus gauche )) ( entre eux : n\p 0 1 2 3 p-1 p n-1 n 0 1 1 1 1 2 1 2 1 3 1 3 3 1 1 1 p-1 1 1 p 1 1 1 1 p1 p n-1 1 n-1 Cn1 Cn1 1 p n 1 n-1 Cn 1

Le tableau est appel triangle de Pascal en hommage ce dernier qui crivit en 1654 son (( trait du triangle arithmtique )) dans lequel il expose d'innombrables applications

1.3. AUTRE EXEMPLE IMPORTANT : LE SCHMA SUCCS-CHEC FINI.

du triangle dj connu de Tataglia (1556), Stiefel (1543) et des savants Chinois (1303). Pour nir, on rappelle un rsultat majeur :

Thorme 1.16 (Formule du binme de Newton) Pour tous nombres complexes a


et b et tout entier naturel n non nul :
n n p Cn ap bnp . p=0

(a + b) =

1.3 Autre exemple important : le schma Succs-chec ni.


Notre premier exemple important tait la probabilit uniforme. Voyons maintenant un autre exemple tout aussi important. Considrons le cas d'une exprience deux issues, chec (not 0) et succs (not 1). On se xe un nombre 0 < p < 1, la probabilit d'obtenir un succs aprs une ralisation de l'exprience. Aprs n ralisations, on observe une suite de longueur n, compose de 1 et de 0. Pour modliser cela, on introduit l'espace des observables = {0; 1}n form des 2n suites i = (1 , . . . , n ) o les j sont gaux 0 ou 1. Introduisons alors la quantit X(i ) dnie ainsi : si i = (1 , . . . , n ) , alors X(i ) dsigne le nombre de succs que comprend la suite i . Par exemple, pour n = 4, X(1101) = 3, X(0000) = 0. Nous verrons dans le chapitre 3 que X est appele variable alatoire. De plus, pour tout i tel que X(i ) = k , on pose P({i }) = pk (1 p)nk . Comme tout vnement A P() est runion de singletons {i } deux deux disjoints, cela sut dnir P(A) et donc la probabilit P sur (, P()).

Exercice 1.3.1 Vrier que P est bien une probabilit sur (, P()).
Parmi ces vnements, les plus importants sont les {X = k} (ceci est une stnographie que nous utiliserons souvent pour crire brivement l'vnement {i ; X(i ) = k}). Voici leur probabilit :
k si X est le nombre de succs en n expriences, alors P(X = k) = Cn pk (1 p)nk .

Proposition 1.17 Pour le schma Succs-chec ni associ la probabilit p d'un succs,

Preuve :

Notons A = {i ; X(i ) = k}. Dnissons l'application de A dans P({1, 2, . . . , n}) par i {j; j = 1}. Il est clair que c'est une bijection entre A et l'ensemble des k k combinaisons de {1, 2, . . . , n}; donc Card(A) = Cn . Enn puisque tous les {i } contenus k nk dans A ont la mme probabilit p (1 p) , on obtient

P(A) =
i A

k P({i }) = Card(A)pk (1 p)nk = Cn pk (1 p)nk .

10CHAPITRE 1. PREMIRE APPROCHE DANS LE CAS FINI, DNOMBREMENT

Pour clore ce chapitre, remarquons que le cas o l'espace des observables est ni, est loin d'tre satisfaisant dans bon nombre d'expriences alatoires. Par exemple, considrons le schma Succs-chec (exemple type : jeu du pile ou face ). Il peut tre intressant de chercher le premier instant o un chec va se produire. L'espace des observables est alors inni : on lance la pice jusqu' tomber sur face, ce qui peut prendre un temps trs grand (notamment si la pice est trs dsquilibre). est alors tous les suites possibles, composes de zro (chec) ou de un (Succs). Si on veut modliser la distance lectron-noyau dans un atome, la mcanique quantique nous apprend que cette distance est alatoire et prend a priori tous les valeurs positives. Donc est dans ce cas R =]0, +[. Que dire + alors de P() ? Simplement que c'est un ensemble (( beaucoup plus gros )) que (ce qui n'est pas le cas si est ni). La dnition 1.2 n'est plus valable et on doit alors construire autrement les probabilits. C'est l'enjeu du chapitre suivant.

1.4 Exercices
Exercice 1.4.1 A et B sont des vnements tels que P (A) = 0.6, P (B) = 0.3 et P (A
B) = 0.1.
1. 2. 3. 4. Quelle Quelle Quelle Quelle est est est est la la la la probabilit probabilit probabilit probabilit que A ou B arrivent? qu'exactement un des deux vnements arrive? qu'au plus un des deux vnements arrive? que ni A ni B n'arrivent?

Exercice 1.4.2 Sur = {0, 1, 2, . . . , 10} dterminer la probabilit P telle que P({i}) soit
proportionnel i pour tout i dans . Calculer la probabilit pour qu'un vnement soit pair puis la probabilit pour qu'il soit impair.

Dans chacun des exercices suivants on commencera par dcrire l'espace probabilis (, P) avant de passer aux calculs.

Exercice 1.4.3 On tire 5 cartes d'un jeu de 52 cartes. Quelle est la probabilit d'obtenir
un brelan (c'est--dire trois cartes d'une sorte, les deux autres tant direntes)? Quelle est la probabilit d'obtenir un full (trois mmes cartes et une paire)?

Exercice 1.4.4 (Trois ds) On jette trois ds non pips. Calculer :


1. la probabilit d'obtenir au moins un as; 2. la probabilit d'obtenir au moins deux faces portant le mme chire; 3. la probabilit que la somme des points marqus sur les trois faces soit paire. ne, dterminer la probabilit que parmi n individus deux au moins d'entre eux aient mme jour d'anniversaire. On ngligera le problme des annes bissextiles.

Exercice 1.4.5 En admettant que les naissances sont rparties uniformment dans l'an-

1.4. EXERCICES

11

Ce personnage marquant de la cour de Louis XIV tait un joueur impnitent, toujours la recherche de rgles caches lui permettant de raliser un avantage sur ses adversaires. Voici deux de ses rgles. 1. Il est avantageux de parier sur l'apparition d'au moins un six en lanant un d quatre fois de suite. 2. Il est avantageux de parier sur l'apparition d'au moins un double-six en lanant deux ds vingt-quatre fois de suite. Ces rgles sont-elles vraies? et rpartis au hasard. Parmi ces n livres, k sont d'un mme auteur A, les autres tant d'auteurs tous dirents. Calculer la probabilit qu'au moins p livres de A se retrouvent cte cte dans les cas suivants : 1. n = 20, k = 3, p = 3; 2. n = 20, k = 5, p = 2.

Exercice 1.4.6 (le paradoxe du Chevalier de Mr) :

Exercice 1.4.7 Dans une bibliothque, n livres sont exposs sur une tagre rectiligne

12CHAPITRE 1. PREMIRE APPROCHE DANS LE CAS FINI, DNOMBREMENT

13

Chapitre 2 Axiomes du calcul des probabilits


"La thorie des probabilits en tant que discipline mathmatique peut et doit tre dveloppe partir d'axiomes de la mme manire qu'en Gomtrie et en Algbre." A. N. Kolmogorov (1903-1987).
Le calcul des probabilits est la science qui modlise les expriences dont l'issue n'est pas prvisible a priori. Le jet d'un d, le tirage du Loto sont des exemples classiques de ces expriences, dites alatoires. Une modlisation implique une simplication des phnomnes observs dans ces expriences, mais cette simplication conduit une quantication, donc la possibilit de faire des calculs et de prdire. La modlisation du calcul des probabilits a t invente par A. N. Kolmogorov dans un livre (intitul (( Les fondements de la thorie des probabilits ))) paru en 1933. Cette modlisation mathmatique est faite partir d'un triplet (, F, P), permettant de traiter les cas o l'espace des observables n'est pas ni.

2.1 L'espace de probabilit (, F, P)


2.1.1 L'espace des observables
Nous conviendrons qu'eectuer une exprience alatoire, c'est slectionner par un procd quelconque un lment dans un ensemble . Par exemple, jeter un d revient slectionner un lment de = {1, 2, 3, 4, 5, 6}. Cet ensemble est appel l'espace des observables (ou espace des issues ou espace des vnements lmentaires). Ses points sont appels observables (ou vnements lmentaires). Il est trs important qu'il soit clairement dni an de regrouper au moins tous les rsultats possibles de l'exprience alatoire.

2.1.2 La tribu des vnements F


Le rsultat d'une exprience alatoire est par dnition imprvisible. Toutefois, une fois x A un sous ensemble de l'espace des observables , on s'intresse la possibilit qu'a le rsultat de l'exprience de tomber dans A. Les parties de pour lesquelles on se pose ce genre de question sont appeles des vnements. Un des premiers points dlicats

14

CHAPITRE 2. AXIOMES DU CALCUL DES PROBABILITS

de la thorie est qu'on ne va pas considrer tous les sous ensembles de comme des vnements. L'ide de Kolmogorov est que l'ensemble F des vnements a une structure de tribu :

Dnition 2.1 (Tribu) Soit un ensemble et soit F une partie de P(). F est une
tribu s'il satisfait aux trois axiomes: 1. Si A F , alors son complmentaire Ac = \ A est aussi dans F. 2. Si on a une suite nie ou dnombrable A1 , . . . , An , . . . d'lments de F , alors leur runion n1 An est aussi dans F . 3. L'ensemble vide est dans F . Un lment de F est appel un vnement.

Rappelons qu'un ensemble avec une innit d'lments est dit dnombrable s'il existe une bijection entre et l'ensemble N des entiers positifs. L'ensemble Q des nombres rationnels est dnombrable, le segment [0, 1] ne l'est pas. Tirons quelques consquences de ces axiomes.

De plus, si on a une suite nie ou dnombrable A1 , . . . , An , . . . d'lments de F , alors leur intersection n1 An est aussi dans F.
En appliquant les axiomes 1 et 3, on a le premier rsultat. Pour le second, il sut de se rappeler que le complmentaire d'une runion nie ou innie d'ensembles est l'intersection des complmentaires ((( Loi de Morgan ))). Donc n1 An = ( n1 Ac )c , et le deuxime n membre de cette galit est donc dans F : on applique successivement l'axiome 1, puis 2, puis 1 nouveau. Le langage de la thorie des ensembles permet des calculs systmatiques sur les vnements. Toutefois, il faut savoir que le langage courant, que nous utilisons dans une premire tape pour dcrire des vnements a sa traduction ensembliste :  Ensemble : vnement certain,  Ensemble vide : vnement impossible,  A B : A ou B sont raliss ((( ou )) non exclusif),  A B : A et B sont raliss,  A et B sont disjoints, i.e. A B = : les vnements A et B sont incompatibles,  Ac = \ A : vnement contraire de A. D'aprs cette traduction ensembliste, le fait qu'on ne sorte pas de la famille des vnements intressants considrer en prenant une intersection ou une runion d'vnements, est raisonnable, tant qu'on considre un nombre ni d'vnements. C'est toujours le cas si l'ensemble est ni, le nombre de parties de tant aussi ni (voir la proposition 1.1). Le fait de se permettre ces oprations aussi pour un nombre inni d'vnements est plus subtil. Le passage l'inni est le passage de l'algbre l'analyse, donc des approximations maniables et de puissantes techniques issues du calcul direntiel et intgral. Quant au fait que dans ce passage l'inni, on se limite une innit dnombrable d'vnements

Proprits 2.2 Soit F une tribu de parties de l'ensemble . Alors F.

Preuve :

2.1. L'ESPACE DE PROBABILIT (, F, P)

15

(proprit 2 dans la dnition 2.1), c'est un point technique qu'on ne justiera que dans un cours de 3me anne d'universit. Finalement, ce point dlicat : (( on ne considre pas ncessairement tout sous-ensemble A de comme un lment de la tribu F des vnements )) ne jouera pas un grand rle dans la suite. Typiquement, nous envisagerons deux cas particuliers importants : 1. Le cas o lui mme est dnombrable, et nous prendrons comme tribu F la famille P() de tous les sous-ensembles de . C'est ce que nous avons fait dans le cas ni. 2. Le cas o est la droite relle R. Nous prendrons alors pour tribu F la tribu B(R) (dite tribu de Borel, dont les lments sont appels des borliens) qui est la plus petite tribu qui contient tous les intervalles de R.

canonique est appele tribu de Borel. Les lments de cette tribu sont appels les borliens de Rd .
On peut laborieusement dmontrer que B(Rd ) = P(Rd ); toutefois, une description complte des lments de B(Rd ) n'est pas possible, et en fait pas trs utile en pratique. Les seuls borliens que nous aurons manipuler seront les intervalles (attention, R ou une demi droite sont aussi des intervalles) ou des runions nies, ou plus rarement dnombrables, d'intervalles. Plus gnralement, tant donns un ensemble de parties de not C , on dnit la notion de tribu engendre par C , note (C), comme tant la plus petite tribu contenant tous les lments de C .

Dnition 2.3 La plus petite tribu qui contient les ouverts de Rd muni de sa topologie

2.1.3 La probabilit P
On quantie dsormais la possibilit qu'a le rsultat de l'exprience de tomber dans un vnement A A, sous-ensemble de l'espace des observables . La puissance du calcul des probabilits rside dans le fait qu'il ne manipule pas directement le rsultat de l'exprience alatoire mais mesure les chances d'arrive d'un vnement A du au hasard.

forme de certains sous-ensembles de , une probabilit P est une application de F dans [0, 1], donc un procd qui associe tout vnement A un nombre P(A) compris entre 0 et 1 appel probabilit de A, et qui satisfait aux axiomes suivants : 1. l'vnement certain est de probabilit 1 : P() = 1. 2. Axiome d'additivit dnombrable : pour toute suite A1 , A2 , . . . , An . . . d'vnements de F qui sont deux deux disjoints,

Dnition 2.4 tant donns un espace d'observables et une tribu d'vnements F

c'est--dire tels que Ak Aj = si k = j, alors la srie pour somme P( k1 Ak ). Le triplet (, F, P) est alors appel un espace de probabilit.
k=1

P(Ak ) converge et a

16

CHAPITRE 2. AXIOMES DU CALCUL DES PROBABILITS

dans le cas o est ni. Nous traitons d'ensembles d'vnements pas ncessairement nis.
Voici quelques consquences immdiates, mais nanmoins utiles, des axiomes.

Remarque 2.5 Attention : le deuxime axiome tend celui de la dnition 1.2 donne

Proprits 2.6 Soit (, F, P) un espace de probabilit. Alors


1. P() = 0. 2. Si A1 , A2 , . . . , An dans F sont deux deux disjoints, alors

P(A1 An ) = P(A1 ) + + P(An );


en particulier P(Ac ) = 1 P(A). 3. Si A et B sont dans F et si A B alors P(A) P(B). 4. Si A et B sont dans F , mais ne sont pas ncessairement disjoints, alors P(A B) = P(A) + P(B) P(A B). Si les A1 , A2 , . . . , An dans F ne sont pas ncessairement deux deux disjoints, alors P(A1 An ) P(A1 ) + + P(An ). 5. Continuits croissante et dcroissante : Soit une suite B1 , B2 , . . . , Bn . . . d'vnements de F qui soit ou bien croissante (c'est--dire que pour tout n 1 on a Bn Bn+1 ) ou bien dcroissante (c'est-dire que pour tout n 1 on a Bn Bn+1 ). Alors, dans le cas croissant :
n+

lim P(Bn ) = P(
n1

Bn );

et dans le cas dcroissant :


n+

lim P(Bn ) = P(
n1

Bn ).

6. Sous additivit dnombrable : Soit une suite B1 , B2 , . . . , Bn . . . d'vnements de F . Alors ou bien la srie

P(Bk )
k=1

diverge; ou bien elle converge et dans ce cas sa somme est suprieure P(


n1

Bn ).

Preuve :
1. L'axiome d'additivit dnombrable est applicable la suite constante dnie par An = , qui est eectivement forme d'vnements deux deux disjoints. La srie dont le terme gnral P(), est constant ne peut converger que si ce terme gnral est 0. 2. Sa premire partie se dmontre en appliquant l'axiome d'additivit dnombrable A1 , A2 , . . . , An continue par = An+1 = An+2 = , et en utilisant le 1. Appliquer a n = 2, A1 = A et A2 = Ac fournit 1 = P() = P(A) + P(Ac ) en utilisant le premier axiome d'une probabilit.

2.1. L'ESPACE DE PROBABILIT (, F, P)

17

3. On crit B = A (B \ A) comme runion de deux ensembles disjoints (notez que B \ A = B Ac est bien dans F), et on applique le 2):

P(B) = P(A) + P(B \ A) P(A).


4. On crit comme dans la dmonstration prcdente : P(B) = P(A B) + P(B \ A), P(A) = P(A B) + P(A \ B), puis on crit A B = (A B) (B \ A) (A \ B) comme runion de trois ensembles deux deux disjoints et on applique le 2) :

P(A B) = P(A B) + P(B \ A) + P(A \ B) = P(A B) + (P(B) P(A B)) + (P(A) P(A B)) = P(A) + P(B) P(A B).
Pour terminer le 4, on dmontre le rsultat par rcurrence sur n. C'est trivial pour n = 1. Si c'est dmontr pour n, appliquons la premire partie de 4 A = A1 An et B = An+1 . On obtient, l'aide de l'hypothse de rcurrence
n

P(A B) = P(A) + P(B) P(A B) P(A) + P(B) (


k=1

P(Ak )) + P(An+1 ).

5. Dans le cas croissant, posons A1 = B1 et, pour n 2, An = Bn \ Bn1 . Les A1 , A2 , . . . , An . . . sont alors deux deux disjoints. La srie P(Ak ) est donc k=1 convergente. D'aprs la partie 2) de la proposition prcdente, on a
n

P(Bn ) = P(A1 An ) =
k=1

P(Ak ).

Passons la limite dans l'galit ci-dessus; on obtient


n+

lim P(Bn ) =
k=1

P(Ak ).

Or d'aprs l'axiome d'additivit dnombrable, le second membre est P( k1 Ak ), qui est aussi par dnition des An gal P( n1 Bn ). Dans le cas dcroissant, on se ramne au cas prcdent par passage au complmentaires, l'aide de la loi de Morgan: le complmentaire d'une union est l'intersection des complmentaires :
c c lim P(Bn ) = 1 lim P(Bn ) = 1 P(n1 Bn ) = 1 (1 P(n1 Bn )) = P(n1 Bn ).

6. La suite d'vnements dnie par Cn = B1 Bn est croissante et on peut lui appliquer le 2). En utilisant aussi la sous additivit nie on a donc

P(
n1

Bn ) = lim P(Cn ) lim (P(B1 ) + + P(Bn )) =


n+ n+ k=1

P(Bk ).

18

CHAPITRE 2. AXIOMES DU CALCUL DES PROBABILITS

Exercice 2.1.1 (Formule de Poincar) Cette formule est aussi appele aussi principe
d'exclusion-inclusion. H. Poincar, 1854-1912). Montrer que :
n n

P
i=1

Ai

=
i=1

P(Ai )
i<j n+1

P (Ai Aj ) +
i<j<k

P (Ai Aj Ak ) . . .

+ (1)
ou encore :
n n

P (A1 A2 . . . An ) ,

P
i=1

Ai

=
k=1

(1)k+1 Sk , o Sk =
1i1 <i2 <...<ik n

P (Ai1 . . . Aik ) .

Vrier de plus que les ingalits (de Bonferroni) sont satisfaites :


n

P
i=1

Ai

S1 S1 S2 S1 S2 + S3 . . .

2.2 Indpendance et probabilits conditionnelles


Soit un espace d'observables , F une tribu sur , et soit P une probabilit sur F . On dit que F est une sous-tribu de F , si tout lment de F est contenu dans F et si F est une tribu.

Dnition 2.7 (Indpendance de n tribus) Soit F1 , . . . , Fn des sous-tribus de F . On


dit que ces tribus sont indpendantes si, quel que soit le choix de Ai dans Fi :
n n

P
i=1

Ai

=
i=1

P(Ai ).

Il faut souligner le rle essentiel de P. Si on change de probabilit sur F , il n'y a pas de raison pour que des tribus, qui taient indpendantes, le restent sous la nouvelle probabilit. Pour vrier l'indpendance entre les tribus, il faut apparemment vrier beaucoup de relations. Mais comme souvent dans les questions qui font intervenir les tribus, on peut se contenter de les vrier pour des sous-classes.

Proposition 2.8 Soient Ci , 1 i n, des sous-ensembles de F , tels que pour tout i, Ci et pour tout A et B dans Ci , A B Ci . Si
n n

P
i=1

Ai

=
i=1

P(Ai ),

2.2. INDPENDANCE ET PROBABILITS CONDITIONNELLES

19

pour tout choix de Ai dans Ci , alors les sous-tribus (Ci ) sont indpendantes.
Ainsi pour vrier que deux vnements A et B sont indpendants, il sut de vrier P(A B) = P(A)P(B). Plus gnralement, si {An }nN est une suite d'vnements :

Corollaire 2.9 {An }nN sont indpendants si pour tout ensemble ni d'indices I N :
P
iI

Ai

=
iI

P(Ai ).

Par exemple pour trois vnements {A, B, C} il faut vrier que

P(A B C) = P(A)P(B)P(C), P(A B) = P(A)P(B), P(A C) = P(A)P(C), et P(B C) = P(B)P(C).


On peut gnraliser la dnition prcdente un ensemble quelconque de tribus.

Dnition 2.10 (Indpendance de tribus) Une famille Fi , i I , de sous-tribus de


F est dite indpendante si toute sous-famille nie extraite de la famille est indpendante.

2.2.1 Probabilits conditionnelles


On s'intresse au lancer successif de deux ds. On considre les deux vnements suivants : A : (( la somme des deux ds est gale 11 )) et B : (( le premier d donne 6 )). On vrie que la probabilit de A est 1/18. Mais si on observe le premier d et que l'vnement B est ralis, en quoi cela aecte la probabilit d'avoir une somme gale 11 ? Autrement dit, sachant que B est ralis, quelle est la probabilit de A ? Pour obtenir 11, le deuxime d doit donner 5. Et ainsi la probabilit d'avoir A, sachant B , est de 1/6. Cet exemple motive la dnition suivante.

Dnition 2.11 Soient deux vnements A et B sur (, P), avec P(B) > 0. La probabilit
conditionnelle de A sachant B est

P(A|B) =

P(A B) . P(B)

Si B ne se ralise jamais, i.e. P(B) = 0, cette dnition n'a aucun sens.

Proposition 2.12 Soit deux vnements A et B sur (, P), avec P(B) > 0. A et B sont
indpendants si et seulement si

P(A|B) = P(A),
ou encore avec P(A) > 0, P(B|A) = P(B).

20

CHAPITRE 2. AXIOMES DU CALCUL DES PROBABILITS

Dire que deux vnements sont indpendants, c'est dire que la connaissance de l'un n'inuence pas l'autre. Exemple 1. On modlise le lancer de deux pices semblables indpendantes par

= { = (1 , 2 ); i {p, f }} et P() = P1 (1 )P1 (2 ),


avec P1 (p) = 1 P1 (f ) = . On s'imagine qu'on a lanc la premire pice et que 1 = p. On associe chaque issue du lancer de la deuxime pice une probabilit (sachant que 1 = p) : P({p, p}) P(2 = p|1 = p) = = = . P({; 1 = p} (1 ) + L'indpendance des deux pices signie que la connaissance du rsultat du lancer de la premire ne nous apprend rien sur le rsultat du lancer de la seconde. Exemple 2. On suppose qu'on a deux paires de pices direntes : la 1re paire consiste en deux pices indpendantes et pile sort 99 fois sur 100 en moyenne; la deuxime paire consiste en deux pices indpendantes mais pile sort 1 fois sur 10 en moyenne. Un jeu consiste en : (i) choisir au hasard une d'entre les deux paires, (ii) lancer les deux pices correspondantes. On modlise l'espace des issues d'un jeu par :

= { = (1 , 2 , n); i {p, f } , n = 1, 2} ,
et et On calcule ici

1 P(1 , 2 , 1) = P1 (1 )P1 (2 ) et P1 (p) = = 0, 99 2 1 P(1 , 2 , 2) = P2 (1 )P2 (2 ) et P2 (p) = = 0, 1. 2 P({; 2 = p, 1 = p}) P({; 1 = p} P(p, p, 1) + P(p, p, 2) = P(p, p, 1) + P(p, f, 1) + P(p, p, 2) + P(p, f, 2) 2 + 2 2 /2 + 2 /2 = = /2 + /2 +

P(2 = p|1 = p) =

Par ailleurs si on ne savait rien sur la premire pice

1 P(2 = p) = P({p, p, 1} , {f, p, 1} , {p, p, 2} , {f, p, 2}) = ( + ). 2


On note que P(2 = p|1 = p) > P(2 = p) (resp. 0,91 et 0.54). Intuitivement, comme pile est sorti la 1re fois, on a plus de chance que la paire choisie soit la paire 1. Quelques rgles de calcul sur les probabilits conditionnelles.

Proposition 2.13 On dduit de la dnition :


1. Si A B = , P(A B|C) = P(A|C) + P(B|C).

2.3. L'ESPACE DES OBSERVABLES EST AU PLUS DNOMBRABLE.

21

2. P(A|B) = 1 P(A|B). 3. P(A B) = P(A|B)P(B) = P(B|A)P(A). de , telle que pour tout i, P(Ai ) > 0. Pour tout B F ,
n

Proposition 2.14 (Formule des probabilits totales) Soit {Ai }i=1,...,n une partition

P(B) =
i=1

P(B|Ai )P(Ai ).

Proposition 2.15 (Formule de Bayes) De plus si P(B) > 0, on a pour tout entier k :
P(Ak |B) =
n i=1

P(B|Ak )P(Ak ) . P(B|Ai )P(Ai )

2.3 L'espace des observables est au plus dnombrable.


Lorsque l'espace des observables est ni ou dnombrable, on suppose par convention que la tribu des vnements A est P(), l'ensemble de toutes les parties de . Dans ce contexte, les lments de sont indexs par des entiers naturels N. On note dans la suite = {1 , . . . , n , . . . } (la liste est nie ou non). Les probabilits sont alors dcrites par le rsultat suivant :

Proposition 2.16 Soit un ensemble ni ou dnombrable. Soit p une application


de dans R+ telle que

pw = 1. Pour tout A , notons alors P(A) =

pw . Alors

(, P(), P ) est un espace de probabilit. Inversement, toute probabilit P sur (, P()) est du type prcdent, avec p = P ({}).
 Si est ni, la proposition est vidente.  Si est dnombrable, les sommes ci dessus sont bien dnies. En eet, on somme sur un sous ensemble de = {1 , . . . , n , . . . }, en bijection avec un sous ensemble de N et le thorme suivant sur les sries permet de conclure la validit de telles sommes.

wA

Thorme 2.17 Si la srie


n=0

un est absolument convergente de somme S , et si n

(n) est une bijection de N sur lui mme, alors


et de somme S.
n=0

u(n) est aussi absolument convergente

Une fois admis la proposition 2.16 et le thorme 2.17, le calcul des probabilits est rapport : 1. la dtermination des probabilits P ({}) des vnements correspondant la ralisation du rsultat de l'exprience, 2. la dtermination des rsultats appartenant l'vnement A.

22

CHAPITRE 2. AXIOMES DU CALCUL DES PROBABILITS

On ne revient pas sur le cas o est ni. C'est l'objet du premier chapitre. Nous nous focalisons prsent sur le cas d'un espace des observables inni.

Proposition 2.18 Si est inni dnombrable, alors P() est inni non dnombrable.
La dmonstration est analogue la dmonstration de Cantor. Sans perte de gnralit on suppose gal l'ensemble N des entiers positifs ou nuls. Si X N, on lui associe la fonction indicatrice 1X dnie sur N et valeurs 0 ou 1 par : 1X (k) = 1 si k X et 1X (k) = 0 si k X. Remarquons aussi qu'inversement, si une fonction f dnie sur N est / valeurs 0 ou 1, alors c'est une indicatrice d'ensemble, c'est--dire qu'il existe X tel que f = 1X : il s'agit de X = {k N; f (k) = 1}. Montrons alors la proposition par l'absurde en supposant que P(N) soit dnombrable, c'est--dire qu'il existe une application bijective n Xn de N sur P(N). Alors la fonction f dnie sur N et valeurs 0 ou 1 par f (k) = 1 1Xk (k) est l'indicateur de quelque sous-ensemble Xn de N et donc pour tout k de N on a 1Xn (k) = 1 1Xk (k), ce qui est une contradiction si k = n.

Preuve :

2.3.1 Un exemple : le schma Succs-chec inni.


Considrons de nouveau le cas d'une exprience deux issues, chec (not 0) et succs (not 1). On se xe un nombre 0 < p < 1, la probabilit d'obtenir un succs aprs une ralisation de l'exprience. Nous souhaitons dsormais modliser des expriences ayant un nombre arbitraire de ralisations. Par exemple, on peut vouloir rpter les essais jusqu' ce qu'apparaissent 4 succs conscutifs. Une telle modlisation est impossible avec le schma ni (voir la section 1.3), et on prend alors pour espace des observables l'en semble {0, 1}N des suites innies de 0 et de 1, en notant par N l'ensemble des entiers strictement positifs. On peut dmontrer que est en bijection avec les parties de N . Donc d'aprs la proposition 2.18, n'est pas dnombrable. Cela cause une srieuse dicult en ce qui concerne la construction de l'espace de probabilit correspondant. On construit la tribu F et la probabilit P par un procd d'approximation que nous dcrivons maintenant. Fixons n N et dnissons = {0, 1}{1,...,n} et = {0, 1}{n+1,n+2,...} tels que = . On dnit la tribu suivante de parties de : An = {A ; A P( )}. Intuitivement, les vnements de Fn sont les vnements ne dpendant que de ce qui s'est pass dans les n premires expriences. En particulier, nous avons Fn Fn+1 . Si = (1 , . . . , n ) comprend k succs, dnissons la probabilit Pn ({ } ) = pk (1 p)nk . Cela permet donc de dnir la probabilit Pn sur An . L'espace de probabilit (, An , Pn ) est presque identique l'espace du schma Succs-chec ni dcrit dans la section 1.3.

2.3. L'ESPACE DES OBSERVABLES EST AU PLUS DNOMBRABLE.

23

Maintenant, notons A = n1 An . La famille A n'est pas une tribu, car ce n'est pas ferm pour la runion dnombrable. Voici un contre exemple. Soit An l'ensemble des suites innies comprenant au moins un succs l'instant n ou avant. Alors An est dans An et donc dans A . Pourtant A = n1 An n'est pas dans A . En eet A est l'ensemble des suites innies comprenant au moins un succs. Mais il n'existe pourtant aucun n tel que A An , et donc A A . Raliser cette chose subtile fait progresser dans la comprhension / de la thorie. On dnit alors la tribu A sur comme la plus petite tribu contenant A . Pour dnir enn la probabilit P sur A, on fait l'observation essentielle suivante: on a non seulement An An+1 , mais de plus la restriction de Pn+1 au sous ensemble An de An+1 , qui tait le domaine de dnition de Pn+1 , coincide avec Pn . Par consquent, il existe une fonction universelle P dnie sur A telle que pour tout A A on ait P (A) = Pn (A) pour tous les n tels que A An . A partir de ce point, les choses cessent d'tre lmentaires, et nous admettons le thorme suivant :

on ait P(A) = P (A).

Thorme 2.19 Il existe une et une seule probabilit P sur A telle que pour tout A A

On peut ainsi dmontrer l'ide intuitive qu'un vnement (ici un succs) de probabilit strictement positive p > 0, mme petite, nit toujours par arriver. Plus prcisment, si A est l'ensemble des comprenant au moins un succs, alors P(A) = 1. En effet, si Bn est l'ensemble des comprenant au moins un succs avant l'instant n ou l'instant n, alors A = n1 Bn et Bn Bn+1 . Par continuit monotone on a donc limn P(Bn ) = P(A). Comme P(B c ) = (1 p)n tend vers 0, on a le rsultat. Plus gnralement on peut montrer que toute squence a nie donne l'avance (par exemple 00011100010110001, ou le codage en binaire d'une fable de La Fontaine) nira par arriver. Plus prcisment :

Thorme 2.20 Soit a = (a1 , . . . , an ) {0, 1}n une suite xe de longueur n de succs
et d'checs, et soit l'vnement

A = { ; N 0 N +1 = a1 , . . . , N +n = an }.
Alors P(A) = 1.
Soit k le nombre de S dans la suite a. Notons AN = { ; N +1 = a1 , . . . , N +n = an }. Alors P(AN ) = pk (1 p)nk par dnition de P. Introduisons Bm = m1 Ajn . Alors j=0 c Bm Bm+1 et A = N 0 AN B = m0 Bm . On a de plus P(Bm ) = P(m1 Ac ) = jn j=0 k nk m c (1 p (1 p) ) m 0. Par continuit monotone, on a donc P(B ) = 0. D'o 1 = P(B) P(A) = 1.

Preuve :

Remarque 2.21 Une consquence fameuse de ce thorme est le paradoxe du singe savant : un singe tapant alatoirement sur un clavier d'ordinateur, est sr de reproduire l'intgralit des fables de La Fontaine.

24

CHAPITRE 2. AXIOMES DU CALCUL DES PROBABILITS

2.4 Exercices
Indpendance
remise. Est-ce que les vnements (( la premire carte est un valet )) et (( la deuxime carte est un as )) sont indpendants? Qu'en est-il si c'est un tirage avec remise?

Exercice 2.4.1 Deux cartes sont tires successivement d'un paquet de 52 cartes sans

Exercice 2.4.2 On jette deux ds. Est ce que les vnements (( il y a au moins un 6 )) et
( la somme est 7 )) sont indpendants? (

Exercice 2.4.3 On jette deux ds non pips, un d moir et un d blanc. On note A

l'vnement ( le chire du d noir est pair )), et B l'vnement (( le chire du d blanc est ( impair )), C l'vnement ( les 2 chires ont mme parit )). Montrer que A et C, A et B, ( B et C sont indpendants, mais que les trois vnements ne le sont pas.

Exercice 2.4.4 Une personne achte un billet de lotterie par semaine. Chaque semaine

la probabilit qu'il gagne est 1/N . Montrer qu'il faut jouer peu prs 2N/3 semaines pour que la probabilit de gagner au moins une fois soit de 0.5. (Approcher ln 2 par 2/3 et ln(1 1/N ) par 1/N ). tudiant soit n le 25 dcembre? Combien doit-on avoir d'tudiants dans une classe pour qu'au moins l'un d'entre eux soit n le 25 dcembre avec une probabilit suprieure 0,5?

Exercice 2.4.5 Dans une classe de 50 tudiants, quelle est la probabilit qu'au moins un

Exercice 2.4.6 Dans la situation la plus simple de transmission hrditaire, un (( gne )) se prsente sous deux formes A et a, ce qui donne trois (( gnotypes )) possibles : AA, Aa, aa. Chaque individu reoit de ses parents un gne tir au hasard dans la paire de chacun des deux. En supposant que les gnotypes des parents sont indpendants et que leurs probabilits respectives sont p,q et r, trouver les probabilits P ,Q et R qu'un enfant ait respectivement les gnotypes AA, Aa et aa. En conclure qu' partir de la deuxime gnration ces probabilits sont constantes et vrient Q2 = 4P R. Ceci constitue la loi de Hardy-Weinberg.

Probabilits conditionnelles
Exercice 2.4.7 Une compagnie a deux usines A et B . L'usine A fabrique 80% des produits et la B les 20% restant. La proportion de produits avec dfaut est de 0.05 pour A et de 0.01 pour B . 1. Quelle est la probabilit qu'un produit choisi au hasard soit sans dfaut et provienne de A? 2. Quelle est la probabilit qu'un produit choisi au hasard ait un dfaut?

Exercice 2.4.8 On a trois boites numrotes 1,2 et 3. La premire contient 1 boule


blanche et 2 boules noires, la deuxime 2 blanches et 1 noire, enn la troisime 3 blanches. On choisit au hasard une des trois boites, puis on tire une boule de cette boite.Quelle est

2.4. EXERCICES

25

la probabilit d'avoir une boule blanche ? Sachant que la boule est blanche, quelle est la probabililt qu'elle provienne de la premire boite?

Exercice 2.4.9 Un tudiant de l'universit va en cours avec une probabilit 0.8 quand il fait beau et 0.5 quand il pleut. Sachant qu'il pleut 20% des jours en janvier et que l'tudiant tait en classe le 28 janvier, quelle est la probabilit qu'il pleuvait ce jour l? (On considrera qu'il fait beau lorsqu'il ne pleut pas!) Exercice 2.4.10 On estime que 10% de la population a une certaine maladie. Un test
de dtection existe mais n'est point parfait. La probabilit que le test soit positif pour une personne non atteinte par cette maladie est 0.05. La probabilit que le test soit ngatif pour une personne qui en fait a la maladie est 0.01. Sachant que son test est positif, quelle est la probabilit pour une personne d'avoir cette maladie?

26

CHAPITRE 2. AXIOMES DU CALCUL DES PROBABILITS

27

Chapitre 3 lment alatoire


Dans le cas d'univers dnombrables, si une ventualit a une probabilit nulle, on peut l'ter de l'univers (cf. la proposition 2.16) : ainsi, on peut toujours se ramener un ensemble probabilis pour lequel toutes les ventualits sont de probabilit non nulle. Par contre, dans le cas d'univers non dnombrables, ce n'est pas toujours le cas, d'o l'intrt de la dnition suivante :

Dnition 3.1 Pour (, A, P), un vnement A A est dit presque-impossible ou Pngligeable si P(A) = 0. Son complmentaire est dit presque-sr.

Exemple :

Si on joue pile ou face une innit de fois, (( obtenir uniquement des pile )) est ngligeable.

3.1 lment alatoire


3.1.1 Dnition
Dans l'exemple du lancer de deux ds, avec = {1, . . . , 6}2 , l'ventualit = (i, j) reprsente l'ventualit (( le premier d donne i et le deuxime j )). Pour un donn, le rsultat du premier d est donc la premire coordonne de . Soit X : {1, . . . , 6} l'application dnie par X (i, j) = i. Le rsultat du premier d pour l'ventualit est alors donn par X(). L'ensemble A de toutes les ventualits pour lesquelles le premier d a donn 2, c'est--dire l'vnement ( le premier d a donn 2 )), est : (

A = { , X() = 2} = {X = 2} = X 1 ({2}) = {(2, 1), . . . , (2, 6)}.


Ainsi, si l'on ne s'intresse qu' un caractre de l'ventualit , cela revient considrer une fonction X(), c'est--dire une fonction du hasard.

Dnition 3.2 Soit T un ensemble quelconque et T une tribu d'vnements de T . Si

28

CHAPITRE 3. LMENT ALATOIRE

(, F, P) est un espace de probabilit, on appelle lment alatoire dni sur (, F, P) et valeurs dans T , toute application X : T mesurable, i.e. telle que pour tout B T , la partie de , X 1 (B) = { , X() B}, est contenue dans F .
Pour B T , l'vnement X 1 (B) = { , X() B} F pourra tre not {X B}. On dnit ainsi simplement une nouvelle tribu constitue d'vnements des vnements {X 1 (B), B T } de et appele tribu engendre par X . Cette sous-tribu de F est note FX .

Exercice 3.1.1 Montrer que FX est bien une tribu et que c'est la plus petite sous-tribu
de F qui rende X mesurable.
Les sont souvent omis dans les notations probabilistes. Comme nous venons de la voir, { , X() B} sera not {X B}.

Cas particuliers :
 Si T = R muni de la tribu des borliens B(R) (cf. dnition 2.3), on dit que X est une variable alatoire relle (v.a.r.).  Si T = Rk , on dit que X est un vecteur alatoire, et dans ce cas, les composantes Xi de X = (X1 , . . . , Xk ) sont des v.a.r.  De mme, on peut dnir une fonction alatoire ou tout autre objet mathmatique alatoire (graphes, rseaux, formes, etc.).  Si T est ni ou dnombrable, on dit que X est un lment alatoire discret.

Exemples :
 Une fonction f : R constante f a est un lment alatoire, mme si dans ce cas il n'y a plus d'alatoire dans la valeur de f .  Si A est un vnement, alors la fonction indicatrice 1A : P() {0, 1} dnie par 1 si A, 1A () = 0 sinon est une variable alatoire relle.

3.1.2 Loi de probabilit d'un lment alatoire


Dnition 3.3 Soit X : T un lment alatoire de l'espace de probabilit (, F, P) valeurs dans un espace (T, T ). On dnit l'application PX de T dans [0, 1] par :
PX (B) = P(X 1 (B)) B T .

Alors PX est une probabilit sur T appele loi de probabilit de X .


Quand dans une exprience alatoire on ne s'intresse qu' l'lment alatoire X , cela revient se placer dans le nouvel espace fondamental (T, T , PX ). Dans bien des cas, on ne prcisera pas l'espace choisi.

3.1. LMENT ALATOIRE

29

Exemples :

 On lance deux ds. L'espace fondamental est = { = (i, j) : 1 i, j 6}. Si on ne s'intresse qu' la somme X(i, j) = X() = i + j , on dnit un lment alatoire valeurs dans T = {2, 3, . . . , 12} et PX est dnie par : p2 = 1/36, p3 = 2/36, . . . , p11 = 2/36, p12 = 1/36.  On eectue n expriences Succs-chec de probabilit de succs p. On pose X le nombre de succs obtenus. Alors X {0, 1, 2, . . . , n} et k {0, . . . , n},

P(X = k) = PX ({k}) = Ck pk (1 p)nk . n

Dnition 3.4 On dira que deux lments alatoires X et Y ont mme loi, ou sont identiquement distribus, si leurs lois PX et PY sont des probabilits identiques. Cette relation sera note X Y. L'lment alatoire X est entirement dtermine par sa loi PX .

3.1.3 Variables indpendantes


Nous allons nous restreindre aux variables alatoires, mme si les dnitions suivantes sont valables si T est dirent de Rd . Rappelons que si X est une variable alatoire dnie sur (, F, P) valeurs dans Rd , alors FX est la plus petite sous-tribu de F qui rende X mesurable, i.e. FX = X 1 (A); A B(Rd ) . On note PX la loi de X , i.e.

A B(Rd ), PX (A) = P(X 1 (A)).

Dnition 3.5 (Variables indpendantes) Des variables alatoires X1 , . . . , Xn sont


indpendantes si les tribus FXi sont indpendantes. tout (A1 , . . . , An ) B(R)n :

Proposition 3.6 Les v.a.r. Xi , 1 i n sont indpendantes si et seulement si pour


P(X1 ,...,Xn ) ((A1 , . . . , An )) = PX1 (A1 ) . . . PXn (An ).

3.1.4 Fonction de rpartition


Ici nous allons nous restreindre au cas o les lments alatoires sont des variables relles. Soit X : R une variable alatoire relle de l'espace de probabilit (, P(), P) et PX sa loi de probabilit. Nous nous sommes ainsi rapport l'tude de l'espace de probabilit (R, B(R), PX ).

Dnition 3.7 On appelle fonction de rpartition de X la fonction FX dnie sur R, et valeurs dans [0, 1], par :
FX (x) = PX (] , x]) = P(X x) x R.

30

CHAPITRE 3. LMENT ALATOIRE

On peut remarquer que la valeur de PX sur tout intervalle ]a, b] s'obtient simplement partir de la fonction de rpartition :

PX (]a, b]) = P(a < X b) = FX (b) FX (a).


La valeur de PX sur n'importe quel sous-ensemble de R peut en fait tre dduite de la fonction de rpartition de X :

Lemme 3.8 La fonction de rpartition caractrise la loi : si deux variables alatoires X


et Y ont mme fonction de rpartition, alors elles ont mme loi.
De ce lemme et de la proposition 3.6 on en dduit :

tout xi R,

Corollaire 3.9 Les v.a. relles Xi , 1 i n, sont indpendantes si et seulement si pour


n n

P
i=1

{Xi xi }

=
i=1

FXi (xi );

FXi tant la fonction de rpartition de Xi .


La fonction de rpartition d'une variable alatoire a par ailleurs les proprits suivantes :

Proprits 3.10 Soit FX la fonction de rpartition d'une variable alatoire relle X . Alors : 1. FX est croissante. 2. limx FX (x) = 0 et limx+ FX (x) = 1. 3. FX est continue droite. 4. FX a une limite gauche en tout point. 5. Si FX admet une discontinuit en x0 , FX (x0 ) limx FX () = P(X = x0 ). 0 Preuve :
1. Si x y , alors X x X y donc P(X x) P(X y). 2. En eet, comme FX est croissante,
x

lim FX (x) =

n+

lim FX (n) = lim PX (] , n])


n+ +

= PX
De mme,

] , n]
n=1

= PX () = 0.

n x+

lim FX (x) =

n+

lim PX (] , n]) = PX

] , n]
n=1

= PX (R) = 1.

3.2. VARIABLES ALATOIRES DISCRTES 3. Comme FX est croissante,

31

lim FX = +
x

n+

lim FX (x +

1 ) = lim PX n+ n 1 n

, x +

1 n

= PX
n1

, x +

= PX (] , x]) = FX (x).

4. Comme FX est croissante et borne, elle admet une limite gauche en tout point. 5. On a :

FX (x ) = lim PX (] , x]) = lim PX 0


xx0 n+ n

, x0

1 n

= PX
n=1

, x0

1 n

= PX (] , x0 [)

= P(X < x0 ).
Or, P(X = x0 ) = P(X x0 ) P(X < x0 ).

3.2 Variables alatoires discrtes


Une variable relle X est dite discrte si elle ne peut prendre qu'un nombre ni ou dnombrable de valeurs relles {xi }iI .

Proprits 3.11 Soit X une variable alatoire discrte telle que X() = {xi }iI . D'aprs

la proposition 2.16, sa loi de probabilit PX est dnie par les probabilits pi = P(X = xi ), qui vrient iI pi = 1. On peut crire (la fonction indicatrice 1{X=xi } est dnie page 28) X() = xi 1{X=xi } ().
iI

Sa fonction de rpartition FX est constante par paliers ; pour tout i elle a un saut en xi de taille pi (cf. proprit 3.10.5).
Autrement dit, la loi de X est caractris par la donne des (xi , pi ).

pour tout i I et tout j J , on a :

Proposition 3.12 Si X et Y sont deux v.a.r. discrtes, X et Y sont indpendantes si,


P({X = xi } {Y = yj }) = P({X = xi })P({Y = yj }).

Exemple :

Soit X la variable alatoire indiquant le rsultat du lanc d'un d quilibr. Sa fonction de rpartition f saute de 1/6 aux points 1, . . . , 6 (voir gure 3.1).

32
1

CHAPITRE 3. LMENT ALATOIRE

fonction de rpartition de X
1 2 3 4 5 6

Fig. 3.1 

3.2.1 Moments
Dnition 3.13 (Esprance) L'esprance d'une v.a.r. discrte X de la loi PX dnie
par (xi , pi ) est dnie par

E(X) =
iI

xi pi ,

si le second membre converge absolument.

Proprits 3.14 Soient X et Y deux variables alatoires. On a les proprits :


1. 2. 3. 4. 5.

E(X) est nie si et seulement si E(|X|) est nie; |X| Y et E(Y ) nie entranent E(X) nie; a X b < + = a E(X) b; X = a p.s. implique E(X) = a; E(X) nie implique |E(X)| E(|X|).

Le thorme suivant consigne les proprits usuelles de l'esprance mathmatique

E|Y | < +, alors on a les proprits : A. Linarit (A1.) E(X + Y ) = EX + EY ; (A2.) E(X) = EX pour tout R. B. Monotonie (B1.) X 0 EX 0; (B2.) X Y EX EY ; (B3.) X = Y p.s. EX = EY . C. Indpendance : si X et Y sont indpendantes, alors E(XY ) est nie et l'on a E(XY ) = (EX)(EY ).
Plus gnralement pour toute fonction g : R R, on peut dnir :

Thorme 3.15 Soient X et Y deux variables alatoires discrtes. Si E|X| < + et

E(g(X)) =
iI

g(xi )pi ,

si le second membre converge absolument. L'esprance mathmatique d'une variable alatoire X ne dpend que de la loi de X et indique la valeur moyenne autour de laquelle

3.2. VARIABLES ALATOIRES DISCRTES

33

X prend ses valeurs. On introduit d'autres caractristiques de la loi de X qui rendent compte de la dispersion de cette loi, par exemple les moments. Dbutons par un lemme qui permet de comparer les moments de dirents ordres.

Lemme 3.16 Soient r et r deux nombres rels tels que 0 < r < r et X une variable
alatoire relle. Si E|X|r est ni, E|X|r est aussi ni.

Dnition 3.17 (Moments) Soit X une v.a.r. discrte, de loi PX donne par (xi , pi ).

Soit a et r deux nombres rels. Si E|X a|r est ni, alors le moment d'ordre r de X centr en a est dni par : pi (xi a)r . ma = E(X a)r = r
iI

Le moment d'ordre r (centr en 0) est dni par :

mr = E(X r ).
De mme, si E|X| est ni, ainsi que E (|X EX|r ), le moment centr d'ordre r ( la moyenne) est dni par : r = E [(X EX)r ] . Si r = 1, alors m1 = EX et 1 = 0. Pour r = 2, le moment centr 2 est encore appel variance de X et not Var (X) = E (X EX)2 .
La variance est donc une quantit toujours positive. Sa racine carre positive est appele cart-type et note (X). Les variables alatoires X EX et (X EX)/(X) sont respectivement centre et centre rduite.

son esprance mathmatique EX et sa variance Var (X) existent et sont nies, et Var (X) = E(X 2 ) (EX)2 .

Proposition 3.18 Une v.a.r. X a un moment d'ordre deux EX 2 ni si et seulement si

Preuve :

En exercice.

Corollaire 3.19 Si X et Y sont deux v.a.r. indpendantes, alors


Var (X + Y ) = Var (X) + Var (Y ).

3.2.2 Fonction gnratrice


Ici on s'intresse plus spciquement aux v.a.r. qui ne prennent que des valeurs entires positives ou nulles. Ainsi si X est une telle v.a., X est dtermine entirement par la donne de la suite pn = P(X = n) pour n N.

Dnition 3.20 (Fonction gnratrice) Soit X une v.a.r. qui ne prend que des valeurs entires. Pour s C, on dnit la srie entire
+

E(sX ) =
n=0

pn sn .

34

CHAPITRE 3. LMENT ALATOIRE

La fonction s GX (s) = E(sX ) est appele fonction gnratrice de X .

Remarque 3.21 Comme


au moins gal 1.
nN

pn = 1, le rayon de convergence de la srie entire GX est

Thorme 3.22 La fonction gnratrice d'une v.a. X dtermine entirement la loi de cette variable. En d'autres termes, si deux v.a. ( valeurs entires positives) admettent la mme fonction gnratrice, alors elles ont la mme loi. Preuve :
Vrier que G(n) (0) = n!pn pour tout n N.

Proposition 3.23 La fonction gnratrice GX (s) admet une drive gauche GX (1) en
s = 1, si et seulement si E(X) existe et est nie, et l'on a : E(X) = GX (1).
La preuve repose sur le lemme d'Abel

Lemme 3.24

1. Si la srie
i

i (i 0) est convergente de somme , alors


s1,s<1

lim

i si =
i=0 i

i = .

2. Si les i sont positifs et si

s1,s<1

lim

i si = +, alors
i=0

i = .
i

Proposition 3.25 Si X et Y sont deux v.a. indpendantes, alors


|s| 1, GX+Y (s) = GX (s)GY (s).
On caractrise ainsi la loi de la somme de X et Y .

3.2.3 Lois discrtes classiques


Schma Succs-chec simple, loi de Bernoulli
On reprend ici le schma Succs-chec du chapitre 1, pour n = 1. On ralise une fois une exprience dont les rsultats possibles sont un succs not 1, ou un chec not 0. Le cas typique est le jeu pile ou face. L'espace des observables est

1 = {1; 0} .

3.2. VARIABLES ALATOIRES DISCRTES

35

Si la pice n'est pas truque, pile et face ont la mme chance de sortir. On associe la probabilit P1 1 P1 (1) = . 2 En gnral, on va supposer qu'une des faces est favorise : il existe p [0, 1] tel que

P1 (1) = p et P1 (0) = 1 p.
Les cas p = 0 et p = 1 n'ont aucun intrt et on suppose donc que 0 < p < 1. On dnit la variable alatoire X : 1 R, telle que X(1) = 1 et X(0) = 0.

Dnition 3.26 (loi de Bernoulli) X suit une loi de Bernoulli de paramtre p si :


P(X = 1) = 1 P(X = 0) = p.

Proposition 3.27 Si X suit une loi de Bernoulli de paramtre p, i.e. X Bern(p), alors E(X) = p et Var (X) = p(1 p). Exercice 3.2.1 Montrer que X a des moments de tout ordre et vrier les rsultats de la proposition prcdente. Schma Succs-chec ni, loi binmiale
On reprend le schma Succs-chec o on ralise n fois la mme exprience dont les rsultats possibles sont un succs not 1, ou un chec not 0. X est la variable alatoire qui compte le nombre de succs. Elle prend donc toutes les valeurs entires entre 0 et n, et suit comme loi

Dnition 3.28 (loi binmiale) Une v.a. X valeurs dans {0, . . . , n} suit une loi binmiale de paramtres (n, p), avec n 1 et p [0, 1], si :
k k = 0, . . . , n, PX (k) = P(X = k) = Cn pk (1 p)nk .

On peut montrer que si X1 , . . . , Xn sont n variables de Bernoulli de paramtre p,


n

dnies sur un mme espace de probabilit (, F, P), alors la somme Sn =


i=1

Xi suit

une loi binmiale de paramtres n et p (utiliser par exemple la proposition 3.25, voir aussi l'exercice 3.4.15). La rciproque est galement vraie :

Thorme 3.29 B suit une loi binmiale de paramtres (n, p) si et seulement s'il existe
n variables (Xk )k=1,...,n indpendantes et de Bernoulli de paramtre p telles que :
n

B=
k=1

Xk .

Ceci permet de calculer trs facilement l'esprance et la variance d'une loi binmiale, en utilisant les proprits de l'esprance et de la variance de v.a. indpendantes.

Proposition 3.30 Si X suit une loi binmiale de paramtres n et p, i.e. X Bin(n, p),
alors E(X) = np et Var (X) = np(1 p).

36

CHAPITRE 3. LMENT ALATOIRE

Schma Succs-chec inni, loi gomtrique


On est dans le cadre du schma Succs-chec inni du chapitre 2. On s'intresse au nombre X de ralisations de la mme exprience qu'il faudra rpter an d'obtenir un premier succs. Si p ]0, 1[ est la probabilit d'obtenir un succs en une ralisation de l'exprience, la probabilit que X = k est p(1 p)k1 . Si p est gal 0, on n'obtiendra jamais succs, et si p est gal 1, on obtient toujours un succs ds la premire ralisation. Ces deux cas n'ont donc plus rien d'alatoire.

Dnition 3.31 (loi gomtrique) X suit une loi gomtrique de paramtre p ]0, 1[
dont la loi est donne par :

k N, k 1, P(X = k) = p(1 p)k1 .


Pour calculer l'esprance et la variance d'une telle v.a., rappelons les formules suivantes :

Lemme 3.32 (rappel de quelques formules) Soit q un rel tel que 0 < q < 1.
n

qi =
i=0 +

1 q n+1 1q 1 1q 1 (1 q)2

qi =
i=0 +

iq i1 =
i=1

Ici la condition de convergence dans la dnition de l'esprance prend tout son sens.

Proposition 3.33 Si X suit une loi gomtrique de paramtre p ]0, 1[, i.e. X Go(p),
alors E(X) = 1/p et Var (X) =
1p . p2

et la variance de X .

Exercice 3.2.2 Redmontrer le lemme prcdent et vrier les rsultats sur l'esprance

Loi de Poisson
La principale utililt de la loi de Poisson se trouve dans les modlisations de les d'attente, de rseaux, de abilit de machines. C'est aussi une approximation de la loi binmiale quand n est grand.

Dnition 3.34 La probabilit de Poisson (S. Poisson, 1781-1840) sur N est dnie par :
e n . n! o est un paramtre rel strictement positif. Une v.a.r. X suit une loi de Poisson de paramtre > 0, si X ne prend que des valeurs entires et n N, pn = e n . n N, PX (n) = n!

3.3. VARIABLES ALATOIRES DENSIT

37

Exercice 3.2.3 Vrier que la probabilit dnie prcdemment satisfait tous les axiomes d'une probabilit. Proposition 3.35 Si X suit une loi de Poisson, i.e. X Poisson(), alors E(X) =
Var (X) = .

Thorme 3.36 (approximation de la loi binmiale) Si n tend vers + et pn est


tel que npn tend vers = 0, si Bn Bin(n, pn ), alors :

k 0

n+

lim P(Bn = k) = P(P = k),

o P suit une loi de Poisson de paramtre .


On utilise ce thorme pour faire le calcul approch suivant : si B suit une loi binmiale de paramtres n et p, avec les conditions suivantes : n > 30 et np 5, alors pour = np :

P(B = k)

k exp(). k!

Remarque 3.37 Plus p est petit, meilleure est l'approximation.


Plus gnralement, pour Bi , pour i = 1, . . . , r, des v.a. indpendantes, de loi binmiale de paramtres respectifs (ni , pi ), si les pi sont (( assez petits )), si on pose : = n1 p1 +. . .+nr pr , et si P est une v.a. de loi de Poisson de paramtre , on a :

k 0, P(B1 + . . . Br = k)

P(P = k).

3.3 Variables alatoires densit


3.3.1 Probabilit absolument continue
Nous allons maintenant dnir les probabilits absolument continues, qui constituent une classe importante de probabilits sur R.

Dnition 3.38 Une probabilit P de (R, B(R), P) est dite absolument continue s'il existe
une fonction f : R R+ positive, telle que

P(A) =
A

f (x) dx

A R.

(3.1)

La fonction f est alors appele densit de probabilit de P, et on a :


+

f (x) dx = 1.

Lemme 3.39 La relation (3.1) dnit compltement la probabilit P. On pourra ainsi

parler de la probabilit de densit f , partir du moment o f est une fonction positive dont l'intgrale sur R vaut 1.

38

CHAPITRE 3. LMENT ALATOIRE

Exemple :

La probabilit uniforme sur [a, b] est la probabilit absolument continue dnie par une densit f constante sur [a, b] (la constante de normalisation 1/(b a) est l pour garantir que l'intgrale de f sur R vaut un) :

1 1[a,b] (x). (3.2) ba On remarquera que si on (( tire au hasard )) un nombre rel dans l'intervalle [0, 1] (avec la loi uniforme P), il n'est presque-srement pas rationnel : P([0, 1] Q) = 0. En eet, comme [0, 1] Q est dnombrable, f (x) = P([0, 1] Q) = P
x[0,1]Q x

{x} =
x[0,1]Q

P({x}) 0 = 0.

=
x x

f (u) du =
x

(ou en un nombre dnombrable de points), on ne change pas sa loi (regarder dans (3.1)). C'est pourquoi on dit que f est une densit de la probabilit P, et non pas la densit de P. Malgr tout, on a intrt ne pas modier articiellement la densit f , et la garder la plus rgulire possible.
Pourquoi f est-elle appele la densit de probabilit de P ? C'est ce que nous explique le lemme suivant, o on reconnat la dnition des densits utilises en physique : densit de masse, etc.

Remarque 3.40 En modiant la densit d'une variable absolument continue en un point

Lemme 3.41 Soit P une probabilit absolument continue, de densit f . Alors, pour tout
x R tel que f est continue en x, f (x) = lim P([x , x + ]) . 0 2

Preuve :

On peut encadrer l'intgrale de f sur l'intervalle [x , x + ] l'aide des bornes infrieures et suprieures de f sur cet intervalle :
x+

2t

xtx+

inf

f (t) P([x , x + ]) =
x

f (t) dt 2t

sup
xtx+

f (t).

Il ne reste plus qu' utiliser la continuit de f en x, qui entrane :


0 xtx+

lim

inf

f (t) = lim

0 xtx+

sup

f (t) = f (x).

Le calcul des probabilits absolument continues de (R, B(R), P) revient donc la donne d'une densit f : R R. Dans ce contexte, l'analyse des fonctions relles, que nous ne dvelopperons pas ici, fournit de nombreux outils thoriques.

3.3. VARIABLES ALATOIRES DENSIT

39

3.3.2 Variables alatoires relles absolument continues


Le vocabulaire relatif aux probabilits absolument continues sera aussi appliqu aux lments alatoires :

PX est une probabilit absolument continue de densit fX , on dira que X est absolument continue, et a pour densit fX .
Dans le cas absolument continu, les proprits suivantes sont des consquences immdiates des dnitions :

Dnition 3.42 Si X est une variable alatoire (ou un vecteur alatoire) relle telle que

Proprits 3.43 La fonction de rpartition FX d'une variable alatoire relle absolument


continue de densit fX s'crit :
x

FX (x) =

fX (u) du

x R.

(3.3)

En consquence, FX est continue. Elle est aussi drivable aux points de continuit de fX avec fX (x) = dFX (x)/dx.
On rappelle que l'on peut dnir la loi d'une variable alatoire absolument continue par sa densit. Ainsi on dira que X suit une loi uniforme sur [a, b] si elle admet pour densit la fonction f de (3.2).

solument continues mais de loi de probabilit dite mixte, dont la fonction de rpartition peut s'crire :

Remarque 3.44 Il existe des variables alatoires relles qui ne sont ni discrtes, ni ab-

x R,

FX (x) = Fd (x) + FC (x),

o + = 1, 0, 0 et o Fd est la fonction de rpartition d'une variable discrte et Fc est celle d'une variable absolument continue. Il existe aussi des variables alatoires ni continues, ni discrtes, ni mixtes... mais nous n'en rencontrerons pas dans ce cours.

3.3.3 Moments
La loi d'une v.a. absolument continue X est donc caractrise par la densit fX .

Dnition 3.45 (Esprance) L'esprance d'une v.a. absolument continue X de loi PX


et de densit fX est dnie par

E(X) =
R

xfX (x)dx,

si le second membre converge absolument.

40

CHAPITRE 3. LMENT ALATOIRE

De mme pour g une fonction de R dans R, on peut dnir

E(g(X)) =
R

g(x)fX (x)dx.

Tous les rsultats suivants, noncs dans le cadre de variables discrtes, restent vrais dans le cadre de variables absolument continues : les proprits 3.14, le thorme 3.15, le lemme 3.16, la dnition 3.17, la proposition 3.18 et le corollaire 3.19.

3.3.4 Fonction caractristique


de X ) la fonction de la variable relle t dnie par :

Dnition 3.46 Soit X une v.a.r. On appelle fonction caractristique de X (ou de la loi
X (t) = E eitX =
R

eitx fX (x)dx. eitxk pk .


kI

Si X est une variable discrte, cette dnition est encore valable avec X (t) =

Thorme 3.47 Dsignons par la fonction caractristique d'une v.a.r. X . Alors

1. est une fonction dnie et continue pour tout t R; 2. est borne, et en fait, pour tout t R, on a : |(t)| (0) = 1; 3. pour tous a, b rels, on a, pour tout t rel, on a l'identit aX+b (t) = eibt X (at).

riable. En d'autres termes, si deux v.a.r. admettent la mme fonction caractristique, elles ont mme loi. tout t R :

Thorme 3.48 La fonction caractristique d'une v.a.r. dtermine la loi de cette va-

Thorme 3.49 Soit (X, Y ) un couple de variables alatoires indpendantes. Alors pour
X+Y (t) = X (t)Y (t).

Proposition 3.50 Soit X une v.a.r. de fonction caractristique . Si E|X| < , alors
est continument drivable et (0) = iE(X).

3.3.5 Lois absolument continues classiques


On a dj voqu la loi uniforme. Voici deux autres lois absolument continues classiques.

Loi exponentielle
Elle joue un rle cl dans les processus de Markov et dans bon nombre de modles.

valeurs positives et si la densit de X est donne par

Dnition 3.51 Une v.a.r. X suit une loi exponentielle de paramtre > 0 si X est
x R, f (x) = exp(x)1R+ (x).

3.3. VARIABLES ALATOIRES DENSIT

41

Proprits 3.52 Si X suit une loi exponentielle, i.e. X E(), alors X admet des
moments de tout ordre et E(X) = 1/ et Var (X) = 1/2 .
En exercice.

Preuve :

Exemple d'application Dure de bon fonctionnement d'un systme


On admet que cette dure est gnralement imprvisible. On la reprsente donc par une variable alatoire positive X . Comme nous l'avons dj remarqu, il n'est pas ncessaire de dcrire l'espace fondamental sur lequel elle peut tre dnie.

Dnition 3.53 On appelle taux de dfaillance du systme la fonction du temps dnie


par :

1 P [ t < X t + t | X > t] . t Le taux de dfaillance au temps t est la densit de probabilit pour le systme de tomber en panne juste aprs le temps t, sachant qu'il est encore en marche au temps t. t 0, (t) = lim
t0

Quelle est la loi de probabilit de X , si l'on suppose que cette fonction est constante ( t 0, (t) = > 0 ; ce qui signie que le systme est sans usure)? En fait,

(t) =

Pt < X t + t et X > t t0 t.PX > t Pt < X t + t = lim t0 t.PX > t FX (t + t) FX (t) = lim t0 t(1 FX (t)) lim

Si on suppose que X admet une densit, alors :

(t) =

fX (t) . 1 FX (t)

La question pose revient rsoudre l'quation direntielle :

FX (x) = (1 FX (x)) ,
avec la condition initiale FX (0) = 0 (car X est valeurs positives), dont la solution est : FX (x) = 1 ex , x 0. D'o la densit de X :

fX (x) = ex 1R+ (x).

Loi normale (ou de Gauss)


On dit que X est une variable alatoire gaussienne (K. Gauss, 1777-1855) de moyenne m R et d'cart-type > 0 si elle est absolument continue et a pour densit

(x m)2 1 exp fX (x) = fm,2 (x) = 2 2 2

42

CHAPITRE 3. LMENT ALATOIRE

On note N (m, 2 ) cette loi. Pour cette loi, la fonction de rpartition FX n'est pas calculable de manire explicite. Mais elle joue un rle central en probabilit (voir chapitre suivant et le thorme central limite).

centre rduite), alors 1. E(X) = 0, Var (X) = 1;

Proprits 3.54 Si X suit une loi normale de paramtres m = 0 et 2 = 1 (loi normale


t2 ; 2

2. X (t) = 0,1 (t) = exp

Proposition 3.55 Si X N (0, 1), alors Y = X + m N (m, 2 ).


Comme FY n'est pas calculable explicitement, on utilisera la proposition prcdente pour se ramener au cas N (0, 1) et on utilisera les tableaux donns dans l'annexe B.

3.4 Exercices
Variables alatoires discrtes
Exercice 3.4.1 Quelle est l'esprance d'une variable alatoire X uniformment distribue
sur {1, 0, 3} ? Et la variance?

vous donne a euro sinon. Les probabilits de gagner ne sont clairement pas les mmes. Nanmoins peut-on choisir b pour rendre le jeu quitable?

Exercice 3.4.2 On lance un d. Vous me devez b euro si le d tombe sur 5 ou 6. Je

Exercice 3.4.3 On lance trois pices quilibres. Soit X le nombre de (( face )) obtenu.
1. 2. 3. 4.

Trouver la distribution de X . Calculer la probabilit P(X 2). Calculer l'esprance et la variance de X . On eectue une srie de lancers de trois pices. Dterminer la probabilit d'avoir besoin d'au moins cinq lancers pour obtenir trois (( pile )). Quelle Quelle Quelle Quelle est est est est la probabilit d'obtenir au moins une fois (( face )) ? la probabilit d'obtenir au moins trois fois (( face )) ? l'esprance de B ? la variance de B ?

Exercice 3.4.4 On joue pile ou face sept fois de suite. Soit B le nombre de (( face )).
1. 2. 3. 4.

Exercice 3.4.5 Soit X une variable alatoire de loi gomtrique.

1. Quelle est la probabilit que X > t pour t > 0 ? 2. Sachant que X > t, quelle est la probabilit que X > t + s, pour s et t positifs?

Exercice 3.4.6 Dans une usine, une pice fabrique a la probabilit 0.9 d'tre utilisable.
Soit X , le nombre minimum de pices fabriquer pour obtenir une pice utilisable. 1. Dterminer la loi de probabilit de X .

3.4. EXERCICES

43

2. Quel nombre minimum de pices faut-il fabriquer pour avoir une pice utilisable avec une probabilit suprieure ou gale 0.99 ?

Exercice 3.4.7 Deux joueurs jouent au d. Le joueur A parie sur le 6 et le joueur B sur
le 1. Le d est jet jusqu' ce qu'un des deux joueurs gagne. 1. Quelle est la probabilit que le joueur A gagne? 2. Quelle est la probabilit que le joueur B gagne? 3. Soit T la variable alatoire reprsentant le nombre de fois que le d est jet. Dterminer la loi de probabilit de T .

Exercice 3.4.8 On joue avec deux ds quilibrs; le premier d est un ttradre rgulier, le

second un d cubique. On associe un jet les variables : X est la valeur du d ttradrique, Y celle du d cubique, S = X + Y . 1. Calculer l'esprance et la variance de X et Y . 2. En dduire l'esprance et la variance de S (justiez). 3. (a) Dterminer la loi de S . (b) Calculer P(S > 7). (c) Calculer la probabilit que S prenne des valeurs paires.

tages. Quelle est l'esprance du nombre d'arrts S que va devoir eectuer l'ascenseur ? On suppose que les personnes choisissent leur arrt indpendamment les unes des autres.

Exercice 3.4.9 Supposons que trois personnes entrent dans un ascenseur qui parcourt 5

Exercice 3.4.10 Soit X le nombre d'anniversaire distincts dans une classe de 50 lves.

Quelle l'esprance de B ? Commenter, en se rappelant que la probabilit d'avoir au moins deux tudiants ns le mme jour est de 0,96.

Exercice 3.4.11 Soit la suite (k )kN dnie par


k = e2 2k (1 + ak) , 4 k!

avec a R. On veut dnir une variable alatoire X sur N par P(X = k) = k pour tout k N. a. Trouver pour quelle valeur unique de a la loi de X est une loi de probabilit. b. Dans ce cas, calculer son esprance et sa fonction gnratice.

Exercice 3.4.12 (Loi sans esprance) Un exemple de v.a. discrte pour laquelle l'esprance n'est pas dnie. 1. Utiliser le rsultat suivant :

k=1

2 1 = , k2 6

pour trouver c tel que P(X = k) = c/k 2 soit une loi de v.a. 2. Montrer que l'esprance de cette v.a. dnie ainsi n'existe pas.

44

CHAPITRE 3. LMENT ALATOIRE

Exercice 3.4.13 (Binomiale ngative)

1. On jette un d quilibr. Quelle est la probabilit que le second (( six ) apparaisse au bout de 10 lancers? ) 2. Gnralisation : dans un jeu de pile ou face, la probabilit d'avoir (( pile )) est p, 0 < p < 1, celle d'avoir (( face )) est 1 p. Soit Sr le nombre de jets ncessaires pour obtenir r fois (( pile ) . Calculer la loi de Sr , l'esprance et la variance. ) 3. Applications : (a) quelle est la probabilit que le cinquime enfant d'un couple soit leur seconde lle? (b) On jette un d quilibr. En moyenne, combien de jets sont ncessaires pour obtenir trois ( six )) ? (

Exercice 3.4.14 Pierre a dans la main une pice de monnaie quilibre (probabilit 1/2
de tomber sur face et probabilit 1/2 de tomber sur pile). A chaque instant, il lance sa pice et regarde le rsultat. a. Dterminer la loi du premier instant o Pierre obtient pile. Pierre et Paul ont maintenant chacun dans la main une pice de monnaie quilibre. Ils jouent au jeu suivant : chaque instant, chacun lance sa pice. Tant que les deux obtiennent face ils rejouent. Ils s'arrtent donc lorsqu'au moins un des deux obtient pile. Alors celui qui a obtenu pile gagne et si les deux obtiennent pile en mme temps, il y a galit et le jeu s'arrte. b. Calculer la probabilit qu'il y ait galit. c. Calculer la probabilit que Pierre gagne.

En dduire la fonction gnratrice de la loi B(n, p), puis redmontrer que la somme de deux v.a. indpendantes de lois B(n, p) et B(m, p) suit la loi B(n + m, p).

Exercice 3.4.15 Calculer la fonction gnratrice d'une loi de Bernoulli de paramtre p.

l'ensemble {1, . . . , 6}. Montrer que, quelles que soient les lois de X et Y , la loi de X + Y ne peut pas tre la loi uniforme sur {2, . . . , 12}. Cela montre qu'on ne peut pas truquer deux ds six faces de sorte que la somme soit quirpartie sur {2, . . . , 12}.

Exercice 3.4.16 Soient X et Y deux variables alatoires indpendantes et valeurs dans

Exercice 3.4.17 Soient X et Y deux v.a. valeurs dans N. On dnit la fonction gnratrice du couple (X, Y ) sur l'ensemble [0, 1]2 par

gX,Y (u, v) = E(uX v Y ) =


i,jN

ui v j P(X = i, Y = j).

1. Montrer que gX,Y dtermine P(X = i, Y = j) pour tout choix de i et j dans N. 2. En dduire que si X et Y sont indpendantes si et seulement si

gX,Y (u, v) = gX (u)gY (v) (u, v) [0, 1]2 .

3.4. EXERCICES

45

Exercice 3.4.18 Soit X et Y deux variables alatoires de Poisson de paramtre respectif et indpendantes. 1. Calculer P (X + Y = n), pour n N. On pourra dcomposer :
n

{X + Y = n} =
k=0

{X = k} {Y = n k} .

2. Quelle est la loi de X + Y ?

Exercice 3.4.19 Calculer la fonction caractristique d'une v.a. X qui suit une loi de Poisson de paramtre > 0. En dduire la loi d'une somme de n variables alatoires indpendantes qui suivent des lois de Poisson de paramtres 1 , . . . , n .

Lois continues
Exercice 3.4.20 Soit X une variable alatoire de loi uniforme sur [2, 4].
1. Dterminer la densit f de X . Reprsenter graphiquement f . 2. alculer P(3 X 0), P(2 X 0), P(0 X 2) et P(0 X 3).

Exercice 3.4.21 Soit X une v.a. ayant la densit f dnie sur [0, 2] de la faon suivante :
f (x) = x sur [0, 1], f (x) = 2 x sur [1, 2],
et f est nulle ailleurs. 1. Vrier que f est bien une densit et la reprsenter. 2. Calculer la fonction de rpartition de X . 3. Calculer l'esprance et la variance de X .

Exercice 3.4.22 Soit X une variable alatoire de densit f dnie par f (x) = 3x2 sur
le segment [0, 1] et 0 ailleurs. 1. Calculer l'esprance de X . 2. Quelle est la valeur mdiane de X ? 3. Calculer V ar(X). Quelle est la variance de la variable alatoire Y = 3X + 1 ?

Exercice 3.4.23 Si la variable X a pour densit f , quelle est la densit de 2X 1 ? (penser relier la fonction de rpartition de X et celle de 2X 1) Exercice 3.4.24 Calculer les fonctions de rpartition d'une loi de Bernoulli de paramtre p, de la loi uniforme sur (a, b) et de la loi exponentielle de paramtre , et les reprsenter. Exercice 3.4.25 Soit X une v.a.r. et soit FX sa fonction de rpartition. Montrer que
l'ensemble D des points de discontinuit de FX est au plus dnombrable.

Montrer que X est symtrique si et seulement si X (t) R pour tout t.

Exercice 3.4.26 On dit qu'une v.a.r. X est symtrique si X et X ont la mme loi.

46

CHAPITRE 3. LMENT ALATOIRE

Exercice 3.4.27 (Mdiane) Soit X une variable alatoire telle que E|X| < +. Si M
est un rel telle que

1 1 P(X M ) , P(X M ) , 2 2 montrer que pour tout nonbre rel a, on a l'ingalit : E [|X a|] E [|X M |] .

Le nombre M est appele une mdiane de X . Donner un exemple de v.a.r. pour laquelle M n'est pas unique, puis un exemple o M est unique.

Exercice 3.4.28 Soit X une variable alatoire telle que E(X 2 ) < +. Montrer que pour
tout nombre rel a, on a l'ingalit :

E (X a)2 E (X EX)2 = 2 .
riable alatoire relle. Montrer que si E|X|r = mr < +, alors

Exercice 3.4.29 (Ingalit de Tchebychev) Soit r > 0 un nombre rel et X une vaP(|X| > t) mr . tr

Exercice 3.4.30 Soit Xn une suite de variables alatoires indpendantes et de mme loi et soit N une v.a. de loi de Poisson P () indpendante des Xn . Montrer que la fonction
N

caractristique de
i=1

Xi (valant 0 si N = 0) est : (t) = e((t)1) o est la fonction

caractristique des Xi .

Exercice 3.4.31 Soit X1 , . . . , Xn des v.a.r. indpendantes et de mme loi. On pose :


1 X= n
et
n

Xi
i=1

1 S = n
2

(Xi X)2 .
i=1

Montrer que si les variables Xi admettent des moments d'ordre 2, alors

E(S 2 ) =

n1 V ar(X1 ). n

Calculer la densit du vecteur (min(X, Y ), max(X, Y )).

Exercice 3.4.32 Soient X et Y des variables alatoires indpendantes de loi exp().

ramtres 1 , . . . , n respectivement. 1. Montrer que la loi de Y = min(X1 , . . . , Xn ) est elle aussi exponentielle. Quel est son paramtre?

Exercice 3.4.33 Soient X1 , . . . , Xn des v.a. indpendantes de lois exponentielles de pa-

3.4. EXERCICES

47

2. Montrer que pour k = 1, . . . , n

P (Xk = min(X1 , . . . , Xn )) =

k . 1 + + n

Exercice 3.4.34 Soit X une variable alatoire de loi exponentielle de paramtre > 0.
Soit Y une variable alatoire de loi

P (Y = 1) =

1 = P (Y = 1) . 2

On suppose que X et Y sont indpendantes et on note Z = XY . a. Calculer P (Z 1 | Y = 1) . b. Calculer la fonction de rpartition de Z , puis sa densit. c. Calculer la fonction de rpartition de Z dans le cas o la loi de Y est

P (Y = 1) =
La variable Z admet-elle une densit?

1 = P (Y = 0) . 2

On suppose que T est de loi exponentielle de paramtre 3 (3 tant le taux par heure), de densit f (x) = 3e3x pour x 0 et 0 sinon. 1. Quelle est la probabilit d'attendre le bus au moins 20 minutes? 2. Sachant que nous avons dj attendu le bus 20 minutes, quelle est la probabilit d'attendre 20 minutes supplmentaires avant que le bus n'arrive? 3. Sous quelles conditions la loi exponentielle est approprie ce problme? heure est modlis par une variable de Poisson, disons X , de paramtre T qui lui-mme est une variable exponentielle de paramtre . Montrer que X suit une loi gomtrique dont on donnera le paramtre. Quelle est l'esprance de X ?

Exercice 3.4.35 Soit T la variable alatoire reprsentant le temps d'attente d'un bus.

Exercice 3.4.36 Le nombre de demande d'accs un site internet pendant une certaine

Exercice 3.4.37 Soit X une variable alatoire de loi normale N (0, 1).
1. Quelle est la probabilit pour que X prenne la valeur 1? 2. Calculer les probabilits des vnements suivants l'aide de la table de la loi normale centre rduite N (0, 1): 0.7 < X < 2.4 ; X > 1.5 ; X 0.85 ; X > 0.84 ; X < 0.06 ; 0.51 < X 0.62 . 3. Dterminer les rels a, b et c tels que P (|X| > a) = 0.73 ; P (|X| < b) = 0.75 ; P (X < c) = 0.80.

Exercice 3.4.38 Montrer que si X suit la loi N (0, 1) alors aX + b suit la loi N (b, a2 ).
Utiliser ceci pour calculer l'esprance et la variance d'une v.a. de loi N (, 2 ).

48

CHAPITRE 3. LMENT ALATOIRE

Exercice 3.4.39 Dduire de l'expression de la fonction caractristique d'une variable de

loi N (0, 1) celle d'une variable de loi N (, 2 ) o 2 > 0. En utilisant ce rsultat, montrer que la somme de v.a. indpendantes de loi normale est elle aussi une v.a. de loi normale.

Exercice 3.4.40 Pour > 0 on pose

() =
0

x1 ex dx.

1. Montrer que pour tout , > 0 la fonction

f (x) =

1 x x e 1[0,[ (x), ()

est une densit. La loi qui lui est associe sera note : (, ). 2. Montrer par rcurrence sur n que la loi 2 coincide avec la loi (n/2, 1/2). n que la moiti des lles de 16 ans mesurent plus de 161 cm, et que trois quarts mesurent moins de 165 cm. On suppose que la taille peut tre modlise par une variable alatoire gaussienne de loi N (, ). 1. Quelle valeur doit-on prendre pour ? 2. Quelle valeur doit-on prendre pour ? 3. Quelle est la proportion de lles de 16 ans mesurant plus de 170 cm? lots sont de trois types : ils peuvent contenir 4 pommes, ou bien 2 pommes et 2 poires, ou bien 4 poires. On admet que le poids d'une pomme est en moyenne de 250 gr, avec un cart-type de 20 gr. Le poids moyenne d'une poire est de 230 gr, avec un cart-type de 10 gr. On modlisera le poids d'une pomme et d'une poire par une v.a. gaussienne. 1. Quelle est la probabilit qu'un lot de 4 pommes pse plus que 1kg 100gr? 2. Quelle est la probabilit qu'un lot de 2 pommes et de 2 poires pse moins que 1kg? 3. Quelle est la probabilit qu'un lot de 4 pommes pse plus qu'un lot de 4 poires?

Exercice 3.4.41 Grce aux courbes de croissance dans les carnets de sant, on estime

Exercice 3.4.42 Un producteur prpare des lots de fruits pour la grande distribution. Les

Exercice 3.4.43 Une usine fabrique des tiges d'acier dont la longueur est proche de 75

cm. 1. Selon le responsable de cette usine, environ 95% des tiges ont une longueur comprise entre 73 et 77 cm. Proposer une modlisation probabiliste de la longueur des tiges produites dans cette usine. 2. En ralit les tiges dont la longueur dire de plus de 2,5 cm de 75 cm ne sont pas soumises la vente. Dterminer la probabilit qu'une tige soit retire de la vente. 3. Le contrle de la production n'est pas parfait. En fait on estime qu'une tige a une probabilit de 0,97 d'tre accepte si elle est bonne, et une probabilit de 0,99 d'tre rejete si elle est dfectueuse. (a) Calculer la probabilit qu'il y ait une erreur dans le contrle de la production.

3.4. EXERCICES

49

(b) En dduire la probabilit qu'une pice ayant subi une erreur de contrle soit bonne.

Exercice 3.4.44 (Loi de Cauchy) Une v.a. X suit une loi de Cauchy C(0, 1) si elle est absolument continue et admet pour densit
f (x) = 1 1 . 1 + x2

1. Vrier que f est une densit. 2. Calculer l'esprance de X . 3. Quelle est la loi de Y = X + ? On dira que Y suit une loi de Cauchy de paramtres et . 4. Calculer la fonction caractristique de Y . 5. Soit V une v.a. uniforme sur ] /2, /2[. Quelle est la loi de tan(V ) ?

Exercice 3.4.45 (Loi log-normale) En linguistique on a trouv que le nombre de mots par phrase (c'est--dire la longueur de la phrase mesure en nombre de mots) suit approximativement une loi dite (( Log-normale ) . On dit qu'une variable alatoire X valeurs dans ) ]0, +[ suit une loi Log-normale de paramtres (, ) avec rel et > 0, si Y = ln X suit la loi N (, ). 1. Dterminer la fonction de rpartition de X . 2. Dterminer la densit de X . 3. Calculer E(X).
La variable alatoire X = eY est appele variable alatoire de Pareto, de loi de Pareto P(, 1). 1. On pose r(x) = P(X x) (c'est la fonction de survie de X ). Montrer que r est donne par : x , si x 1; r(x) = 1, si x < 1. et la densit par :

Problme 3.4.1 (Loi de Pareto) Soit Y une v.a. de loi exponentielle de paramtre .

f (x) =

/x+1 , si x 1; 0, si x < 1.

2. Calculer E(X) (attention, il y a deux cas distinguer). 3. Pour tout entier k 1 valuer E(X k ) en dterminant la fonction de survie de X k . 4. On appelle fonction gnratrice de X la fonction suivante : g(u) = E(euX ) pour tout u R. Montrer que pour tout u R :
+

g(u) =
k=0

E(X k )

uk . k!

5. En dduire que g(u) < + si et seulement si u = 0.

50

CHAPITRE 3. LMENT ALATOIRE

Dans tout ce problme on pourra utiliser le rsultat suivant : si X est une variable alatoire continue,

E(X) =
R+

P(X x)dx.

51

Chapitre 4 Deux thormes limites et leurs applications


4.1 Loi des grands nombres
Considrons de nouveau le cas d'une exprience deux issues, chec (not 0) et succs (not 1). On se xe un nombre 0 < p < 1, la probabilit d'obtenir un succs aprs une ralisation de l'exprience. On va modliser le cas de cette exprience qui se rpte inniment dans des conditions identiques et indpendantes. On vrie qu'on est bien dans le cas du schma Succs-chec inni dcrit dans la section 2.3.1, o :

= {i = (j , j N) : j {0, 1}} .
On veut vrier que p correspond notre intuition d'tre la frquence asymptotique de ralisations des succs :

| {i n : i = succs } | = p. n n lim

(4.1)

On note X1 , . . . , Xn nos variables de Bernoulli modlisant chacune une ralisation de l'exprience (i.e. P(Xi = 1) = p = 1 P(Xi = 0) pour tout 0 i n), et Sn = X1 + . . . + Xn . Le terme de gauche de l'quation prcdente (4.1) correspond alors une ralisation de la variable alatoire Sn /n.

ralisations X1 , . . . , Xn , qui forment elles-mme un schma succs-chec ni, de longueur n. Pour tout n, ces modles sont bien inclus dans notre modle, le schma succs-chec inni. Plutt que de considrer des schma ni de longueur croissantes, nous tudions seulement le schma inni les englobant tous.
Une autre faon de se poser cette question est de se demander s'il y a beaucoup de ralisations o Sn /n = p. On reformule alors la question

Remarque 4.1 Attention La somme Sn est compltement dcrite par les n premires

> 0, lim P
n

Sn () p > n

= 0.

52

CHAPITRE 4. DEUX THORMES LIMITES ET LEURS APPLICATIONS

La rponse armative est la clbre loi (faible) des grands nombres, qui relie les notions de frquence et de probabilit :

Thorme 4.2 (Bernoulli, 1685)


> 0, lim P
n

Sn () p > n

= 0.

Ce premier rsultat obtenu pour une suite de v.a. de Bernoulli a t gnralis toute suite de v.a. (Xn )nN indpendantes et identiquement distribues (en abrg i.i.d.), c'est-dire toutes les variables Xn ont la mme loi pour tout n N sur un mme espace et sont indpendantes entre elles. La premire dicult est de prouver que de telles suites existent, dicult rsolue par Kolmogorov aux alentours de 1930.

Thorme 4.3 Si P0 est une probabilit sur Rd , il existe un espace (, F, P) sur lequel
on peut dnir une suite (Xn )n de v.a. valeurs dans Rd , indpendantes et identiquement distribue, telles que PXn = P0 , pour tout n.

On peut alors tendre la loi (faible) des grands nombres la suite (Xn )nN , o on ajoute 2 l'hypothse que E(X1 ) < , et la v.a. (( moyenne des (Xi ) )) :

1 Xn = n

Xi .
i=1

Par linarit de l'esprance, on a immdiatement pour tout n 1,

E X n = ,
On en dduit alors le thorme suivant :

Var X n =

2 . n

Thorme 4.4 (Loi (faible) des grands nombres)

Soit (Xn )nN une suite de v.a. i.i.d. de moyenne et de variance 2 . Alors pour tout > 0, on a lim P |X n | = 0.
n+

On peut mme prciser la vitesse de convergence :

P |X n | b

2 . nb2

Preuve :

C'est une consquence immdiate de l'ingalit de Tchebychev l'ordre 2 (voir exercice 3.4.29) applique la variable X n .

4.2. THORME CENTRAL LIMITE

53

4.2 Thorme central limite


Une loi des grands nombres (( lie )) la frquence et la probabilit. Une version (( forte )) du rsultat prcdent existe :
n

1 n

(Xi E(Xi )) 0.
i=1 n+

pour ( presque tout )). Remarquons que quelque chose d'alatoire converge vers ( un point compltement dterministe. On peut se demander ce qui se passe si au lieu de diviser par n, on divise par quelque chose qui tend aussi vers +, mais moins vite que n. Est-ce qu'on peut obtenir la limite un objet encore alatoire ? Dans ce contexte, on va voir que la loi normale joue un rle particulier, qui lui confre une grande importance en probabilit et en statistique. Commenons donc par noncer un rsultat concernant les lois gaussiennes.

Proposition 4.5 Si X et Y sont deux v.a. normales indpendantes de loi respective


N (, ) et N (, ), alors X +Y est aussi une variable normale, de loi N (+, X n N (, ). n
D'aprs la proposition 3.55, on peut reprsenter X n comme X n = Z + , avec Z N (0, 1), n d'o

2 + 2 ).

Corollaire 4.6 Soient {Xi , i = 1, . . . , n} des variables N (, ) indpendantes, alors

Z=

Xn
n

n i=1

(Xi ) . n

Ce phnomne est en fait beaucoup plus gnral et fait l'objet du thorme suivant :

Thorme 4.7 (Thorme central limite) Soit (Xn )nN une suite de v.a. i.i.d. de
Xn n <b

moyenne et de variance 2 . Alors la distribution de X n approche celle de la loi N (0, 1) au sens suivant. Pour tout a < b on a
n+

lim P a <

= P(a < Z < b),

o Z N (0, 1). De faon quivalente, si on note Sn = X1 + . . . + Xn :


n+

lim P a <

Sn n <b n

= P(a < Z < b).

On note que n 2 = Var(Sn ) et n = E(Sn ). Ainsi le thorme dit qu'en gros (voir l'quation 4.6 pour un nonc plus rigoureux) :

Sn E(Sn ) Var(Sn )

Z.

54

CHAPITRE 4. DEUX THORMES LIMITES ET LEURS APPLICATIONS

4.3 Applications
La loi des grands nombres et le thorme central limite sont les deux thormes majeurs de la thorie des probabilits et il y en a un trs grand nombre d'applications en mathmatiques appliques. Ici on va en citer deux, une numrique et une autre statistique.

4.3.1 Application numrique : mthode de Monte Carlo


Algorithme de calcul numrique d'intgrale : on veut calculer la valeur numrique 1 d'une intgrale de la forme 0 g(x)dx, avec g continue. Une mthode dite de Monte-Carlo consiste simuler une suite de v.a. (Un )n1 i.i.d. de loi uniforme sur [0, 1]. La loi des grands nombres donne :

g(U1 ) + . . . + g(Un ) lim = E(g(U1 )) = n+ n


Donc si n est assez grand,

g(x)dx.
0

g(U1 ) + . . . + g(Un ) n

g(x)dx.
0

Plus gnralement si on sait simuler des v.a. (Xn )n1 ayant une densit f , on va avoir une valeur numrique pour des intgrales de la forme :

E(g(X1 )) =

g(x)f (x)dx.

Un algorithme n'est pertinent que si on peut en donner la vitesse. Grce au thorme central limite, on a une ide de la vitesse de convergence : elle est en 1/ n. Et on ne pourra pas aller plus vite avec cette mthode. Les mthodes numriques dterministes sont plus rapides, mais leur rapidit dpend beaucoup de la rgularit de la fonction intgrer (au moins drivable) et de la dimension de l'espace dans lequel la fonction prend ces valeurs. La mthode de Monte-Carlo a l'avantage de ne pas trop dpendre de la rgularit, ni de la dimension. Remarquons pour nir que la variance joue un rle important dans le thorme et on peut voir que plus cette variance est petite, plus le rsultat numrique est proche du rsultat thorique. Il existe quelques principes gnraux qui permettent de rduire la variance.

4.3.2 Application statistique : modle de Bernoulli


Dans la fabrication d'objets manufacturs, on suppose qu'une proportion inconnue d'objets dfectueux [0, 1] est produite. Cette proportion est value par une frquence d'apparition d'objets mal fabriqus dans des chantillons contrls au hasard.  Lorsqu'elle dpasse un premier seuil S , on renforce la surveillance de la production. Pour cela, on augmente la taille des chantillons utiliss pour valuer .  Lorsqu'elle dpasse un autre seuil C > S , on arrte la production pour rparer ou pour rgler les machines.

4.3. APPLICATIONS

55

Il faut bien sr tenir compte du cot respectif de chaque type d'opration pour dnir les seuils prcdents. C'est l'objet du contrle de qualit. En pratique, on dispose de n observations de l'chantillon des objets contrls et (pour simplier les choses), ils sont bons ou mauvais. On a ainsi une famille i.i.d. (indpendante et identiquement distribue) X1 , . . . , Xn Bern(), de loi de Bernoulli de paramtre . Par suite Xi vaut 1 lorsque le i-me objet contrl est de mauvaise qualit et 0 sinon, Xi () {0, 1} et P (Xi = 1) = 1 P (Xi = 0) = lorsque le modle est rgi par la loi P (qui dpend donc de la valeur inconnue du paramtre ). Nous considrons donc un schma Succs-Echec ni de longueur n et de paramtre inconnu . L'espace des paramtres vaut ici = [0, 1]. Fond sur cet exemple lmentaire, nous introduisons ici quelques notions fondamentales de statistique.  On cherche d'abord simplier le jeu de donnes; la seule connaissance du nombre de pices en bon tat sur l'chantillon de taille n considr sera susante pour rsumer notre observation. Nous voquons ici la question d'exhaustivit.  On justie ensuite le fait naturel que la probabilit empirique (proportion de pices dfectueuses) est une quantit approchant de manire raisonnable le paramtre de qualit de notre production. Cette quantit est aussi vue comme la plus vraisemblable, en un sens not plus bas. D'autres manires de calculer empiriquement le paramtre sont ensuite envisages, comme celle de Bayes qui probabilise l'espace des paramtres lui mme et fournit ainsi des estimations convenables. C'est le problme d'estimation du paramtre .  La n du chapitre est ddie rpondre une question simple : faut-il arrter la production pour rparer les machines? Les problmes envisags sont ici ceux de la construction d'un intervalle de conance et celui de tests d'hypothse.  Une premire rponse cette question est en eet de situer de manire raisonnable le paramtre partir de la seule donne observe, c'est l'objet d'un intervalle de conance. Avec une trs grande probabilit, on doit pouvoir armer que IC , IC est ainsi un intervalle dont les bornes sont alatoires et fondes partir de l'estimation de .  La construction d'un tel intervalle de conance est dlicate pour une taille d'chantillon xe ; sa version asymptotique permet de mieux l'apprhender, au travers du thorme central limite.  Pour rsoudre le problme de dcision prcdent, li aux tests, on doit tre en mesure de rpondre une question de type suivant :

(Avec une grande probabilit) Le paramtre d'intrt est-il susamment petit?


 Cette probabilit est un calcul dicile, on lui prfre une approximation obtenue via le thorme central limite.

56

CHAPITRE 4. DEUX THORMES LIMITES ET LEURS APPLICATIONS  Une dernire question thorique se pose alors,

A partir de quelles valeurs (pour et pour la taille n de l'chantillon), l'asymptotique a-t-elle des caractristiques acceptables?

Rsumer l'information
Si on cherche valuer partir de l'observation (X1 , . . . , Xn ), cela ne peut se faire qu'en considrant une fonction quelconque de l'observation disponible. On appelle estimateur Tn = h(X1 , . . . , Xn ) toute fonction de l'observation. Posons

Sn = X1 + + Xn
alors Sn B(n, ) suit une loi binomiale :
s P (Sn = s) = Cn s (1 )ns ,

(4.2)

s = 0, 1, . . . , n.

On a alors,

P (X1 = x1 , . . . , Xn = xn |Sn = s) =

P (X1 = x1 , . . . , Xn = xn , Sn = s) P (Sn = s) s ns (1 ) = s Cn s (1 )ns 1 = s Cn

(4.3)

car, lorsque Sn = s, exactement s des n variables alatoires Xi prennent la valeur 1, ce qui justie la valeur du numrateur. La relation (4.3) signie que, si la variable alatoire Sn prend la valeur s (Sn = s), alors la conguration des Xi tels que i Xi = s n'apporte aucune information sur le paramtre d'intrt . Comme P (X1 = x1 , . . . , Xn = xn |Sn = s) ne dpend pas de , on n'en apprendra pas plus de tout le rsultat (X1 , . . . , Xn ) de notre exprience alatoire (qui peut prendre 2n valeurs), que du rsum d'information constitu par Sn qui prend seulement n + 1 valeurs. Sn est appel rsum exhaustif de l'exprience (X1 , . . . , Xn ), dans ce sens qu'il rapporte toute l'information relative contenue dans notre exprience. Une dnition plus rigoureuse de la notion d'exhaustivit existe mais dpasse le cadre de ce cours.

Moyenne empirique
La moyenne empirique est dnie par la relation

Xn =

Sn X1 + + Xn = n n

(4.4)

o Sn dsigne le rsum exhaustif (4.2). Dans le contexte prsent de variables de Bernoulli, X n est la frquence des pices dfectueuses dans l'chantillon examin. En accord avec le

4.3. APPLICATIONS

57

sens commun, on dit que X n estime . On a E X n = , et on dit que la variable alatoire X n estime sans biais le paramtre (le biais d'un estimateur Tn de est l'expression E Tn ). Cet estimateur est naturel au sens que:

exhaustive Sn , alors Tn = X n .

Proposition 4.8 Soit Tn = h(Sn ) un estimateur sans biais de , fonction de la statistique Preuve :

Posons g(x) =

x n

h(x), on doit prouver que { [0, 1],


n

E g(Sn ) = 0} g 0

Cette relation s'crit


s=0

s Cn s (1 )ns g(s) = 0. Le polynme prcdent en la variable

t = /(1 ), identiquement nul si t R (ou si ]0, 1[), a donc des coecients nuls.
Il est aussi consistant:

Proposition 4.9 Pour tout > 0, on a


n+

lim P |X n | = 0. X n .
n+

On a mme : pour (( presque tout )).


Cet nonc correspond aux lois (( faible )) et (( forte )) des grands nombres rappeles dans la section 4.1.

Maximum de vraisemblance
Rappelons que

P (X1 = x1 , . . . , Xn = xn ) = s (1 )ns ,

s P (Sn = s) = Cn s (1 )ns

lorsque s = x1 + + xn . Par dnition, la ralisation x1 , . . . , xn de l'exprience est d'autant plus vraisemblable que s (1 )ns est grand. (S ) Les expressions prcdentes V (X1 , . . . , Xn ) = P (X1 = x1 , . . . , Xn = xn ) et V n (s) = P (Sn = s) sont appeles vraisemblances de X et de Sn . La valeur du paramtre pour lequel le rsultat de l'exprience obtenu est le plus vraisemblable s'obtient par maximisation de la vraisemblance V (X1 , . . . , Xn ) (ou de manire quivalente de son logarithme L (X1 , . . . , Xn ) = log V (X1 , . . . , Xn )). Le maximum est atteint lorsque L /(X1 , . . . , Xn ) = Sn / (n Sn )/(1 ) = 0 soit = X n . La moyenne empirique est donc l'estimateur du maximum de vraisemblance de , not n . Notons que cette mme expression maximise aussi la vraisemblance du paramtre exhaustif Sn . Cette mthode est trs utile pour trouver l'expression d'estimateurs de paramtres inconnus.

58

CHAPITRE 4. DEUX THORMES LIMITES ET LEURS APPLICATIONS

Estimation baysienne
Supposons maintenant que l'on dispose d'information a priori sur le paramtre . On appelle dans ce cas la probabilit priori la probabilit de se trouver dans l'tat . Pour toute probabilit priori sur = [0, 1], on considre le risque baysien d'un estimateur Tn = h(X1 , . . . , Xn )
1

R (Tn ) =
0

E (Tn )2 d().

(4.5)

L'estimateur baysien de est celui qui minimise R (Tn ). Posons


1

k, =
0

k (1 ) d(),

k, = 1, 2, . . .

Ce qui prcde tend privilgier un estimateur exhaustif de la forme Tn = g(Sn ) (fonction de Sn ), et


n

R (Tn ) =
s=0 n

s Cn

1 0

(g(s) )2 s (1 )ns d(),

=
s=0

s Cn s,ns g 2 (s) 2s+1,ns g(s) + s+2,ns .

L'expression R (Tn ) est minimise par Tn = g(Sn ) avec

g(s) =

s+1,ns , s {0, 1, . . . , n}. s,ns

Remarquons que l'estimateur Tn = g(Sn ) obtenu ici dpend de la probabilit priori . Un critre dirent du critre baysien consiste minimiser l'expression Tn sup E (Tn )2 . C'est le critre minimax, qui minimise le risque maximal.

Intervalles de conance
La loi faible des grands nombres 4.4 nous dit que

/ P X n , X n +

= P

Xn >

1 (1 ) 2 n 4n 2

car (1 ) 1 pour . Ainsi la conance que l'on peut mettre dans le fait que 4 1 I(X) o IC(X) = X n , X n + est au moins gale 1 lorsque = 4n2 . On dit que IC(X) est un intervalle de conance (exact) au niveau . Notons que l'intervalle IC(X) propos a des extrmits alatoires.

Intervalles de conance asymptotiques


Les intervalles de conance asymptotiques sont construits partir des thormes 4.1 et 4.7 du dbut du chapitre. Le terme asymptotiques veut dire que ces intervalles sont

4.3. APPLICATIONS

59

construit partir de rsultats limites lorsque n +, contrairement aux intervalles de conances exacts. La loi des grands nombres 4.1, combine au thorme centrale limite 4.7 conduit, grce au lemme de Slutsky qui ne sera pas explicit ici, au rsultat suivant :

n+

lim P a <

Sn E(Sn ) Var(Sn )

<b

= P(a < Z < b), avec Z N (0, 1).

(4.6)

Remarquons que dans notre example, on a l'galit :

Sn E(Sn ) Var(Sn )

Xn X n (1 X n )

sous la loi P

L'intervalle de conance approch

X n (1 X n ) , X n + 1/2 n X n (1 X n ) n

IC(X) = X n 1/2

admet alors le niveau asymptotique . On note ici a l'unique nombre rel tel que P(Z < a ) = a, il est appel quantile d'ordre a de la loi normale. Lorsque l'intervalle IC(X) contient de grandes valeurs pour le paramtre , on imagine aisment qu'il est temps de re-rgler la machine qui produit des pices trop dectueuses.

Contrle de qualit
Pour satisfaire aux exigences du contrle de qualit, on doit obtenir une rgle de dcision pour tester une hypothse du type 0 contre > 0 . Soit > 0. Notons, qu'il existe un plus petit entier k {0, 1, . . . , n} tel que
k

P0 (Sn k ) =
s=0

s s Cn 0 (1 0 )ns 1

On acceptera l'hypothse 0 lorsque l'observation est telle que Sn < k , et on la rejette lorsque Sn k . Pour quantier ce test, la proposition suivante est essentielle (la preuve est laisse en exercice).

Proposition 4.10 Soit k {0, 1, . . . , n}, quelconque, alors l'application P (S > k)


est croissante de [0, 1] dans [0, 1].
La probabilit de rejeter l'hypothse 0 tort est le niveau du test. En utilisant la proposition 4.10, on obtient :
0

sup P (Sn > k ) = P0 (Sn > k ) .

Un autre caractre du test est de savoir si on a eectivement eu raison de refuser l'hypothse 0 lorsque 0 ; soit > 0 , on note = P (Sn > k ), la puissance du test. Alors la proposition 4.10 prouve aussi que , on dit que le test est sans biais.

60

CHAPITRE 4. DEUX THORMES LIMITES ET LEURS APPLICATIONS

Tests asymptotiques
Dans la section qui prcde, l'inconvnient de la manire de procder rside dans ce que la valeur de k n'est pas toujours simple obtenir, mme si elle est tabule pour les petites valeurs de n. On se pose donc ici la question naturelle de savoir ce qui se passe quand n est grand. Par suite du thorme central limite 4.7, pour n grand, on a pour Z N (0, 1) normale u2 1 standard de densit (u) = e 2 , 2

P (Sn > k) P Z >


x

k n n

=1

k n n

o (x) = (u) du. Pour dterminer un k asymptotiquement raisonnable lorsque n est grand, on posera ainsi k = n0 + n1 k . Ici a est le quantile d'ordre a de la loi normale, i.e. tel que P(Z < a ) = a. Si = 0, 05 on sait que 1 1, 96 et pour = 0, 001, 1 3 (voir la table (( Loi normale : 1 )) de l'annexe B).

Validit de l'asymptotique
Une question importante reste pose:

Quelle taille eective des chantillons permet l'approximation prcdente?


Cette question est fondamentale pour comprendre la nature quotidienne des approximations faites par les statisticiens, lorsqu'ils passent de (( n grand )) des rsultats valables la limite lorsque n + dans toute procdure dite (( ascymptotique )).

Thorme 4.11 (Petrov) Soit > 0 x, alors,


sup n, (u) = O (n) 2
uR
1

uniformment pour [ , 1 ], si on pose

n, (u) = P

Sn n n(1 )

(u)

Ce thorme permet de valider l'approximation gaussienne lorsque le produit n est grand.

En statistique, on se contente traditionnellement de supposer


n 5.

4.4. EXERCICES

61

4.4 Exercices
Exercice 4.4.1 Montrer en utilisant le Thorme central limite que

lim
n k=n

en

1 nk = . k! 2

Exercice 4.4.2 On suppose que pour chaque n, Xn est une varaible alatoire de loi
B(n, p) o 0 < p < 1. Exprimer lim P (Xn < np +
n

n),

comme une intgrale de la densit de la loi N (0, 1).

Exercice 4.4.3 (Thorme de Weierstrass)

Le thorme de Bernoulli 4.2 fournit une dmonstration remarquable, due Bernstein, du thorme d'approximation de Weierstrass, qui arme qu'une fonction continue sur un intervalle born peut tre approche par des polynmes, et ceci uniformment sur cet intervalle. Soit (Xn )n1 une suite de v.a. i.i.d. de loi commune de Bernoulli de paramtre p ]0, 1[.
n

On pose Yn = (1/n)
k=1

Xk .

1. Rappeler l'nonc du thorme de Bernoulli. 2. Soit h : [0, 1] R une fonction continue. Montrer que E(h(Yn )) h(p) (n +) et ceci uniformment en p ]0, 1[. de 0,05 cm. Pour dterminer si la machine est encore en tat de marche, on choisit un 2 chantillon de 10 rondelles dont les paisseurs vrient : X n = 0, 053 cm et n = 9(106 ) cm2 . Tester l'hypothse que la machine est en tat de marche au niveau 0, 95, puis au niveau 0, 99.

Exercice 4.4.4 Une machine a produit dans le pass des rondelles ayant une paisseur

62

CHAPITRE 4. DEUX THORMES LIMITES ET LEURS APPLICATIONS

BIBLIOGRAPHIE

63

Bibliographie
[1] M. Crouzeix, A.L. Mignot, Analyse numrique des quations direntielles. Masson, Paris. [2] J.P. Demailly, Analyse numrique et quations direntielles. PUG, Grenoble. [3] M. Benam, Promenade alatoire. Cours polycopi de l'cole Polytechnique, Paris. [4] F. Comets, Introduction aux probabilits et la simulation alatoire. Cours polycopi de l'cole Polytechnique, Paris. [5] W. Feller , An Introduction to Probability Theory and Its Applications Volume 1. Wiley Text Books, third edition (1968). [6] D. Foata, A. Fuchs, Calcul des probabilits. cours, exercices et problmes corrigs, Dunod, Paris (1998). [7] G. Grimmett, D. Welsh, Probability: An Introduction. Oxford University Press, Oxford (1986). [8] A. Monfort , Statistique. Cours polycopi de l'cole Polytechnique, Paris. [9] D. Revuz , Probabilits. Hermann, Paris (1997). [10] A. N. Shiryaev , Probability. Telos, 2nd edition (1995).

: Pour aller plus loin. : Pour aller beaucoup plus loin.

64

BIBLIOGRAPHIE

65

Annexe A Tables des lois


Lois discrtes
Loi Bernoulli B(p) Probabilits Esprance Variance Fonction gnratrice

p1 = p, p0 = 1 p

p(1 p)

1 p + pz

p ]0, 1[
Binomiale B(n, p)
k Cn pk (1 p)nk

np

np(1 p)

(1 p + pz)n

n N , p ]0, 1[
Gomtrique G(p)

k {0, . . . , n} p(1 p)k1 k N e k k! e(z1) 1 p 1p p2 pz 1 (1 p)z

p ]0, 1[
Poisson P()

R +

kN

66

ANNEXE A. TABLES DES LOIS

Lois continues
Loi Uniforme U(a, b) Densit Esprance Variance Fonction caractristique

1 1[a,b] (x) ba

a+b 2

(b a)2 12

eibt eiat i(b a)t

a<b
Exponentielle E()

ex 1R+ (x)

1 2

1 1 it/

R +
Gamma G(, )

1 x x e 1R (x) + ()

it 1

, R +
Normale N (m, 2 )
(xm)2 1 e 22 2

eimt

2 t2 /2

m R, R +

(a) =
0

ex xa1 dx

pour a R , +

(1) = 1,

(n) = (n 1)! n N .

67

Annexe B Tables statistiques

68

ANNEXE B. TABLES STATISTIQUES

Loi normale :
Si Z est une variable alatoire de loi N (0, 1), la table donne la valeur de la fonction de rpartition de Z : (u) = P(Z u).
0.4 0.3

0.0

0.1

0.2

(u)

u 4 2 0 2 4

u 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9

0.00 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981

0.01 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9049 0.9207 0.9345 0.9463 0.9564 0.9649 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982

0.02 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982

0.03 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983

0.04 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.8264 0.8508 0.8729 0.8925 0.9099 0.9251 0.9382 0.9495 0.9591 0.9671 0.9738 0.9793 0.9838 0.9875 0.9904 0.9927 0.9945 0.9959 0.9969 0.9977 0.9984

0.05 0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 0.8289 0.8531 0.8749 0.8944 0.9115 0.9265 0.9394 0.9505 0.9599 0.9678 0.9744 0.9798 0.9842 0.9878 0.9906 0.9929 0.9946 0.9960 0.9970 0.9978 0.9984

0.06 0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 0.8315 0.8554 0.8770 0.8962 0.9131 0.9279 0.9406 0.9515 0.9608 0.9686 0.9750 0.9803 0.9846 0.9881 0.9909 0.9931 0.9948 0.9961 0.9971 0.9979 0.9985

0.07 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808 0.9850 0.9884 0.9911 0.9932 0.9949 0.9962 0.9972 0.9979 0.9985

0.08 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986

0.09 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8389 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986

u (u)

Grandes valeurs de u 3.0 3.5 4.0 0.998650 0.999767 0.999968

4.5 0.999997

69

Loi normale : 1
Si Z est une variable alatoire de loi N (0, 1), et un rel de [0, 1], la table donne la valeur , telle que P(|Z| > 1 ) = . 1 = 1 1 2
0.4 0.3

0.1

0.2

2 0.0 u 4 2 0 u

0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9

0.00 + 1.6449 1.2816 1.0364 0.8416 0.6745 0.5244 0.3853 0.2533 0.1257

0.01 2.5758 1.5982 1.2536 1.0152 0.8239 0.6588 0.5101 0.3719 0.2404 0.1130

0.02 2.3263 1.5548 1.2265 0.9945 0.8064 0.6433 0.4959 0.3585 0.2275 0.1004

0.03 2.1701 1.5141 1.2004 0.9741 0.7892 0.6280 0.4817 0.3451 0.2147 0.0878
4

0.04 2.0537 1.4758 1.1750 0.9542 0.7722 0.6128 0.4677 0.3319 0.2019 0.0753

0.05 1.9600 1.4395 1.1503 0.9346 0.7554 0.5978 0.4538 0.3186 0.1891 0.0627

0.06 1.8808 1.4051 1.1264 0.9154 0.7388 0.5828 0.4399 0.3055 0.1764 0.0502

0.07 1.8119 1.3722 1.1031 0.8965 0.7225 0.5681 0.4261 0.2924 0.1637 0.0376

0.08 1.7507 1.3408 1.0803 0.8779 0.7063 0.5534 0.4125 0.2793 0.1510 0.0251

0.09 1.6954 1.3106 1.0581 0.8596 0.6903 0.5388 0.3989 0.2663 0.1383 0.0125

0.002 3.0902

0.001 3.2905

Petites valeurs de 10 105 106 3.8906 4.4172 4.8916

107
5.3267

108
5.7307

109
6.1094

Pour p < 1 , 1 (p) = 12p . 2 Pour p 1 , 1 (p) = 12(1p) . 2

70

ANNEXE B. TABLES STATISTIQUES

Loi du 2
Si X est une variable alatoire de loi du 2 n degrs de liberts, Fn sa fonction de rpartition, et un rel de [0, 1], la table (en page suivante) donne la valeur zn, = 1 Fn (1 ) telle que P(X > zn, ) = .
0.12 0.04 0.08

0.00

zn, 0 5 10 15 20 25

Pour n > 30, on admet que :

zn, zn,

1 2 u2 + 2n 1 2 1 2n 1 u2(1) 2

si < 1/2,
2

si 1/2.


0.9 0.02 0.21 0.58 1.06 1.61 2.20 2.83 3.49 4.17 4.87 5.58 6.30 7.04 7.79 8.55 9.31 10.09 10.86 11.65 12.44 13.24 14.04 14.85 15.66 16.47 20.60 0.06 0.45 1.01 1.65 2.34 3.07 3.82 4.59 5.38 6.18 6.99 7.81 8.63 9.47 10.31 11.15 12.00 12.86 13.72 14.58 15.44 16.31 17.19 18.06 18.94 23.36 0.15 0.71 1.42 2.19 3.00 3.83 4.67 5.53 6.39 7.27 8.15 9.03 9.93 10.82 11.72 12.62 13.53 14.44 15.35 16.27 17.18 18.10 19.02 19.94 20.87 25.51 0.45 1.39 2.37 3.36 4.35 5.35 6.35 7.34 8.34 9.34 10.34 11.34 12.34 13.34 14.34 15.34 16.34 17.34 18.34 19.34 20.34 21.34 22.34 23.34 24.34 29.34 1.07 2.41 3.66 4.88 6.06 7.23 8.38 9.52 10.66 11.78 12.90 14.01 15.12 16.22 17.32 18.42 19.51 20.60 21.69 22.77 23.86 24.94 26.02 27.10 28.17 33.53 1.64 3.22 4.64 5.99 7.29 8.56 9.80 11.03 12.24 13.44 14.63 15.81 16.98 18.15 19.31 20.47 21.61 22.76 23.90 25.04 26.17 27.30 28.43 29.55 30.68 36.25 2.71 4.61 6.25 7.78 9.24 10.64 12.02 13.36 14.68 15.99 17.28 18.55 19.81 21.06 22.31 23.54 24.77 25.99 27.20 28.41 29.62 30.81 32.01 33.20 34.38 40.26 3.84 5.99 7.81 9.49 11.07 12.59 14.07 15.51 16.92 18.31 19.68 21.03 22.36 23.68 25.00 26.30 27.59 28.87 30.14 31.41 32.67 33.92 35.17 36.42 37.65 43.77 5.02 7.38 9.35 11.14 12.83 14.45 16.01 17.53 19.02 20.48 21.92 23.34 24.74 26.12 27.49 28.85 30.19 31.53 32.85 34.17 35.48 36.78 38.08 39.36 40.65 46.98 6.63 9.21 11.34 13.28 15.09 16.81 18.48 20.09 21.67 23.21 24.72 26.22 27.69 29.14 30.58 32.00 33.41 34.81 36.19 37.57 38.93 40.29 41.64 42.98 44.31 50.89 7.88 10.60 12.84 14.86 16.75 18.55 20.28 21.95 23.59 25.19 26.76 28.30 29.82 31.32 32.80 34.27 35.72 37.16 38.58 40.00 41.40 42.80 44.18 45.56 46.93 53.67 0.8 0.7 0.5 0.3 0.2 0.1 0.05 0.025 0.01 0.005 0.001 10.83 13.82 16.27 18.47 20.52 22.46 24.32 26.12 27.88 29.59 31.26 32.91 34.53 36.12 37.70 39.25 40.79 42.31 43.82 45.31 46.80 48.27 49.73 51.18 52.62 59.70

0.995

0.99

0.975

0.95

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 30

0.00004 0.01 0.07 0.21 0.41 0.68 0.99 1.34 1.73 2.16 2.60 3.07 3.57 4.07 4.60 5.14 5.70 6.26 6.84 7.43 8.03 8.64 9.26 9.89 10.52 13.79

0.0002 0.02 0.11 0.30 0.55 0.87 1.24 1.65 2.09 2.56 3.05 3.57 4.11 4.66 5.23 5.81 6.41 7.01 7.63 8.26 8.90 9.54 10.20 10.86 11.52 14.95

0.001 0.05 0.22 0.48 0.83 1.24 1.69 2.18 2.70 3.25 3.82 4.40 5.01 5.63 6.26 6.91 7.56 8.23 8.91 9.59 10.28 10.98 11.69 12.40 13.12 16.79

0.004 0.10 0.35 0.71 1.15 1.64 2.17 2.73 3.33 3.94 4.57 5.23 5.89 6.57 7.26 7.96 8.67 9.39 10.12 10.85 11.59 12.34 13.09 13.85 14.61 18.49

71

72

ANNEXE B. TABLES STATISTIQUES

73

Loi de Student
Si X est une variable alatoire de loi de Student Sn , Fn sa fonction de rpartition et 1 un rel de [0, 1], la table (en page suivante) donne la valeur de tn, = Fn (1 /2) telle que P(|X| > tn, ) = . On a t+, = u .

0.2

0.3

1 0.1

2 0.0 tn, 4 2 0 tn,

74

0.7 0.510 0.445 0.424 0.414 0.408 0.404 0.402 0.399 0.398 0.397 0.396 0.395 0.394 0.393 0.393 0.392 0.392 0.392 0.391 0.391 0.391 0.390 0.390 0.390 0.390 0.389 0.388 0.387 0.386 0.727 0.617 0.584 0.569 0.559 0.553 0.549 0.546 0.543 0.542 0.540 0.539 0.538 0.537 0.536 0.535 0.534 0.534 0.533 0.533 0.532 0.532 0.532 0.531 0.531 0.530 0.529 0.526 0.526 1.000 0.816 0.765 0.741 0.727 0.718 0.711 0.706 0.703 0.700 0.697 0.695 0.694 0.692 0.691 0.690 0.689 0.688 0.688 0.687 0.686 0.686 0.685 0.685 0.684 0.683 0.681 0.678 0.677 1.376 1.061 0.978 0.941 0.920 0.906 0.896 0.889 0.883 0.879 0.876 0.873 0.870 0.868 0.866 0.865 0.863 0.862 0.861 0.860 0.859 0.858 0.858 0.857 0.856 0.854 0.851 0.846 0.845 1.963 1.386 1.250 1.190 1.156 1.134 1.119 1.108 1.100 1.093 1.088 1.083 1.079 1.076 1.074 1.071 1.069 1.067 1.066 1.064 1.063 1.061 1.060 1.059 1.058 1.055 1.050 1.043 1.041 3.078 1.886 1.638 1.533 1.476 1.440 1.415 1.397 1.383 1.372 1.363 1.356 1.350 1.345 1.341 1.337 1.333 1.330 1.328 1.325 1.323 1.321 1.319 1.318 1.316 1.310 1.303 1.292 1.289 6.314 2.920 2.353 2.132 2.015 1.943 1.895 1.860 1.833 1.812 1.796 1.782 1.771 1.761 1.753 1.746 1.740 1.734 1.729 1.725 1.721 1.717 1.714 1.711 1.708 1.697 1.684 1.664 1.658 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.042 2.021 1.990 1.980 31.821 6.965 4.541 3.747 3.365 3.143 2.998 2.896 2.821 2.764 2.718 2.681 2.650 2.624 2.602 2.583 2.567 2.552 2.539 2.528 2.518 2.508 2.500 2.492 2.485 2.457 2.423 2.374 2.358 63.657 9.925 5.841 4.604 4.032 3.707 3.499 3.355 3.250 3.169 3.106 3.055 3.012 2.977 2.947 2.921 2.898 2.878 2.861 2.845 2.831 2.819 2.807 2.797 2.787 2.750 2.704 2.639 2.617 636.619 31.599 12.924 8.610 6.869 5.959 5.408 5.041 4.781 4.587 4.437 4.318 4.221 4.140 4.073 4.015 3.965 3.922 3.883 3.850 3.819 3.792 3.768 3.745 3.725 3.646 3.551 3.416 3.373 0.6 0.5 0.4 0.3 0.2 0.1 0.05 0.02 0.01 0.001

0.9

0.8

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 30 40 80 120

0.158 0.142 0.137 0.134 0.132 0.131 0.130 0.130 0.129 0.129 0.129 0.128 0.128 0.128 0.128 0.128 0.128 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.127 0.126 0.126 0.126

0.325 0.289 0.277 0.271 0.267 0.265 0.263 0.262 0.261 0.260 0.260 0.259 0.259 0.258 0.258 0.258 0.257 0.257 0.257 0.257 0.257 0.256 0.256 0.256 0.256 0.256 0.255 0.254 0.254

ANNEXE B. TABLES STATISTIQUES

Vous aimerez peut-être aussi