Vous êtes sur la page 1sur 79

Ricco Rakotomalala

Probabilits et Statistique
Notes de cours

Universit Lumire Lyon 2

Avant-propos

Ce document est un support de cours pour les enseignements des probabilits et de la statistique. Il couvre l'analyse combinatoire, le calcul des probabilits, les lois de probabilits d'usage courant et les tests d'adquation une loi. Ce support correspond approximativement aux enseignements en L2 de la lire Sciences conomiques et Gestion, Administration conomique et Sociale (AES). Un document ne vient jamais du nant. Pour laborer ce support, je me suis appuy sur direntes rfrences, des ouvrages reconnus dans la discipline, mais aussi des ressources en ligne qui sont de plus en plus prsents aujourd'hui dans la diusion de la connaissance. Les seuls bmols par rapport ces documents en ligne sont le doute que l'on pourrait mettre sur l'exactitude des informations prodigues, mais la plupart de leurs auteurs sont des enseignants-chercheurs qui font srieusement leur travail ; une disponibilit plus ou moins alatoire, au gr des migrations des serveurs et de la volont de leurs auteurs, auquel il est trs dicile de remdier ; les informations sont disparates, avec une absence d'organisation, la dirence des ouvrages qui suivent une ligne pdagogique trs structurante. Nanmoins, ces ressources en ligne renouvellent profondment le panorama des documents disponibles pour les enseignements. La gratuit n'est pas le moindre de leurs atouts. Les rfrences que nous avons utilises pour la composition de ce support sont dtailles dans la bibliographie. Les excellents ouvrages de Grais (Chapitres 1 3, pages 1 168) et de Saporta (Chapitres 1 et 2, pages 1 65), en particulier, m'ont beaucoup aid structurer ce document. Enn, selon l'expression consacre, ce texte n'engage que son auteur. Toutes suggestions ou commentaires qui peuvent l'amliorer sont le bienvenu.

Table des matires

Partie I Introduction aux mthodes de calcul des probabilits 1 lments d'analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Formules classiques d'analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 9 9 9 9 10 10

Dnition de la probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1 Notion de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Extension de la dnition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Axiomes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Dnition relative des vnements : les diagrammes de Venn . . . . . . . . . . . . . . . . . . . . . . . 2.5 Oprations logiques sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Axiomes du calcul des probabilits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13


3.1 Notion d'vnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Mesure de la probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Axiomes de Kolmogorov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Quelques proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Thorme des probabilits totales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Ingalit de Boole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.7 Thorme des probabilits composes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.8 Notion d'indpendance en probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 14 14 14 15 15 16

Les schmas de tirages probabilistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


4.1 Expos du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Tirage exhaustif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Tirage de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Comparaison des 2 modes de tirage, exhaustif et avec remise . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Gnralisation du tirage exhaustif ordonn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 17 18 19 20

Probabilit de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.1 nonc du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Le thorme de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21

Table des matires

5.3 Gnralisation du thorme de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22

Les variables alatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23


6.1 Dnition d'une variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Probabilit d'une variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Les dirents types de variables alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 La loi de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Fonction de rpartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Densit d'une variable alatoire continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7 Probabilit d'un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 23 24 24 26 27 28

Caractristiques d'une variable alatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29


7.1 Les caractristiques de tendance centrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Les caractristiques de dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Les caractristiques de forme ou coecients de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Fonctions gnratrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Ingalit de Bienaym-Chebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 31 33 34 35

Partie II Lois de probabilits d'usage courant 8 Les lois discrtes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41


8.1 Loi binomiale : suite d'preuves de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Loi de Pascal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Loi hypergomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4 Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Loi multinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 42 43 45 46

Les lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49


9.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Loi de Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Loi de Pareto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Loi de Gumbel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 50 54 56 57 58

10 Test d'adquation une loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61


10.1 La dmarche de modlisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Test d'adquation et loi du 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Test d'adquation de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 62 69

Littrature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

Partie I

Introduction aux mthodes de calcul des probabilits

1 lments d'analyse combinatoire

1.1 Gnralits
L'analyse combinatoire (A.C.) est le dnombrement des dispositions que l'on peut former l'aide des lments d'un ensemble ni.

1.1.1 L'ensemble tudi : lments discernables et lments indiscernables


Reprsentons les lments d'un ensemble par e1 , e2 , . . . , en . L'ensemble comporte n lments, c.--d.

card() = n.
Si ei et ej sont quivalents, on dit qu'ils sont indiscernables. Si ei et ej sont dirents, on dit qu'ils sont discernables. L'ensemble de n lments peut tre constitu d'lments discernables 2 2. Ex. {a, b, c, d, e}. Tous les lments de peuvent aussi tre tous indiscernables. Ex. {a, a, a, a, a}. Les lments d'un ensemble peuvent tre discernables ou indiscernables. Ex. = {a, b, a, a, c, d, d, c, a},

card() = 9.

1.1.2 Les direntes dispositions


Une disposition est l'ensemble form d'lments choisis parmi les n lments de l'ensemble tudi. Un lment gurant dans une disposition est caractris par :  le nombre de fois o il gure dans l'ensemble ;  sa place dans la disposition.

Exemple 1. Soit un ensemble de 4 cartes {9p , 9t , 7p , 7c }. La hauteur 9 se rpte 2 fois, le 9p se trouve en


premire position.
Quelques dfinitions

Dnition 1. Disposition sans rptition. C'est une disposition o un lment peut apparatre 0 ou
1 fois.

Dnition 2. Disposition avec rptition. Un lment peut gurer plus d'une fois.

1 lments d'analyse combinatoire

Dnition 3. Disposition ordonne. L'ordre d'obtention d'un lment est important. Ex. les lments
constituant la plaque minralogique d'un vhicule.

Dnition 4. Disposition non-ordonne. L'ordre d'obtention d'un lment n'est pas important, on
n'en tient pas compte dans la caractrisation de la disposition. Ex. Les numros issu d'un tirage du loto. Exemple 2. Prenons un jeu de d 6 faces (lments discernables) = {1, 2, 3, 4, 5, 6}. Aprs 3 jets, nous
obtenons A = (2, 5, 1) ; nous ritrons les jets et nous obtenons B = (5, 1, 2). A et B sont quivalents si nous considrons que les dispositions sont non-ordonnes. En revanche, ils ne sont pas quivalents si nous sommes dans le cadre d'une disposition non-ordonne.

1.2 Formules classiques d'analyse combinatoire


1.2.1 Les paires
Soient 2 ensembles constitus respectivement de lments discernables et lments discernables :

A = {a1 , a2 , a3 , . . . , a } et B = {b1 , b2 , b3 , . . . , b }.
On appelle une paire une disposition de 2 lments dont le 1er appartient A, et le 2nd appartient B. La paire est une disposition ordonne, mais les 2 lments sont de nature direntes. Pour dcrire l'ensemble des paires possibles, il sut de composer chaque lment de A avec chaque lment de B. Il y a donc M = paires possibles.

Exercice 1. Combien y a-t-il de mots de 2 lettres ? Il y a 26 lettres dans l'alphabet. On peut donc former
26 26 = 676 mots de 2 lettres.

Exercice 2. Combien y a-t-il de mots de 2 lettres forms d'une consonne et d'une voyelle (sans tenir
compte de l'ordre) ? Il y a 20 consonnes et 6 voyelles. Nous pouvons former 206 = 120 couples "`consonne

voyelle"' et, 6 20 = 120 couples "`voyelle consonne"'. Il y a donc 240 mots possibles forms par
une consonne et une voyelle.

1.2.2 Les multiplets


Soient ensembles distincts forms d'lments compltement discernables.

A = (a1 , a2 , . . . , a ) B = (b1 , b2 , . . . , b ) C = (c1 , c2 , . . . , b ) S = (s1 , s2 , . . . , s )


On appelle multiplets un disposition ordonne de lments dont le 1er est un lment de A, le second un lment de B,..., et le me un lment de S. Les multiplets sont de la forme (ai1 , bi2 , ci , . . . , si ).

1.2 Formules classiques d'analyse combinatoire

Un multiplet de lments peut tre considr comme une paire o : le 1er lment est constitu des

( 1) lments, et le second lment, un lment de S. (a, b, c, . . . , s) = [(a, b, c, . . .), s]


Pour obtenir le nombre de multiplets, nous pouvons raisonner par rcurrence.

M = M1 = M2 = =

Exercice 3. Quelle est la capacit d'un code constitu de mots o les 2 premiers symboles sont des lettres
de l'alphabet, et les 2 derniers symboles sont des chires ? Rponse : M = 26 26 10 10 = 67600

1.2.3 Arrangement avec rptition


Soit l'ensemble fondamental (rfrentiel, ensemble de rfrence, population mre) compos de n lments : card() = n. Nous constituons une chantillon de taille p : card() = p. Si nous avons choisir p lments parmi n, la disposition tant ordonne et avec rptition, on dit qu'on a un arrangement de p lments parmi n.

Ap = np n

(1.1)

N.B. Il est possible que p > n. Exemple 3. Dans un pays imaginaire, un numro de tlphone comporte 5 chires. Il doit commencer par
0, le second chire est compris entre 1 et 5, il indique la rgion. Les autres chires sont libres. Combien
de numros de tlphones dirents peut-on former dans ce pays ?

= {0, 1, . . . , 9} ; = {a, b, c, d, e}. Pour les 3 derniers chires, le nombre d'arrangements possible
est A3 = 103 = 1000. La capacit totale est 1 5 A3 = 1 5 1000 = 5000. 10 10

1.2.4 Arrangement sans rptition


Soit une population mre, avec card() = n. On constitue un chantillon de taille p, la disposition est ordonne et sans rptition. On dit qu'on a un arrangement sans rptition de p lments parmi

n. Ap = n n! (n p)!
n i=1

(1.2)

Dnition 5 (Factorielle n). Factorielle n, note n! est dnie par n! =


convention 0! = 1. Nous pouvons galement utiliser une
1

i = 1 2 . . . n. Par

dnition1

rcursive n! = n (n 1)!.

Pour plus d'informations, voir http://fr.wikipedia.org/wiki/Factorielle

1 lments d'analyse combinatoire

Exemple 4. Dans notre pays imaginaire ci-dessus, combien y a-t-il de numros comportant des chires
tous dirents ?

01abc A3 = 336 8 02abc A3 = 336 8 03abc A3 = 336 8 04abc A3 = 336 8 05abc A3 = 336 8 Total = 1680
N.B. : Attention, dans 01abc par exemple, les chires (a, b et c) ne peuvent provenir que de {0, 1}, d'o la formule de l'arrangement A3 . 8

1.2.5 Permutation sans rptition


C'est un arrangement sans rptitions de n lments parmi n.

Pn = Ap = n

n! = n! (n n)!

(1.3)

1.2.6 Permutation avec rptition


On appelle permutation avec rptition de p lments o n sont distincts (n p), une disposition ordonne de l'ensemble de ces p lments o le 1er gure p1 fois, le second p2 fois, etc., tel que p1 + p2 +

+ pn = p.
(p Pp 1 ,p2 , ) =

p! p1 !p2 !

(1.4)

Exemple 5. On jette successivement 12 ds. On appelle "`rsultat"' une suite ordonne de 12 points
emmens. Combien y a-t-il de rsultats possibles ?

= {1, 2, 3, 4, 5, 6}, n = 6, p = 12 lments, ordonns, avec rptition A12 = 612 6

Exemple 6. Combien y a-t-il de rsultats o chaque face est emmene 2 fois ?


n = 6 lments distincts, p = 12 lments P12
(2,2,2,2,2,2)

12! 2!2!2!2!2!2!

Exemple 7. Combien y a-t-il de rsultats o la face "`1"' se retrouve 5 fois, "`2"' 3 fois, "`3"' 3 fois, et
"`4"' 1 fois ?

P12

(5,3,3,1,0,0)

12! 5!3!3!1!0!0!

1.2.7 Combinaison sans rptition


On considre une population mre constitu de n lments tous discernables. On forme un chantillon de taille p. Si la disposition est non-ordonne et sans rptition, on dit que l'on a une combinaison sans rptition de p lments parmi n.

1.2 Formules classiques d'analyse combinatoire

p Cn =

n! p!(n p)!

(1.5)

Exemple 8. On tire 5 cartes dans un jeu de 32 cartes. Combien y a-t-il de rsultats possibles ?
5 C32 = 32! 5!(325)!

1.2.8 Combinaison avec rptition


C'est une disposition non-ordonne de p lments, choisir parmi n lments discernables, avec rptition.
p p Kn = Cn+p1

(1.6)

Exemple 9. Dans un jeu de domino, il y a 7 valeurs possibles {blanc, 1, 2, 3, 4, 5, 6}. Sur un domino,
2 valeurs sont inscrites, qu'importe l'ordre d'apparition des valeurs (retourner le domino n'a aucune
inuence sur ce qu'elle reprsente). Le nombre total de dominos que nous pouvons former est de p = 2
2 2 lments choisis parmi n = 7, c.--d. K7 = C7+21 = 28.

1.2.9 Partition gnralise Exemple introductif


On partage 52 cartes entre 4 joueurs (A, B, C, D). Combien y a-t-il de faons de distribuer ces cartes de manire ce que :  le joueur A reoive 5 tres, 2 piques, 4 coeurs, 2 carreaux ;  B reoive (4, 0, 7, 2) ;  C reoive (3, 10, 0, 0) ;  D reoive (1, 1, 2, 9). Essayons de reprsenter cela dans un tableau. tre coeur pique Total les joueurs est P13
(5,4,3,1)

A B C D Total 5 4 3 1 4 7 0 0 2 0 10 1 13 13 12 13

carreau 2 2 0 9

13 13 13 13 52

 Considrons tout d'abord la rpartition des tres. Le nombre de distribution des 13 tres suivant ;
(2,2,0,9)

 Pour les carreaux, ce sera P13  Pour les coeurs, ce sera P13  Pour les piques, ce sera P13 de possibilits :

(4,7,0,2)

; ;

(2,0,10,1)

Cette rpartition est eectue simultanment, nous eectuons le produit pour obtenir le nombre total

M = P13

(5,4,3,1)

P13

(2,2,0,9)

P13

(4,7,0,2)

P13

(2,0,10,1)

1 lments d'analyse combinatoire

Remarque 1. Il est possible d'eectuer l'analyse duale .--d. dtecter la faon pour A de recevoir 5 tres,
2 carreaux, 4 coeurs, 2 piques ; et ainsi de suite pour chaque joueur. Nous obtenons alors le nombre total
de possibilit en eectuant galement le produit. Nous obtiendrons les mmes rsultats.

Gnralisation
Nous pouvons gnraliser la solution ci-dessus en considrant la rpartition de n objets classs en s catgories entre p joueurs. Le tableau de travail est le suivant : -

A1 Aj Ap Total n11 . n1j . n1p


. . . . . . . . . .

1 i s

n1. . . . ni. . . . ns.

ni1 . nij . nip ns1 . nsj . nsp

Total n.1 . n.j . n.p n.. = n Pour la ligne i, le nombre de dispositions possibles est Ainsi, le nombre total de dispositions est obtenu avec :
s i=1 s i=1 ni. ! p j=1 nij ! ni. ! ni1 !nij !nip ! .

(1.7)

2 Dnition de la probabilit

2.1 Notion de probabilit


Une preuve est une exprience dont l'issue est incertaine. Les rsultats ventuels d'une preuve font gnralement appel au hasard. L'ensemble des rsultats ventuels (les rsultats possibles, les ventualits) s'appelle ensemble fondamental (rfrentiel, ensemble de rfrence, population mre).

Exemple 10. Une pice de monnaie possde deux gures (ventualits) : pile et face. Si la pice n'est pas
traque et lance loyalement, pile a autant de chances d'apparatre que face. On dit alors que les deux ventualits sont quiprobables. A chaque lment de l'ensemble des ventualits, on peut associer un nombre, la probabilit d'obtenir l'ventualit.

2.2 Extension de la dnition


Nous appelons vnement un sous-ensemble quelconque Ai de , constitu de NA ventualits quiprobables .--d. Ai , et card(Ai ) = NA . Une ventualit est un vnement lmentaire tel que la probabilit de ralisation de l'vnement Ai est P (Ai se ralise) =
NA N ,

o card() = N .

Exemple 11. est constitu d'un jeu de 32 cartes. Il comporte 8 hauteurs {7, 8, 9, 10, J, D, K, A}. Dans
chaque hauteur, il y a 4 couleurs {pique, coeur, carreau, tref le}.  P {tirer la hauteur 7} =
4 32 7 32

 P {tirer la couleur pique} =

2.3 Axiomes
Axiome d'uniformit. vnement certain.

P {ventualit quiprobable} = 0 P {} 1.
Si A , alors P {A} = 0.

1 N.

Domaine de dfinition. vnement impossible.

Si A , alors P {A} = 1.

10

2 Dnition de la probabilit

2.4 Dnition relative des vnements : les diagrammes de Venn


2.4.1 Inclusion
Soit A un vnement (un ensemble). A est inclus dans si chaque lment e de A appartient galement .

e A e , alorsA
Proprits de l'inclusion

Caractristique 1 (Transitivit).
AB BC AC

Caractristique 2 (Rexivit). A A est toujours vraie. Caractristique 3 (Antisymtrie).


AB BA AC

L'inclusion est donc une relation d'ordre parmi les sous-ensembles de l'ensemble fondamental.

2.4.2 La complmentarit
Soit un sous-ensemble A de . On appelle complmentaire de A par rapport , not A ou A, le
sous-ensemble de constitu de tous les lments qui n'appartiennent pas A.

A=

2.4.3 Ensembles disjoints


Deux ensembles A et B sont dits disjoints s'ils n'ont pas d'lments en commun. On termes d'vnements, on dit que A et B sont incompatibles.

2.5 Oprations logiques sur les ensembles


2.5.1 Runion ou addition logique
On appelle runion de A et B, l'ensemble dont les lments appartiennent soit A, soit B, soit simultanment A et B. On note gnralement A B ou encore A + B 1 .

Caractristique 4.
AC BC
1

AB C

Attention, ne pas confondre avec l'addition arithmtique

2.5 Oprations logiques sur les ensembles

11

Caractristique 5. A B A B B Caractristique 6 (Commutativit). A B B A Caractristique 7 (Associativit). (A B) C A (B C) A B C

2.5.2 Intersection ou produit logique


Soient 2 ensembles A et B. On appelle intersection de A et B l'ensemble des lments qui appartiennent la fois A et B. On note A B = A.B

Caractristique 8. Si A et B sont disjoints, alors A B Caractristique 9. A B A B Caractristique 10.


AC BC AB AB C

Caractristique 11. B A A B B Caractristique 12 (Commutativit). A B B A Caractristique 13 (Associativit). (A B) C A (B C) A B C Caractristique 14 (Distributivit droite par rapport la runion).
A (B C) (A B) (A C) (A B) (C D) ((A B) C) ((A B) D) (A C) (B C) (A D) (B D)
La distributivit gauche est valable galement.

3 Axiomes du calcul des probabilits

3.1 Notion d'vnement


Soit un vnement fondamental constitu de plusieurs ventualits quiprobables. L'vnement fondamental peut tre subdivis en plusieurs sous-parties. Dans chaque sous-partie, il y a plusieurs ventualits quiprobables. Un vnement est dni comme un sous-ensemble des parties de . Il est constitu d'une ou plusieurs ventualits quiprobables. Une sous-partie E est dite lmentaire si elle n'est constitue que d'une seule ventualit.

Remarque 2. On peut appliquer le diagramme de Venn dans la thorie des vnements. Les oprations
logiques sur les ensembles peuvent y tre transposes, permettant ainsi l'laboration d'une algbre sur les vnements.

Caractristique 15 (Complmentarit). ralis, A ne l'est pas.

= A, c'est la non-ralisation de l'vnement A c.--d. si A est

Caractristique 16 (Runion). On peut crer un evnement C qui soit la runion de deux vnements A
et B. La ralisation de C est soit la ralisation de A, soit de B, soit de A et B simultanment.

Caractristique 17 (Intersection). La ralisation de C entrane la ralisation de A et de B.

3.2 Mesure de la probabilit


Si nous lanons un d 6 faces, les rsultats possibles sont {1, 2, 3, 4, 5, 6}. L'obtention de la face "`1"' constitue un vnement. La "`chance"' d'avoir la face "`1"' est de 1 . C'est 6 la probabilit d'avoir une face. Il en est de mme pour chacune des faces du d. Soit P() l'ensemble des sous-parties de . La probabilit est une application de chaque vnement des parties de vers R. Cette application not P ou P r s'appelle "`mesure de la probabilit"'

Ei P() P {Ei } R
de (ou la chance d'obtenir) l'vnement Ei .

(3.1)

Le nombre rel P {Ei } s'appelle probabilit de ralisation de l'vnement Ei . Elle quantie la crdibilit

14

3 Axiomes du calcul des probabilits

3.3 Axiomes de Kolmogorov


L'application P est restreinte par 3 axiomes, dites "axiomes de Kolmogorov".
Axiome de positivit

Toute probabilit de ralisation d'un vnement est toujours positif.

P {A} 0, A
Axiome de certitude

P {} = 1, on dit que est un vnement certain.

Remarque 3. La probabilit est norme, c.--d. 0 P 1.


Axiome d'additivit

Si A et B sont incompatibles (A B ), alors P {A B} = P {A} + P {B}.

3.4 Quelques proprits


Caractristique 18 (Proprit de l'vnement impossible). La probabilit de l'vnement impossible est
nulle. En d'autres termes P () = 0.

Preuve. Soit un vnement quelconque A. On sait que A et A A (tout vnement est


incompatible avec l'vnement impossible). A partir de l'axiome d'additivit de Kolmogorov,

P {A } = P {A} + P {} = P {A}
Par consquent, P () = 0.

Caractristique 19 (Probabilit et inclusion). Si B A, alors P {B} P {A}


Caractristique 20 (Probabilit d'un vnement complmentaire). Soit, A = Preuve. A A = , et A A = . = P {A} + P {A} = 1 P {A} = 1 P {A} P {A A}
A , P {A}

= 1 P {A}

3.5 Thorme des probabilits totales


Proposition 1. Considrons 2 vnements A et B tels que A B = .
P {A B} = P {A} + {B} P {A B}
(3.2)

Preuve. On dnit C tel que C = A B . On en dduit que A C = . En eet, A (A B) = . A et A B sont incompatibles.


On peut galement dduire que A C = A B (cf. les proprits des probabilits).

P {A C} = P {A} + P {C} = P {A B}

3.7 Thorme des probabilits composes

15

P {C} = P {A B} P {A}

(3.3)

Considrons maintenant les vnements C et A B . Ils sont incompatibles c.--d. C (A B) = . On constate aisment que C (A B) = B , P {C (A B) = B} = P {B} = P {C} + P {A B}

P {C} = P {B} P {A B}
Avec les quations (3.3) et (3.4), nous en dduisons :

(3.4)

P {A B} P {A} = P {B} P {A B}, d'o le rsultat (quation 3.2).

3.6 Ingalit de Boole


D'aprs les axiomes des probabilits totales,

P {A + B} = P {A} + P {B} P {A.B} P {A + B} P {A} + P {B}


On peut gnraliser un nombre quelconque d'vnements :

P{
i

Ai }
i

P {Ai }

(3.5)
i

Caractristique 21 (vnements incompatibles). Si les vnements Ai sont incompatibles, P {


i

Ai } =

P {Ai }

3.7 Thorme des probabilits composes


3.7.1 Les probabilits conditionnelles ou lies
Soient 2 vnements A et B tels que A B = . La probabilit de ralisation de l'vnement B lorsque l'vnement A est ralis s'appelle "probabilit conditionnelle de B par rapport A", que l'on note P {B/A}. On dit galement "probabilit de B si A" ou encore "probabilit de B sachant A". On calcule cette probabilit de la manire suivante :

P {B/A} =

P {B A} P {A}

(3.6)

Exemple 12. Soit un jeu de 52 cartes. Les cartes ont t regroupes selon leur couleur. Quelle est la
probabilit d'extraire la hauteur "roi" sachant que l'on a puis dans le paquet des "coeur" ?

P {coeur} =

13 52 ,

et P {roi coeur} =

1 52 .

On calcule alors P {roi/coeur} =

1/52 13/52

1 13 .

16

3 Axiomes du calcul des probabilits

3.7.2 Les probabilits composes


A partir du rsultat prcdent, nous pouvons crire

P {A B} = P {B/A} P {A} = P {A/B} P {B}

(3.7) (3.8)

3.8 Notion d'indpendance en probabilit


Soient 2 vnements A et B. Ils sont indpendants si la ralisation de A n'aecte pas la ralisation de B, et inversement. On peut alors crire

P {A/B} = P {A} P {A/A} = P {B}


On dit encore que A et B sont indpendants si et seulement la probabilit de ralisation simultane de ces vnements est gal au produit des probabilits individuelles.

P {A B} = P {A} P {A}

4 Les schmas de tirages probabilistes

4.1 Expos du problme


Nous disposons d'une urne avec N boules. Dans l'urne, il y a N1 boules de couleur c1, N2 boules de couleurs c2, . . ., Nk boules de couleur ck. On extrait n boules de l'urne avec, respectivement pour chaque couleur, n1 , n2 , . . . , nk . Quelle est la probabilit d'obtenir cette conguration (n1 , n2 , . . . , nk ) ? L'ensemble fondamental est = {c1, c2, . . . , ck}. Nous pouvons adopter le mode de reprsentation suivant : lment Eectif chantillon c1

N1 Nk N

n1 nk n

ck Total vantes :  Le tirage est-il exhaustif ou avec remise ?  La conguration est-elle ordonne ?

Question 1. Pour calculer les probabilits, il faut se poser et rpondre correctement aux questions sui-

4.2 Tirage exhaustif


Un tirage est dit exhaustif s'il est eectu sans remise (sans rptition). Il importe alors de savoir si avec un tirage sans remise :  on s'intresse l'ordre d'apparition des boules c.--d. la disposition est-elle ordonne ?  on s'intresse uniquement au nombre d'apparition des boules c.--d. obtenir ni boules de couleur ci.

4.2.1 Tirage exhaustif ordonn


Considrons que nous avons N boules de 2 couleurs br (rouges) et bn (noires). On extrait un chantillon

de taille n, et on obtient n1 br et n2 bn.

18

4 Les schmas de tirages probabilistes

On cherche calculer P {n1 (br) et n2 (bn)}. Revenons notre tableau. Couleur Eectif chantillon br bn Total  Nombre d'ventualits possibles : An N  Nombre d'ventualits favorables : An1 An2 N1 N2 On en dduit la probabilit :

N1 N2 N

n1 n2 n

P {n1 (br) et n2 (bn)} =

An1 An2 N1 N2 An N

(4.1)

4.2.2 Tirage exhaustif non-ordonn


Qu'importe l'ordre d'apparition des boules cette fois-ci. Nous calculons donc :
n  Nombre d'ventualits possibles : CN n n  Nombre d'ventualits favorables : CN1 CN2 1 2

On en dduit la probabilit :

P {n1 (br) et n2 (bn)} =


C'est le schma hypergomtrique.

n n CN1 CN2 1 2 n CN

(4.2)

Remarque 4. Il est possible d'exprimer cette seconde probabilit (quation 4.2 en fonction de la prcdente n n
n (quation 4.1). En eet, CN = N! n!(N n)!

An N n!

. Il arrive alors P {n1 (br) et n2 (bn)} =

ainsi

AN1 /n1 !AN2 /n2 ! 1 2 , An /n! N

P {n1 (br) et n2 (bn)} =

An1 An2 n! N1 N2 An n1 !n2 ! N

(4.3)

Dans la premire partie de l'quation 4.3, nous retrouvons la disposition ordonne sans remise (quation 4.1) ; dans la seconde partie, les direntes permutations possibles des n1 et n2 lments parmi n c.--d. Pn
(n1 ,n2 )

4.3 Tirage de Bernoulli


Nous nous plaons maintenant dans le cadre du tirage avec remise.

4.3.1 Tirage de Bernoulli ordonn


Tirage avec remise et ordonn.

4.4 Comparaison des 2 modes de tirage, exhaustif et avec remise

19

Couleur Eectif chantillon br bn Total  Nombre d'ventualits possibles : An N  Nombre d'ventualits favorables : An 1 An 2 N N On en dduit la probabilit :
1 2

N1 N2 N

n1 n2 n

P {n1 (br) et n2 (bn)} =


Posons p =
N1 N

An1 An2 N1 N2 An N

(4.4)

et q =

N2 N

= 1 p. Nous pouvons crire l'quation (4.4) de la manire suivante :


n n N1 1 N2 2 Nn n n N1 1 N2 2 = n1 n2 N N N1 N2 = ( )n1 ( )n2 N N = pn1 q n2

P {n1 (br) et n2 (bn)} =

4.3.2 Tirage de Bernoulli non-ordonn


Tirage avec remise, non-ordonn. A la lumire de ce que nous avons pu voir prcdemment, du passage du tirage ordonn vers le nonordonn pour le schma exhaustif (quation 4.3) et le tirage avec remise ordonn (quation 4.4), nous pouvons dduire la formule :
(n P {n1 (br) et n2 (bn)} = Pn 1 ,n2 ) pn1 q n2

(4.5)

Nous pouvons galement crire :


n P {n1 (br) et n2 (bn)} = Cn 1 pn1 (1 p)nn1

(4.6)

C'est le schma binomial.

4.4 Comparaison des 2 modes de tirage, exhaustif et avec remise


Intressons-nous au tirage non-ordonn avec k couleurs. n n n Dans un tirage exhaustif, PE =
CN1 CN2 CNk
1 2 k

Dans un tirage de Bernoulli, PB =

n CN n1 n2 n! n1 !n2 !nk ! p1 p2

pnk k

Remarque 5. Si n = 1, alors PE = PB

20

4 Les schmas de tirages probabilistes

Remarque 6. Dans un tirage sans remise (exhaustif), la structure de l'ensemble fondamental est modi
chaque tirage. Ce n'est pas le cas du tirage de Bernoulli, la composition de l'urne n'est jamais modie puisque chaque objet extrait y est remise avant le tirage suivant : de fait, il y a indpendance totale des tirages. C'est la raison pour laquelle, lors du tirage avec remise, l'expression de la probabilit ne dpend pas de N , nombre total de boules, mais uniquement de la structure de l'ensemble fondamental (pi ).

Remarque 7. Lorsque les Nk sont trs grands devant les nk (c.--d.

N! (N n)!

N n , cf. les dveloppement

limits), nous avons l'approximation PE PB . En eet, les tirages successifs modient trs peu la structure de l'ensemble fondamental, elle reste proche de la situation initiale.

4.5 Gnralisation du tirage exhaustif ordonn


Nous voulons distribuer n objets, rpartis en m groupes, entre p personnes. On cherche savoir quelle est la probabilit d'une conguration donne. Pour mieux apprhender le problme, utilisons le tableau suivant : Obj vs. Pers 1 j

Total

1 . . . i . . . m
Total La probabilit s'crit :

n11 n1j n1p ni1 nij nip nm1 nmj nmp

n1. ni. nm.

n.1 n.j n.p n.. = n

P {} =

n1. ! n2. ! nm. ! n11 !n12 !n1p ! n21 !n22 !n2p ! nm1 !nm2 !nmp ! n! n.1 !n.2 !n.p !

En rorganisant un peu tout cela.

P {} =

m i=1

n!

ni. ! m i=1

p j=1 n.j ! p j=1 nij !

(4.7)

Une rgle mnmonique pour s'en rappeler est de considrer qu'il s'agit du rapport entre :  le produit des factoriels des eectifs marginaux ;  n! fois le produit des factoriels des eectifs conjoints.

5 Probabilit de Bayes

5.1 nonc du problme


Un ensemble de boules rouges (br) et boules noires (bn) sont rparties dans 2 urnes U1 et U2 .  p1 est la proportion de br dans U1 , p2 dans U2 ;  q1 = 1 p1 est la proportion de bn dans U1 , q2 dans U2 ; On demande un oprateur d'eectuer un tirage en deux temps : 1. d'abord, il choisit une urne, 1 est la probabilit de choisir l'urne U1 , 2 pour U2 ; 2. puis il extrait une boule de l'urne. Constatant la couleur de la boule (br pour xer les ides), nous devons calculer la probabilit que la boule provienne de l'urne U1 (ou U2 ). Cette probabilit a posteriori est dite Probabilit de Bayes.

5.2 Le thorme de Bayes


Posons B l'vnement "tirer une boule rouge". On cherche calculer la probabilit P {U1 /B}.

P {U1 /B} =

P {U1 .B} P {B} P {B/U1 }P {U1 } = P {B}

Or U1 + U2 = (ensemble fondamental) ; B.(U1 + U2 ) = B. = B , on en dduit :

P {U1 /B} =

P {B/U1 }P {U1 } P {B.(U1 + U2 )} P {B/U1 }P {U1 } = P {B.U1 + B.U2 }

Si U1 et U2 sont incompatibles, BU1 et BU2 le sont galement. Nous pouvons appliquer l'axiome d'additivit de Kolmogorov.

P {U1 /B} =

P {B/U1 }P {U1 } P {B.U1 } + P {B.U2 )} P {B/U1 }P {U1 } = P {B/U1 }P {U1 } + P {B/U2 }P {U2 }

22

5 Probabilit de Bayes

5.3 Gnralisation du thorme de Bayes


Considrons le cas gnral o nous avons m urnes et k couleurs de boules : Ui dsigne l'urne i, et Bj indique l'apparition d'une boule de couleur j . La probabilit a posteriori que l'urne Ui ait t utilise sachant qu'une boule j est apparue (vnement

Bj ) s'crit : P {Ui /Bj } = pj/i i k i=1 pj/i


(5.1)

o pj/i est la proportion de boules de couleur j dans l'urne i ; i est la probabilit d'obtenir l'urne i.

Exemple 13. Un appareil peut tre mont avec des pices de haute qualit (40% des cas) et avec des pices
ordinaires (60% des cas). Dans le premier cas, sa abilit (probabilit de fonctionnement) sur une dure

t est gale 0.95 ; dans le second, elle est de 0.7. L'appareil a t soumis un essai et s'est avr able
(fonctionnement sans dfaillance sur la dure de rfrence). Dterminer la probabilit que l'appareil soit compos de pices de haute qualit.

Solution : Notons B l'vnement "l'appareil a fonctionn sans dfaillance" ; U1 (resp. U2 ) la probabilit


qu'un appareil soit compos de pices de haute qualit (resp. de qualit ordinaire), P (U1 ) = 0.4 (resp.

P (U2 ) = 0.6).
On nous indique que P (B/U1 ) = 0.95 et P (B/U2 ) = 0.7. En appliquant le thorme de Bayes, nous obtenons :

P (U1 /B) =

0.4 0.95 0.38 = = 0.475 0.4 0.95 + 0.6 0.7 0.8

6 Les variables alatoires

6.1 Dnition d'une variable alatoire


Exemple introductif.

On lance 3 fois une pice de monnaie (qui prend deux valeurs possibles

"pile" ou "face", est-il besoin de le prciser). L'ensemble fondamental est = {(P, F ), (P, F ), (P, F )}. Notons X le nombre de "face" apparue au bout des trois jets. Les valeurs possibles de X sont DX =

{0, 1, 2, 3}. X est une application de dans DX .


De manire gnrale, X est une application :

X:R
particulirement la probabilit d'obtenir ces valeurs P (X = x) 1 .

(6.1)

X s'appelle une variable alatoire, on s'intressera aux valeurs prises par X (X = x), et plus

Dnition 6. Soient une preuve ei et l'ensemble fondamental des ventualits. L'application X :


R fait correspondre tout lment de un nombre rel ei , ei X(ei ) R X dsigne la variable alatoire ; x dsigne la valeur possible de la variable alatoire ; le domaine de

dnition de X est DX = {x1 , . . . , xn }.

6.2 Probabilit d'une variable alatoire


Soit X une variable alatoire dnie par une application de dans R, pouvant prendre des valeurs dans DX = {x1 , . . . , xn }. Par dnition, la probabilit pour que la variable X soit gale x est la probabilit des lments de ayant pour image la valeur x dans l'application. Cette probabilit mesure le degr de crdibilit de ralisation de l'vnement.

P (X = xi ) est rgie par les 3 axiomes de Kolmogorov.


1. P (X = xi ) 0 2. P (X = DX ) = 1 3. Si les xi sont incompatibles entre eux, P [(X = xi ) ou (X = xj )] = P (X = xi ) + P (X = xj )
1

A partir de maintenant, nous utiliserons les parenthses, et non les accolades, pour dsigner un vnement "valeur(s) prise(s) par une variable alatoire".

24

6 Les variables alatoires

6.3 Les dirents types de variables alatoire


6.3.1 Variable alatoire discrte
Une variable alatoire est dite discrte lorsque les valeurs xi qu'elle est susceptible de prendre sont en nombre ni, ou encore forms exclusivement de nombres entiers. Quelques exemples :  nombre de "face" apparaissant aprs 10 jets d'une pice ;  nombre de vhicules passant un carrefour dans une journe ;  nombre de clients entrant dans un magasin le samedi.

6.3.2 Variable alatoire continue


Une variable alatoire est dite continue si elle peut prendre toutes les valeurs d'un intervalle. Quelques exemples :  intervalle de temps entre 2 passages de train ;  longueur de cheveux ;  dure de vie en secondes d'une pice mcanique.

Remarque 8 (Distinction variable discrte et continue). Parfois, la distinction est purement formelle. Le
type de la variable alatoire dpend du degr de prcision que l'on dsire apprhender. Par exemple, on s'intresse l'esprance de vie d'un chat, si on travaille sur le nombre d'annes, le nombre de valeurs possible est ni ; si on travaille en secondes, ce sera dirent. La situation sera un peu plus claire lorsque l'on abordera la question de la probabilit ponctuelle. Dans le cas d'une variable continue, elle est par dnition nulle.

6.4 La loi de probabilit


Une variable alatoire est totalement dnie par sa loi de probabilit. Cette dernire est caractrise par : 1. l'ensemble des valeurs qu'elle peut prendre (son domaine de dnition DX ) ; 2. les probabilits attribues chacune de ses valeurs P (X = x).

Exemple 14. On lance une pice de monnaie une fois, l'ensemble fondamental est = {P, F }. Soit X le
nombre d'apparition de "pile", DX = {0, 1} et on peut calculer facilement P (X = x), P (X = 0) =
1 2

et

P (X = 1) =

1 2.

Exemple 15. On lance une pice de monnaie 2 fois, l'ensemble fondamental est = {P, F }. Soit X le
nombre d'apparition de "pile", DX = {0, 1, 2}. On veut calculer P (X = 1), pour cela on s'intresse aux deux squences possibles qui lui sont associes (Pile d'abord, Face ensuite), ou inversement (F, P).

6.4 La loi de probabilit

25

P (X = 1) = P {(P, F ) ou (F, P )} = P {(P, F )} + P {(F, P )} ,


vnements incompatibles

= P {P } P {F } + P {F } P {P } , jets indpendants 1 1 1 1 = + 2 2 2 2 1 = 2 De la mme manire, nous pouvons calculer P (X = 0) et P (X = 2).

Exemple 16. Sur le mme exemple du jet de 2 pices, nous pouvons adopter l'approche du tirage de
Bernoulli non-ordonn. Nous utilisions le tableau suivant pour caractriser l'exprience : Pice

x 2

Face q = 0.5 2 x Pile p = 0.5 Total La probabilit d'obtenir x "pile" est :

2! px q 2x x!(2 x)! De manire gnrale, pour n jets de pices, si l'on se rfre au schma binomial, la probabilit d'obtenir P (X = x) = x-fois le ct "pile" est gal :
Pice

x n

Face q = 0.5 n x Pile p = 0.5 Total et

n! px q nx x!(n x)! Il est d'usage de reprsenter graphiquement la distribution de probabilit d'une variable discrte P (X = x) =
l'aide d'un diagramme en btons. A chaque valeur de X est associe un trait (un bton) dont la hauteur est proportionnelle P (X = x) (Figure 6.1). Certains parlent galement d'histogramme de frquences, mais dans ce cas, la largeur de chaque barre est obligatoirement constante.

Remarque 9 (Probabilit cumule). Dans certains cas, on peut tre intress par l'obtention d'au moins
"x" valeurs. Dans l'exemple des jets de pices, on peut vouloir poser la question : "quelle est la probabilit que l'on obtienne au moins x-fois le ct pile de la pice ?". Dans ce cas, on parle de probabilit cumule ou encore de fonction de rpartition. Il s'agit de la somme des probabilits ponctuelles :

P (X x) = P (X = 0 ou X = 1 ou . . . ou X = x) = P (X = 0) + P (X = 1) + . . . + P (X = x) vnements incompatibles
x

=
j=0

P (X = j)

26

6 Les variables alatoires

Fig. 6.1. Diagramme en btons (variable discrte)

Essayons de prciser cela de manire plus formelle.

6.5 Fonction de rpartition


6.5.1 Pour une variable discrte
La fonction de rpartition n'est autre que le cumul des probabilits individuelles. La probabilit pour que la variable alatoire X prenne une valeur infrieure x est une fonction F (x) que l'on appelle fonction

de rpartition, P (X < x) = F (x).


Si DX = {0, 1, 2, . . . , n},
x1

F (x) = P (X < x) =
j=0

P (X = j)

(6.2)

On reprsente graphiquement cette fonction de rpartition l'aide d'une courbe cumulative en escalier (Figure 6.2)2 .

Fig. 6.2. Courbe cumulative en escalier (variable discrte)

Source : http://nte-serveur.univ-lyon1.fr/nte/immediato/math2002/Mass11/cours/chapitr2a.htm

6.6 Densit d'une variable alatoire continue

27

6.5.2 Pour une variable continue


Dans ce cas, la plupart du temps, DX R. La probabilit ponctuelle P (X = x) = f (x) est la fonction de densit. La fonction de rpartition F (x) = P (X < x) est dnie par :
x

F (x) =

f (t)dt

(6.3)

La fonction de rpartition F (x) est une fonction continue, monotone et croissante dans le domaine

[0, 1]. On note deux cas extrmes :

F () = lim F (x) = 0
x x+

F (+) = lim F (x) = 1


On retrouve bien l les axiomes de positivit et de certitude. La fonction de rpartition est gnralement reprsente graphiquement par une courbe cumulative (Figure 6.3).

Fig. 6.3. Courbe cumulative (variable continue)

Remarque 10. Souvenons-nous que la fonction de rpartition est une intgrale de la fonction de densit. Il
est galement possible d'utiliser cette dernire pour reprsenter graphiquement la fonction de rpartition, il s'agit d'une surface dans ce cas (Figure 6.4).

6.6 Densit d'une variable alatoire continue


La densit de probabilit d'une variable alatoire continue est la drive premire par rapport x de la fonction de rpartition. Cette drive prend le nom de fonction de densit, note f (x) = est quivalente P (X = x) dans le cas des variables discrtes.
dF (x) dx .

Elle

28

6 Les variables alatoires

Fig. 6.4. Valeur de la fonction de rpartition partir de la fonction de densit

Fig. 6.5. Probabilit d'un intervalle partir de la fonction de densit

6.7 Probabilit d'un intervalle


On cherche calculer la probabilit P (a < X < b). Graphiquement, cela se traduit par la surface comprise entre a et b (Figure 6.5). Analytiquement, il s'agit de P (a < X < b) =
b a

f (x)dx. Dveloppons cette expression :

P (a < X < b) = P (X < b) P (X < a)


a b

f (x)dx

f (x)dx

= F (b) F (a)

Remarque 11. Probabilit ponctuelle pour une variable continue. La vraie distinction entre
variables continues et discrtes tient dans le calcul de la probabilit ponctuelle. La probabilit d'un point

c situ entre a et b serait limba P (a < X < b) = 0. Ainsi, la probabilit d'une valeur est par dnition
nulle pour les variables continues. En ralit, il s'agit bien souvent d'un problme de point de vue, voire d'chelle ou de prcision de mesure. La probabilit que la dure de vie d'un vhicule soit gal 4 an est loin d'tre nulle (beaucoup de vhicules partent la casse au bout de 4 an). En revanche, la probabilit que cette dure de vie soit exactement de 126144000 secondes (trs approximativement 4 an) est quasi-nulle (on peut dicilement dire la seconde prs la perte d'un vhicule).

7 Caractristiques d'une variable alatoire

7.1 Les caractristiques de tendance centrale


7.1.1 Les quantiles
On appelle quantile ou fractile d'ordre (0 1) d'une variable alatoire X dont la fonction de rpartition est F (x), la valeur x telle que F (x ) = .

x s'appelle quantile d'ordre .

Remarque 12. Dans le cas o X est une variable discrte, F (x ) = s'entend P (X < x ) = .
Nous numrons ici quelques quantiles particuliers.

La mdiane
La mdiane est le quantile d'ordre =
Me 1 2,

en d'autres termes la mdiane M e est dnie par

f (x)dx = 0.5. La mdiane partage en deux parties gales la population, c'est une caractristique de

tendance centrale.

Les quartiles
Les quartiles, nots Qi (respectivement i = 1, 2, 3) correspondent aux quantiles d'ordre ( =

0.25, 0.5, 0.75).


Notons que Q2 = M e.

Les dciles
Le k -me dcile (k = 1, . . . , 9) est le quantile d'ordre la mdiane.
k 10 .

En particulier, le 5-me dcile correspond

7.1.2 Le mode
On appelle mode (valeur dominante, valeur la plus probable) d'une variable alatoire, la valeur M o pour laquelle l'histogramme de frquence prsente son maximum.

30

7 Caractristiques d'une variable alatoire

Lorsque la variable alatoire X est continue, avec une fonction de densit pourvue d'une drive premire et d'une drive seconde, le mode M o satisfait f (M o) = 0 et f (M o) < 0) (concavit vers le bas). Dans le cas des variables discrtes, M o est la valeur de X associe la plus grande probabilit, d'o l'appellation valeur la plus probable.

7.1.3 Esprance mathmatique


Soit (X) une fonction dnie pour tout X appartenant au domaine de dnition DX . On appelle

esprance mathmatique de (X), que l'on note E[(X)] l'expression :


E[(X)] =
DX

(x)f (x)dx =
DX DX

(x)dF (x) xf (x)dx.

(7.1)

Remarque 13. En particulier, si (X) = X , alors E[X] =

Remarque 14. L'esprance mathmatique existe si l'intgrale est convergente. Elle est indpendante de x. Remarque 15. Lorsque X est une variable alatoire discrte, E[(X)] =
Si DX N, E[(X)] =
+ x= DX

(x)P (X = x).

(x)P (X = x)

Caractristique 22 (Esprance d'une constante). E[a] = a. Preuve.


E[a] =
DX

af (x)dx f (x)dx
DX

= a = a1 =a

On peut en dduire que E[E[X]] = E[X], puisque E[X] n'est pas une variable alatoire.

Caractristique 23 (L'esprance mathmatique est un oprateur linaire). E[aX + bY ] = aE[X] + bE[Y ].


De manire gnrale,

E[
i

ai Xi + b] =
i

ai E[Xi ] + b

Caractristique 24 (Esprance du produit de 2 v.a.). E[XY ] = E[X]E[Y ] + COV (X, Y ), COV () est la
covariance, nous la dtaillerons plus loin. En particulier, lorsque X et Y sont indpendantes, E[XY ] = E[X]E[Y ].

7.2 Les caractristiques de dispersion

31

7.2 Les caractristiques de dispersion


7.2.1 Les moments non-centrs d'ordre r
Un moment non-centr d'ordre r est dnie de la manire suivante :

mr (X) = E[X r ]
 Pour une v.a. (variable alatoire) discrte, mr (X) =  Pour une v.a. continue, mr (X) =
DX + x=0

(7.2)

xr px , o px = P (X = x) ;

x f (x)dx

Remarque 16 (Moments non-centrs empiriques, statistique descriptive). Rappelons qu'en statistique


descriptive, ce moment non-centr, pour une v.a. discrte par exemple, est obtenue avec la formule

mr =

n i=0

fi xi , o fi est la frquence observe de la valeur xi .

Remarque 17 (Cas particuliers).


 r = 0 m0 (X) = 1 ;  r = 1 m1 (X) = E[X], esprance mathmatique ;  r = 2 m2 (X) = E[X 2 ].

7.2.2 Les moments centrs d'ordre r


Un moment centr d'ordre r est dni de la manire suivante :

r (X) = E[(E E[X])r ]


 pour une v.a. discrte : r (X) =  pour une v.a. continue : r (X) =
+ x=0 (x DX

(7.3)

E[X])r px

(x E[X])r f (x)dx

Remarque 18 (Statistique descriptive). En statistique descriptive, pour une variable discrte, le moment
centr d'ordre r est obtenu avec mr =
n i=0

fi (xi x)r

Remarque 19 (Cas particuliers).


 r = 0 0 (X) = E[(X E[X])0 ] = E[1] = 1  r = 1 1 (X) = E[(X E[X])] = E[X] E[E[X]] = E[X] E[X] = 0  r = 2 2 (X) = E[(X E[X])2 ] = V (X), la variance de X que nous dtaillerons plus loin.

7.2.3 Les moments factoriels


On appelle moment factoriel d'ordre r la quantit :

[r] (X) = E[

X! ] = E[X(X 1) (X r + 1)] (X r)!

(7.4)

Les moments factoriels se calculent essentiellement sur les v.a. discrtes, il vient alors [r] (X) =
n x! x=0 (xr)! px .

Remarque 20. Il est possible d'exprimer les moments non-centrs l'aide des moments factoriels :

32

7 Caractristiques d'une variable alatoire

 m1 = [1]  m2 = [2] + [1]  m3 = [3] + 2[2] + [1]  m4 = [4] + 6[3] + 7[2] + [1]

7.2.4 La variance
On appelle variance de X , not V (X), le moment centr d'ordre 2 de X.

V (X) = E[(X E[X])2 ]


La variance mesure la dispersion autour de la moyenne. L'cart-type est la racine carre de la variance :

(7.5)

(X) =

V (X)

(7.6)

Remarque 21 (Formule de Koenig). Il est possible d'exprimer la variance partir des moments noncentrs.

V (X) = E[(X E[X])2 ] = E[X 2 2XE[X] + E[X]2 ] = E[X 2 ] + E[X]2 2E[X.E[X]] = E[X 2 ] + E[X]2 E[X].E[X] = E[X 2 ] E[X]2 = m2 (X) m1 (X)2 , connue sous le nom de formule de Koenig

Caractristique 25 (Variance d'une constante). Si a est une constante (non alatoire), V (a) = 0. Caractristique 26 (Mise en facteur d'un coecient non-alatoire). Si a est une constante (non alatoire),
V (aX) = a2 V (X).

Caractristique 27 (Variance d'une somme de v.a.). Pour Z = aX + bY , V (Z) = a2 V (X) + b2 V (Y ) +


2ab COV (X, Y )
En particulier, si X et Y sont indpendants, V (Z) = a2 V (X) + b2 V (Y )

Caractristique 28 (Variance du produit de 2 v.a.). V (XY ) = V (X)V (Y ) + E[X]2 V (Y ) + E[Y ]2 V (X).


En particulier, si les v.a. sont centrs, c.--d. E[X] = E[Y ] = 0, alors V (XY ) = V (X)V (Y )

7.2.5 La covariance
Soient 2 v.a. X et Y, on appelle covariance de X et Y l'expression :

COV (X, Y ) = E[(X E[X])(Y E[Y ])] = E(XY ) E[X].E[Y ]


 Pour une v.a. discrte, COV (X, Y ) =
x y (xE[X])(yE[Y

(7.7)

]).pxy , o pxy = P ((X = x) et (Y =

y)) ;

7.3 Les caractristiques de forme ou coecients de Fisher

33

 Pour une v.a. continue, COV (X, Y ) = fonction de densit conjointe.

DX

DY

(x E[X])(y E[Y ])f (x, y)dxdy , o f (x, y) est la

Caractristique 29 (Covariance de 2 v.a. indpendantes). Soient X et Y , deux v.a. indpendantes,


COV (X, Y ) = 0.

7.2.6 le coecient de corrlation


Le coecient de corrlation est dni par :

XY = (X, Y ) =

cov(X, Y ) (X)(Y )

(7.8)

7.3 Les caractristiques de forme ou coecients de Fisher


7.3.1 Le coecient d'asymtrie
Le coecient d'asymtrie 1 est dni par rapport l'esprance mathmatique :

3 E[(X E[X])3 ] = (7.9) 3 3 C'est une valeur sans dimension qui n'est pas aect par un changement d'origine et d'chelle . 1 =
Selon la valeur du coecient d'asymtrie, la fonction de densit (ou le diagramme en btons pour les v.a. discrtes) prend une forme dirente : tale droite, symtrique ou tale gauche (Figure 7.1).

Fig. 7.1. Forme de la distribution selon le coecient d'asymtrie

7.3.2 Le coecient d'aplatissement


Le coecient d'aplatissement vise situer la hauteur de la courbe de desnit d'une loi par rapport la rfrence qu'est la loi normale (Loi de Laplace-Gauss). Not 2 , sa formule est la suivante :

4 3 (7.10) 4 C'est un coecient sans dimension, invariant par changement d'chelle et de dimension. La constante 2 = 3 a t choisie de manire ce que le coecient d'aplatissement de la loi normale soit gale 2 = 0.
Dans la gure 7.2, nous observons les aspects de la fonction de distribution correspond direntes valeurs de 2 .

34

7 Caractristiques d'une variable alatoire

Fig. 7.2. Forme de la distribution selon le coecient d'aplatissement

7.4 Fonctions gnratrices


7.4.1 Fonction gnratrice des moments Dnition 7. Soit une variable relle t, on appelle fonction gnratrice des moments de X correspondant
t la quantit :
X (t) = E[etX ]
(7.11)

Elle gnre les moments non-centrs. Exemple 17. Pour t = 0, nous avons :
 X (0) = 1 ;  X (0) = E[X] ;  X (0) = E[X 2 ] ;  ;  X (0) = E[X k ] = mk , moment non-centr d'ordre k .
(k)

7.4.2 Fonction gnratrice des probabilits Dnition 8. Soit une quantit certaine u [0, 1]. On appelle fonction gnratrice des probabilits, note
gX (u), l'expression : gX (u) = E[uX ]
(7.12)

La fonction gnratrice des probabilits gnre les moments factoriels. Exemple 18. Soit X une v.a. discrte, gX (u) = E[uX ] =
  
dgX (u) = du d2 gX (u) = du2 dk gX (1) du + x1 px ; pour le x=0 xu + x2 px ; x=0 x(x 1)u + x=0 xDX

ux px , nous observons alors :


dgX (1) = du + x=0 x(x + x=0

cas particulier de u = 1, pour e u = 1,


d gX (1) du
2

xpx = [1] (X)

1)px = [2] (X) ;

 ;

x(x 1) . . . (x k + 1)px = [k] (X)

7.5 Ingalit de Bienaym-Chebychev

35

7.4.3 Fonctions caractristiques Dnition 9 (Fonction caractristique). La fonction caractristique d'une v.a. X est dnie par
X (t) = E[eitX ]
(7.13)

o i est l'unit imaginaire, avec i2 = 1.


Son intrt est qu'elle dnit de manire univoque la loi d'une v.a. Si 2 v.a. prsentent la mme fonction caractristique, on peut armer sans ambigut qu'elles suivent la mme loi. Selon le type de la v.a., la fonction caractristique s'exprime diremment :  pour une v.a. discrte, X (t) =  pour une v.a. continue, X (t) =
x

eitx px

eitX f (x)dx

Proprits
Grce deux proprits trs importantes, les fonctions caractristiques permettent de rsoudre un grand nombre de problmes de probabilits.

Caractristique 30. Si Y = aX , o a est un scalaire non-alatoire, alors gY (t) = gX (at) Caractristique 31 (Fonction caractristique d'une somme de v.a. indpendantes). La fonction caractristique de Z = Y + X est gale gZ (t) = gX (t) gY (t)

Exemple 19 (Loi de la somme de 2 v.a. normales). Soit X (resp. Y ) une v.a. distribue selon une loi
normale1 de paramtres N (0, x ) (resp. N (0, y )) , sa fonction caractristique est2 gale gX (t) =

(x t)2 2

(resp. gY (t) = e

(y t)2 2

).

On veut dterminer la loi de distribution de Z = X + Y . Formons sa fonction caractristique :

gZ (t) = gX (t) gY (t) = e = e = e


On en dduit aisment que Z N (0,
(x t)2 2

(y t)2 2

(x t)2 +(y t)2 2 2 2 (x +y )t2 2

2 2 x + y )

7.5 Ingalit de Bienaym-Chebychev


Dnition 10 (Ingalit de Bienaym-Chebychev). Soit X une v.a. d'esprance mathmatique
et de variance 2 . L'ingalit de Bienaym-Chebychev indique que pour tout nombre rel positif t, la
1

Nous verrons plus loin dans ce support la dnition de la loi normale. Ses deux paramtres sont la moyenne et l'cart-type. Pour plus de prcisions, voir http://www.proba.jussieu.fr/cours/processus-html/node18.html

36

7 Caractristiques d'une variable alatoire

probabilit que X s'carte de son esprance mathmatique d'une grandeur infrieure t, a pour limite suprieure
2 t2

:
P {|X | t} 2 t2
(7.14)

Remarque 22 (Loi des grands nombres). Cette ingalit est importante car elle permet de dmontrer la
loi dite des "grands nombres". Elle stipule qu'il sut d'extraire un chantillon d'un eectif susant dans une population pour estimer l'esprance mathmatique l'aide de la moyenne arithmtique, ou encore pour estimer une probabilit l'aide d'une frquence. On parle alors de convergence en probabilit.

Remarque 23 (Une expression plus gnrale de l'ingalit de Bienaym-Chebychev). La porte de l'ingalit de Bienaym-Chebychev est bien plus large que celle couramment prsente dans les ouvrages. Elle peut tre dnie pour une fonction g(X) telle que

E[g(X)k ] tk La prsentation usuelle correspond k = 2 et g(x) = |X |. P {g(X) t}

(7.15)

Dnition 11 (Convergence en probabilit). On considre une suite (Xn ) d'une v.a. dnie sur ,
X une autre v.a. dnie sur . On dit que la suite (Xn ) converge en probabilit vers X si > 0 , lim P (|Xn X| > ) = 0
n

(7.16)

Consquence : Pour que (Xn ) converge en probabilit vers X , il faut et il sut que E(Xn X) 0 et V (Xn X) 0 lorsque n (la dmonstration passe par l'ingalit de Bienaym-Chebychev).

Partie II

Lois de probabilits d'usage courant

39

A priori, les lois de distribution des phnomnes physiques, conomiques, etc. sont innombrables. Chaque cas semble particulier. En eet, quelle rapprochement pourrait-on faire entre la dure de vie d'une paire de chaussures et le temps d'attente une caisse d'un grand magasin ? En ralit, on se rend compte que la grande majorit des phnomnes statistiques peuvent tre dcrits par un nombre rduit de modles probabilistes. Il importe dans un premier temps de pouvoir dcrire

de faon adquate le mcanisme du processus rel tudi (temps d'attente, nombre de passages
dans un intervalle de temps, nombre d'essais avant d'obtenir tel rsultat, etc.). Dans un second temps, une fois cette caractrisation ralise, nous pouvons choisir la loi thorique qui parat le mieux convenir pour modliser le phnomne observ, l'tape suivante consistant estimer

les paramtres de la loi.


Enn, dans un troisime et dernier temps, nous devons nous assurer que le rapprochement entre la loi thorique propose et les donnes observes est statistiquement crdible. Une fois la loi thorique identie et valide, il sera possible d'expliquer et d'interprter le phnomne observ, voire de prdire les rsultats futurs de l'exprience. Dans cette partie, nous prsentons les lois de probabilits les plus souvent utilises dans les tudes. Elles permettent de modliser une grande varit de problmes. Notre dmarche sera toujours la mme : nous prsentons d'abord le schma de formation de la v.a., en le prcisant le cas chant l'aide de quelques exemples ; la loi de probabilit est ensuite dnie, nous mettons en exergue les paramtres de la loi ; les principales caractristiques sont calcules (esprance, variance, coecients d'asymtrie et d'aplatissement) ; et enn, les estimateurs usuels des paramtres de la loi partir d'un chantillon d'observations sont dcrits. Nous noterons X la v.a. tudie. Une exprience correspond une observation de la v.a. X , elle est note xi . Nous disposons d'une srie d'observations xi , i = (1, 2, . . . , n), donc d'un chantillon de taille n, pour estimer les paramtres de la loi partir des donnes.

8 Les lois discrtes

8.1 Loi binomiale : suite d'preuves de Bernoulli


8.1.1 Description
La loi binomiale dcrit le nombre d'apparitions d'un vnement (disons "succs") dans une suite de

m preuves indpendantes. La probabilit d'apparition de l'vnement une preuve est p (a contrario


la probabilit de non-apparition est q = 1 p), elle est constante tout le long de l'exprience.

Exemple 20. On s'intresse l'apparition du ct "pile" si l'on lance m fois une pice. A chaque jet, la
probabilit d'apparition de "pile" est p = 1 . 2

8.1.2 Dnition analytique


Le schma d'chantillonnage peut tre rsum dans le tableau suivant : tat "succs" "chec" Total La probabilit s'crit :
x P (X = x) = Cm px (1 p)mx

Probabilit Tirage

p 1p 1

x mx m

(8.1)

La loi binomiale B(m, p) est dnie par le paramtre p, qui indique la probabilit d'apparition de l'vnement pour une preuve ; m est le nombre d'preuves ralises, c'est une donne du problme, nous n'avons pas l'estimer.

8.1.3 Caractristiques de la loi

42

8 Les lois discrtes

E(X) = mp V (X) = mp(1 p) 1 2p 1 = mp(1 p) 1 6p(1 p) 2 = mp(1 p)

Remarque 24. Il est possible d'obtenir ces caractristiques partir des fonctions gnratrices des moments.

8.1.4 Estimation des paramtres. Loi de Bernoulli


Une exprience comprend m preuves, le domaine de dnition de xi est {0, 1, . . . , m}. L'exprience est ritre n fois. Nous disposons de n observations xi suivant une loi B(m, p) : m est une donne, le seul paramtre estimer est p

p=

n i=1

xi

mn

(8.2)

8.1.5 Cas particulier : la loi de Bernoulli


Bien souvent, l'exprience est rduite une seule preuve c.--d. m = 1. Dans ce cas, X suit la loi de Bernoulli B(1, p). La distribution de X est dnie par P (X = x) = px (1 p)1x . Dans ce contexte, xi est une indicatrice gale 1 si l'vnement survient l'exprience (preuve dans ce cas) numro i, 0 sinon ; n tant le nombre d'preuves ralises. L'estimateur du paramtre p devient

p=

n i=1

xi

8.2 Loi de Pascal


8.2.1 Description
La loi de Pascal dcrit le nombre d'preuves indpendantes ncessaires pour obtenir k fois l'vnement tudi. La probabilit d'apparition de l'vnement une preuve est p, elle est constante tout le long de l' exprience.

Exemple 21. On s'intresse au nombre de jets ncessaires pour le ct "pile" de la pice apparaisse k fois.
1 A chaque jet, la probabilit d'apparition de "pile" est p = 2 .

Exemple 22. Pour les grands joueurs, on peut galement s'intresser au nombre d'essais ncessaires pour
qu'une combinaison apparaisse (enn) au loto.

8.2.2 Dnition analytique


k1 P (X = x) = Cx1 pk (1 p)xk

(8.3)

Le domaine de dnition de X est DX = {k, k + 1, . . .} ; k est le nombre de ralisation de l'vnement souhait ; p est la probabilit de survenue de l'vnement une preuve.

8.3 Loi hypergomtrique

43

8.2.3 Caractristiques de la loi

k p k(1 p) V (X) = p2 2p 1 = k(1 p) E(X) = 2 = 1 + 4(1 p) + (1 p)2 k(1 p)

8.2.4 Estimation des paramtres


Le seul paramtre estimer est la probabilit p de survenue de l'vnement pour une preuve. Nous disposons de n observations c.--d. l'exprience a t eectue n fois. A chaque exprience, le nombre d'essais xi ncessaires pour obtenir k succs (apparition de l'vnement) a t relev.

p=

k n

n i=1

1 xi

(8.4)

8.2.5 Cas particulier : la loi gomtrique


La loi gomtrique est la loi du nombre d'essais ncessaires pour faire apparatre l'vnement. Il correspond exactement l'exemple du loto ci-dessus. La probabilit associe est P (X = x) = p(1 p)x1

8.2.6 Cas particulier : la loi binomiale ngative


Dans certains ouvrages, il peut y avoir confusion entre la loi de Pascal et la loi Binomiale ngative. La distinction est la suivante : la premire indique le nombre d'essais ncessaires pour obtenir le k -me

succs ; la loi binomiale ngative correspond au nombre d'checs prcdent le k-me succs.
Si X suit une loi de Pascal, Y = X k suit une loi binomiale ngative. Sa distribution est P (Y =
k1 y) = Ck+y1 pk (1 p)y .

8.3 Loi hypergomtrique


8.3.1 Description
Pour prciser les ides, nous dirons que nous sommes en prsence d'une urne contenant M boules, B sont de couleur blanche qui nous intresse, M B sont de couleur noire. La loi hypergomtrique dcrit le nombre X de boules blanches extraites de l'urne si nous eectuons un tirage exhaustif (sans remise) de m boules. La prsentation sous forme de tableau du schma d'chantillonnage permet d'apprhender le problme.

44

8 Les lois discrtes

Couleur Urne Tirage bb bn Total de l'exprience.

B M

x m

M B mx

Forcment, m M , x B et x m. Notons galement que la composition de l'urne varie au cours

8.3.2 Dnition analytique


La distribution de la loi hypergomtrique s'crit :

P (X = x) =

x mx CB CM B m CM

(8.5)

La loi est essentiellement dcrite par son paramtre B ; M est une donne de l'exprimentation.

Exemple 23. Une machine outil fournit M pices par jour, M est une donne du problme, nous nous
intressons au nombre B de pices dfectueuses produites par jour.

8.3.3 Caractristiques de la loi


B M B B m (1 )(1 ) M 1 M M B (1 2 M )

E(X) = m V (X) = m 1 =

M 1 B B m M (1 M ) (M 2m) M m (M 2) 2 = . . . expression trs complexe et de peu d'utilit

8.3.4 Estimation des paramtres


Si l'on reprend notre exemple de la machine outil ci-dessus, l'chantillonnage consiste eectuer un prlvement pendant n jours. Nous obtenons ainsi un chantillon de n observations, l'observation xi indique le nombre de pices dfectueuses lors de chaque prlvement.

B , le nombre de pices dfectueuses parmi les M pices produites par jour, est le paramtre estimer : M B= m
n i=1

xi

(8.6)

8.3.5 Passage aux proportions et approximation par la loi binomiale Travailler sur des proportions
Bien souvent, la loi hypergomtrique est prsente diremment dans la littrature. Nous avons bien une population de M individus, mais on s'intresse plutt la proportion p des individus possdant la caractristique tudie en eectuant un tirage de m observations sans remise. Par rapport au schma binomial, c'est le caractre exhaustif du tirage qui fait la dirence.

8.4 Loi de Poisson

45

Exemple 24. Dans un parking de supermarch, on s'intresse la proportion de vhicules ayant des jantes
alliages. Nous n'allons faire un chantillonnage avec remise, au risque de reconsidrer 2 ou mme plusieurs fois un mme vhicule. Par rapport nos notations ci-dessus, on pose B = M p, les caractristiques de la loi deviennent :

E(X) = mp M m V (X) = mp(1 p) M 1


Gnralement m > 1, la variance de la loi hypergomtrique est infrieure la variance de la loi binomiale, ce qui fait tout son intrt.

Approximation
On peut montrer que lorsque la taille de la population M tend vers l'inni, les distributions des lois hypergomtriques et binomiales sont quasi-quivalentes. On constate galement que lorsque M est trs grand par rapport m, le rapport
M m M 1

1 (Ex. On

interroge 1000 individus prlevs au hasard parmi les quelques 44.5 millions d'lecteurs inscrits en France en 2007), il est possible d'approximer la loi hypergomtrique l'aide de la loi binomiale. Cela facilite le
calcul des probabilits dans la pratique. En gnral, on considre que l'approximation est valable ds que le rapport le taux de sondage.
m M

< 0.1. Ce rapport est

8.4 Loi de Poisson


8.4.1 Description
La loi de Poisson, dite loi des vnements rares, est utilise pour dcrire les phnomnes o la probabilit de survenue de l'vnement qui nous intresse est faible. Cette probabilit doit tre constante tout le long de l'exprience. Dans une certaine mesure, on peut considrer la loi de Poisson comme un cas particulier de la loi binomiale.

Exemple 25. Nombre de pices dfectueuses produites par une machine outil.
La loi de Poisson peut tre galement utilise spciquement pour dcrire la survenue d'un vnement dans un intervalle de temps. On parle alors de processus de Poisson. Dans ce cas, la probabilit ne doit tre inuence sur les expriences passes, elle ne doit pas inuencer les expriences futures. Le nombre d'apparition de l'vnement ne dpend que de la dure d'observation.

Exemple 26. Nombre d'accidents sur une portion de route.

8.4.2 Dnition analytique


P (X = x) =
avec 0

x e x!

(8.7)

46

8 Les lois discrtes

8.4.3 Caractristiques de la loi


La loi de Poisson P() est entirement dnie par le paramtre , elle tient un rle particulier. En eet :

E(X) = V (X) = 1 1 = 1 2 =

8.4.4 Estimation des paramtres


Le seul paramtre estimer est . Pour chaque exprience, nous disposons de xi , le nombre d'apparition de l'vnement. L'estimation est :

n i=1

xi

(8.8)

8.4.5 Approximation de la loi binomiale


Il y a des similitudes dans la dnition de la loi binomiale et la loi de Poisson. La question est de savoir s'il est possible de procder des approximations et dans quel sens. Comme son nom l'indique, la loi des vnements rares, la loi de Poisson propose une bonne approximation de la loi binomiale ds lors que la probabilit p de survenue de l'vnement lmentaire est susamment faible, p < 0.1 dans la pratique.

Exemple 27. Si m est le nombre de pices slectionnes au hasard dans la production d'une machine, p
la proportion de pices dfectueuses  on peut esprer qu'elle est trs petite  la loi du nombre de pices dfectueuses qui suit une loi binomiale X B(m, p) peut tre raisonnablement approche l'aide d'une loi de Poisson P(mp).

8.5 Loi multinomiale


8.5.1 Description
La loi multinomiale, ou loi polynomiale, est une gnralisation de la loi binomiale, o l (l > 2) issues peuvent survenir lors d'une preuve.

8.5.2 Dnition analytique


Nous avons l tats possibles Ek , k = 1, . . . , l. La probabilit d'apparition de l'tat k est pk . Le schma d'chantillonnage peut tre rsum dans le tableau suivant :

8.5 Loi multinomiale

47

tat Probabilit Tirage

A1 Ak Al
Total La distribution est dnie par :

p1 pk pl 1

x1 xk xl m

m! px1 pxl (8.9) l x1 ! xl ! 1 Contrairement aux autres situations tudies dans ce support, la variable alatoire est un vecteur. P (X = x ) = P [X = (x1 , . . . , xl )] =

8.5.3 Caractristiques de la loi


Nous proposons toujours l'esprance et la variance, mais pour chaque composante Xk du vecteur. De plus, comme elles ne sont pas indpendantes, nous devons galement produire leur covariance.

E(Xk ) = mpk V (Xk ) = mpk (1 pk ) COV (Xk , Xj ) = mpk pj , k = j

8.5.4 Estimation des paramtres


Chaque exprience permet de produire une observation, qui est un vecteur, xi = (xi1 , , xik , , xil ). La valeur xik correspond au nombre d'apparition de l'tat Ek pour l'exprience numro i. Au cours de cette exprience, m objets ont t tirs au hasard dans la population. Nous disposons de n observations (n expriences). L'objectif est de proposer une estimation de la probabilit pk de chaque tat Ek .

pk =

n i=1

xik mn

(8.10)

9 Les lois continues

Les lois continues sont caractrises l'aide des fonctions de densit. Thoriquement, une v.a. continue doit pouvoir prendre n'importe quelle valeur dans un intervalle donn. C'est pour cela d'ailleurs que la probabilit ponctuelle est par dnition nulle. En ralit, dans certains cas, la distinction loi discrte - loi continue est essentiellement formelle. Il est possible d'approximer certaines lois discrtes l'aide de lois continues.

9.1 Loi uniforme


9.1.1 Description
La principale caractristique de la loi uniforme continue est que la probabilit d'tre dans un intervalle dpend uniquement de la largeur de l'intervalle et non de la position de l'intervalle dans le domaine de dnition. La fonction de densit prend une forme rectangulaire. La loi est symtrique.

Remarque 25 (Loi discrte uniforme). On peut dnir le pendant de la loi uniforme pour les v.a. discrtes.
Il s'agit dans ce cas d'un cas particulier de la loi multinomiale o les tats Ek sont quiprobables.

9.1.2 Dnition analytique


La loi repose sur deux paramtres a et b qui sont respectivement la borne basse et la borne haute du domaine de dnition de la v.a. X . La fonction de densit est alors :

f (x) =

1 ba ,

si a x b

0, sinon

Dans le cas de la loi uniforme, il est ais de calculer la fonction de rpartition :

F (x) =

xa ba

(9.1)

50

9 Les lois continues

9.1.3 Caractristiques de la loi

a+b 2 (b a)2 V (X) = 12 1 = 0 E(X) = 2 = 1.2


Comme la loi est par dnition symtrique, il est naturel que 1 = 0.

9.1.4 Estimation des paramtres


Soient xmin (resp. xmax ) la plus petite (resp. grande) valeur observe sur un chantillon de taille n. Les estimateurs des paramtres a et b de la loi sont :

xmax xmin n1 xmax xmin = xmax + b n1 a = xmin


paramtres.

(9.2) (9.3)

On remarquera que l'on n'utilise pas directement les valeurs triviales xmin et xmax pour estimer les

9.2 Loi normale


9.2.1 Description
Une v.a. X suit la loi normale (Loi gaussienne, Loi de Laplace-Gauss), lorsqu'elle est forme partir d'un grand nombre de facteurs s'additionnant les uns aux autres, aucune ne jouant un rle prdominant,

et agissant de manire indpendante.


Considre pendant longtemps comme la loi universelle, ses caractristiques se retrouvant dans de nombreux domaines, dans les sciences dures (ex. erreurs de mesure en physique) mais galement dans les sciences humaines et sociales (ex. uctuations conomiques), elle a t depuis recadre. Nanmoins, la loi normale garde une place particulire de par sa simplicit. Elle est la base de nombreux rsultats dans la statistique paramtrique, en thorie de l'estimation et thorie des tests.

Exemple 28 (Rgression Linaire Multiple). Dans la rgression linaire multiple, les lois utilises pour
l'valuation globale de la rgression et l'valuation individuelle des coecients reposent sur la normalit des rsidus.

9.2 Loi normale

51

9.2.2 Dnition analytique


La loi normale est paramtre par la moyenne et l'cart-type , on note X N (m, ). Sa fonction de densit est :
1 x 2 1 e 2 ( ) (9.4) 2 C'est la fameuse "courbe en cloche" (Figure 9.1). Elle est symtrique. Son aplatissement sert de

f (x) =

rfrence pour situer les autres lois.

Fig. 9.1. Courbe de densit de la loi normale

Caractristique 32 (Loi normale centre rduite). Si Z N (0, 1), alors X = Z + suit une loi N (, ).
Grce cette proprit, seule Z est tabule. Il est ais d'extrapoler sur X , quelles que soient les valeurs de et . A contrario, il est possible de ramener toute distribution normale la loi normale centre rduite en formant Z =
X .

On montre facilement que E[Z] = 0 et V (Z) = 1.

Caractristique 33 (Somme de v.a. normales indpendantes). Autre caractristique trs intressante de


la loi normale, la somme de lois normales indpendantes suit une loi normale. Prenons le cas de 2 v.a. X1 et X2 , si X1 N (1 , 1 ) et X2 N (2 , 2 ), alors S N (1 +

2 ,

2 2 1 + 2 ).

9.2.3 Caractristiques de la loi

E(X) = V (X) = 2 1 = 0 2 = 0 1 = 0 et 2 = 0 sont des caractristiques marquantes de la loi normale. Elles peuvent tre utilises
pour vrier la compatibilit d'une distribution empirique avec la loi normale (voir test de Bera-Jarque, test de d'Agostino).

52

9 Les lois continues

9.2.4 Estimation des paramtres


Les deux paramtres estimer sont et . Nous disposons de n ralisations xi de la v.a. X .

=x= 2 =

1 n

xi
i=1 n

(9.5) (9.6)

1 n1

(xi x)2
i=1

9.2.5 Thorme central limite


La popularit de la loi normale repose, entre autres, sur une proprit remarquable que l'on appelle le thorme limite central (ou thorme central limite ).

Thorme 1 (Thorme central limite). Soient X1 , X2 , . . . , Xn , des v.a. indpendantes de mme loi, quelle que soit cette loi, de moyenne et d'cart type .
La v.a. S =
1 n n i=1 Xi tend vers une loi normale N (, n )

Nous notons que ces lments dnissent les conditions de formation de la loi normale : les facteurs sont nombreux, indpendants, et agissent additivement.

Remarque 26. Ce thorme peut s'exprimer de manire plus gnrale encore. L'galit des moyennes et
des carts type n'est pas requise pour que la somme tende vers la loi normale. L'expression des paramtres de S est simplement un peu plus complique.

9.2.6 Loi lognormale


La loi log-normale est un cas particulier de la loi normale. On dit que X suit une loi log-normale, si son logarithme, Y = ln(X), suit une loi normale. Les conditions de formation de la loi log-normale est identique la loi normale, la dirence que les facteurs agissent de manire multiplicative.

Fig. 9.2. Courbe de densit de la loi log-normale

9.2 Loi normale

53

C'est une loi dnie dans R+ , asymtrique, tale droite (Figure 9.2). Sa densit de probabilit est :

f (x) =
o = E[ln(X)] et 2 = V [ln(X)].

x 2

e 2 (

ln x 2 )

(9.7)

On rencontre frquemment cette loi dans la distribution des salaires ou des revenus. Un grand nombre de personnes disposent d'un salaire modeste (proche du SMIC par exemple), et mesure que la valeur s'lve, la proportion des personnes concernes diminue rapidement. La mdiane est trs infrieure la moyenne pour ce type de loi.

9.2.7 Approximation de la loi binomiale


L'approximation de la loi binomiale par la loi normale est une autre utilisation trs commode de la loi normale. La v.a. X B(m, p) peut tre approxime par une loi normale de paramtres = mp et

mp(1 p) ds lors que m est grand (quelques dizaines d'units) et que p n'est pas trop proche de

0 ou 1.
En eet, lorsque m , X peut prendre une innit de valeurs. En pratique, mp(1 p) > 9 sut assurer une approximation satisfaisante.

9.2.8 Approximation de la loi de Poisson


Dans le mme ordre d'ide, lorsque , il est possible d'approximer une loi de Poisson P() par une loi normale N (, ). En pratique, ds 18, nous obtenons une approximation satisfaisante (Figure 9.3).

Fig. 9.3. Distribution de la loi de Poisson pour = 18

9.2.9 Transformation de variable


La normalit des variables, tout du moins leur symtrie, est une condition souvent exige dans les tests paramtriques. Or les donnes observes peuvent ne pas tre compatible avec cette hypothse. Il est alors commode d'introduire des transformations de variables permettant de se ramener une distribution

54

9 Les lois continues

proche de la loi normale. Le logarithme, vu plus haut, en est une ; la racine carre peut tre utilise galement. Il existe plusieurs classes de fonctions paramtrables permettant d'accder des transformations que l'on peut ajuster selon notre convenance. Par ces fonctions, une des plus connue est la transformation de Box-Cox1 . La fonction dpend de 2 paramtres k1 et k2 , elle s'crit :

z=

(x+k2 )k1 1 k1

, (k1 = 0)

ln(x + k2 ) , (k1 = 0)

Les paramtres k1 et k2 peuvent tre dtermins par ttonnement, ou encore par maximisation de la vraisemblance (N.A. : mais c'est quand-mme un peu le canon pour tuer la mouche...).

9.3 Loi exponentielle


9.3.1 Description
Si la loi de Poisson peut tre considre comme le nombre de survenue d'un vnement dans un intervalle de temps, la loi exponentielle est l'intervalle de temps sparant deux vnements poissonniens. Cela peut tre la dure de vie d'une pice, l'intervalle de temps sparant deux pannes conscutives (N.A. : si on a une voiture comme la mienne, le temps d'attente ne sera pas excessif ), etc. Cette loi est trs utilise en tude de abilit.

9.3.2 Dnition analytique


La v.a. X est dnie dans R+ , elle est note E(), sa fonction de densit est :

f (x) = ex est le seul paramtre de la loi. La fonction de rpartition est facilement obtenu : F (x) = 1 ex

(9.8)

(9.9)

Caractristique 34 (Somme de 2 v.a. exponentielles). Soient X1 E(1 ) et X2 E(2 ), alors la v.a.


S = X1 + X2 suit une loi exponentielle, de paramtre S E(1 + 2 ).

9.3.3 Caractristiques de la loi

1 1 V (X) = 2 1 = 2 E(X) = 2 = 6

9.3 Loi exponentielle

55

Fig. 9.4. Distribution de la loi exponentiel selon quelques valeurs de


Dans la gure 9.4, nous observons l'inuence de sur la forme de la fonction de densit ; 1 > 0, la loi est eectivement tale droite.

9.3.4 Estimation des paramtres


Nous disposons que n ralisations xi de la v.a. X , l'estimation du paramtre est :

1 = x x est la moyenne empirique, x =


1 n i

(9.10)

xi .

9.3.5 Loi gamma


La loi m dcrit l'intervalle de temps entre le premier et le dernier vnement d'une suite de (m + 1) vnements successifs. On peut la considrer comme une gnralisation de la loi exponentielle 1 ()

E().
Dnie dans R+ , sa fonction de densit est paramtre par m et :

f (x) =

m m1 x x e ,x0 (m)

(9.11)

Dnition 12 (Fonction ()). La fonction (), ou fonction Gamma d'Euler, est dnie2 par l'intgrale
(x) =
+ x1 t t e dt. 0

Plus prosaquement, concernant les cas les plus souvent rencontrs, pour un entier m, elle est calcule l'aide de

(m) = (m 1) (m 2) (1) , avec (1) = 1 m m m 1 1 ( ) = ( 1) ( 2) ( ) , avec ( ) = 2 2 2 2 2

Elle vrie la relation de rcurrence (m) = (m 1) (m 1)


1

Pour une lecture approfondie du sujet, nous conseillons la lecture de Daumas, F., "Mthodes de normalisation des donnes", RSA, (30)4, 1982. Accessible en ligne sur le serveur http://www.numdam.org Pour une description dtaille, voir http://fr.wikipedia.org/wiki/Fonction_gamma

56

9 Les lois continues

Les caractristiques de la loi m () sont :

m m V (X) = 2 2 1 = m 6 2 = m E(X) =

9.4 Loi de Weibull


9.4.1 Description
Utilise galement en abilit, la loi de Weibull, par rapport la loi exponentielle, introduit une information supplmentaire : le rgime d'utilisation de la pice. La loi de Weibull est trs utilise dans les sciences de l'ingnieur3 .

9.4.2 Dnition analytique


La v.a. X est dnie dans R+ . La fonction de densit dpend de 2 paramtres et :

f (x) = x1 ex
Le paramtre s'interprte de la manire suivante :

(9.12)

 < 1, la pice value est en rodage, elle s'amliore au l du temps (un moteur neuf d'un vhicule par exemple) ;  = 1, nous sommes en rgime stationnaire, la pice est utilise normalement et ne subit pas de modications de ses caractristiques ;  > 1, nous sommes en vieillissement acclr, la pice est utilise dans des conditions extrmes (en comptition par exemple).

9.4.3 Caractristiques de la loi


Les caractristiques de la loi sont les suivantes :

1 ) 2 1 2 V (X) = [ (1 + ) 2 (1 + )] 2 1 1 = [ (1 + ) 2 (1 + )]3 [ (1 + 1 2 2 = [ (1 + ) 2 (1 + )]4 [ (1 + E(X) = (1 +


1

3 ) 3 (1 + 4 ) 4 (1 +

2 ) (1 + 3 ) (1 +

1 1 ) + 2 3 (1 + )] 1 2 1 1 ) + 6 (1 + ) 2 (1 + ) 3 4 (1 + )] 3

Les coecients d'asymtrie et d'aplatissement dpendent des paramtres de la fonction. Dans le gure 9.5, nous donnons une illustration de la fonction de densit.
3

Voir par ex. http://www.si.ens-cachan.fr/ressource/r34/r34.htm

9.5 Loi de Pareto

57

Fig. 9.5. Distribution de la loi de Weibull

9.4.4 Estimation des paramtres


Il n'y a pas d'estimation directe des paramtres de la loi de Weibull, il faut procder en deux temps : 1. Tout d'abord, dterminer en rsolvant l'quation

1 + 2 =
o =
x

2 (1 + ) 2 (1 + 1 )

est le coecient de variation empirique ;

2. Puis en dduire en appliquant la formule = (1 + x


1 )

L'expression de semble rdhibitoire, on peut se contenter d'en obtenir une estimation simplie par ttonnement ou par une approche graphique.

Remarque 27 (La fonction ln ()). Si la fonction () est assez ardue calculer, surtout pour les valeurs
non-usuelles (ni un entier, ni un demi-entier), la fonction ln () est trs souvent implmente dans les bibliothques de calcul. Pour prendre un exemple parmi tant d'autres, dans le tableur EXCEL, il s'agit de la fonction LNGAMMA().

9.5 Loi de Pareto


9.5.1 Description
La loi de Pareto s'applique pour les distributions tronques. Prenons un exemple de la vie courante, en France, la borne basse du salaire horaire est forcment le SMIC, il ne peut pas en tre autrement. La loi de Pareto permet de tenir compte de cette contrainte en restreignant le domaine de dnition de la v.a. X 4 .
4

Voir http://fr.wikipedia.org/wiki/Distribution_de_Pareto

58

9 Les lois continues

9.5.2 Dnition analytique


La loi possde 2 paramtres, > 0 et c qui introduit la contrainte x > c. Le domaine de dnition de

X est ]c, +[
La fonction de densit est monotone dcroissante, elle s'crit

c +1 c x La fonction de rpartition est directement obtenue avec f (x) = F (x) = 1 c x

(9.13)

(9.14)

9.5.3 Caractristiques de la loi


, pour > 1 1 V (X) = c2 , pour > 2 ( 1)2 ( 2) k E[X k ] = c , pour > k c E(X) =

9.5.4 Estimation des paramtres


L'estimation des paramtres par la mthode du maximum de vraisemblance pour un chantillon de taille n permet d'obtenir

c = xmin = 1 n
n

1 n
1

xi ln c i=1

9.6 Loi de Gumbel


9.6.1 Description
La loi de Gumbel est utilise pour modliser les valeurs extrmes. Par exemple, pour dnir de manire adquate la puissance d'un serveur, on s'intresse au nombre maximal d'accs simultans un site web dans une journe, observ sur plusieurs jours.

9.6.2 Dnition analytique


La loi n'est pas paramtre, sa fonction de densit (Figure 9.6) est :

f (x) = exe
La fonction de rpartition est obtenue aisment :

(9.15)

F (x) = ee

(9.16)

9.6 Loi de Gumbel

59

Fig. 9.6. Distribution de la loi de Gumbel ( = 0, = 1)

9.6.3 Caractristiques de la loi

E(X) = 0.5772156649 ...constante d'Euler, note dans la littrature 2 V (X) = 6 1 = 1.29857 2 = 5.4
La distribution n'est pas symtrique, elle est tale droite.

9.6.4 Loi gnralise de Gumbel


La loi gnralise de Gumbel est paramtre par , un paramtre de localisation, et , un paramtre d'chelle. La fonction de densit de la v.a. X devient alors, avec z = e
x

pour simplier l'criture, (9.17)

f (x) =
Avec

zez

E(X) = + 2 2 V (X) = 6

La loi standard de Gumbel que nous avons prsente en premier lieu correspond aux paramtres = 0 et = 1.

10 Test d'adquation une loi

10.1 La dmarche de modlisation


10.1.1 Objectifs de la modlisation
La modlisation d'un ensemble d'observations consiste mettre en vidence les dterminants sousjacents l'origine de la formation de ces donnes. Dans notre cas, il s'agit d'identier la loi de probabilit et les paramtres associs.

Remarque 28 (Statistique infrentielle). Nous entrons dans un cadre dirent, celui de la statistique infrentielle que l'on appelle galement statistique mathmatique. Nous nous appuyons sur les donnes
observes pour infrer sur les caractristiques de la population1 , la loi thorique dans le cas prsent. Nous nous contenterons d'en donner une description simplie et parcellaire de manire comprendre les tests d'adquation dans ce support. La statistique infrentielle fait partie d'un domaine part, trs vaste, qui fera l'objet d'autres supports. En modlisant :  Nous pouvons produire une description plus concise des donnes, et nalement une meilleure connaissance de la ralit.  Nous dlimitons mieux la probabilit de survenue des valeurs de la v.a. tudie : ses caractristiques, moyenne, cart-type ; les valeurs les plus probables, les valeurs qui ont trs faible probabilit d'apparatre , etc.  D'une certaine manire, cela nous permet aussi de prdire les valeurs des observations futures ou tout du moins la plage de ces valeurs en prcisant la probabilit de leur apparition.  Nous pouvons mesurer l'ecacit d'une action en comparant les paramtres de la loi de distribution avant et aprs l'opration (ex. on veut comparer la probabilit de survenue d'accidents un carrefour, avant et aprs avoir install une nouvelle signalisation).  etc.

voir par exemple http://www.iut-lannion.fr/LEMEN/MPDOC/STAT/chap3/prech3.htm

62

10 Test d'adquation une loi

10.1.2 Les principales tapes


Dans le cas du test d'adquation une loi, la squence des oprations est toujours la mme2 : 1. A partir de la description du problme, nous dnissons la loi qui semble la mieux approprie pour dcrire les donnes. 2. Nous essayons alors d'en estimer les paramtres. 3. Puis nous validons la modlisation en vriant la compatibilit de la distribution thorique (loi de probabilit) avec la distribution empirique (observe). Il faut bien s'entendre sur la validation. Il ne s'agit pas de certier la loi de probabilit mais d'valuer la compatibilit des donnes observes avec la loi thorique. Pour ce faire, nous devons mettre en place une mesure objective, une mesure qui quantierait le dsaccord entre les deux distributions. Par la suite, nous devrons dterminer statistiquement si cet cart est faible, essentiellement d au hasard, les uctuations d'chantillonnage ; ou s'il est fort, rvlant une incompatibilit, et donc une inadquation du modle (loi thorique) propos. Dans la section qui vient, nous mettons en avant une mesure quantiant l'cart entre 2 distributions et nous dterminons sa loi de probabilit3 . Puis, dans les sections suivantes, nous mettrons en oeuvre le test d'adquation sur des donnes simules.

10.2 Test d'adquation et loi du 2


10.2.1 Indicateur de distance, la statistique du 2
Nous voulons quantier l'cart entre une distribution empirique et une distribution thorique que l'on a choisie. Dans un premier temps, nous devons calculer les paramtres de la loi thorique. Nous utilisons cet eet les estimateurs associs aux lois. Dans un second temps, nous subdivisons les n valeurs observes de X en K intervalles de regroupement, on parle galement de classes de regroupement. La largeur des intervalles n'est pas forcment constante. Chaque classe est dnie par sa borne haute et sa borne basse. Posons ok l'eectif associ la classe k . Puisque nous disposons maintenant des paramtres de la loi thorique, et que chaque intervalle est dnie par ses bornes, nous pouvons calculer les probabilits pk d'appartenir chaque intervalle en utilisant la fonction de rpartition. L'eectif thorique associ l'intervalle k est gal tk = n pk . La statistique du 2 (pour 2 calcul) quantiant l'cart entre la distribution thorique et empirique c s'crit :
K

2 = c
k=1
2

(ok tk )2 tk

(10.1)

Un description de la dmarche globale de modlisation en traitement de donnes est disponible sur le site du NIST "NIST/SEMATECH e-Handbook of Statistical Methods", http://www.itl.nist.gov/div898/

handbook/pmd/section4/pmd41.htm Une description simplie, trs accessible et pdagogique, du test d'adquation du 2 est disponible sur le web,
voir : http://www.mission-laique.com/pedagogie/pdf/math56/am56_p59_72.pdf

10.2 Test d'adquation et loi du 2

63

Par dnition, 2 0. Si 2 = 0, la distribution thorique cadre parfaitement avec la distribution c c empirique. Si 2 > 0, il y a des dirences. c Il est vident que la valeur seuil 0 n'est pas du tout crdible dans ce type d'analyse. A cause des uctuations d'chantillonnage, il est quasiment impossible que la loi observe et la loi thorique concorde parfaitement. Ce serait suspect d'ailleurs, laissant imaginer que les donnes ont t manipules. Il nous faut proposer une procdure pour dnir de manire raisonne le seuil partir duquel le 2 c calcul est susamment important pour que la dcision de rejeter l'hypothse de compatibilit puisse tre prise ; ou inversement, en de de quelle valeur nous pouvons considrer que l'cart est ngligeable, imputable aux uctuations d'chantillonnage. Pour rester dans un cadre probabiliste, il nous faut dterminer la loi de distribution de l'cart mesur.

Remarque 29 (Contraintes sur la constitution des classes). Pour que la loi du 2 soit valide, il y a deux
contraintes sur la constitution des classes. Tout d'abord, (1) les classes doivent tre "assez nombreuses" (K 8 selon certaines sources, mais cela dpend aussi du nombre de paramtres estims). Mais a contrario, (2) il faut galement que les eectifs thoriques dans chaque classe soit assez lev (tk 5, a-t-on coutume de dire, ou tout du moins 80% des tk doivent tre 5). Si cette dernire condition n'est pas remplie, nous devons procder des regroupements de classes, au risque de buter sur la premire contrainte4 .

10.2.2 Loi du 2
La loi du 2 est trs utilise, non pas pour modliser des phnomnes observs, mais pour mettre en oeuvre des tests statistiques. Elle est forme par l'addition de lois normales centres et rduites indpendantes. Elle est paramtre par dit degrs de libert. C'est une loi asymtrique, tale droite (Figure 10.1). Elle devient symtrique mesure que le nombre de degrs de libert augmente.

Fig. 10.1. Distribution de la loi du 2 (5), 5 degrs de libert

Dans le test d'adquation, le nombre de degrs de libert est dni par :

Pour une discussion sur les contraintes du test d'adquation, voir http://fr.wikipedia.org/wiki/Test_de_

Khi-2

64

10 Test d'adquation une loi

=K r1

(10.2)

o r est, pour la loi de probabilit modlise, le nombre de paramtres estims partir des donnes.

Exemple 29. S'il s'agit de la loi normale, r = 2 car nous devons estimer la moyenne et l'cart-type ; pour
la loi de Poisson, r = 1 puisque nous ne devons estimer qu'un seul paramtre ; etc. Dans la thorie des tests, nous devons introduire un risque qui est une probabilit de se tromper. En eet, nous travaillons sur des phnomnes entachs de uctuations. Fonder des dcisions certaines sur de donnes observes est compltement illusoire. Il parat plus raisonnable de prendre des dcisions en valuant au mieux les risques encourus.

Dnition 13 (Risque de premire espce). Dans le test d'adquation, nous confrontons 2 hypothses : H0 , l'hypothse nulle, la modlisation des donnes avec la loi est licite ; H1 , l'hypothse alternative, la loi n'est pas compatible avec les donnes. Dans ce cadre, nous sommes particulirement sensibles un risque (le risque de premire espce), c'est la probabilit de dcider que la loi modlise est en dsaccord avec les donnes observes alors qu'en ralit la loi est licite, on note = P (dcider H1 /H0 est vraie). On parle aussi de probabilit de rejeter tort l'hypothse nulle.
Dans la pratique statistique, il existe une srie de valeurs ( = 0.01; 0.05; 0.1; . . .) communment utilises. Elles nous permettent de spcier notre niveau d'exigence par rapport aux rsultats.

10.2.3 Mise en oeuvre du test d'adquation


Pour mettre en oeuvre le test, nous devons dans un premier temps xer le risque (par ex. = 0.05). Ce risque que l'on s'est choisit permet de subdiviser en 2 parties le domaine de dnition du 2 . 1. On appelle rgion d'acceptation (R.A.) l'intervalle 0 2 2 (). Lorsque le 2 calcul est dans c c 1 cet intervalle, nous concluons que les distributions thoriques et observes sont compatibles. 2. On appelle rgion critique ou rgion de rejet (R.C.) l'intervalle 2 () < 2 < + qui permet de c 1 conclure l'incompatibilit entre les distributions. Le seuil s, que l'on appelle valeur critique ou seuil critique, qui permet de dnir l'acceptation ou le rejet dpend bien videmment de . Formellement, il est dnit de la manire suivante :

P (2 () > s) = s est donc le quantile d'ordre 1 de la loi du 2 degrs de libert : s = 2 () 1

(10.3)

(10.4)

Dans la gure 10.2, nous montrons le quantile d'ordre 1 pour une loi du 2 5 degrs de libert. Les seuils critiques peuvent tre lues dans les tables statistiques que l'on trouve dans tous les bons ouvrages5 . Les logiciels de statistique les fournissent galement.
5

On peut trouver d'excellentes rfrences sur le Web, voir par ex. http://courses.wcupa.edu/rbove/eco252/

252suppkey.htm

10.2 Test d'adquation et loi du 2

65

Fig. 10.2. Exemple de seuil critique 2 (5) pour un risque = 0.05 0.95
Remarque 30 (La p-value). Souvent, les logiciels calculent directement la p-value . Elle correspond la
probabilit pour que la loi du 2 () dpasse le 2 calcul c.--d. = P (2 () > 2 ). c c Dans ce cas, on compare directement la p-value au risque du test, on dcide de rejeter l'hypothse de compatibilit (hypothse H0 ) si < . Cette rgle de dcision est totalement quivalente celle dnie par le seuil critique.

10.2.4 Exemple : adquation avec la loi de Poisson


Dans un pays o il n'y a pas saisons, pas de jours fris, ni de vacances, on vous demande de vous poster un carrefour un horaire donn et de noter le nombre de conducteurs qui omettent de mettre leur ceinture de scurit. Vous vous postez au carrefour pendant 300 jours conscutifs. Vous tes maintenant la tte d'une srie de 300 observations. On vous demande de dterminer la loi de distribution de la v.a. "absence de ceinture".

Statistique descriptive
Acher directement le tableau des donnes ne sert absolument rien. Il nous faut rsumer l'information. Le plus simple est de construire l'histogramme de frquence pour se donner une ide de la conguration des donnes (Figure 10.3). La distribution est plus ou moins symtrique. La valeur la plus basse observe est 7, la plus leve est

30. La valeur la plus frquente, le mode, est x = 19.


En tous cas, elle ne prsente pas des caractristiques "gnantes". Si la distribution tait bi-modale par exemple, aucune des lois dans la panoplie vue plus haut ne conviendrait.

Choix de la loi thorique et calcul des paramtres


Nous tudions la survenue d'un vnement dans un intervalle de temps. Nous pensons une loi de Poisson. Elle possde un seul (r = 1) paramtre que l'on estime l'aide de la moyenne arithmtique.

5371 = 17.9 =x= 300 L'hypothse que nous voulons vrier est donc : la v.a. X "absence de ceinture de scurit" est-elle
compatible avec une loi de Poisson P(17.9) ?

66

10 Test d'adquation une loi

Fig. 10.3. Diagramme de frquences des donnes "absence de ceinture"

Calcul de la statistique et conclusion


Dans un premier temps, sans prendre de prcautions particulires, nous formons le tableau des eectifs observes. A partir de la loi P(17.9), nous calculons les frquences relatives associes chaque valeur. Nous produisons galement les eectifs thoriques (Figure 10.4).

Fig. 10.4. Tableau des eectifs observs et thoriques

Le nombre de classes est K = 24, cela convient. En revanche, dans plusieurs cas, les eectifs thoriques sont faibles (tk < 5), ce qui peut fausser les calculs. De plus, nous constatons que la somme des frquences relatives thoriques est infrieure 1. Il y a des cas non recenss dans ce tableau. Dans le cas prsent, il s'agit essentiellement des valeurs extrmes.

10.2 Test d'adquation et loi du 2

67

Nous devons eectuer des regroupements et complter notre tableau (Figure 10.5). Le tableau comporte maintenant K = 19 classes. Moins de 80% des classes ont un eectif thorique sensiblement infrieur 5.

Fig. 10.5. Tableau des eectifs observs et thoriques aprs regroupement

La confrontation des distributions empiriques et thoriques peut tre reprsente dans un diagramme de frquences (Figure 10.6).

Fig. 10.6. Diagramme des frquences empiriques et thoriques

L'tape suivante consiste calculer les carts entre les distributions empiriques et thoriques. Dans un tableur, il s'agit tout simplement de rajouter une nouvelle colonne, puis d'en faire la somme (Figure 10.7). La statistique du 2 est

2 = 8.4 c

68

10 Test d'adquation une loi

Fig. 10.7. Tableau des eectifs observs et thoriques, calcul de la statistique du 2


Nous xons notre risque = 0.05, le nombre de degrs de libert est = 19 1 1 = 17, ce qui nous permet d'obtenir un seuil critique gal 0.95 (17) = 27.58. Le 2 est largement infrieur 0.95 (17), nous pouvons armer que notre distribution est compatible c avec une loi de Poisson P(17.9) au risque de = 0.056 . Si nous raisonnons en termes de p-value, = 0.957, largement suprieure au risque . L'hypothse nulle ne peut pas tre rejete. Les dcisions concordent.

10.2.5 Exemple : adquation avec la loi Normale


Plus tonnant est ce second exemple. Nous voulons tester maintenant si la distribution observe est compatible avec une distribution normale. Pourquoi ? Il ne s'agit plus d'une loi de Poisson nalement ? Il faut faire trs attention ce stade. Rptons-le, le test d'adquation ne vise pas dterminer la prtendue bonne loi qui rgirait les donnes. N'allez surtout pas demander au conducteur contrevenant s'il est un processus de Poisson ou pas. Le rle du test d'adquation est simplement de vrier la compatibilit de la loi thorique avec la distribution observe. Charge au statisticien d'exploiter les rsultats par la suite, aux ns de prdiction, d'explication, etc. Dans cet exemple, nous avions constat dans le diagramme de frquence (Figure 10.3) que la distribution empirique tait mono-modale, quasiment symtrique (1 = 0.11). L'ide de la confronter la loi normale n'est pas totalement farfelue. Suivant la procdure habituelle, nous avons tout d'abord calcul les estimations7 des paramtres r = 2 de la loi normale = x = 17.9 et = 4.27. Nous pouvons ds lors laborer le tableau de calcul. Il est trs important de noter que chaque ligne du tableau dnit un intervalle dornavant. Par ex., la ligne correspondant la valeur 18 correspond en fait l'intervalle 17 < x 18. La dernire colonne nous sert calculer la statistique du test (Figure 10.8) :
6

Pour tre tout fait franc, je ne suis pas trop tonn, les donnes ont t gnres sous le logiciel R (http:

//www.r-project.org/) avec une loi de Poisson P(18). Une incompatibilit aurait t assez inquitante. Nous utilisons bien l'estimateur non-biais de l'cart type dcrit en 9.2.

10.3 Test d'adquation de Kolmogorov-Smirnov

69

Fig. 10.8. Tableau de calcul de la statistique du 2 , test d'adquation la loi normale

2 = 13.2 c
Nous conservons le risque = 0.05, le nombre de degrs de libert devient = 19 2 1 = 16. Le seuil critique du test est gal 0.95 (16) = 26.29. L'hypothse de compatibilit la loi normale ne peut tre rejete. Quoi de plus naturel nalement ? Nous avions vu plus tt que la loi de Poisson convergeait vers la loi normale lorsque le paramtre tait lev, et qu'en pratique, l'approximation tait correcte ds que 18. Nous sommes tout fait dans ce cas de gure. Si on s'intresse la p-value, elle est gale = 0.659. La dcision reste trs tranche, elle l'est un peu moins par rapport la modlisation l'aide de la loi de Poisson.

10.3 Test d'adquation de Kolmogorov-Smirnov


Le test du 2 convient quelle que soit la nature de la v.a. tudie. Si on veut tester l'adquation une loi multinomiale d'une v.a. discrte, elle convient. Si on veut tester une v.a. continue, il sut de la dcouper en intervalles et elle peut s'appliquer galement. Mais dans ce cas elle est peu puissante. En eet, intervertir les lignes du tableau de calcul n'a pas d'incidence sur les rsultats. Or cette interversion n'a aucun sens si la v.a. est continue, les modalits (les intervalles dans ce cas) sont ordonnes. Modier cet ordre devrait altrer, ou mme rendre caduque, les conclusions du test d'adquation. Lorsque la v.a. X est continue, ou tout du moins prend des valeurs ordonnes, le test de KolmogorovSmirnov (K.S.) est une alternative plus puissante au test du 2 . Elle s'appuie sur la comparaison de la fonction de rpartition empirique avec la fonction de rpartition thorique construite partir de la loi modlise. Pour que ce rapprochement ait un sens, il est vident que la v.a. doit tre ordonne.

70

10 Test d'adquation une loi

En revanche, et c'est bien l l'inconvnient de cette approche par rapport au test du 2 , les paramtres de la loi sont censs tous connus et non pas estims partir de l'chantillon8 , 9 .

Exemple 30. Reprenons notre exemple ci-dessus. Nous savons que les donnes ont t gnres partir
paramtres sont donc = 18 et = empirique avec la loi N (18, 4.2426). d'un gnrateur de nombre pseudo-alatoires suivant une loi P(18). En passant la loi normale, ses 18 = 4.2426. Nous testerons donc l'adquation de la distribution

10.3.1 Test de Kolmogorov-Smirnov


Soit Fn (x) la fonction de rpartition empirique observes sur les n observations xi . A partir de la loi et de ses paramtres, nous disposons de la fonction de rpartition thorique F0 (x) que nous pouvons appliquer sur chaque observation xi . Le test de Kolmogorov-Smirnov repose sur la comparaison de ces deux fonctions de rpartitions, plusieurs statistiques peuvent tre dnies :

+ Kn = sup(Fn (x) F0 (x)) x x Kn = sup(F0 (x) Fn (x))

Kn = sup |F0 (x) Fn (x)|


x

En pratique, partir des n observations xi , nous calculons :

i1 F0 (xi )) n i Kn = max(F0 (xi ) ) i n + Kn = max(Kn , Kn )


+ Kn = max( i

Les lois de ces statistiques ont t tabules sous leur forme exacte et asymptotique10 . Il sut, pour accepter ou rejeter l'adquation, de comparer la statistique calcule avec le seuil critique lu dans la table. En ce qui concerne la statistique Kn , lorsque n est grand (n 80) et pour un risque 0.2, il est possible d'approximer le seuil critique partir de la formule :

1 ln 2 2 n

(10.5)

La rgion critique du test (rejet de l'hypothse de compatibilit) est dnie par :

R.C. : Kn d
8

Dans le cas spcique du test d'adquation la loi normale, des modications peuvent tre introduites pour que le test de Kolmogorov reste applicable alors que les paramtres et sont estims partir de l'chantillon Est-ce vraiment un inconvnient dans la pratique ? Gnralement le choix de la loi repose sur une expertise. De la mme manire le choix des paramtres de la loi peut s'appuyer sur les connaissances du domaine, la littrature, les rsultats dans des travaux similaires, etc. Voir par exemple Tassi, page 317

10

10.3 Test d'adquation de Kolmogorov-Smirnov

71

10.3.2 Mise en oeuvre du test


Les calculs sont facilement mis en oeuvre dans un tableur. Il nous faut, dans un premier temps, trier les donnes selon les xi croissants. Puis nous formons deux nouvelles colonnes correspondant
i1 n

et

i n.

Enn, nous crons une dernire colonne avec la fonction de rpartition thorique F0 (xi ) (Figure 10.9)

Fig. 10.9. Juxtaposition des fonctions de rpartition thorique F0 (x) et empirique

i1 n

Exemple 31. Pour illustrer notre propos, avec la loi normale et les paramtres ci-dessus, le tableur EXCEL11 fournit F0 (10) = 0.02967, etc. Les calculs fournissent les rsultats suivants :

+ Kn = 0.0669 Kn = 0.0398

Kn = 0.0669
Le seuil critique pour un risque = 0.05 est :

d0.05 =

1 ln 0.05 2 2 = 0.0784 300

Nous constatons que Kn < d0.05 , nous ne sommes pas dans la rgion critique du test, l'hypothse de compatibilit de la distribution empirique avec la loi normale ne peut tre rejete.

Remarque 31 (Cohrence entre le test de K.S. et le test du 2 ). Dans cet exemple, le test de KolmogorovSmirnov est cohrent avec les conclusions du test d'adquation du 2 . Tout est pour le mieux. S'il y

avait dsaccord, le test de Kolmogorov-Smirnov concluant au rejet de l'adquation. tant plus puissant, c.--d. il dtecte mieux l'hypothse alternative lorsqu'elle est vraie, nous accorderons plus de crdit sa dcision.

11

=LOI.NORMALE(10,18,RACINE(18),1)

Littrature

1. Avazian, S., Enukov, I., Mechalkine, L., Elments de modlisation et traitement primaire des donnes, Mir, 1986. 2. Grais, B., Mthodes Statistiques, Dunod, 3me dition, 2003. 3. Jolion, J.M., Probabilits et Statistique, http://rfv.insa-lyon.fr/~jolion/STAT/poly.html 4. Le Men, J.F., Statistiques, http://www.iut-lannion.fr/LEMEN/MPDOC/STAT/presstat.htm 5. Pelat D., Bruits et Signaux (introduction aux mthodes de traitements des donnes) : statistique des variables

alatoires, http://www.lpthe.jussieu.fr/DEA/pelat.ps
6. Saporta, G., Probabilits, Analyse des donnes et Statistique, Technip, 2me dition, 2006. 7. Tassi, P., Mthodes statistiques, Economica, 1992. 8. Veysseyre R., Aide Mmoire. Statistique et probabilits pour l'ingnieur, Dunod, 2me dition, 2006.

Vous aimerez peut-être aussi