Académique Documents
Professionnel Documents
Culture Documents
Probabilits et Statistique
Notes de cours
Avant-propos
Ce document est un support de cours pour les enseignements des probabilits et de la statistique. Il couvre l'analyse combinatoire, le calcul des probabilits, les lois de probabilits d'usage courant et les tests d'adquation une loi. Ce support correspond approximativement aux enseignements en L2 de la lire Sciences conomiques et Gestion, Administration conomique et Sociale (AES). Un document ne vient jamais du nant. Pour laborer ce support, je me suis appuy sur direntes rfrences, des ouvrages reconnus dans la discipline, mais aussi des ressources en ligne qui sont de plus en plus prsents aujourd'hui dans la diusion de la connaissance. Les seuls bmols par rapport ces documents en ligne sont le doute que l'on pourrait mettre sur l'exactitude des informations prodigues, mais la plupart de leurs auteurs sont des enseignants-chercheurs qui font srieusement leur travail ; une disponibilit plus ou moins alatoire, au gr des migrations des serveurs et de la volont de leurs auteurs, auquel il est trs dicile de remdier ; les informations sont disparates, avec une absence d'organisation, la dirence des ouvrages qui suivent une ligne pdagogique trs structurante. Nanmoins, ces ressources en ligne renouvellent profondment le panorama des documents disponibles pour les enseignements. La gratuit n'est pas le moindre de leurs atouts. Les rfrences que nous avons utilises pour la composition de ce support sont dtailles dans la bibliographie. Les excellents ouvrages de Grais (Chapitres 1 3, pages 1 168) et de Saporta (Chapitres 1 et 2, pages 1 65), en particulier, m'ont beaucoup aid structurer ce document. Enn, selon l'expression consacre, ce texte n'engage que son auteur. Toutes suggestions ou commentaires qui peuvent l'amliorer sont le bienvenu.
Partie I Introduction aux mthodes de calcul des probabilits 1 lments d'analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Gnralits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Formules classiques d'analyse combinatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 9 9 9 9 10 10
Dnition de la probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1 Notion de probabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Extension de la dnition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Axiomes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Dnition relative des vnements : les diagrammes de Venn . . . . . . . . . . . . . . . . . . . . . . . 2.5 Oprations logiques sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Probabilit de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.1 nonc du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Le thorme de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 21
22
Littrature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Partie I
1.1 Gnralits
L'analyse combinatoire (A.C.) est le dnombrement des dispositions que l'on peut former l'aide des lments d'un ensemble ni.
card() = n.
Si ei et ej sont quivalents, on dit qu'ils sont indiscernables. Si ei et ej sont dirents, on dit qu'ils sont discernables. L'ensemble de n lments peut tre constitu d'lments discernables 2 2. Ex. {a, b, c, d, e}. Tous les lments de peuvent aussi tre tous indiscernables. Ex. {a, a, a, a, a}. Les lments d'un ensemble peuvent tre discernables ou indiscernables. Ex. = {a, b, a, a, c, d, d, c, a},
card() = 9.
Dnition 1. Disposition sans rptition. C'est une disposition o un lment peut apparatre 0 ou
1 fois.
Dnition 2. Disposition avec rptition. Un lment peut gurer plus d'une fois.
Dnition 3. Disposition ordonne. L'ordre d'obtention d'un lment est important. Ex. les lments
constituant la plaque minralogique d'un vhicule.
Dnition 4. Disposition non-ordonne. L'ordre d'obtention d'un lment n'est pas important, on
n'en tient pas compte dans la caractrisation de la disposition. Ex. Les numros issu d'un tirage du loto. Exemple 2. Prenons un jeu de d 6 faces (lments discernables) = {1, 2, 3, 4, 5, 6}. Aprs 3 jets, nous
obtenons A = (2, 5, 1) ; nous ritrons les jets et nous obtenons B = (5, 1, 2). A et B sont quivalents si nous considrons que les dispositions sont non-ordonnes. En revanche, ils ne sont pas quivalents si nous sommes dans le cadre d'une disposition non-ordonne.
A = {a1 , a2 , a3 , . . . , a } et B = {b1 , b2 , b3 , . . . , b }.
On appelle une paire une disposition de 2 lments dont le 1er appartient A, et le 2nd appartient B. La paire est une disposition ordonne, mais les 2 lments sont de nature direntes. Pour dcrire l'ensemble des paires possibles, il sut de composer chaque lment de A avec chaque lment de B. Il y a donc M = paires possibles.
Exercice 1. Combien y a-t-il de mots de 2 lettres ? Il y a 26 lettres dans l'alphabet. On peut donc former
26 26 = 676 mots de 2 lettres.
Exercice 2. Combien y a-t-il de mots de 2 lettres forms d'une consonne et d'une voyelle (sans tenir
compte de l'ordre) ? Il y a 20 consonnes et 6 voyelles. Nous pouvons former 206 = 120 couples "`consonne
voyelle"' et, 6 20 = 120 couples "`voyelle consonne"'. Il y a donc 240 mots possibles forms par
une consonne et une voyelle.
Un multiplet de lments peut tre considr comme une paire o : le 1er lment est constitu des
M = M1 = M2 = =
Exercice 3. Quelle est la capacit d'un code constitu de mots o les 2 premiers symboles sont des lettres
de l'alphabet, et les 2 derniers symboles sont des chires ? Rponse : M = 26 26 10 10 = 67600
Ap = np n
(1.1)
N.B. Il est possible que p > n. Exemple 3. Dans un pays imaginaire, un numro de tlphone comporte 5 chires. Il doit commencer par
0, le second chire est compris entre 1 et 5, il indique la rgion. Les autres chires sont libres. Combien
de numros de tlphones dirents peut-on former dans ce pays ?
= {0, 1, . . . , 9} ; = {a, b, c, d, e}. Pour les 3 derniers chires, le nombre d'arrangements possible
est A3 = 103 = 1000. La capacit totale est 1 5 A3 = 1 5 1000 = 5000. 10 10
n. Ap = n n! (n p)!
n i=1
(1.2)
i = 1 2 . . . n. Par
dnition1
rcursive n! = n (n 1)!.
Exemple 4. Dans notre pays imaginaire ci-dessus, combien y a-t-il de numros comportant des chires
tous dirents ?
01abc A3 = 336 8 02abc A3 = 336 8 03abc A3 = 336 8 04abc A3 = 336 8 05abc A3 = 336 8 Total = 1680
N.B. : Attention, dans 01abc par exemple, les chires (a, b et c) ne peuvent provenir que de {0, 1}, d'o la formule de l'arrangement A3 . 8
Pn = Ap = n
n! = n! (n n)!
(1.3)
+ pn = p.
(p Pp 1 ,p2 , ) =
p! p1 !p2 !
(1.4)
Exemple 5. On jette successivement 12 ds. On appelle "`rsultat"' une suite ordonne de 12 points
emmens. Combien y a-t-il de rsultats possibles ?
12! 2!2!2!2!2!2!
Exemple 7. Combien y a-t-il de rsultats o la face "`1"' se retrouve 5 fois, "`2"' 3 fois, "`3"' 3 fois, et
"`4"' 1 fois ?
P12
(5,3,3,1,0,0)
12! 5!3!3!1!0!0!
p Cn =
n! p!(n p)!
(1.5)
Exemple 8. On tire 5 cartes dans un jeu de 32 cartes. Combien y a-t-il de rsultats possibles ?
5 C32 = 32! 5!(325)!
(1.6)
Exemple 9. Dans un jeu de domino, il y a 7 valeurs possibles {blanc, 1, 2, 3, 4, 5, 6}. Sur un domino,
2 valeurs sont inscrites, qu'importe l'ordre d'apparition des valeurs (retourner le domino n'a aucune
inuence sur ce qu'elle reprsente). Le nombre total de dominos que nous pouvons former est de p = 2
2 2 lments choisis parmi n = 7, c.--d. K7 = C7+21 = 28.
A B C D Total 5 4 3 1 4 7 0 0 2 0 10 1 13 13 12 13
carreau 2 2 0 9
13 13 13 13 52
Considrons tout d'abord la rpartition des tres. Le nombre de distribution des 13 tres suivant ;
(2,2,0,9)
Pour les carreaux, ce sera P13 Pour les coeurs, ce sera P13 Pour les piques, ce sera P13 de possibilits :
(4,7,0,2)
; ;
(2,0,10,1)
Cette rpartition est eectue simultanment, nous eectuons le produit pour obtenir le nombre total
M = P13
(5,4,3,1)
P13
(2,2,0,9)
P13
(4,7,0,2)
P13
(2,0,10,1)
Remarque 1. Il est possible d'eectuer l'analyse duale .--d. dtecter la faon pour A de recevoir 5 tres,
2 carreaux, 4 coeurs, 2 piques ; et ainsi de suite pour chaque joueur. Nous obtenons alors le nombre total
de possibilit en eectuant galement le produit. Nous obtiendrons les mmes rsultats.
Gnralisation
Nous pouvons gnraliser la solution ci-dessus en considrant la rpartition de n objets classs en s catgories entre p joueurs. Le tableau de travail est le suivant : -
1 i s
Total n.1 . n.j . n.p n.. = n Pour la ligne i, le nombre de dispositions possibles est Ainsi, le nombre total de dispositions est obtenu avec :
s i=1 s i=1 ni. ! p j=1 nij ! ni. ! ni1 !nij !nip ! .
(1.7)
2 Dnition de la probabilit
Exemple 10. Une pice de monnaie possde deux gures (ventualits) : pile et face. Si la pice n'est pas
traque et lance loyalement, pile a autant de chances d'apparatre que face. On dit alors que les deux ventualits sont quiprobables. A chaque lment de l'ensemble des ventualits, on peut associer un nombre, la probabilit d'obtenir l'ventualit.
o card() = N .
Exemple 11. est constitu d'un jeu de 32 cartes. Il comporte 8 hauteurs {7, 8, 9, 10, J, D, K, A}. Dans
chaque hauteur, il y a 4 couleurs {pique, coeur, carreau, tref le}. P {tirer la hauteur 7} =
4 32 7 32
2.3 Axiomes
Axiome d'uniformit. vnement certain.
P {ventualit quiprobable} = 0 P {} 1.
Si A , alors P {A} = 0.
1 N.
Si A , alors P {A} = 1.
10
2 Dnition de la probabilit
e A e , alorsA
Proprits de l'inclusion
Caractristique 1 (Transitivit).
AB BC AC
L'inclusion est donc une relation d'ordre parmi les sous-ensembles de l'ensemble fondamental.
2.4.2 La complmentarit
Soit un sous-ensemble A de . On appelle complmentaire de A par rapport , not A ou A, le
sous-ensemble de constitu de tous les lments qui n'appartiennent pas A.
A=
Caractristique 4.
AC BC
1
AB C
11
Caractristique 11. B A A B B Caractristique 12 (Commutativit). A B B A Caractristique 13 (Associativit). (A B) C A (B C) A B C Caractristique 14 (Distributivit droite par rapport la runion).
A (B C) (A B) (A C) (A B) (C D) ((A B) C) ((A B) D) (A C) (B C) (A D) (B D)
La distributivit gauche est valable galement.
Remarque 2. On peut appliquer le diagramme de Venn dans la thorie des vnements. Les oprations
logiques sur les ensembles peuvent y tre transposes, permettant ainsi l'laboration d'une algbre sur les vnements.
Caractristique 16 (Runion). On peut crer un evnement C qui soit la runion de deux vnements A
et B. La ralisation de C est soit la ralisation de A, soit de B, soit de A et B simultanment.
Ei P() P {Ei } R
de (ou la chance d'obtenir) l'vnement Ei .
(3.1)
Le nombre rel P {Ei } s'appelle probabilit de ralisation de l'vnement Ei . Elle quantie la crdibilit
14
P {A} 0, A
Axiome de certitude
P {A } = P {A} + P {} = P {A}
Par consquent, P () = 0.
= 1 P {A}
P {A C} = P {A} + P {C} = P {A B}
15
P {C} = P {A B} P {A}
(3.3)
Considrons maintenant les vnements C et A B . Ils sont incompatibles c.--d. C (A B) = . On constate aisment que C (A B) = B , P {C (A B) = B} = P {B} = P {C} + P {A B}
P {C} = P {B} P {A B}
Avec les quations (3.3) et (3.4), nous en dduisons :
(3.4)
P{
i
Ai }
i
P {Ai }
(3.5)
i
Ai } =
P {Ai }
P {B/A} =
P {B A} P {A}
(3.6)
Exemple 12. Soit un jeu de 52 cartes. Les cartes ont t regroupes selon leur couleur. Quelle est la
probabilit d'extraire la hauteur "roi" sachant que l'on a puis dans le paquet des "coeur" ?
P {coeur} =
13 52 ,
et P {roi coeur} =
1 52 .
1/52 13/52
1 13 .
16
(3.7) (3.8)
P {A B} = P {A} P {A}
N1 Nk N
n1 nk n
ck Total vantes : Le tirage est-il exhaustif ou avec remise ? La conguration est-elle ordonne ?
Question 1. Pour calculer les probabilits, il faut se poser et rpondre correctement aux questions sui-
18
On cherche calculer P {n1 (br) et n2 (bn)}. Revenons notre tableau. Couleur Eectif chantillon br bn Total Nombre d'ventualits possibles : An N Nombre d'ventualits favorables : An1 An2 N1 N2 On en dduit la probabilit :
N1 N2 N
n1 n2 n
An1 An2 N1 N2 An N
(4.1)
On en dduit la probabilit :
n n CN1 CN2 1 2 n CN
(4.2)
Remarque 4. Il est possible d'exprimer cette seconde probabilit (quation 4.2 en fonction de la prcdente n n
n (quation 4.1). En eet, CN = N! n!(N n)!
An N n!
ainsi
(4.3)
Dans la premire partie de l'quation 4.3, nous retrouvons la disposition ordonne sans remise (quation 4.1) ; dans la seconde partie, les direntes permutations possibles des n1 et n2 lments parmi n c.--d. Pn
(n1 ,n2 )
19
Couleur Eectif chantillon br bn Total Nombre d'ventualits possibles : An N Nombre d'ventualits favorables : An 1 An 2 N N On en dduit la probabilit :
1 2
N1 N2 N
n1 n2 n
An1 An2 N1 N2 An N
(4.4)
et q =
N2 N
(4.5)
(4.6)
n CN n1 n2 n! n1 !n2 !nk ! p1 p2
pnk k
Remarque 5. Si n = 1, alors PE = PB
20
Remarque 6. Dans un tirage sans remise (exhaustif), la structure de l'ensemble fondamental est modi
chaque tirage. Ce n'est pas le cas du tirage de Bernoulli, la composition de l'urne n'est jamais modie puisque chaque objet extrait y est remise avant le tirage suivant : de fait, il y a indpendance totale des tirages. C'est la raison pour laquelle, lors du tirage avec remise, l'expression de la probabilit ne dpend pas de N , nombre total de boules, mais uniquement de la structure de l'ensemble fondamental (pi ).
N! (N n)!
limits), nous avons l'approximation PE PB . En eet, les tirages successifs modient trs peu la structure de l'ensemble fondamental, elle reste proche de la situation initiale.
Total
1 . . . i . . . m
Total La probabilit s'crit :
P {} =
n1. ! n2. ! nm. ! n11 !n12 !n1p ! n21 !n22 !n2p ! nm1 !nm2 !nmp ! n! n.1 !n.2 !n.p !
P {} =
m i=1
n!
ni. ! m i=1
(4.7)
Une rgle mnmonique pour s'en rappeler est de considrer qu'il s'agit du rapport entre : le produit des factoriels des eectifs marginaux ; n! fois le produit des factoriels des eectifs conjoints.
5 Probabilit de Bayes
P {U1 /B} =
P {U1 /B} =
Si U1 et U2 sont incompatibles, BU1 et BU2 le sont galement. Nous pouvons appliquer l'axiome d'additivit de Kolmogorov.
P {U1 /B} =
P {B/U1 }P {U1 } P {B.U1 } + P {B.U2 )} P {B/U1 }P {U1 } = P {B/U1 }P {U1 } + P {B/U2 }P {U2 }
22
5 Probabilit de Bayes
o pj/i est la proportion de boules de couleur j dans l'urne i ; i est la probabilit d'obtenir l'urne i.
Exemple 13. Un appareil peut tre mont avec des pices de haute qualit (40% des cas) et avec des pices
ordinaires (60% des cas). Dans le premier cas, sa abilit (probabilit de fonctionnement) sur une dure
t est gale 0.95 ; dans le second, elle est de 0.7. L'appareil a t soumis un essai et s'est avr able
(fonctionnement sans dfaillance sur la dure de rfrence). Dterminer la probabilit que l'appareil soit compos de pices de haute qualit.
P (U2 ) = 0.6).
On nous indique que P (B/U1 ) = 0.95 et P (B/U2 ) = 0.7. En appliquant le thorme de Bayes, nous obtenons :
P (U1 /B) =
On lance 3 fois une pice de monnaie (qui prend deux valeurs possibles
"pile" ou "face", est-il besoin de le prciser). L'ensemble fondamental est = {(P, F ), (P, F ), (P, F )}. Notons X le nombre de "face" apparue au bout des trois jets. Les valeurs possibles de X sont DX =
X:R
particulirement la probabilit d'obtenir ces valeurs P (X = x) 1 .
(6.1)
X s'appelle une variable alatoire, on s'intressera aux valeurs prises par X (X = x), et plus
A partir de maintenant, nous utiliserons les parenthses, et non les accolades, pour dsigner un vnement "valeur(s) prise(s) par une variable alatoire".
24
Remarque 8 (Distinction variable discrte et continue). Parfois, la distinction est purement formelle. Le
type de la variable alatoire dpend du degr de prcision que l'on dsire apprhender. Par exemple, on s'intresse l'esprance de vie d'un chat, si on travaille sur le nombre d'annes, le nombre de valeurs possible est ni ; si on travaille en secondes, ce sera dirent. La situation sera un peu plus claire lorsque l'on abordera la question de la probabilit ponctuelle. Dans le cas d'une variable continue, elle est par dnition nulle.
Exemple 14. On lance une pice de monnaie une fois, l'ensemble fondamental est = {P, F }. Soit X le
nombre d'apparition de "pile", DX = {0, 1} et on peut calculer facilement P (X = x), P (X = 0) =
1 2
et
P (X = 1) =
1 2.
Exemple 15. On lance une pice de monnaie 2 fois, l'ensemble fondamental est = {P, F }. Soit X le
nombre d'apparition de "pile", DX = {0, 1, 2}. On veut calculer P (X = 1), pour cela on s'intresse aux deux squences possibles qui lui sont associes (Pile d'abord, Face ensuite), ou inversement (F, P).
25
Exemple 16. Sur le mme exemple du jet de 2 pices, nous pouvons adopter l'approche du tirage de
Bernoulli non-ordonn. Nous utilisions le tableau suivant pour caractriser l'exprience : Pice
x 2
2! px q 2x x!(2 x)! De manire gnrale, pour n jets de pices, si l'on se rfre au schma binomial, la probabilit d'obtenir P (X = x) = x-fois le ct "pile" est gal :
Pice
x n
n! px q nx x!(n x)! Il est d'usage de reprsenter graphiquement la distribution de probabilit d'une variable discrte P (X = x) =
l'aide d'un diagramme en btons. A chaque valeur de X est associe un trait (un bton) dont la hauteur est proportionnelle P (X = x) (Figure 6.1). Certains parlent galement d'histogramme de frquences, mais dans ce cas, la largeur de chaque barre est obligatoirement constante.
Remarque 9 (Probabilit cumule). Dans certains cas, on peut tre intress par l'obtention d'au moins
"x" valeurs. Dans l'exemple des jets de pices, on peut vouloir poser la question : "quelle est la probabilit que l'on obtienne au moins x-fois le ct pile de la pice ?". Dans ce cas, on parle de probabilit cumule ou encore de fonction de rpartition. Il s'agit de la somme des probabilits ponctuelles :
P (X x) = P (X = 0 ou X = 1 ou . . . ou X = x) = P (X = 0) + P (X = 1) + . . . + P (X = x) vnements incompatibles
x
=
j=0
P (X = j)
26
F (x) = P (X < x) =
j=0
P (X = j)
(6.2)
On reprsente graphiquement cette fonction de rpartition l'aide d'une courbe cumulative en escalier (Figure 6.2)2 .
Source : http://nte-serveur.univ-lyon1.fr/nte/immediato/math2002/Mass11/cours/chapitr2a.htm
27
F (x) =
f (t)dt
(6.3)
La fonction de rpartition F (x) est une fonction continue, monotone et croissante dans le domaine
F () = lim F (x) = 0
x x+
Remarque 10. Souvenons-nous que la fonction de rpartition est une intgrale de la fonction de densit. Il
est galement possible d'utiliser cette dernire pour reprsenter graphiquement la fonction de rpartition, il s'agit d'une surface dans ce cas (Figure 6.4).
Elle
28
f (x)dx
f (x)dx
= F (b) F (a)
Remarque 11. Probabilit ponctuelle pour une variable continue. La vraie distinction entre
variables continues et discrtes tient dans le calcul de la probabilit ponctuelle. La probabilit d'un point
c situ entre a et b serait limba P (a < X < b) = 0. Ainsi, la probabilit d'une valeur est par dnition
nulle pour les variables continues. En ralit, il s'agit bien souvent d'un problme de point de vue, voire d'chelle ou de prcision de mesure. La probabilit que la dure de vie d'un vhicule soit gal 4 an est loin d'tre nulle (beaucoup de vhicules partent la casse au bout de 4 an). En revanche, la probabilit que cette dure de vie soit exactement de 126144000 secondes (trs approximativement 4 an) est quasi-nulle (on peut dicilement dire la seconde prs la perte d'un vhicule).
Remarque 12. Dans le cas o X est une variable discrte, F (x ) = s'entend P (X < x ) = .
Nous numrons ici quelques quantiles particuliers.
La mdiane
La mdiane est le quantile d'ordre =
Me 1 2,
f (x)dx = 0.5. La mdiane partage en deux parties gales la population, c'est une caractristique de
tendance centrale.
Les quartiles
Les quartiles, nots Qi (respectivement i = 1, 2, 3) correspondent aux quantiles d'ordre ( =
Les dciles
Le k -me dcile (k = 1, . . . , 9) est le quantile d'ordre la mdiane.
k 10 .
7.1.2 Le mode
On appelle mode (valeur dominante, valeur la plus probable) d'une variable alatoire, la valeur M o pour laquelle l'histogramme de frquence prsente son maximum.
30
Lorsque la variable alatoire X est continue, avec une fonction de densit pourvue d'une drive premire et d'une drive seconde, le mode M o satisfait f (M o) = 0 et f (M o) < 0) (concavit vers le bas). Dans le cas des variables discrtes, M o est la valeur de X associe la plus grande probabilit, d'o l'appellation valeur la plus probable.
(x)f (x)dx =
DX DX
(7.1)
Remarque 14. L'esprance mathmatique existe si l'intgrale est convergente. Elle est indpendante de x. Remarque 15. Lorsque X est une variable alatoire discrte, E[(X)] =
Si DX N, E[(X)] =
+ x= DX
(x)P (X = x).
(x)P (X = x)
af (x)dx f (x)dx
DX
= a = a1 =a
On peut en dduire que E[E[X]] = E[X], puisque E[X] n'est pas une variable alatoire.
E[
i
ai Xi + b] =
i
ai E[Xi ] + b
Caractristique 24 (Esprance du produit de 2 v.a.). E[XY ] = E[X]E[Y ] + COV (X, Y ), COV () est la
covariance, nous la dtaillerons plus loin. En particulier, lorsque X et Y sont indpendantes, E[XY ] = E[X]E[Y ].
31
mr (X) = E[X r ]
Pour une v.a. (variable alatoire) discrte, mr (X) = Pour une v.a. continue, mr (X) =
DX + x=0
(7.2)
xr px , o px = P (X = x) ;
x f (x)dx
mr =
n i=0
(7.3)
E[X])r px
(x E[X])r f (x)dx
Remarque 18 (Statistique descriptive). En statistique descriptive, pour une variable discrte, le moment
centr d'ordre r est obtenu avec mr =
n i=0
fi (xi x)r
[r] (X) = E[
(7.4)
Les moments factoriels se calculent essentiellement sur les v.a. discrtes, il vient alors [r] (X) =
n x! x=0 (xr)! px .
Remarque 20. Il est possible d'exprimer les moments non-centrs l'aide des moments factoriels :
32
m1 = [1] m2 = [2] + [1] m3 = [3] + 2[2] + [1] m4 = [4] + 6[3] + 7[2] + [1]
7.2.4 La variance
On appelle variance de X , not V (X), le moment centr d'ordre 2 de X.
(7.5)
(X) =
V (X)
(7.6)
Remarque 21 (Formule de Koenig). Il est possible d'exprimer la variance partir des moments noncentrs.
V (X) = E[(X E[X])2 ] = E[X 2 2XE[X] + E[X]2 ] = E[X 2 ] + E[X]2 2E[X.E[X]] = E[X 2 ] + E[X]2 E[X].E[X] = E[X 2 ] E[X]2 = m2 (X) m1 (X)2 , connue sous le nom de formule de Koenig
Caractristique 25 (Variance d'une constante). Si a est une constante (non alatoire), V (a) = 0. Caractristique 26 (Mise en facteur d'un coecient non-alatoire). Si a est une constante (non alatoire),
V (aX) = a2 V (X).
7.2.5 La covariance
Soient 2 v.a. X et Y, on appelle covariance de X et Y l'expression :
(7.7)
y)) ;
33
DX
DY
XY = (X, Y ) =
cov(X, Y ) (X)(Y )
(7.8)
3 E[(X E[X])3 ] = (7.9) 3 3 C'est une valeur sans dimension qui n'est pas aect par un changement d'origine et d'chelle . 1 =
Selon la valeur du coecient d'asymtrie, la fonction de densit (ou le diagramme en btons pour les v.a. discrtes) prend une forme dirente : tale droite, symtrique ou tale gauche (Figure 7.1).
4 3 (7.10) 4 C'est un coecient sans dimension, invariant par changement d'chelle et de dimension. La constante 2 = 3 a t choisie de manire ce que le coecient d'aplatissement de la loi normale soit gale 2 = 0.
Dans la gure 7.2, nous observons les aspects de la fonction de distribution correspond direntes valeurs de 2 .
34
Elle gnre les moments non-centrs. Exemple 17. Pour t = 0, nous avons :
X (0) = 1 ; X (0) = E[X] ; X (0) = E[X 2 ] ; ; X (0) = E[X k ] = mk , moment non-centr d'ordre k .
(k)
7.4.2 Fonction gnratrice des probabilits Dnition 8. Soit une quantit certaine u [0, 1]. On appelle fonction gnratrice des probabilits, note
gX (u), l'expression : gX (u) = E[uX ]
(7.12)
La fonction gnratrice des probabilits gnre les moments factoriels. Exemple 18. Soit X une v.a. discrte, gX (u) = E[uX ] =
dgX (u) = du d2 gX (u) = du2 dk gX (1) du + x1 px ; pour le x=0 xu + x2 px ; x=0 x(x 1)u + x=0 xDX
;
35
7.4.3 Fonctions caractristiques Dnition 9 (Fonction caractristique). La fonction caractristique d'une v.a. X est dnie par
X (t) = E[eitX ]
(7.13)
eitx px
eitX f (x)dx
Proprits
Grce deux proprits trs importantes, les fonctions caractristiques permettent de rsoudre un grand nombre de problmes de probabilits.
Caractristique 30. Si Y = aX , o a est un scalaire non-alatoire, alors gY (t) = gX (at) Caractristique 31 (Fonction caractristique d'une somme de v.a. indpendantes). La fonction caractristique de Z = Y + X est gale gZ (t) = gX (t) gY (t)
Exemple 19 (Loi de la somme de 2 v.a. normales). Soit X (resp. Y ) une v.a. distribue selon une loi
normale1 de paramtres N (0, x ) (resp. N (0, y )) , sa fonction caractristique est2 gale gX (t) =
(x t)2 2
(resp. gY (t) = e
(y t)2 2
).
(y t)2 2
2 2 x + y )
Nous verrons plus loin dans ce support la dnition de la loi normale. Ses deux paramtres sont la moyenne et l'cart-type. Pour plus de prcisions, voir http://www.proba.jussieu.fr/cours/processus-html/node18.html
36
probabilit que X s'carte de son esprance mathmatique d'une grandeur infrieure t, a pour limite suprieure
2 t2
:
P {|X | t} 2 t2
(7.14)
Remarque 22 (Loi des grands nombres). Cette ingalit est importante car elle permet de dmontrer la
loi dite des "grands nombres". Elle stipule qu'il sut d'extraire un chantillon d'un eectif susant dans une population pour estimer l'esprance mathmatique l'aide de la moyenne arithmtique, ou encore pour estimer une probabilit l'aide d'une frquence. On parle alors de convergence en probabilit.
Remarque 23 (Une expression plus gnrale de l'ingalit de Bienaym-Chebychev). La porte de l'ingalit de Bienaym-Chebychev est bien plus large que celle couramment prsente dans les ouvrages. Elle peut tre dnie pour une fonction g(X) telle que
(7.15)
Dnition 11 (Convergence en probabilit). On considre une suite (Xn ) d'une v.a. dnie sur ,
X une autre v.a. dnie sur . On dit que la suite (Xn ) converge en probabilit vers X si > 0 , lim P (|Xn X| > ) = 0
n
(7.16)
Consquence : Pour que (Xn ) converge en probabilit vers X , il faut et il sut que E(Xn X) 0 et V (Xn X) 0 lorsque n (la dmonstration passe par l'ingalit de Bienaym-Chebychev).
Partie II
39
A priori, les lois de distribution des phnomnes physiques, conomiques, etc. sont innombrables. Chaque cas semble particulier. En eet, quelle rapprochement pourrait-on faire entre la dure de vie d'une paire de chaussures et le temps d'attente une caisse d'un grand magasin ? En ralit, on se rend compte que la grande majorit des phnomnes statistiques peuvent tre dcrits par un nombre rduit de modles probabilistes. Il importe dans un premier temps de pouvoir dcrire
de faon adquate le mcanisme du processus rel tudi (temps d'attente, nombre de passages
dans un intervalle de temps, nombre d'essais avant d'obtenir tel rsultat, etc.). Dans un second temps, une fois cette caractrisation ralise, nous pouvons choisir la loi thorique qui parat le mieux convenir pour modliser le phnomne observ, l'tape suivante consistant estimer
Exemple 20. On s'intresse l'apparition du ct "pile" si l'on lance m fois une pice. A chaque jet, la
probabilit d'apparition de "pile" est p = 1 . 2
Probabilit Tirage
p 1p 1
x mx m
(8.1)
La loi binomiale B(m, p) est dnie par le paramtre p, qui indique la probabilit d'apparition de l'vnement pour une preuve ; m est le nombre d'preuves ralises, c'est une donne du problme, nous n'avons pas l'estimer.
42
Remarque 24. Il est possible d'obtenir ces caractristiques partir des fonctions gnratrices des moments.
p=
n i=1
xi
mn
(8.2)
p=
n i=1
xi
Exemple 21. On s'intresse au nombre de jets ncessaires pour le ct "pile" de la pice apparaisse k fois.
1 A chaque jet, la probabilit d'apparition de "pile" est p = 2 .
Exemple 22. Pour les grands joueurs, on peut galement s'intresser au nombre d'essais ncessaires pour
qu'une combinaison apparaisse (enn) au loto.
(8.3)
Le domaine de dnition de X est DX = {k, k + 1, . . .} ; k est le nombre de ralisation de l'vnement souhait ; p est la probabilit de survenue de l'vnement une preuve.
43
p=
k n
n i=1
1 xi
(8.4)
succs ; la loi binomiale ngative correspond au nombre d'checs prcdent le k-me succs.
Si X suit une loi de Pascal, Y = X k suit une loi binomiale ngative. Sa distribution est P (Y =
k1 y) = Ck+y1 pk (1 p)y .
44
B M
x m
M B mx
P (X = x) =
x mx CB CM B m CM
(8.5)
La loi est essentiellement dcrite par son paramtre B ; M est une donne de l'exprimentation.
Exemple 23. Une machine outil fournit M pices par jour, M est une donne du problme, nous nous
intressons au nombre B de pices dfectueuses produites par jour.
E(X) = m V (X) = m 1 =
B , le nombre de pices dfectueuses parmi les M pices produites par jour, est le paramtre estimer : M B= m
n i=1
xi
(8.6)
8.3.5 Passage aux proportions et approximation par la loi binomiale Travailler sur des proportions
Bien souvent, la loi hypergomtrique est prsente diremment dans la littrature. Nous avons bien une population de M individus, mais on s'intresse plutt la proportion p des individus possdant la caractristique tudie en eectuant un tirage de m observations sans remise. Par rapport au schma binomial, c'est le caractre exhaustif du tirage qui fait la dirence.
45
Exemple 24. Dans un parking de supermarch, on s'intresse la proportion de vhicules ayant des jantes
alliages. Nous n'allons faire un chantillonnage avec remise, au risque de reconsidrer 2 ou mme plusieurs fois un mme vhicule. Par rapport nos notations ci-dessus, on pose B = M p, les caractristiques de la loi deviennent :
Approximation
On peut montrer que lorsque la taille de la population M tend vers l'inni, les distributions des lois hypergomtriques et binomiales sont quasi-quivalentes. On constate galement que lorsque M est trs grand par rapport m, le rapport
M m M 1
1 (Ex. On
interroge 1000 individus prlevs au hasard parmi les quelques 44.5 millions d'lecteurs inscrits en France en 2007), il est possible d'approximer la loi hypergomtrique l'aide de la loi binomiale. Cela facilite le
calcul des probabilits dans la pratique. En gnral, on considre que l'approximation est valable ds que le rapport le taux de sondage.
m M
Exemple 25. Nombre de pices dfectueuses produites par une machine outil.
La loi de Poisson peut tre galement utilise spciquement pour dcrire la survenue d'un vnement dans un intervalle de temps. On parle alors de processus de Poisson. Dans ce cas, la probabilit ne doit tre inuence sur les expriences passes, elle ne doit pas inuencer les expriences futures. Le nombre d'apparition de l'vnement ne dpend que de la dure d'observation.
x e x!
(8.7)
46
E(X) = V (X) = 1 1 = 1 2 =
n i=1
xi
(8.8)
Exemple 27. Si m est le nombre de pices slectionnes au hasard dans la production d'une machine, p
la proportion de pices dfectueuses on peut esprer qu'elle est trs petite la loi du nombre de pices dfectueuses qui suit une loi binomiale X B(m, p) peut tre raisonnablement approche l'aide d'une loi de Poisson P(mp).
47
A1 Ak Al
Total La distribution est dnie par :
p1 pk pl 1
x1 xk xl m
m! px1 pxl (8.9) l x1 ! xl ! 1 Contrairement aux autres situations tudies dans ce support, la variable alatoire est un vecteur. P (X = x ) = P [X = (x1 , . . . , xl )] =
pk =
n i=1
xik mn
(8.10)
Les lois continues sont caractrises l'aide des fonctions de densit. Thoriquement, une v.a. continue doit pouvoir prendre n'importe quelle valeur dans un intervalle donn. C'est pour cela d'ailleurs que la probabilit ponctuelle est par dnition nulle. En ralit, dans certains cas, la distinction loi discrte - loi continue est essentiellement formelle. Il est possible d'approximer certaines lois discrtes l'aide de lois continues.
Remarque 25 (Loi discrte uniforme). On peut dnir le pendant de la loi uniforme pour les v.a. discrtes.
Il s'agit dans ce cas d'un cas particulier de la loi multinomiale o les tats Ek sont quiprobables.
f (x) =
1 ba ,
si a x b
0, sinon
F (x) =
xa ba
(9.1)
50
(9.2) (9.3)
On remarquera que l'on n'utilise pas directement les valeurs triviales xmin et xmax pour estimer les
Exemple 28 (Rgression Linaire Multiple). Dans la rgression linaire multiple, les lois utilises pour
l'valuation globale de la rgression et l'valuation individuelle des coecients reposent sur la normalit des rsidus.
51
f (x) =
Caractristique 32 (Loi normale centre rduite). Si Z N (0, 1), alors X = Z + suit une loi N (, ).
Grce cette proprit, seule Z est tabule. Il est ais d'extrapoler sur X , quelles que soient les valeurs de et . A contrario, il est possible de ramener toute distribution normale la loi normale centre rduite en formant Z =
X .
2 ,
2 2 1 + 2 ).
E(X) = V (X) = 2 1 = 0 2 = 0 1 = 0 et 2 = 0 sont des caractristiques marquantes de la loi normale. Elles peuvent tre utilises
pour vrier la compatibilit d'une distribution empirique avec la loi normale (voir test de Bera-Jarque, test de d'Agostino).
52
=x= 2 =
1 n
xi
i=1 n
(9.5) (9.6)
1 n1
(xi x)2
i=1
Thorme 1 (Thorme central limite). Soient X1 , X2 , . . . , Xn , des v.a. indpendantes de mme loi, quelle que soit cette loi, de moyenne et d'cart type .
La v.a. S =
1 n n i=1 Xi tend vers une loi normale N (, n )
Nous notons que ces lments dnissent les conditions de formation de la loi normale : les facteurs sont nombreux, indpendants, et agissent additivement.
Remarque 26. Ce thorme peut s'exprimer de manire plus gnrale encore. L'galit des moyennes et
des carts type n'est pas requise pour que la somme tende vers la loi normale. L'expression des paramtres de S est simplement un peu plus complique.
53
C'est une loi dnie dans R+ , asymtrique, tale droite (Figure 9.2). Sa densit de probabilit est :
f (x) =
o = E[ln(X)] et 2 = V [ln(X)].
x 2
e 2 (
ln x 2 )
(9.7)
On rencontre frquemment cette loi dans la distribution des salaires ou des revenus. Un grand nombre de personnes disposent d'un salaire modeste (proche du SMIC par exemple), et mesure que la valeur s'lve, la proportion des personnes concernes diminue rapidement. La mdiane est trs infrieure la moyenne pour ce type de loi.
mp(1 p) ds lors que m est grand (quelques dizaines d'units) et que p n'est pas trop proche de
0 ou 1.
En eet, lorsque m , X peut prendre une innit de valeurs. En pratique, mp(1 p) > 9 sut assurer une approximation satisfaisante.
54
proche de la loi normale. Le logarithme, vu plus haut, en est une ; la racine carre peut tre utilise galement. Il existe plusieurs classes de fonctions paramtrables permettant d'accder des transformations que l'on peut ajuster selon notre convenance. Par ces fonctions, une des plus connue est la transformation de Box-Cox1 . La fonction dpend de 2 paramtres k1 et k2 , elle s'crit :
z=
(x+k2 )k1 1 k1
, (k1 = 0)
ln(x + k2 ) , (k1 = 0)
Les paramtres k1 et k2 peuvent tre dtermins par ttonnement, ou encore par maximisation de la vraisemblance (N.A. : mais c'est quand-mme un peu le canon pour tuer la mouche...).
f (x) = ex est le seul paramtre de la loi. La fonction de rpartition est facilement obtenu : F (x) = 1 ex
(9.8)
(9.9)
1 1 V (X) = 2 1 = 2 E(X) = 2 = 6
55
(9.10)
xi .
E().
Dnie dans R+ , sa fonction de densit est paramtre par m et :
f (x) =
m m1 x x e ,x0 (m)
(9.11)
Dnition 12 (Fonction ()). La fonction (), ou fonction Gamma d'Euler, est dnie2 par l'intgrale
(x) =
+ x1 t t e dt. 0
Plus prosaquement, concernant les cas les plus souvent rencontrs, pour un entier m, elle est calcule l'aide de
Pour une lecture approfondie du sujet, nous conseillons la lecture de Daumas, F., "Mthodes de normalisation des donnes", RSA, (30)4, 1982. Accessible en ligne sur le serveur http://www.numdam.org Pour une description dtaille, voir http://fr.wikipedia.org/wiki/Fonction_gamma
56
m m V (X) = 2 2 1 = m 6 2 = m E(X) =
f (x) = x1 ex
Le paramtre s'interprte de la manire suivante :
(9.12)
< 1, la pice value est en rodage, elle s'amliore au l du temps (un moteur neuf d'un vhicule par exemple) ; = 1, nous sommes en rgime stationnaire, la pice est utilise normalement et ne subit pas de modications de ses caractristiques ; > 1, nous sommes en vieillissement acclr, la pice est utilise dans des conditions extrmes (en comptition par exemple).
3 ) 3 (1 + 4 ) 4 (1 +
2 ) (1 + 3 ) (1 +
1 1 ) + 2 3 (1 + )] 1 2 1 1 ) + 6 (1 + ) 2 (1 + ) 3 4 (1 + )] 3
Les coecients d'asymtrie et d'aplatissement dpendent des paramtres de la fonction. Dans le gure 9.5, nous donnons une illustration de la fonction de densit.
3
57
1 + 2 =
o =
x
2 (1 + ) 2 (1 + 1 )
L'expression de semble rdhibitoire, on peut se contenter d'en obtenir une estimation simplie par ttonnement ou par une approche graphique.
Remarque 27 (La fonction ln ()). Si la fonction () est assez ardue calculer, surtout pour les valeurs
non-usuelles (ni un entier, ni un demi-entier), la fonction ln () est trs souvent implmente dans les bibliothques de calcul. Pour prendre un exemple parmi tant d'autres, dans le tableur EXCEL, il s'agit de la fonction LNGAMMA().
Voir http://fr.wikipedia.org/wiki/Distribution_de_Pareto
58
X est ]c, +[
La fonction de densit est monotone dcroissante, elle s'crit
(9.13)
(9.14)
c = xmin = 1 n
n
1 n
1
xi ln c i=1
f (x) = exe
La fonction de rpartition est obtenue aisment :
(9.15)
F (x) = ee
(9.16)
59
E(X) = 0.5772156649 ...constante d'Euler, note dans la littrature 2 V (X) = 6 1 = 1.29857 2 = 5.4
La distribution n'est pas symtrique, elle est tale droite.
f (x) =
Avec
zez
E(X) = + 2 2 V (X) = 6
La loi standard de Gumbel que nous avons prsente en premier lieu correspond aux paramtres = 0 et = 1.
Remarque 28 (Statistique infrentielle). Nous entrons dans un cadre dirent, celui de la statistique infrentielle que l'on appelle galement statistique mathmatique. Nous nous appuyons sur les donnes
observes pour infrer sur les caractristiques de la population1 , la loi thorique dans le cas prsent. Nous nous contenterons d'en donner une description simplie et parcellaire de manire comprendre les tests d'adquation dans ce support. La statistique infrentielle fait partie d'un domaine part, trs vaste, qui fera l'objet d'autres supports. En modlisant : Nous pouvons produire une description plus concise des donnes, et nalement une meilleure connaissance de la ralit. Nous dlimitons mieux la probabilit de survenue des valeurs de la v.a. tudie : ses caractristiques, moyenne, cart-type ; les valeurs les plus probables, les valeurs qui ont trs faible probabilit d'apparatre , etc. D'une certaine manire, cela nous permet aussi de prdire les valeurs des observations futures ou tout du moins la plage de ces valeurs en prcisant la probabilit de leur apparition. Nous pouvons mesurer l'ecacit d'une action en comparant les paramtres de la loi de distribution avant et aprs l'opration (ex. on veut comparer la probabilit de survenue d'accidents un carrefour, avant et aprs avoir install une nouvelle signalisation). etc.
62
2 = c
k=1
2
(ok tk )2 tk
(10.1)
Un description de la dmarche globale de modlisation en traitement de donnes est disponible sur le site du NIST "NIST/SEMATECH e-Handbook of Statistical Methods", http://www.itl.nist.gov/div898/
handbook/pmd/section4/pmd41.htm Une description simplie, trs accessible et pdagogique, du test d'adquation du 2 est disponible sur le web,
voir : http://www.mission-laique.com/pedagogie/pdf/math56/am56_p59_72.pdf
63
Par dnition, 2 0. Si 2 = 0, la distribution thorique cadre parfaitement avec la distribution c c empirique. Si 2 > 0, il y a des dirences. c Il est vident que la valeur seuil 0 n'est pas du tout crdible dans ce type d'analyse. A cause des uctuations d'chantillonnage, il est quasiment impossible que la loi observe et la loi thorique concorde parfaitement. Ce serait suspect d'ailleurs, laissant imaginer que les donnes ont t manipules. Il nous faut proposer une procdure pour dnir de manire raisonne le seuil partir duquel le 2 c calcul est susamment important pour que la dcision de rejeter l'hypothse de compatibilit puisse tre prise ; ou inversement, en de de quelle valeur nous pouvons considrer que l'cart est ngligeable, imputable aux uctuations d'chantillonnage. Pour rester dans un cadre probabiliste, il nous faut dterminer la loi de distribution de l'cart mesur.
Remarque 29 (Contraintes sur la constitution des classes). Pour que la loi du 2 soit valide, il y a deux
contraintes sur la constitution des classes. Tout d'abord, (1) les classes doivent tre "assez nombreuses" (K 8 selon certaines sources, mais cela dpend aussi du nombre de paramtres estims). Mais a contrario, (2) il faut galement que les eectifs thoriques dans chaque classe soit assez lev (tk 5, a-t-on coutume de dire, ou tout du moins 80% des tk doivent tre 5). Si cette dernire condition n'est pas remplie, nous devons procder des regroupements de classes, au risque de buter sur la premire contrainte4 .
10.2.2 Loi du 2
La loi du 2 est trs utilise, non pas pour modliser des phnomnes observs, mais pour mettre en oeuvre des tests statistiques. Elle est forme par l'addition de lois normales centres et rduites indpendantes. Elle est paramtre par dit degrs de libert. C'est une loi asymtrique, tale droite (Figure 10.1). Elle devient symtrique mesure que le nombre de degrs de libert augmente.
Pour une discussion sur les contraintes du test d'adquation, voir http://fr.wikipedia.org/wiki/Test_de_
Khi-2
64
=K r1
(10.2)
o r est, pour la loi de probabilit modlise, le nombre de paramtres estims partir des donnes.
Exemple 29. S'il s'agit de la loi normale, r = 2 car nous devons estimer la moyenne et l'cart-type ; pour
la loi de Poisson, r = 1 puisque nous ne devons estimer qu'un seul paramtre ; etc. Dans la thorie des tests, nous devons introduire un risque qui est une probabilit de se tromper. En eet, nous travaillons sur des phnomnes entachs de uctuations. Fonder des dcisions certaines sur de donnes observes est compltement illusoire. Il parat plus raisonnable de prendre des dcisions en valuant au mieux les risques encourus.
Dnition 13 (Risque de premire espce). Dans le test d'adquation, nous confrontons 2 hypothses : H0 , l'hypothse nulle, la modlisation des donnes avec la loi est licite ; H1 , l'hypothse alternative, la loi n'est pas compatible avec les donnes. Dans ce cadre, nous sommes particulirement sensibles un risque (le risque de premire espce), c'est la probabilit de dcider que la loi modlise est en dsaccord avec les donnes observes alors qu'en ralit la loi est licite, on note = P (dcider H1 /H0 est vraie). On parle aussi de probabilit de rejeter tort l'hypothse nulle.
Dans la pratique statistique, il existe une srie de valeurs ( = 0.01; 0.05; 0.1; . . .) communment utilises. Elles nous permettent de spcier notre niveau d'exigence par rapport aux rsultats.
(10.3)
(10.4)
Dans la gure 10.2, nous montrons le quantile d'ordre 1 pour une loi du 2 5 degrs de libert. Les seuils critiques peuvent tre lues dans les tables statistiques que l'on trouve dans tous les bons ouvrages5 . Les logiciels de statistique les fournissent galement.
5
On peut trouver d'excellentes rfrences sur le Web, voir par ex. http://courses.wcupa.edu/rbove/eco252/
252suppkey.htm
65
Fig. 10.2. Exemple de seuil critique 2 (5) pour un risque = 0.05 0.95
Remarque 30 (La p-value). Souvent, les logiciels calculent directement la p-value . Elle correspond la
probabilit pour que la loi du 2 () dpasse le 2 calcul c.--d. = P (2 () > 2 ). c c Dans ce cas, on compare directement la p-value au risque du test, on dcide de rejeter l'hypothse de compatibilit (hypothse H0 ) si < . Cette rgle de dcision est totalement quivalente celle dnie par le seuil critique.
Statistique descriptive
Acher directement le tableau des donnes ne sert absolument rien. Il nous faut rsumer l'information. Le plus simple est de construire l'histogramme de frquence pour se donner une ide de la conguration des donnes (Figure 10.3). La distribution est plus ou moins symtrique. La valeur la plus basse observe est 7, la plus leve est
5371 = 17.9 =x= 300 L'hypothse que nous voulons vrier est donc : la v.a. X "absence de ceinture de scurit" est-elle
compatible avec une loi de Poisson P(17.9) ?
66
Le nombre de classes est K = 24, cela convient. En revanche, dans plusieurs cas, les eectifs thoriques sont faibles (tk < 5), ce qui peut fausser les calculs. De plus, nous constatons que la somme des frquences relatives thoriques est infrieure 1. Il y a des cas non recenss dans ce tableau. Dans le cas prsent, il s'agit essentiellement des valeurs extrmes.
67
Nous devons eectuer des regroupements et complter notre tableau (Figure 10.5). Le tableau comporte maintenant K = 19 classes. Moins de 80% des classes ont un eectif thorique sensiblement infrieur 5.
La confrontation des distributions empiriques et thoriques peut tre reprsente dans un diagramme de frquences (Figure 10.6).
L'tape suivante consiste calculer les carts entre les distributions empiriques et thoriques. Dans un tableur, il s'agit tout simplement de rajouter une nouvelle colonne, puis d'en faire la somme (Figure 10.7). La statistique du 2 est
2 = 8.4 c
68
Pour tre tout fait franc, je ne suis pas trop tonn, les donnes ont t gnres sous le logiciel R (http:
//www.r-project.org/) avec une loi de Poisson P(18). Une incompatibilit aurait t assez inquitante. Nous utilisons bien l'estimateur non-biais de l'cart type dcrit en 9.2.
69
2 = 13.2 c
Nous conservons le risque = 0.05, le nombre de degrs de libert devient = 19 2 1 = 16. Le seuil critique du test est gal 0.95 (16) = 26.29. L'hypothse de compatibilit la loi normale ne peut tre rejete. Quoi de plus naturel nalement ? Nous avions vu plus tt que la loi de Poisson convergeait vers la loi normale lorsque le paramtre tait lev, et qu'en pratique, l'approximation tait correcte ds que 18. Nous sommes tout fait dans ce cas de gure. Si on s'intresse la p-value, elle est gale = 0.659. La dcision reste trs tranche, elle l'est un peu moins par rapport la modlisation l'aide de la loi de Poisson.
70
En revanche, et c'est bien l l'inconvnient de cette approche par rapport au test du 2 , les paramtres de la loi sont censs tous connus et non pas estims partir de l'chantillon8 , 9 .
Exemple 30. Reprenons notre exemple ci-dessus. Nous savons que les donnes ont t gnres partir
paramtres sont donc = 18 et = empirique avec la loi N (18, 4.2426). d'un gnrateur de nombre pseudo-alatoires suivant une loi P(18). En passant la loi normale, ses 18 = 4.2426. Nous testerons donc l'adquation de la distribution
Les lois de ces statistiques ont t tabules sous leur forme exacte et asymptotique10 . Il sut, pour accepter ou rejeter l'adquation, de comparer la statistique calcule avec le seuil critique lu dans la table. En ce qui concerne la statistique Kn , lorsque n est grand (n 80) et pour un risque 0.2, il est possible d'approximer le seuil critique partir de la formule :
1 ln 2 2 n
(10.5)
R.C. : Kn d
8
Dans le cas spcique du test d'adquation la loi normale, des modications peuvent tre introduites pour que le test de Kolmogorov reste applicable alors que les paramtres et sont estims partir de l'chantillon Est-ce vraiment un inconvnient dans la pratique ? Gnralement le choix de la loi repose sur une expertise. De la mme manire le choix des paramtres de la loi peut s'appuyer sur les connaissances du domaine, la littrature, les rsultats dans des travaux similaires, etc. Voir par exemple Tassi, page 317
10
71
et
i n.
Enn, nous crons une dernire colonne avec la fonction de rpartition thorique F0 (xi ) (Figure 10.9)
i1 n
Exemple 31. Pour illustrer notre propos, avec la loi normale et les paramtres ci-dessus, le tableur EXCEL11 fournit F0 (10) = 0.02967, etc. Les calculs fournissent les rsultats suivants :
+ Kn = 0.0669 Kn = 0.0398
Kn = 0.0669
Le seuil critique pour un risque = 0.05 est :
d0.05 =
Nous constatons que Kn < d0.05 , nous ne sommes pas dans la rgion critique du test, l'hypothse de compatibilit de la distribution empirique avec la loi normale ne peut tre rejete.
Remarque 31 (Cohrence entre le test de K.S. et le test du 2 ). Dans cet exemple, le test de KolmogorovSmirnov est cohrent avec les conclusions du test d'adquation du 2 . Tout est pour le mieux. S'il y
avait dsaccord, le test de Kolmogorov-Smirnov concluant au rejet de l'adquation. tant plus puissant, c.--d. il dtecte mieux l'hypothse alternative lorsqu'elle est vraie, nous accorderons plus de crdit sa dcision.
11
=LOI.NORMALE(10,18,RACINE(18),1)
Littrature
1. Avazian, S., Enukov, I., Mechalkine, L., Elments de modlisation et traitement primaire des donnes, Mir, 1986. 2. Grais, B., Mthodes Statistiques, Dunod, 3me dition, 2003. 3. Jolion, J.M., Probabilits et Statistique, http://rfv.insa-lyon.fr/~jolion/STAT/poly.html 4. Le Men, J.F., Statistiques, http://www.iut-lannion.fr/LEMEN/MPDOC/STAT/presstat.htm 5. Pelat D., Bruits et Signaux (introduction aux mthodes de traitements des donnes) : statistique des variables
alatoires, http://www.lpthe.jussieu.fr/DEA/pelat.ps
6. Saporta, G., Probabilits, Analyse des donnes et Statistique, Technip, 2me dition, 2006. 7. Tassi, P., Mthodes statistiques, Economica, 1992. 8. Veysseyre R., Aide Mmoire. Statistique et probabilits pour l'ingnieur, Dunod, 2me dition, 2006.