Vous êtes sur la page 1sur 217

Jean-Pierre Lecoutre

STATISTIQUE
ET PROBABILITS

70%
APPLICATIONS

4e

dition

30%
COURS

Statistique
et probabilits

TRAVAUX DIRIGS
JEAN-PIERRE LECOUTRE
Matre de confrences luniversit
Panthon-Assas (Paris II)

Statistique
et probabilits
Rappels de cours
QCM et questions de rflexion
Exercices corrigs
Sujets dannales

4e dition

Dunod, Paris, 2008


Dunod, Paris, 2005 pour la prcdente dition
ISBN 978-2-10-054431-8

Sommaire

Avant-propos

VII

TD 1 Notion de probabilit

Lessentiel du cours
Pouvez-vous rpondre?
Questions de rflexion
Entranement
Solutions

1
5
6
6
11

TD 2 Variable alatoire discrte


Lessentiel du cours
Pouvez-vous rpondre?
Questions de rflexion
Entranement
Solutions

TD 3 Variable alatoire continue

21
21
25
25
26
29

35

Lessentiel du cours
Pouvez-vous rpondre?
Questions de rflexion
Entranement
Solutions

35
39
40
40
44

TD 4 Couple et vecteur alatoires

51

Lessentiel du cours
Pouvez-vous rpondre?
Questions de rflexion
Entranement
Solutions

51
56
56
57
61

VI

TD Statistique et probabilits

TD 5 Notions de convergence
Lessentiel du cours
Pouvez-vous rpondre ?
Questions de rflexion
Entranement
Solutions

TD 6 Estimation ponctuelle
Lessentiel du cours
Pouvez-vous rpondre ?
Questions de rflexion
Entranement
Solutions

TD 7 Estimation par intervalle de confiance


Lessentiel du cours
Pouvez-vous rpondre ?
Questions de rflexion
Entranement
Solutions

TD 8 Thorie des tests


Lessentiel du cours
Pouvez-vous rpondre ?
Questions de rflexion
Entranement
Solutions

TD 9 Annales corriges
Sujets dexamen Licence 2e anne
lments de correction

71
71
75
75
76
79

85
85
89
90
90
93

105
105
110
110
111
115

123
123
127
128
128
136

157
157
167

Tables statistiques

193

Index

205

Avant-propos

Ce volume de la srie TD, de la collection co Sup , sadresse aux tudiants de


Licence dconomie et de Gestion. Au dbut de chaque chapitre, les principales
notions de cours et les rsultats essentiels sont rappels de faon succincte dans
Lessentiel du cours . Un bref texte introductif indique les points essentiels qui
vont tre abords et tudis dans le chapitre. Il ne sagit pas dun rsum de cours,
mais seulement dun avant-propos o on essaie dexpliquer, dans un langage peu
formalis, le fondement et lutilit des notions dfinies ensuite de faon plus formelle.
Chacun des huit chapitres prsente la mme structure. Un certain nombre daffirmations constituent le paragraphe Pouvez-vous rpondre ? . La rponse en
vrai-faux permet ltudiant de vrifier sil a bien compris les principaux points
de cours. Il doit exercer sa vigilance face des affirmations, parfois simples, mais
qui peuvent contenir un pige.
Les Questions de rflexion qui sont proposes ensuite ont essentiellement
pour but de mettre laccent sur certains lments de cours un peu dlicats. Il faut
tre attentif aux commentaires qui figurent dans la solution de lexercice, en fin de
chapitre.
Les exercices d Entranement permettent enfin ltudiant de tester sa capacit passer de la thorie la pratique. Ils suivent lordre de progression du cours
et sont prcds dun titre indiquant la principale notion laquelle ils se rapportent. Une rubrique Analyse de lnonc et conseils prcise la dmarche suivre
et les rsultats de cours utiliser pour rsoudre lexercice propos.
Les solutions trs dtailles sont regroupes en fin de chapitre, trs souvent assorties de commentaires.
Dans le dernier chapitre, les textes rcents des examens de 2e anne de Licence
dconomie et Gestion de luniversit Panthon-Assas permettent de retrouver
les principaux points abords dans les chapitres prcdents. Ltudiant peut ainsi
valuer le niveau de difficult de ce qui peut tre demand une preuve dexamen. Les corrigs sont rassembls aprs les noncs.
Je remercie Antoine Auberger pour ses judicieuses remarques et sa contribution
cette quatrime dition.

Notion
de probabilit

Si on veut formaliser un problme dans lequel le hasard intervient, on doit construire un


modle probabiliste, choisi en fonction du but que lon poursuit. Ce modle est constitu dun
ensemble fondamental, dune tribu dvnements et dune probabilit. Le choix de lensemble
fondamental est trs important pour le calcul ultrieur des probabilits des vnements.
Nous introduirons aussi les notions de probabilit conditionnelle et dindpendance. La
formule de Bayes est souvent trs utile pour le calcul de probabilits conditionnelles.

Dunod. La photocopie non autorise est un dlit.

1. Ensemble fondamental
Le rsultat dune exprience alatoire sappelle un vnement lmentaire. Lensemble des rsultats possibles sappelle ensemble fondamental (ou univers) et est
not traditionnellement . Chaque lment de reprsente donc un vnement
lmentaire, et toute partie A (ou A P ()) sera un vnement. Parfois on dit
que est lensemble des ventualits possibles et les vnements lmentaires sont
alors les singletons, cest--dire les ensembles rduits un seul lment {}, qui
sont effectivement en toute rigueur des vnements, puisquappartenant P (),
ce qui nest pas le cas du point .

2. Algbre et tribu dvnements




Le couple , P () sappelle un espace probabilisable. Mme si est fini, le cardinal
de P () peut tre un nombre trs grand et dans ce cas on est amen alors
ne considrer quune famille restreinte A de parties de , A P (). Pour que
le rsultat des oprations ensemblistes (union, intersection, complmentaire) soit
encore un vnement, il est ncessaire que la famille dvnements qui a t retenue
soit ferme, ou stable, vis--vis de ces oprations, cest--dire quil soit bien un

TD Statistique et probabilits

lment de la famille. De plus, les vnements certain , , et impossible , ,


doivent galement appartenir cet ensemble. Ainsi, on associera une preuve
alatoire un ensemble non vide de parties de , not A, qui vrifiera :
C1 pour tout A A, alors A A;
C2 pour tout A A et tout B A, alors A B A.
Il y a fermeture pour le complmentaire et lunion. Cet ensemble A sappelle une
algbre de parties de . Bien entendu, grce aux lois de Morgan, on a une dfinition
quivalente en remplaant la condition C2 par :
C 2 pour tout A A et tout B A, alors A B A.

 Proprits dune algbre


P1

La famille tant non vide, on en conclut que :


A et A

P2

Si Aj A pour 1 j n, on dmontre par rcurrence que :


n


Aj A

j=1

P3 Si Aj A pour 1 j n, on dmontre galement par passage au complmentaire que :


n


Aj A

j=1

Cependant, certaines expriences peuvent se drouler indfiniment et on a donc


besoin de renforcer la proprit P2 de fermeture pour lunion finie par une condition
de fermeture pour lunion dnombrable, soit :
C3

Si An A pour tout n N, alors :

An A

n=0

Cette condition exprime que toute union dnombrable dvnements est encore
un vnement. Lensemble A auquel on impose les conditions C1 et C3 sappelle
alors une -algbre ou tribu dvnements.
Le couple form de lensemble fondamental et de la tribu dvnements associe
A sappelle un espace probabilisable.

TD 1 Notion de probabilit

3. Probabilit
Dfinition. On appelle probabilit P sur (, A) une application P : A [0, 1] telle
que :
(i) P() = 1;
(ii) pour toute suite An dvnements incompatibles, soit An A avec Am An =
pour m  = n :





An =
P(An )
P
n=0

n=0

proprit dite de -additivit.


Une probabilit est donc une application qui un vnement va associer un nombre
compris entre 0 et 1. Le triplet (, A, P) sappelle un espace probabilis.

 Proprits
P1

Lvnement impossible est de probabilit nulle :


P() = 0

P2 La probabilit de lvnement complmentaire dun vnement quelconque


A sobtient par :
= 1 P(A)
P(A)
P3

Si un vnement en implique un autre, sa probabilit est plus petite :

Dunod. La photocopie non autorise est un dlit.

A B P(A) P(B)
P4 La probabilit de lunion de deux vnements sobtient par la formule de
Poincar :
P(A B) = P(A) + P(B) P(A B)

4. Probabilits conditionnelles
On considre lespace probabilis (, A, P) et un vnement particulier B de A
tel que P(B) > 0. La connaissance de la ralisation de B modifie la probabilit de
ralisation dun vnement lmentaire, puisque lensemble des rsultats possibles
est devenu B et non plus . Cette nouvelle probabilit, note P(.|B), est dfinie sur
la tribu conditionnelle :
A|B = {A B/A A}

TD Statistique et probabilits

par :
P(A|B) =

P(A B)
P(B)

La formule de dfinition de la probabilit conditionnelle peut aussi scrire, si


P(A) > 0 :
P(A B) = P(B)P(A|B) = P(A)P(B|A)
Elle sappelle parfois formule des probabilits composes et se gnralise par rcurrence :
P(A1 A2 . . . An ) = P(A1 )P(A2 |A1 )P(A3 |A1 A2 ) . . .

= P(A1 )

n



P Ak |

k1


P(An |A1 A2 . . . An1 )

Ai

i=1

k=2

5. Thorme de Bayes
Un systme complet dvnements est une partition de en vnements {A1 , . . . , An }
de probabilits strictement positives, P(Ai ) > 0 pour
1 i n, et incompatibles
deux deux, i.e. avec Ai Aj = pour i  = j et ni=1 P(Ai ) = 1. On suppose que
les probabilits des vnements inclus dans chacun des Ai sont connues et on va
donc dcomposer un vnement quelconque B sur ce systme :
B=B=B

 n



Ai =

i=1

n

(Ai B)
i=1

On aboutit ainsi la formule de la probabilit totale :


P(B) =

n

i=1

P(Ai B) =

n


P(Ai )P(B|Ai )

i=1

Ceci va nous permettre de calculer les probabilits a posteriori P(Ai |B), aprs ralisation dun vnement B, partir des probabilits a priori P(Ai ), 1 i n :
P(Ai |B) =

P(Ai B)
P(Ai )P(B|Ai )
= n

P(B)
P(Ai )P(B|Ai )
i=1

rsultat appel formule de Bayes ou parfois thorme de Bayes.

TD 1 Notion de probabilit

6. Indpendance en probabilit
Dfinition. Deux vnements A et B sont dits indpendants, relativement la probabilit
P, si :
P(A B) = P(A)P(B)
La probabilit de ralisation simultane de deux vnements indpendants est
gale au produit des probabilits que chacun de ces vnements se produise
sparment. En consquence, si P(B) > 0 :
P(A|B) =

P(A B)
P(A)P(B)
=
= P(A)
P(B)
P(B)

La ralisation dun vnement ne modifie pas la probabilit de ralisation de


lautre.

 Indpendance mutuelle
Si lon considre n vnements Ai , avec n > 2, il y a lieu de distinguer lindpendance deux deux qui impose :
P(Ai Aj ) = P(Ai )P(Aj ) 1 i  = j n
de lindpendance mutuelle, condition plus forte qui scrit :
P(Ai1 Ai2 . . . Aik ) = P(Ai1 )P(Ai2 ) . . . P(Aik ) 2 k n
pour tous les sous-ensembles {i1 , . . . , ik } de {1, 2, . . . , n}.

Vrai Faux

Dunod. La photocopie non autorise est un dlit.

1. On peut associer deux ensembles fondamentaux diffrents


une mme exprience.
2. Lgalit P(A B) = P(A) + P (B) implique que les vnements
A et B sont incompatibles.
3. Linformation apporte par la connaissance de la ralisation
dun vnement B augmente la probabilit dun autre vnement
A, i.e. P(A|B) P(A).
4. Si deux vnements sont incompatibles, alors ils sont indpendants.
5.

Si deux vnements sont indpendants, alors leurs complmentaires le sont aussi.

6. Soit = {a, b, c, d} avec quiprobabilit des vnements lmentaires sur P (). Les vnements A = {a, b} et B = {a, c} sont
dpendants car ils sont raliss simultanment quand lvnement
lmentaire a est ralis.

TD Statistique et probabilits

7. On lance deux pices de monnaie parfaitement identiques et on note les trois


rsultats possibles PP, FF et PF o la lettre P (resp. F) dsigne le rsultat pile (resp.
face). Lvnement lmentaire PF est-il de probabilit 1/3?
8. Un roi sanguinaire a imagin le jeu suivant : il fait arrter quelques-uns de ses
sujets et les fait conduire devant un sac contenant mille jetons numrots de un
mille ; ils doivent alors tirer trois fois un jeton dont on note le numro avant de
le remettre dans le sac. Le roi leur demande alors de choisir le cas dans lequel ils
seront pendus : soit lorsque le produit des trois nombres est pair, soit dans le cas
contraire. Quelle est la probabilit pour un sujet dtre pendu :
sil connat le calcul des probabilits?
sil ne le connat pas?

9. On considre deux vnements quelconques A et B. Exprimer en fonction de


P(A), P(B) et P(A B) les probabilits conditionnelles suivantes : P(A|A B),
A)
; que devient cette dernire probabilit lorsque A et B sont
P(A|A B) et P(B|
indpendants?
10. On suppose que dans une famille de deux enfants, les diffrentes rpartitions
ordonnes fille-garon sont quiprobables.
a) Sachant que lun au moins des enfants est une fille, calculer la probabilit que
les deux enfants soient des filles.
b) Si vous sonnez lappartement de cette famille et quune fille vous ouvre,
quelle est la probabilit que lautre enfant soit une fille?

Ensemble fondamental

11. On lance simultanment deux ds numrots de 1 6. Dterminer lensemble


fondamental dans les cas suivants :
a) Les deux ds sont distincts (par exemple un rouge et un bleu).
b) Les deux ds sont identiques.
c) Les deux ds sont identiques et on sintresse seulement la parit du rsultat.
Analyse de lnonc et conseils. Lensemble fondamental est dtermin chaque fois
par la manire dont un rsultat lmentaire va tre not.

TD 1 Notion de probabilit

12. On lance six boules dans quatre cases distinctes. Reprsenter lensemble
fondamental dans les deux cas suivants.
a) Les boules sont numrotes de 1 6.
b) Les boules sont identiques.
Analyse de lnonc et conseils. Comme dans lexercice prcdent, il faut se poser la
question de savoir ce qui caractrise un vnement lmentaire.

13. Au rsultat pile du lancer dune pice on associe la valeur +1 et la valeur 1


face. Dterminer lensemble fondamental associ aux expriences alatoires
suivantes :
a) On effectue six lancers successifs.
b) On lance six pices identiques simultanment.
c) On lance six pices identiques simultanment et on ne sintresse qu la valeur
du rsultat total obtenu.
Analyse de lnonc et conseils. Chaque vnement lmentaire est spcifi de faon
diffrente selon les cas.

Atomes

14.

Soit A, B et C trois vnements quelconques lis une mme preuve alatoire.


Dcomposer les vnements E = (A B)C et F = A (BC) en une runion
dvnements incompatibles deux deux et indcomposables, appels atomes.
Dans quel cas les vnements E et F sont-ils confondus?

Dunod. La photocopie non autorise est un dlit.

Analyse de lnonc et conseils. Si un schma ne peut en aucun cas remplacer une


dmonstration, la reprsentation des vnements E et F partir de A, B et C sera une
aide prcieuse pour dterminer leur dcomposition en atomes. Ces derniers sont des
A B C . . .
vnements qui sexpriment sous la forme A B C,

Algbre dvnements

15. Soit = {a, b, c, d}. Dterminer lalgbre A contenant les vnements {c} et {d}.
Analyse de lnonc et conseils. Ce sont les proprits gnrales dune algbre qui
vont permettre de dterminer celle qui est demande.

16.
Soit = {a, b, c, d, e}. Dterminer lalgbre A engendre par la partition
= {a}, {b, c}, {d} , {e} de .
Analyse de lnonc et conseils. Lalgbre demande doit contenir tous les lments
de la partition et donc aussi toutes leurs runions.

TD Statistique et probabilits

17. Dterminer toutes les algbres dvnements dfinies sur les ensembles
suivants.
a) = {a}.
b) = {a, b}.
c) = {a, b, c}.
Analyse de lnonc et conseils. Les algbres finies comportent 2k lments, avec k
variant de 1 card .

18. laide des oprations dunion, dintersection et de passage au complmentaire, construire partir de deux sous-ensembles quelconques A et B de toutes les
parties possibles de cet ensemble fondamental. Montrer quil sagit dune algbre
dvnements.
Analyse de lnonc et conseils. Il faut considrer la partition de que lon peut
former partir des atomes (cf. exercice 14, page prcdente).

Tribu dvnements

19. Soit un ensemble infini non dnombrable et C lensemble des parties A de

telles que A ou bien A est dnombrable. Montrer que C est une -algbre ou
tribu dvnements.
Analyse de lnonc et conseils. Il faut vrifier les proprits caractristiques dune
tribu et utiliser le fait quun ensemble inclus dans un ensemble dnombrable est luimme dnombrable.

Calcul de probabilits
1
2
1
, P(B) = et P(A B) = .
4
3
8
Calculer les probabilits de E = au moins lun de ces vnements se produit et
F = un seul de ces vnements se produit .

20. Soit A et B deux vnements tels que P(A) =

Analyse de lnonc et conseils. Cest une application directe de la formule de


Poincar.

21. On considre un lot de 100 bulletins sur lesquels figurent les rponses oui
ou non trois questions. Aprs dpouillement, les nombres de rponses oui aux
questions 1, 2 et 3 sont respectivement 60, 40 et 30. Les nombres de rponses oui
associes aux questions 1 et 2, 1 et 3 et 2 et 3 sont respectivement 24, 15 et 12. Enfin,
sur 10 bulletins il est rpondu oui aux trois questions. On dsigne par Ei , 1 i 3,

TD 1 Notion de probabilit

lvnement la rponse est oui la ime question sur un bulletin prlev au


hasard parmi les 100. On demande dexprimer laide des Ei les trois vnements
suivants, puis de calculer leur probabilit : sur le bulletin prlev, on a obtenu deux
oui et un non, un oui et deux non, trois non.
Analyse de lnonc et conseils. Il faut dcomposer chaque vnement considr en
vnements incompatibles et utiliser une formule souvent utile dans ce type dexercice :
= P(A) P(A B).
P(A B)

22. Un tudiant doit rpondre quatre questions choix multiple o trois


rponses sont proposes chaque fois, une seule tant correcte.
a) Dans le cas o ltudiant rpond au hasard et de faon indpendante chaque
question, calculer la probabilit quil donne plus de rponses justes que fausses.
b) Que devient cette probabilit sil ny a que deux rponses possibles chaque
question? et sil y en a quatre?
Analyse de lnonc et conseils. On construit lensemble fondamental le plus simple
dcrivant lensemble des rsultats possibles, de telle sorte quil y ait quiprobabilit des
vnements lmentaires. Ayant crit lvnement considr laide de ces vnements
lmentaires, le calcul de sa probabilit se fait sans difficult.

23. Deux joueurs A et B participent un jeu avec des probabilits respectives de

victoire chaque partie p et q = 1 p. Le gagnant est celui qui le premier obtient


deux victoires de plus que lautre. Quelle est la probabilit de gain de chaque
joueur?

Dunod. La photocopie non autorise est un dlit.

Analyse de lnonc et conseils. Il est conseill de faire un arbre du droulement


des deux premires parties et de marquer lextrmit des quatre branches la nouvelle
valeur de la probabilit de gain du joueur A par exemple.

Problmes de dnombrement

24. On jette trois ds identiques numrots de 1 6. Calculer la probabilit


dobserver les rsultats suivants.
a) Trois fois le mme chiffre.
b) Deux fois le mme chiffre et un autre diffrent.
c) Trois chiffres diffrents.
Analyse de lnonc et conseils. Ayant construit lensemble fondamental o il y
a quiprobabilit des vnements lmentaires, on crit, en utilisant par exemple les
lettres de lalphabet, la forme gnrale du rsultat considr pour calculer ensuite le
nombre de rsultats diffrents de cette forme.

10

TD Statistique et probabilits

25. On tire au hasard et sans remise cinq cartes dun jeu de trente deux. Calculer
la probabilit dobtenir : une paire (rsultat de la forme aabcd), deux paires (aabbc),
un full (aaabb).
Analyse de lnonc et conseils. Voir exercice prcdent. Il sagit de problmes
combinatoires dlicats qui demandent beaucoup dattention pour bien dterminer tous
les rsultats diffrents ayant la mme forme.

26. Un tiroir contient n paires de gants diffrentes. En raison dune panne dlectricit, Achille Talon prend au hasard 2r gants dans ce tiroir, avec r < n. Quelle est
la probabilit quil nait obtenu aucune paire de gants appareills?
Analyse de lnonc et conseils. Il faut dabord dnombrer tous les rsultats possibles
quiprobables. Ensuite, on doit examiner comment les gants doivent tre choisis pour
quil ny ait aucune paire appareille, en noubliant pas quune paire est constitue de
deux gants, un droit et un gauche !

Probabilits conditionnelles

27. On cherche une lettre qui a la probabilit p de se trouver dans lun des quatre
tiroirs dun secrtaire. Quelle est la probabilit quelle se trouve dans le quatrime
tiroir, sachant quon ne la pas trouve dans les trois premiers?
Analyse de lnonc et conseils. Cest une simple application de la dfinition dune
probabilit conditionnelle. Il faut cependant bien noter que p est la probabilit que la
lettre soit dans le secrtaire et que, si elle y est, tous les tiroirs ont la mme probabilit
de la contenir.

28. On considre trois urnes U1 , U2 et U3 qui contiennent respectivement deux


boules noires, deux boules blanches et une blanche et une noire. On vous prsente
lune de ces trois urnes tire au hasard ; quelle est la probabilit que ce soit U1 :
si vous savez que lurne contient au moins une boule noire?
si vous tirez une boule noire?
Analyse de lnonc et conseils. Il sagit encore du calcul dune probabilit conditionnelle o il faut seulement tre attentif la dfinition de lvnement par lequel on
conditionne.

29. Une lection a lieu au scrutin majoritaire deux tours. Deux candidats A
et B sont en prsence. Au premier tour 40 % des voix vont A et 45 % B, le
reste tant constitu dabstentions. Aucun candidat nayant la majorit absolue,
un second tour est organis. Tous les lecteurs ayant vot la premire fois voteront
nouveau. Un sondage indique par ailleurs que 5 % des voix de A se reporteront
sur B et que 10 % des voix de B iront A. On estime de plus que les deux tiers des
lecteurs nayant pas vot au premier tour voteront, raison de 60 % pour A et
40 % pour B.

TD 1 Notion de probabilit

11

a) Quelle est la probabilit pour quun abstentionniste du premier tour vote


pour A? pour B?
b) Daprs ce sondage, quel candidat a la plus forte probabilit dtre lu?
Analyse de lnonc et conseils. Les rsultats du premier tour se traduisent en termes
de probabilits et les lments du sondage en termes de probabilits conditionnelles
au vote du premier tour. On doit ensuite calculer les probabilits conditionnelles
labstention au premier tour et en dduire la probabilit du vote au second tour, pour
chacun des candidats.

Thorme de Bayes

30. On classe les grants de portefeuille en deux catgories : ceux qui sont bien
informs et ceux qui ne le sont pas. Lorsquun grant bien inform achte une
valeur boursire pour son client, la probabilit que le cours de celle-ci monte est
de 0,8 ; dans le cas dun grant mal inform, cette probabilit ne vaut que 0,5. Si
on choisit au hasard un grant dans un annuaire professionnel, la probabilit quil
soit bien inform est de 0,2. Calculer la probabilit que le grant ainsi choisi soit
mal inform, sachant que la valeur quil a achete a mont.
Analyse de lnonc et conseils. Cest une application directe du thorme de Bayes.

Dunod. La photocopie non autorise est un dlit.

31. Dans la coupe de France de football, une quipe E de premire division


estime quelle gagnera si elle rencontre une quipe de division infrieure et quelle
a une chance sur deux de gagner si cest une quipe de premire division. Sachant
que la probabilit de rencontrer une quipe de division infrieure est p , calculer la
probabilit que E ait rencontr une quipe de division infrieure, sachant quelle
a remport son match.
Analyse de lnonc et conseils. Aprs avoir traduit en termes de probabilits les
informations fournies dans lnonc, on applique la formule de Bayes.

1  Vrai. Lensemble dpend videmment de lexprience considre, mais aussi


du choix de celui qui construit le modle, et par l prsente donc un certain arbitraire. Lensemble fondamental naturel associ un jet de d est = {1, 2, 3, 4, 5, 6},
mais
si on ne sintresse
qu la parit du rsultat, on peut retenir galement

= {1, 3, 5} , {2, 4, 6} .

12

TD Statistique et probabilits

2  Faux. Il suffit que P(A B) = 0, ce qui est diffrent de A B = . Soit par

exemple = {a, b, c} avec P({a}) = P({b}) = 1/2 et P({c}) = 0 ; les deux vnements
A = {a, c} et B = {b, c} ne sont pas disjoints car {a, c} {b, c} = {c} et pourtant
P(A B) = P() = 1 = P(A) + P(B).

3  Faux. La probabilit de tirer une boule rouge au deuxime tirage sans remise
2
1
1
= alors
3
2
3
que si lvnement B = tirer une boule rouge au premier tirage est ralis, on a
bien sr P(A|B) = 0.
dans une urne qui contient deux noires et une rouge est P(A) =

4  Faux. Lincompatibilit se traduit

par P(A B) = 0 et lindpendance par


P(A B) = P(A)P(B), produit en gnral diffrent de 0, sauf cas particulier o lun
des deux vnements est de probabilit nulle.

5  Vrai. Si les vnements A et B sont indpendants, on obtient :


= P(A) P(A B) = P(A) P(A)P(B)
P(A B)

= P(A) [1 P(B)] = P(A)P(B)


donc les vnements A et B sont indpendants. De mme :
= P(B)
P(A B)
= P(B)
P(A)P(B)

P(A B)
[1 P(A)] = P(A)P(
B)

= P(B)
donc A et B sont aussi indpendants.

6  Faux. En raison de lquiprobabilit : P(A) = P(B) = 1/2 et P(AB) = P({a}) =


1/4 = P(A)P(B), donc les vnements A et B sont indpendants.
7  Lvnement not PF peut tre obtenu de deux faons diffrentes, le rsultat
pile par exemple pouvant apparatre sur lune ou lautre des deux pices ; sa probabilit est donc 2/4. Les vnements PP et FF par contre ne peuvent tre obtenus
que dune seule faon (leur probabilit est 1/4) ; il ny a donc pas quiprobabilit
des rsultats possibles retenus. Ceci peut tre source derreur dans le calcul des
probabilits et il vaut mieux retenir ici lensemble fondamental = {P, F}2 , cest-dire lensemble des couples ordonns, chaque lment du couple tant associ
une pice particulire, mme si les pices sont identiques.

8  Pour que le produit soit impair, il faut que chacun des nombres soit impair. Le
1 1 1
1
=
2 2 2
8
et il choisira donc dtre pendu (vnement not PE) si le rsultat est impair. Dans
le cas contraire, le choix pair (P) ou impair (I) se fait au hasard, la probabilit dtre
pendu tant alors calcule par la formule de la probabilit totale :
sujet qui connat le calcul des probabilits sait donc que P(impair) =

P(PE) = P(P)P(PE|P) + P(I)P(PE|I) =

1 7 1 1
1
+ =
2 8 2 8
2

Do lintrt parfois de connatre le calcul des probabilits !

TD 1 Notion de probabilit

13

9  Il suffit dappliquer la formule de Bayes et de remarquer que A A B :


P(A|A B) =

P(A)
P(A)
=
P(A)
P(A B)
P(A) + P(B) P(A B)

Savoir que A ou B est dj ralis augmente la probabilit de A.


Si A et B sont raliss, lvnement A lest bien sr et on peut vrifier que
P(A|A B) = 1.
En appliquant nouveau la formule de Bayes :


A)
= P(A B) = P(A B) = 1 P(A B) = 1 P(B) P(A B)
P(B|

1 P(A)
1 P(A)
P(A)
P(A)
Si A et B sont indpendants, on a vu dans lexercice 5, page 5, que A et B sont aussi
A)
= P(B).

indpendants, ce que lon retrouve ici en obtenant dans ce cas P(B|

10  Par hypothse, il y a quiprobabilit sur = {FF, FG, GF, GG}.


a) On conditionne ici par lvnement A = {FF, FG, GF} et la probabilit demande
se calcule par :
P(FF|A) =

P(FF)
1/4
1
=
=
P(A)
3/4
3

b) La diffrence avec le cas prcdent peut ne pas apparatre immdiatement car


lvnement B = une fille vient ouvrir implique videmment que lun au moins
des enfants est une fille. Mais il y a un lment supplmentaire dinformation
qui va renforcer cette probabilit conditionnelle : la fille sest dplace pour venir
ouvrir. Si on admet que fille et garon ont la mme curiosit de venir ouvrir, on
obtient ici :

Dunod. La photocopie non autorise est un dlit.

P(B) =

1
1
2
P (FG) + P (GF) + P (FF) = < P (A)
2
2
4

et donc
P(FF|B) =

P(FF)
1/4
=
= 1/2 > P(FF|A)
P(B)
2/4

11  a) Les deux ds tant distincts, un vnement lmentaire est reprsent


par un couple ordonn = (x1 , x2 ) o x1 (resp. x2 ) reprsente le chiffre obtenu sur
le d rouge (resp. bleu). Ainsi = E2 avec E = {1, 2, 3, 4, 5, 6} et card = 36.
b) Les ds tant identiques, lensemble fondamental est constitu par les couples
65
67
=
= 21.
non ordonns dlments de E, avec ici card = 62
2
2
c) Si on note I (resp. P) un rsultat impair (resp. pair) sur un d, lensemble
fondamental se rduit ici = {IP, PP, II} soit card = 3.

14

TD Statistique et probabilits

12  a) Un vnement lmentaire est caractris par le numro Ci , 1 i 4,


de la case o a t lance chacune des boules. Il sagit donc dune application de
E = {1, 2, 3, 4, 5, 6} dans F = {C1 , C2 , C3 , C4 } avec card = 46 .
b) Si les boules sont identiques, un vnement lmentaire est caractris cette
fois par le nombre xi , 1 i 4, de boules tombes dans la case i, et :


4

= (x1 , x2 , x3 , x4 ) /0 xi 6,
xi = 6
1

Le cardinal de est gal au nombre de combinaisons avec rptitions (cf. comple


ments du chapitre 1 du livre Statistique et Probabilits,
Lecoutre,
   Dunod, 3 ed, 2006)

9
6+41
= 84.
=
de 6 lments choisis parmi 4, soit card =
3
6

13  a)

chaque lancer est associ lensemble fondamental E = {P, F} et aux six


lancers = E6 .
b) Un vnement lmentaire est caractris par le nombre n1 de rsultats P
obtenus et dans ce cas = {0, 1, 2, 3, 4, 5, 6}. Le nombre de rsultats F tant bien
sr n2 = 6 n1 .
c) Le total obtenu a pour valeur n1 n2 = 2n1 6, ce qui conduit =
{6, 4, 2, 0, 2, 4, 6}.

14  Par dfinition de la diffrence symtrique :


[(A B) C] = (A C)
(B C)
(A B C)
E = [(A B) C]
Lvnement A C par exemple nest pas un atome et se dcompose laide du
On obtient donc la dcomposition
troisime vnement B en A B C et A B C.
en atomes :
(A B C)
(A B C)
(A B C)
E = (A B C)
Par le mme procd, on aboutit :
(A B C)
F = (A B C) (A B C)
(A B C)
(A B C)
(A B C)

Figure 1.1

TD 1 Notion de probabilit

15

On voit ainsi que F = E (A C), donc pour que F soit identique E il faut que
A C = , cest--dire que A et C soient incompatibles.

15  Lalgbre A contenant {c} et {d} doit contenir aussi leur union {c, d} et
leurs complmentaires {a, b, d} et {a, b, c}. La fermeture pour lintersection implique
quelle contienne aussi {a, b, d} {a, b, c} = {a, b}. Au total on obtient :


A = , {c}, {d} , {c, d} , {a, b} , {a, b, d} , {a, b, c} ,
On peut vrifier quil sagit bien dune algbre 28 lments.

16  Lalgbre A engendre par la partition est constitue par les 24 runions des
ensembles de cette partition, soit :

A = , {a}, {b, c} , {d} , {e} , {a, d} , {a, e} , {d, e} , {a, b, c} ,


{a, d, e} , {b, c, d} , {b, c, e} , {a, b, c, d} , {a, b, c, d, e} ,

17  Tous les ensembles tant finis, les algbres que nous allons construire

seront aussi des -algbres.

a) Il ny a que lalgbre lmentaire A = {, }.


b) Il ny
a que lalgbre
lmentaire A = {, } et lalgbre la plus complte

P () = , {a}, {b} , .
c) On peut construire ici cinq

algbres, de la plus lmentaire


A1 = {, }
la plus complte P () = , {a} , {b},
{c}, {a, b} , {b, c} , {a, c} ,
, en passant par
les algbres
quatre lments A2 = , {a}, {b, c} , , A3 = , {b}, {a, c} , et

A4 = , {c}, {a, b} , .

Dunod. La photocopie non autorise est un dlit.

18  Lalgbre A est engendre par la partition de constitue des quatre atomes


A B, A B}.
Elle comporte 24 = 16
forms partir de A et B, soit = {A B, A B,
lments :

B,
A B, A B,
A B, A B,

A = , A, B, A,


A B,
AB, AB,
A B, A B, A B,

19  Lensemble C est non vide car il contient , puisque = est dnombrable

(card = 0). Par ailleurs, il est par dfinition ferm pour le passage au complmentaire. Enfin, soit An C pour tout entier n ; si An est dnombrable pour tout n,
alors il en est de mme de lunion dnombrable nN An qui est alors un lment
de C. Sil existe un entier n0 tel que An0 nest pas dnombrable, cest donc que son
complmentaire lest, et par consquent nN An = nN An An0 est dnombrable.
Dans tous les cas il y a fermeture pour lunion dnombrable, ce qui finit de prouver
que C est une tribu.

16

TD Statistique et probabilits

(A B) dont les
20  Les vnements considrs sont E = A B et F = (A B)
probabilits se calculent par :
P(E) = P(A B) = P(A) + P(B) P(A B) =

19
24

+ P(A B) = P(E) P(A B) = 2


P(F) = P(A B)
3

21  Le premier vnement scrit :


A = (E1 E2 E3 ) (E1 E2 E3 ) (E1 E2 E3 )
Sa probabilit se calcule partir de :
P(E1 E2 E3 ) = P(E1 E2 ) P(E1 E2 E3 )
Soit :


P(A) =

10
24

100 100


+

15
10

100 100


+

12
10

100 100


=

21
100

Le deuxime vnement scrit :


B = (E1 E2 E3 ) (E1 E2 E3 ) (E1 E2 E3 )
Sa probabilit se calcule partir de :
P(E1 E2 E3 ) = P[E1 (E2 E3 )] = P(E1 ) P [E1 (E2 E3 )]
= P(E1 ) P(E1 E2 ) P(E1 E3 ) + P(E1 E2 E3 )
Soit :



10
40
30
24
15
12
58
60
+3
+
+
2
+
+
=
P(B) =
100 100 100
100 100 100
100
100

Le troisime vnement scrit C = E1 E2 E3 , de probabilit :


P(C) = 1 P(A) P(B) P(E1 E2 E3 ) =

11
100

22  a)

Si on note J (resp. F) lvnement ltudiant fournit une rponse juste


(resp. fausse) , lvnement considr correspond trois ou quatre rponses justes,
soit :
E = (FJJJ) (JFJJ) (JJFJ) (JJJF) (JJJJ)
Comme il y a quiprobabilit sur lensemble fondamental = {J, F}4 et indpendance des choix chaque question, la probabilit demande est :
p = P(E) = 4

2
3

 3  4
1
1
1
+
=
3
3
9

TD 1 Notion de probabilit

17

b) Sil ny a que deux rponses possibles, cette probabilit devient :


 4
 
1 1 3
1
5
p = 4
+
=
2 2
2
16
Avec quatre rponses possibles :
3
p =4
4

 3  4
1
13
1
+
=
4
4
256

On a bien sr p > p > p .

23  Soit P(A) la probabilit de gain du joueur A au dbut du jeu et examinons


ce quelle devient aprs les deux premires parties. Si A gagne les deux parties,
cette probabilit est devenue gale 1, et 0 sil les a perdues. Sil gagne une seule
partie elle est inchange. On a donc la relation :
P(A) = 1 p2 + 0 q2 + P(A) pq + P(A) qp
Do on dduit :
P(A) =

p2
p2
= 2
1 2pq
p + q2

Par consquent :
P(B) = 1 P(A) =

p2

q2
+ q2

P(A)

P(A)

A
p

P(A)
p

q
Dunod. La photocopie non autorise est un dlit.

B
q
Figure 1.2

24  Il y a quiprobabilit des vnements lmentaires de lensemble fondamen-

tal = {1, 2, 3, 4, 5, 6}3 de cardinal 63 . La probabilit dun vnement quelconque


cardA
A se calcule donc par P (A) =

card
a) Lvnement considr est de la forme aaa, o il y a six choix possibles pour le
chiffre a. Sa probabilit est donc :
P (aaa) =

6
1
=
3
6
36

18

TD Statistique et probabilits

b) Il sagit cette fois dun vnement de la forme aab, avec six choix pour le chiffre
a, cinq choix pour b et trois possibilits pour la place du rsultat b, donc :
P(aab) = 3

65
15
=
63
36

c) Un rsultat quelconque de la forme abc correspond une permutation sans


rptition de trois chiffres choisis parmi six, soit :
P(abc) =

654
20
=
63
36

On vrifie bien que la somme de ces trois probabilits est gale 1.

25  Il y a quiprobabilit de chaque vnement lmentaire qui correspond une


main de cinq cartes, i.e. une combinaison sans rptition de cinq
 cartes choisies
32
parmi 32. Le cardinal de lensemble fondamental est donc
= 201 376 et il
5
va falloir maintenant dnombrer les diffrentes mains
proposes. Une paire est
 
4
choix possibles pour les
dtermine par le choix de la hauteur (il y en a 8) avec
2
 
7
hauteurs des cartes daccompagnement et 43 couleurs
couleurs. Il y a ensuite
3
possibles.
 nombre
 Le
  total de paires est donc le produit de ces diffrentes valeurs,
4
7
soit 8

43 = 107 520 et :
2
3
107 520
480
=
= 0,534
201 376
899
 
 
8
8
Il y a
choix pour les hauteurs des paires avec
choix de couleurs pour
2
2
chacune et il reste ensuite 6 choix de la hauteur de lautre
 4 choix de
  avec
  carte,
4
4
8
64 =

couleurs, soit un nombre total de doubles paires gal


2
2
2
24 192. Ainsi :
P(aabcd) =

24 192
108
=
= 0,120
201 376
899
 
4
= 4 choix de couleurs, 7 choix
Enfin, il y a 8 choix de hauteurs pour a avec
3
 
4
= 6 choix pour la couleur, soit un total de
de la hauteur de la paire et
2
8 4 7 6 = 1 344 fulls. On obtient donc :
P(aabbc) =

P(aaabb) =

1 344
6
=
= 0,006 7
201 376
899

TD 1 Notion de probabilit

19

26  Chaque ensemble de 2r gants


 au hasard parmi les 2n gants contenus dans
 pris

 2n
. Pour quaucune paire ne soit appareille, il
le tiroir a la mme probabilit 1
2r
faut
 que
 les 2r gants aient t choisis parmi les n paires difrentes, ce qui correspond
n

possibilits. Mais, chacun de ces gants peut tre soit le droit, soit le gauche,
2r
 
n
soit un total de 22r
choix dpareills. La probabilit demande est donc :
2r
 
n
22r
2r
 
2n
2r
2
Pour n = 2 et r = 1 par exemple, cette probabilit vaut
3

27  On note A lvnement la lettre est dans le quatrime tiroir et B lvnement la lettre nest pas dans les trois premiers tiroirs . La dfinition de la
probabilit conditionnelle conduit :
P(A|B) =

P(A B)
P(B)

Chaque tiroir a la mme probabilit de contenir la lettre, si celle-ci est dans lun
1
dentre eux, donc P(A B) = p . On calcule ensuite P(B) = P(A B) + P(A B)
4
avec bien sr P(A B) = 1 p. Ainsi :
P(A|B) =

p
p/4
=
p/4 + 1 p
4 3p

Notons que p/4 < P(A|B) < p avec P(A|B) = 0 si p = 0 et P(A|B) = 1 si p = 1.

Dunod. La photocopie non autorise est un dlit.

28  Avec des notations videntes, la premire probabilit scrit :


P(U1 |U1 U3 ) =

P(U1 )
1/3
1
=
=
P(U1 ) + P(U3 )
1/3 + 1/3
2

La deuxime probabilit demande scrit :


P(U1 N)
P(U1 )P(N|U1 )
=
P(N)
P(U1 )P(N|U1 ) + P(U2 )P(N|U2 )
1 1/3
2
=
=
1 1/3 + 1/2 1/3
3

P(U1 |N) =

On voit ainsi que les deux probabilits sont distinctes. Linformation du tirage
dune boule noire implique bien sr la prsence dune boule noire mais ne se
confond pas avec cette dernire information. Ceci dmontre la ncessit dune trs
grande rigueur dans la dfinition dun vnement et laide que peut apporter la
formalisation dans le calcul dune probabilit.

20

TD Statistique et probabilits

29  Soit Ai (resp. Bi ), i = 1,2, lvnement voter pour le candidat A (resp. B)


au i-me tour et Oi lvnement sabstenir au i-me tour . Les informations
fournies dans lnonc se traduisent par les probabilits suivantes :
P(A1 ) = 0,40
P(B2 |A1 ) = 0,05
P(A2 |O1 O2 ) = 0,60

P(B1 ) = 0,45
P(A2 |B1 ) = 0,10
P(B2 |O1 O2 ) = 0,40

P(O1 ) = 0,15
P(O2 |O1 ) = 2/3

a) Les vnements demands scrivent A2 |O1 et B2 |O1 , leurs probabilits se


calculant par :
2
= 0,40
3
2
4
P(B2 |O1 ) = P(O2 |O1 )P(B2 |O1 O2 ) = 0,40 =
3
15

P(A2 |O1 ) = P(O2 |O1 )P(A2 |O1 O2 ) = 0,60

b) Calculons par exemple :


P(A2 ) = P(A1 )P(A2 |A1 ) + P(B1 )P(A2 |B1 ) + P(O1 )P(A2 |O1 )
= 0,95 0,40 + 0,10 0,45 + 0,40 0,15 = 0,485
On obtient de la mme faon P(B2 ) = 0,465, ce qui montre que les abstentionnistes
apporteront la victoire au candidat A.

30  Notons MI (resp. BI) lvnement le grant est mal (resp. bien) inform et
M lvnement la valeur a mont . Les hypothses formules se traduisent par
les probabilits P(BI) = 0,2, P(M|BI) = 0,8 et P(M|MI) = 0,5. On obtient alors par
application de la formule de Bayes :
P(MI M)
P(MI)P(M|MI)
=
P(M)
P(MI)P(M|MI) + P(BI)P(M|BI)
0,8 0,5
5
=
=
0,8 0,5 + 0,2 0,8
7

P(MI|M) =

31  Soit A lvnement lquipe E a rencontr une quipe de premire division

= p,
et G lvnement lquipe E a gagn son match . Par hypothse P(A)

P(A) = 1 p, P(G|A) = 1/2 et P(G|A) = 1. La formule de Bayes permet alors


dobtenir :

P(A|G)
=

P(A G)
p
P(A)P(G|
A)
2p
=
=
=

P(G)
(1 p)/2 + p
p+1
P(A)P(G|A) + P(A)P(G|
A)

Le rsultat est une fonction croissante de p, de la valeur 0 pour p = 0 la valeur 1


pour p = 1.

Variable
alatoire
discrte

Chaque rsultat dune exprience alatoire est cod au moyen dune application qui, si
elle permet dassocier une probabilit chacune de ses valeurs numriques discrtes, sera
appele variable alatoire discrte. La loi de cette variable alatoire est alors dtermine
par les probabilits de toutes ses valeurs possibles. Elle est souvent caractrise par les
deux premiers moments qui sont lesprance, caractristique de valeur centrale, et la
variance, caractristique de dispersion autour de cette valeur centrale. Nous prsenterons
les principales lois de probabilit discrtes.

1. Variable alatoire relle discrte


1.1 Dfinition

Dunod. La photocopie non autorise est un dlit.

On appelle v.a. discrte dfinie sur (, A) une application X : R telle que


X() est dnombrable, i.e. en correspondance bijective avec N, et telle que pour
tout x rel :
X1 (x) = { /X() = x} A
ce qui exprime tout simplement que X1 (x) est un vnement.

1.2 Loi de probabilit


La probabilit note PX , dfinie sur = X() et dfinie par :


PX (X = x) = P X1 (x) = P { /X() = x}
sappelle la probabilit image de P par X. Lensemble tant dnombrable, il existe
une bijection permettant de reprsenter ses lments par lensemble des xi , i N.
La loi de probabilit est alors dfinie par les probabilits individuelles :


pi = PX (X = xi ) = P X1 (xi ) , i N
On appelle alors distribution ou loi de probabilit de X lensemble des couples
(xi , pi )iN .

22

TD Statistique et probabilits

1.3 Fonction de rpartition


On appelle fonction de rpartition de la v.a. X, la fonction F dfinie pour x rel par :



pi /xi < x
F(x) = PX {X < x} =
Cette valeur reprsente la probabilit de toutes les ralisations strictement infrieures au rel x.

1.4 Moments dune v.a. discrte


 Esprance mathmatique
Dfinition. On appelle esprance mathmatique de la v.a. X la quantit, si elle existe :

pi xi
E(X) =
iN

Proprits. Si on ajoute une constante une v.a., il en est de mme pour son
esprance :
E(X + a) = E(X) + a a R
Si on multiplie une v.a. par une constante, il en est de mme pour son esprance :
E(aX) = aE(X) a R
Lesprance dune somme de deux v.a. est la somme des esprances :
E(X + Y) = E(X) + E(Y)
On rsume ces trois proprits en disant que loprateur esprance est linaire :
E(X + Y) = E(X) + E(Y)

R,

 Variance
Il sagit dun indicateur mesurant la dispersion des valeurs xi autour de E(X) :

pi [xi E(X)]2
V(X) =
iN

lorsque cette quantit existe. Elle scrit aussi :


 
V(X) = E [X E(X)]2 = E X2 E2 (X)
On note encore cette quantit V(X) = 2X , X dsignant alors lcart type de la v.a. X.
Proprits. Par dfinition :
V(X) 0

TD 2 Variable alatoire discrte

23

Pour tout rel a :


V(X + a) = V(X)
Pour tout rel a :
V(aX) = a2 V(X)
Si X et Y sont deux v.a. indpendantes, alors :
V(X + Y) = V(X) + V(Y)
On dfinit la covariance de deux v.a. X et Y par Cov(X, Y) = E(XY) E(X)E(Y) et
on a, dans le cas gnral :
V(X + Y) = V(X) + V(Y) + 2 Cov(X, Y)

 Moments non centrs et centrs


On appelle moment non centr dordre r N la quantit, lorsquelle existe :

mr (X) =
pi xri = E(Xr )
iN

Le moment centr dordre r N est :



pi [xi E(X)]r = E [X E(X)]r
r (X) =
iN

2. Lois usuelles discrtes


2.1 Loi de Dirac

Dunod. La photocopie non autorise est un dlit.

Soit a R un point fix. On appelle loi de Dirac la loi de la v.a. certaine X, cest--dire
qui est constante, avec X() = a quel que soit le rsultat de lpreuve. Ainsi :
X() = {a}

et PX (X = a) = P { /X() = a} = P() = 1

Bien entendu, on obtient comme moments E(X) = a et V(X) = 0.

2.2 Loi de Bernoulli


On appelle v.a. indicatrice de lvnement A de A, la v.a. dfinie par X = 1A :

1 si A
X() = 1A () =
0 si A
= 1 P(A) = q et PX (X = 1) =
Ainsi X() = {0, 1} avec PX (X = 0) = P(A)
P(A) = p. On dit que X suit une loi de Bernoulli de paramtre p, ce quon crit
X  B(1, p), de moments E(X) = p et V(X) = pq.

24

TD Statistique et probabilits

2.3 Loi binmiale


On effectue n preuves successives indpendantes o on observe chaque fois la
ralisation ou non dun certain vnement A, et on note le nombre X de ralisations
de A. On dfinit ainsi une v.a. X qui suit une loi binmiale de paramtres n et
p = P(A), caractrise par X() = {0, 1, . . . , n} et, pour k X(), par :
 
n k
PX (X = k) =
p (1 p)nk
k
On crit X  B(n, p) avec E(X) = np et V(X) = npq. Si X1  B(n1 , p) et
X2  B(n2 , p), les v.a. X1 et X2 tant indpendantes, alors X1 + X2  B(n1 + n2 , p).

2.4 Loi hypergomtrique


On effectue n tirages sans remise dans une urne contenant N objets dont NA objets
A et on note X le nombre dobjets A tirs. Pour tout k tel que 0 k n :
 

NA N NA
k
nk
 
PX (X = k) =
N
n
La loi hypergomtrique scrit symboliquement X  H(N, n, NA ), de moments :
E(X) = np,

V(X) = npq

Nn
N1

ayant pos p = P(A) = NA /N et q = 1 p = 1 NA /N.

2.5 Loi de Poisson


Une v.a. X suit une loi de Poisson de paramtre > 0 si cest une variable valeurs
entires, X() = N, avec pour k N :
PX (X = k) = e

k
k!

On utilise lcriture symbolique X  P () et le calcul des moments donne


E(X) = V(X) = . Si deux variables suivent des lois de Poisson et sont indpendantes, X  P () et Y  P (), alors leur somme suit aussi une loi de Poisson :
X + Y  P ( + ).

2.6 Loi gomtrique ou de Pascal


On effectue des preuves successives indpendantes jusqu la ralisation dun
vnement particulier A et on note X le nombre dpreuves effectues ; pour k N :
PX (X = k) = (1 p)k1 p
o p = P(A) avec E(X) =

1
q
et V(X) = 2 , q = 1 p.
p
p

TD 2 Variable alatoire discrte

25

2.7 Loi binmiale ngative


On effectue des preuves successives indpendantes jusqu ce que n vnements
A soient raliss et on note Y le nombre dpreuves effectues. Pour tout entier
yn:

y1 n
p (1 p)yn o p = P(A)
n1


PY (Y = y) =
avec comme moments E(Y) =

n
nq
et V(Y) = 2 , q = 1 p
p
p

Vrai Faux

1. Une variable alatoire est une valeur numrique.


2. Toute application de P () dans N est une variable alatoire
discrte.

3. Lesprance mathmatique dune v.a. discrte est la valeur


quelle prend le plus frquemment.
4. Lesprance mathmatique dune somme de deux v.a. discrtes
est toujours la somme de leurs esprances.
5. Si deux v.a. ont la mme esprance, alors elles ont la mme
variance.

Dunod. La photocopie non autorise est un dlit.

6. La variance dune somme de deux v.a. discrtes est toujours la


somme de leurs variances.

7. Une urne contient trois billes numrotes 1, 2, 3, celle portant le n 1 tant la


seule en mtal.

On retient donc
sur lensemble fondamental = {1, 2, 3} la tribu
associe A = , {1}, {2, 3}, . Si on extrait une bille de cette urne au moyen dun
aimant, dterminer la probabilit P associe cette exprience. On considre alors
lapplication identit X sur et lapplication Y dfinie par Y () = 1 pour tout
de . tablir que P(X = Y) = 1 et que pourtant on ne peut pas en conclure que X
et Y ont la mme loi de probabilit.

26

TD Statistique et probabilits

8. Si X et Y sont deux v.a. indpendantes qui admettent une variance, on sait que
V(X + Y) = V(X) + V(Y). Dans quel cas peut-on avoir la relation V(X Y) =
V(X) V(Y)?
9. Un examen comporte n questions quun candidat tire au hasard dans le programme, avec remise. On note X la v.a. qui reprsente le nombre de questions
tires dont il connat la rponse et Y celle qui reprsente le nombre de celles dont
il ignore la rponse. Si p est la proportion de questions du programme que ce
candidat connat, calculer V(X), V(Y) puis V(X + Y). Que remarque-t-on?

Loi de probabilit

10. On considre une urne contenant une boule blanche et deux boules noires
identiques. On effectue deux tirages successifs dans cette urne, la premire
boule tire tant remplace par une boule de couleur diffrente. On demande
de construire lensemble fondamental associ cette preuve alatoire, si on
tient compte de lordre des tirages, et de dterminer la probabilit de chacun des
vnements lmentaires. En dduire la loi de probabilit de la v.a. X qui reprsente
le nombre de boules noires tires.
Analyse de lnonc et conseils. Dans tout problme de tirages successifs, il est
important dtablir sils sont indpendants ou non. Pour la construction de lensemble
fondamental associ, il est recommand de toujours tenir compte de lordre des tirages,
mme dans le cas o cela na aucune influence sur les vnements considrs, car cela
facilite gnralement le calcul des probabilits de ceux-ci. La loi de probabilit dune
v.a. discrte X se dduit des probabilits des vnements lmentaires, en dterminant
pour toutes ses valeurs possibles x lensemble X1 (x) des vnements lmentaires
auxquels correspond cette mme valeur x.

11. Une urne contient six boules dont quatre blanches et deux noires. On extrait
une boule de lurne, puis on la remet et on effectue ensuite des tirages sans remise
jusqu obtention dune boule de mme couleur. Dterminer la loi de probabilit
du nombre X de tirages aprs remise de la boule tire initialement.
Analyse de lnonc et conseils. Comme dans lexercice prcdent, on note que la
composition de lurne volue au cours des tirages qui sont sans remise, donc dpendants. Pour dterminer la loi de X, il faut dabord dterminer lensemble de ses valeurs
possibles et ensuite leurs probabilits. Pour cela, il est conseill de distinguer deux cas
selon le rsultat du tirage prliminaire, cest--dire de dterminer la loi conditionnelle,
puis de regrouper ces deux cas en appliquant la formule de la probabilit totale vue au
chapitre prcdent.

TD 2 Variable alatoire discrte

27

Esprance mathmatique

12. Un joueur paie une mise de cent francs pour participer un jeu o il doit
obtenir deux rsultats pile successifs en quatre lancers au plus dune pice de
monnaie. Son gain est alors G = 20 4 X pour un nombre alatoire X de lancers.
Calculer son esprance de gain.
Analyse de lnonc et conseils. Une esprance mathmatique se calcule par rapport
une loi de probabilit. Comme G est fonction de X qui est une v.a., cest aussi une v.a.
Pour chaque valeur possible x de X, il faut calculer la valeur correspondante du gain
G et multiplier par la probabilit du rsultat conduisant ce gain et qui ne sera pas la
probabilit de la valeur x. En effet, lexpression de G ne correspond quaux rsultats
qui se terminent par deux pile.

13. Un garagiste commande au constructeur N voitures, le nombre alatoire X de


voitures quil peut vendre dans lanne tant lun des entiers de 0 n, tous ayant
la mme probabilit, o n est un entier fix tel que n N. Toute voiture vendue
rapporte au garagiste un bnfice a et toute voiture invendue entrane une perte
b. Calculer lesprance du gain G du garagiste et en dduire ce que doit tre sa
commande optimum.
Analyse de lnonc et conseils. Il faut au pralable exprimer le gain en fonction de X
et son esprance va ensuite tre calcule par rapport la loi de X quil faut dterminer
en tenant compte des lments fournis par lnonc. Une commande est optimum si
elle rend maximale cette esprance.

Loi de probabilit et moments

Dunod. La photocopie non autorise est un dlit.

14. Une v.a. X peut prendre lune des trois valeurs 0, 1 ou 2 avec des probabilits
positives. Dterminer sa loi de probabilit sachant que E(X) = 1 et V(X) = 1/2.
Analyse de lnonc et conseils. Lexpression des deux premiers moments non centrs
laide des probabilits individuelles va nous fournir deux relations qui lient ces trois
valeurs. La troisime permettant de les dterminer sobtient partir de la condition
gnrale relative une loi de probabilit.

15. Un jouet se trouve cach dans lune des N botes fermes o un enfant le
cherche. Celui-ci ouvre une bote au hasard et recommence jusqu ce quil trouve
le jouet. On suppose qu chaque tentative il a oubli le rsultat de toutes les
prcdentes. Dterminer la loi de probabilit de la v.a. X gale au nombre de
tentatives effectues jusqu la dcouverte du jouet, puis calculer son esprance.
Prciser le nombre N0 de botes si lenfant a environ trois chances sur quatre de
trouver le jouet lissue de ses trois premires tentatives.
Analyse de lnonc et conseils. On reconnatra dans le descriptif de lexprience le
schma dune loi usuelle et il suffira dappliquer la formule du cours pour le calcul de
lesprance. La valeur de la probabilit que X soit infrieure ou gale 3 tant fixe
0,75 environ, ceci va dterminer lentier N0 auquel est associe une valeur proche.

28

TD Statistique et probabilits

Loi du maximum

16. Dans une urne qui contient N boules numrotes de 1 N, on en extrait avec
remise n. Dterminer la loi de probabilit de la v.a. X gale au plus grand des n
numros tirs.
Analyse de lnonc et conseils. Les tirages tant avec remise sont indpendants. Il est
facile de voir que X peut prendre toutes les valeurs entires de 1 N. Pour dterminer
la probabilit dun entier k donn, il est conseill de calculer dabord la probabilit de
lvnement X k puis de remplacer k par k 1.

17. La v.a. X reprsente le chiffre obtenu aprs le lancer dun d six faces
numrotes de 1 6. Dterminer la loi de probabilit de la v.a. Y = X (7 X) puis
calculer E(Y) et V(Y). On dsigne par Y1 , . . . , Yn les valeurs observes lissue de
n lancers indpendants. Dterminer la loi de probabilit de la v.a. Mn gale la
plus grande de ces valeurs.
Analyse de lnonc et conseils. La loi de Y se dduit de celle de X en calculant la
valeur obtenue pour chaque valeur possible de X. Pour dterminer ensuite la loi du
maximum, il faut exprimer lvnement Mn = k laide dvnements portant sur les Yi ,
en faisant parfois intervenir lvnement complmentaire et en se rappelant que toutes
les v.a. Yi sont indpendantes et de mme loi. Par ailleurs, il est conseill de commencer
par les valeurs de k qui correspondent aux vnements les plus simples exprimer.

Lois usuelles

18. On dsigne par X la v.a. qui reprsente le nombre de boules rouges obtenues
aprs cinq tirages avec remise dans une urne qui contient deux boules rouges et
six boules blanches. Dterminer sa loi de probabilit puis calculer E(X) et V(X).
Analyse de lnonc et conseils. Il est facile de reconnatre ici une loi usuelle dont les
moments sont donns par le cours.

19. On dsigne par X la v.a. qui reprsente le nombre de boules blanches obtenues
aprs trois tirages sans remise dans une urne qui contient deux boules noires et
huit boules blanches. Dterminer sa loi de probabilit puis calculer E(X) et V(X).
Analyse de lnonc et conseils. Voir exercice prcdent.

TD 2 Variable alatoire discrte

29

1  Faux.

Une variable alatoire est une application qui un vnement fait


correspondre un nombre.

2  Vrai. Si on prend comme tribu A

= P (), toute application X est une v.a.


puisque X1 (x) P () pour tout x rel.

3  Faux. Cest simplement la moyenne en probabilit de toutes ses valeurs possibles et ne correspond dailleurs pas forcment lune des valeurs quelle peut
prendre. Par exemple, si X est la v.a. qui code 0 le rsultat pile et 1 le rsultat face
dun lancer de pice de monnaie :
1
1
1
+1 =
2
2
2
La valeur moyenne en probabilit de X est 1/2, bien que X ne prenne jamais cette
valeur.
E(X) = 0 PX (X = 0) + 1 PX (X = 1) = 0

4  Vrai. La seule condition est bien sr que lesprance de chacune de ces deux
variables existe.

5  Faux.

Une esprance commune na aucune incidence sur la valeur de la


variance. Considrons par exemple les deux distributions suivantes :
X

12

1/4

1/4

1/2

66

1/2

1/3

1/6

Elles ont comme valeurs moyennes :


E(X) = 1 + 2 + 6 = 9 et E(Y) = 4 + 2 + 11 = 9

Dunod. La photocopie non autorise est un dlit.

donc mme centre de distribution. Par contre :


 
 
E X2 = 4 + 16 + 72 = 92 et E Y2 = 32 + 12 + 726 = 770
do V(X) = 11 et V(Y) = 689, valeur trs suprieure qui indique une dispersion
de Y autour de sa moyenne beaucoup plus grande que celle de X.

6  Faux. La variance dune somme de deux v.a. indpendantes est gale la


somme de leurs variances, mais le rsultat nest pas vrai en gnral pour deux
variables quelconques, contrairement ce qui se produit pour lesprance.

7  Seule la pice en mtal est attire par laimant et on a donc P ({1})


P ({2, 3}) = 0. Par ailleurs :

= 1 et



P(X = Y) = P { /X() = Y()} = P({1}) = 1

donc ces deux applications sont gales avec une probabilit gale 1 (vnement
certain). Lapplication Y est constante, avec Y1 (1) = , donc cest une variable
alatoire certaine : P(Y = 1) = 1. Cependant, on ne peut pas en conclure que la loi
de X est la mme, puisque X nest pas une variable alatoire et que cette notion na
donc pas de sens. En effet, X1 (2) = {2}
/ A, donc lapplication X nest pas une
v.a. et on ne peut donc pas lui associer une loi de probabilit.

30

TD Statistique et probabilits

8  Si on pose Z = X Y, on peut crire X = Y + Z et la relation propose scrit


alors V(Z) = V(X) V(Y), ce qui est la mme chose que V(X) = V(Y) +V(Z). Cette
relation sera donc vrifie en particulier si les variables Y et Z sont indpendantes. Il
ne faut surtout pas lire cette relation sous la forme variance dune diffrence gale
la diffrence des variances car cest simplement un jeu dcriture consistant
crire sous une autre forme la relation (qui elle est vraie) variance dune somme
de deux v.a. indpendantes gale la somme des variances .

n, p , la probabilit que le candidat connaisse
une rponse tire tant p et les tirages tant indpendants,

puisque avec remise.
On en dduit comme rsultat du cours que V(X) = np 1 p . De mme, puisquil
y a une probabilit 1 p que le candidat
ne connaisse pas une
rponse,
la v.a. Y



suit une loi binmiale B n, 1 p et on a aussi V (Y) = np 1 p . Bien entendu
on a toujours X + Y = n, la somme de ces deux variables ntant pas alatoire, avec
donc V(X + Y) = 0. La somme des variances nest pas gale la variance de la
somme de ces deux v.a. qui ne sont pas indpendantes, leur somme tant dailleurs
constante, donc de variance nulle.

9  La v.a. X suit une loi binmiale B

10  La composition initiale de lurne est {B, N, N} et selon que la premire


boule tire sera B ou N, les compositions respectives avant le second tirage seront
{N, N, N} ou {B, B, N}. Dans le premier cas, seul le rsultat (BN) est possible, alors
que dans le second cas on peut avoir (NB) ou (NN). Ceci correspond donc
lensemble fondamental = {(BN) , (NB) , (NN)}. Les tirages sont bien sr dpendants ici puisque la composition de lurne dpend du tirage prcdent. Pour le
calcul des probabilits des vnements lmentaires, nous allons noter Bi (resp.
Ni ) lvnement avoir tir une boule blanche (resp. noire) au i-me tirage , avec
1
1
i = 1 ou 2. On obtient alors aisment P (BN) = P (B1 ) P (N2 |B1 ) = 1 = ,
3
3
2 2
2 1
4
2
P (NB) = P (N1 ) P (B2 |N1 ) = = et P (NN) = P (N1 ) P (N2 |N1 ) = = .
3 3
9
3 3
9
Lensemble fondamental nous indique que X ne peut prendre comme valeurs que
1 ou 2, avec X1 (1) = {(BN) , (NB)} et X1 (2) = {(NN)} et par consquent :
P (X = 1) = P (BN) + P (NB) =
P (X = 2) = P (NN) =

7
9

2
9

11  Si la boule tire initialement est blanche, comme il ny a que deux noires, il


y aura au maximum trois tirages. Nous noterons Bi (resp. Ni ) lvnement avoir
tir une boule blanche (resp. noire) au i-me tirage , avec 0 i 5. La loi de X,
conditionnellement B0 , se dtermine par :
4
10
=
6
15
2 4
4
P (X = 2|B0 ) = P (N1 B2 ) = =
6 5
15
2 1 4
1
P (X = 3|B0 ) = P (N1 N2 B3 ) = =
6 5 4
15
P (X = 1|B0 ) = P (B1 ) =

TD 2 Variable alatoire discrte

31

Notons au passage que la somme de ces probabilits conditionnelles est bien gale
1.
Si la boule tire initialement est noire, il peut y avoir cette fois jusqu cinq tirages
avant dobtenir une noire, puisquil y a quatre blanches. La loi conditionnelle est
dfinie par :
2
5
=
6
15
4 2
4
P (X = 2|N0 ) = P (B1 N2 ) = =
6 5
15
4 3 2
3
P (X = 3|N0 ) = P (B1 B2 N3 ) = =
6 5 4
15
4 3 2 2
2
P (X = 4|N0 ) = P (B1 B2 B3 N4 ) = =
6 5 4 3
15
4 3 2 1 2
1
P (X = 5|N0 ) = P (B1 B2 B3 B4 N5 ) = =
6 5 4 3 2
15

P (X = 1|N0 ) = P (N1 ) =

La loi de X se dduit de la formule de la probabilit totale en dcomposant


lvnement (X = x) sur B0 et N0 , avec pour x X () = {1, 2, 3, 4, 5} :
P (X = x) = P (B0 ) P (X = x|B0 ) + P (N0 ) P (X = x|N0 )
2
10
1
5
5
2
4
1
4
4

+
= , P (X = 2) =
+
=
,
3
15
3
15
9
3
15
3
15
15
1
1
3
1
1
2
2
2
+
= , P (X = 4) =
=
et P (X = 5) =
P (X = 3) =
3
15
3
15
9
3
15
45
1
1
1

=
. On vrifie nouveau que la somme de ces probabilits est gale 1.
3 15
45
soit P (X = 1) =

Dunod. La photocopie non autorise est un dlit.

12  Les

valeurs possibles de X sont 2, 3 et 4, avec un gain qui sera associ


seulement aux rsultats correspondants PP, FPP et FFPP ou PFPP de probabilits
1 1
1
respectives 2 , 3 et 4 . On obtient donc comme esprance de gain, en tenant
2 2
2
compte de la mise initiale de 100 francs :
E(G) =

1
1
2
21
2042 + 3 2043 + 4 2044 100 =
2
2
2
2
8

13  Si X N, le nombre de voitures vendues est X, ce qui correspond un gain

pour le garagiste de valeur G = aN. Si X < N, le garagiste vendra X voitures et il


lui en restera N X, ce qui correspond un gain G = aX b (N X). Lexpression
de lesprance du gain est donc dfinie partir de la loi de X par :
E (G) = aNP (X N) +

N1

x=0

[ax b (N x)] P (X = x)

32

TD Statistique et probabilits

Tous les entiers x de {0, 1, . . . , n} ont la mme probabilit, cest--dire que X suit
une loi uniforme discrte, avec P (X = x) = 1/ (n + 1). On obtient donc :
E (G) = aN

n

x=N

 (a + b) x bN
1
+
n+1
n+1
N1

x=0

bN2
aN (n N + 1)
N (N 1)

=
+ (a + b)
n+1
2 (n + 1)
n+1
N [(2n + 1) a b (a + b) N]
=
2 (n + 1)
Cette valeur est maximum quand le numrateur h (N) est maximum, avec h (N) =
(2n + 1) a b
et une drive
(2n + 1) a b 2 (a + b) N qui sannule pour N =
2 (a + b)

seconde h (N) = 2 (a + b) < 0. La commande optimum correspond donc bien
cette valeur de N.

14  Les probabilits pi = P (X = i) pour i = 0, 1, 2 sont bien sr lies par


p0 + p1 + p2 = 1. On donne dautre part E (X) = p1 + 2p2 = 1. Enfin, par
 
3
E X2 = V(X) + E2 (X) = = p1 + 4p2 , on dduit p2 = 1/4, p1 = 1/2 et p0 = 1/4.
2
15  Labsence

de mmoire de lenfant se traduit par une indpendance des


tentatives successives qui ont chaque fois la mme probabilit 1/N de russir. Ces
tentatives seffectuant jusqu la dcouverte du jouet, il sagit dune loi gomtrique
de paramtre p = 1/N, soit pour tout entier strictement positif k :


1 k1 1
P (X = k) = 1
N
N

et une esprance E (X) = N.


Le jouet est trouv lissue de n tentatives avec une probabiit qui se calcule par :



n
n 

1 
1 n
1 k1
P (X = k) =
=1 1
1
P (X n) =
N
N
N
k=1

k=1

Pour n = 3, on doit donc trouver une valeur de N telle que (1 1/N)3 soit proche
de 0,25, ce qui correspond N voisin de 2,7, donc le nombre de botes est lentier
le plus proche N0 = 3.

16  Lvnement X k exprime qu chaque tirage on a obtenu une boule de

lensemble {1, 2, . . . , k} et, en raison de lindpendance des tirages :


 n
k
P (X k) =
N
On en dduit alors par diffrence :

P (X = k) = P (X k) P (X k 1) =
pour 2 k N, avec P (X = 1) = (1/N)n .

k
N

n

k1
N

n

TD 2 Variable alatoire discrte

33

17  Le plus simple est de dterminer les valeurs de Y partir du tableau des


valeurs possibles de X :
X

10

12

12

10

La loi de X tant la loi uniforme discrte sur les entiers {1, 2, 3, 4, 5, 6}, il en est de
mme de la loi de Y sur les entiers {6, 10, 12}. On obtient alors aisment :
1
28
(6 + 10 + 12) =
3
3
 2 1
280
E X = (36 + 100 + 144) =
3
30
E (X) =

V(X) =

56
9

La variable Mn peut prendre aussi les valeurs 6, 10 ou 12. Pour que Mn soit gale
6, il faut que toutes les variables Yi aient pris la valeur 6, do :

P (Mn = 6) = P

n



(Yi = 6) =

i=1

 n
1
3

Si Mn est gale 12, cest que lun des vnements Yi = 12 est ralis, le complmentaire tant tous les vnements Yi < 12 sont raliss, soit :
n

n

 n


2
P (Mn = 12) = P
(Yi = 12) = 1 P
(Yi 10) = 1
3
i=1

i=1

La probabilit du dernier vnement Mn = 10 pourrait se dduire des probabilits


prcdentes puisque la somme de ces valeurs doit tre gale 1, mais cette mthode
est vivement dconseille car elle enlve justement la possibilit de dtection dune
erreur en faisant la somme des probabilits individuelles dont on sait quelle doit
tre gale 1. On exprime donc lvnement Mn = 10 qui signifie que tous les
vnements Yi 10 sont raliss, mais pas lvnement tous les Yi sont gaux 6,
soit :

n
n



P (Mn = 10) = P
(Yi 10)
(Yi = 6)

i=1
i=1

n

n


=P
(Yi 10) P
(Yi = 6)
i=1

 n  n
1
2

=
3
3

18  Les

i=1

tirages tant avec remise sont indpendants et donc X suit une loi
binmiale

 de paramtres n = 5 et p = 2/8 avec E (X) = np = 5/4 et V(X) =
np 1 p = 15/16.

34

TD Statistique et probabilits

19  On reconnat le schma de la loi hypergomtrique de paramtres N = 10,


n = 3 et NA = 8, soit daprs les rsultats du cours :
P (X = 0) = 0 , P (X = 1) =
avec E (X) = 3

7
1
, P (X = 2) = P (X = 3) =
15
15

8
12
8
2
7
28
=
et V(X) = 3

10
5
10 10 9
75

Variable
alatoire
continue

On associe aux rsultats dune exprience alatoire un ensemble de valeurs qui forment un
(ou plusieurs) intervalle(s) rel(s). Si on peut calculer la probabilit de tous les intervalles
qui sont inclus dans cet ensemble, lapplication qui ralise ce codage se nomme variable
alatoire (v.a.) continue. Sa loi de probabilit est gnralement dfinie par une densit qui
sera la drive de la fonction de rpartition. Le calcul des moments seffectue laide de
cette densit par une intgration.

1. Variable alatoire relle continue

Dunod. La photocopie non autorise est un dlit.

1.1 Dfinition
On appelle v.a. relle dfinie sur (, A) une application X : R telle que pour
tout intervalle I R on ait :
X1 (I) = { /X() I} A
Cette condition est vrifie si pour tout rel x, on a X1 (], x[) A.

1.2 Loi de probabilit


Elle est dtermine par la fonction de rpartition (f.r.) F, dfinie pour tout x rel
par :


F(x) = PX (X < x) = P X1 (], x[) = P { /X() < x}

36

TD Statistique et probabilits

1.3 Proprits de la fonction de rpartition


Elle est croissante au sens large et prend ses valeurs entre 0 et 1 :
0 F(x) 1 avec

lim F(x) = 0 et

lim F(x) = 1

x+

Elle est continue gauche :


lim F(x h) = F(x)

h0+

1.4 Loi continue


Si la fonction F est continue, on dit que X est une variable alatoire relle continue.
Dans ce cas, pour tout rel x, PX (X = x) = 0, et on dit que la loi est diffuse.

1.5 Loi absolument continue


Dans le cas o la fonction F admet une drive f , celle-ci est appele densit
de probabilit de la v.a. X, de loi qualifie dabsolument continue. La f.r. est alors
dtermine par lintgrale :
 x
F(x) =
f (t) dt

Une densit est positive et intgrable sur R, dintgrale gale 1 :


 +
f (t) dt = 1

La probabilit dun intervalle sobtient en intgrant la densit sur cet intervalle :


 x2
f (t) dt
PX {X [x1 , x2 ]} =
x1

1.6 Moments dune v.a. absolument continue


 Esprance mathmatique
Elle est dfinie par :

E(X) =

xf (x) dx

lorsque cette intgrale gnralise existe. Pour tout rel a :


E(X + a) = E(X) + a et E(aX) = aE(X)
Si X et Y sont deux v.a. qui admettent une esprance :
E(X + Y) = E(X) + E(Y)

TD 3 Variable alatoire continue

37

 Variance
Elle est dfinie par :

V(X) = E [X E(X)]2 =

 
[x E(X)]2 f (x) dx = E X2 E2 (X) = 2 (X)

lorsque cette intgrale gnralise existe. Pour tout rel a :


V(X + a) = V(X) et

V(aX) = a2 V(X)

Si X et Y sont deux v.a. indpendantes admettant une variance :


V(X + Y) = V(X) + V(Y)

 Moments non centrs et centrs


Le moment non centr dordre r N de X est la quantit, lorsquelle existe :

mr (X) = E(Xr ) =

xr f (x) dx

Le moment centr dordre r N de X est la quantit, lorsquelle existe :



r (X) = E [X E(X)]r =

[x E(X)]r f (x) dx

2. Lois usuelles continues

Dunod. La photocopie non autorise est un dlit.

2.1 Loi uniforme


Une v.a. X suit une loi uniforme si sa densit est constante sur un intervalle [a, b] :

1
si x [a, b]
f (x) = b a

0
sinon
On crit X  U ([a, b]). Sa fonction de rpartition est dfinie par :

x a
F(x) =

ba

si x < a
si a x < b
si b x

Elle admet pour moments :


E(X) =

b+a
2

et

V(X) =

(b a)2
12

38

TD Statistique et probabilits

2.2 Loi exponentielle


La loi exponentielle de paramtre > 0 est celle dune variable positive de densit :

ex si 0 x
f (x) =
0
si x < 0
On crit X  E(). Sa f.r. est nulle pour x 0, et pour x > 0 :
 x
x

F(x) =
et dt = et 0 = 1 ex
0

Ses moments sont :


E(X) =

et V(X) =

1
2

2.3 Loi normale ou de Laplace-Gauss


Cest la loi dune variable alatoire X valeurs dans R, de densit :
1
(x m)2
f (x) = exp
22
2
On note X  N(m, ) avec E(X) = m et V(X) = 2 .
Si X  N(m1 , 1 ) et Y  N(m2 , 2 ) sont des v.a. indpendantes, alors :



X + Y  N m1 + m2 , 21 + 22 .

2.4 Loi gamma


Une v.a. X de loi gamma de paramtres p > 0 et > 0 est positive, de densit :
f (x) =

p x p1
e x
( p)

si x 0

La fonction gamma est dfinie pour tout p > 0 par :



( p) =

ex xp1 dx

On crit X  ( p, ), de moments :
E(X) =

et V(X) =

p
2

La v.a. Y = X est de loi ( p, 1), note ( p), de moments E(Y) = V(Y) = p.


Si X  ( p, ) et Y  (q, ) sont des v.a. indpendantes, alors X + Y  ( p + q, ).

TD 3 Variable alatoire continue

39

2.5 Loi du khi-deux


La loi du khi-deux n degrs de libert, note 2n , est la loi (n/2, 1/2) o n est un
entier positif. Ses moments se dduisent de ceux de la loi gamma :
  n/2
  n/2
E 2n =
= n et V 2n =
= 2n
1/2
1/4
Si X  2n et Y  2m sont des v.a. indpendantes, alors X + Y  2n+m .
Notons une proprit importante qui peut servir de dfinition de cette loi : si
X1 , . . . , Xn sont des v.a. indpendantes et de mme loi N(0, 1), alors X12 + + Xn2
suit une loi du khi-deux n degrs de libert.

2.6 Loi de Student


Soit U unev.a. de loi N(0, 1) et Y une autre v.a. indpendante de loi 2n . Le
rapport U/ Y/n suit une loi de Student n degrs de libert, note Tn . Comme
le numrateur U suit une loi symtrique par rapport 0, il en est de mme de Tn ,
n
avec E(Tn ) = 0 pour n > 1. On obtient aussi V(Tn ) =
pour n > 2.
n2

2.7 Loi de Fisher-Snedecor


Si U et V sont deux v.a. indpendantes de lois respectives 2n et 2m , alors le rapport
(U/n) / (V/m) suit une loi de Fisher-Snedecor n et m degrs de libert, note
F(n, m).

Dunod. La photocopie non autorise est un dlit.

Vrai Faux

1. La f.r. dune loi absolument continue est strictement croissante


sur lensemble des nombres rels x tels que F (x) > 0.
2. Si une loi est symtrique par rapport lorigine, cest--dire si
F (x) = 1 F (x) ou f (x) = f (x), alors son esprance est nulle.
3. Si les v.a. X et Y suivent des lois normales, alors X + Y suit aussi
une loi normale.
4. Si une loi admet une variance, alors elle admet aussi une esprance.
5. Si une v.a. X est telle que P (X = x) = 0 pour tout x rel, alors
elle admet une densit.

6. Si on dfinit la v.a. Y = g (X) laide dune fonction continue


g, alors on peut dterminer sa loi partir de celle de X, mme si g
nest pas injective.

40

TD Statistique et probabilits

7. Comment dterminer si la loi de probabilit dune v.a. relle X est continue (ou
diffuse), mixte ou absolument continue, connaissant sa fonction de rpartition F?
8. Si une loi est dfinie par une densit, indiquer comment on peut tudier
lexistence de ses moments centrs.

Fonction de rpartition

9. Soit f la fonction dfinie par :



k (1 x) si 0 x 1
f (x) =
0
sinon
Dterminer la constante k pour que f soit la densit dune loi dont on prcisera la
fonction de rpartition.
Analyse de lnonc et conseils. Pour quune fonction soit une densit, il faut quelle
soit positive et dintgrale gale 1. Cest cette dernire condition qui va permettre de
calculer prcisment la valeur de la constante k. On dtermine ensuite la f.r. en intgrant
la densit de x, en choisissant x dans chacun des intervalles o lexpression de
cette densit reste la mme.

Loi de Pareto

10. Une v.a. X suit une loi de Pareto de densit f dfinie par :

k
f (x) = x3

si x x0
sinon

o x0 est une constante positive. Dterminer la constante k pour que f soit bien une
densit et prciser la fonction de rpartition de X.
Analyse de lnonc et conseils. Voir exercice prcdent.

TD 3 Variable alatoire continue

41

Loi symtrique

11. Soit X une v.a. de densit :

3x (2 x) si 0 x 2
f (x) = 4

0
sinon

Dterminer la f.r. de X, puis indiquer sans calculs les valeurs de P (X > 1) et E (X).
Analyse de lnonc et conseils. La densit se prsente sous la forme usuelle dune
fonction qui est non nulle seulement sur un intervalle fini, le support de la loi. La
f.r. sera donc nulle avant lorigine de cet intervalle, puisquil ny a aucune masse de
probabilit, et vaudra 1 au-del de lextrmit du support puisque toute la masse de
probabilit sera situe gauche du point considr. Si on remarque une symtrie de la
densit par rapport au centre de lintervalle, celui-ci sera centre de symtrie de la loi,
cest--dire sera la fois mdiane et moyenne de la loi.

Calcul de moments

12. Soit X une v.a. de densit :

2x
f (x) = 2

si 0 x
sinon

o est un nombre positif donn. Dterminer la f.r. F de X puis calculer E (X) et


V(X).

Dunod. La photocopie non autorise est un dlit.

Analyse de lnonc et conseils. Le calcul des moments se fait par intgration, sans
difficults particulires dans le cas dune densit finie sur un intervalle
  fini. Pour le
calcul de la variance, il est presque toujours prfrable de calculer E X2 puis dutiliser
la formule dveloppe.

Loi de Laplace

13. Soit X une v.a. de densit :


f (x) =

1 |x|
e
2

o est un nombre rel donn. Calculer E (X) et V(X).


Analyse de lnonc et conseils. Le principe est le mme que dans lexercice prcdent mais il sagit ici dintgrales gnralises dont il faut examiner la convergence,
puisquon intgre sur tout R. On pourra ici simplifier le calcul par la recherche dun
centre de symtrie de la loi.

42

TD Statistique et probabilits

Loi dfinie par sa f.r.

14. Soit X une v.a. de f.r. F dfinie par :

si x 1
0
F(x) = ln x si 1 < x e

1
si e < x
Calculer E(X) et V(X).
Analyse de lnonc et conseils. La loi est ici dfinie par sa f.r. dont on peut remarquer
quelle est drivable partout. Il sagit donc dune loi absolument continue dont on
dterminera la densit en drivant F et le calcul des moments seffectuera alors comme
dans les exercices prcdents.

Lecture de tables : loi normale

15. a) Si X suit une loi N (35, 5), calculer P (X < 25), P (37,5 < X < 40) et
P (32,5 < X < 37,5).
b) Calculer lesprance et la variance dune v.a. Y de loi normale, telle que
P (Y > 3) = 0,691 5 et P (Y < 2) = 0,977 2.
Analyse de lnonc et conseils. La table 1, page 194, fournit les probabilits associes la loi normale centre et rduite. Il faut donc dans le cas gnral centrer la
variable normale, cest--dire retrancher son esprance, et la rduire, cest--dire la
diviser ensuite par son cart type. Les valeurs de F (u) ne sont fournies que pour
u 0 ; la valeur de F (u) est obtenue en prenant le complment 1 de celle de
F (u). Dans la seconde question, cest partir de la table 2, page 195, des fractiles que
lon devrait pouvoir dterminer les valeurs de la variable centre-rduite associes
aux probabilits donnes. Cependant ici ces probabilits figurent dans la table 1,
ce qui permet de dterminer sans interpolation les valeurs exactes de la variable.

Loi normale et loi du khi-deux

16. a)

Soit X une v.a. de loi normale telle que


5 et P (X > 8) =
 P (X < 2) = 0,308

0,006 2. Calculer la valeur de la probabilit P X2 6X < 1,84 .

b) Soit Y une v.a. de loi normale telle que P (Y < 2) = 


0,022 8 et P (Y > 3,5) =
0,158 7. Calculer la valeur du rel a tel que P (X 3)2 < a = 0,975.
Analyse de lnonc et conseils. Comme dans lexercice prcdent, les probabilits
fournies vont permettre de dterminer lesprance et lcart type de la loi. Il faudra
ensuite utiliser le rsultat de cours relatif la loi du carr dune v.a. de loi normale
centre-rduite.

TD 3 Variable alatoire continue

43

Fractiles des lois de Student et de Fisher-Snedecor

17. a) Dterminer les fractiles dordres 0,8 et 0,2 de la loi de Student 12 degrs
de libert.
b) Dterminer le fractile dordre 0,05 de la loi de Fisher-Snedecor 30 et 10 degrs
de libert.
Analyse de lnonc et conseils. On utilise les tables 6, page 200, et 7, page 201, des
fractiles, en utilisant les proprits de ces lois.

Loi exponentielle tronque

18. Soit X une v.a. de densit :


e(x)
f (x) =
0

si x >
sinon

o est un nombre rel donn.


a) Dterminer la f.r. F et la mdiane de cette loi.
b) Soit X1 , . . . , Xn des v.a. indpendantes et de mme loi que X et posons
mn = min {X1 , . . . , Xn }. Dterminer la f.r., puis la densit, de la v.a. mn .

Dunod. La photocopie non autorise est un dlit.

Analyse de lnonc et conseils. La mdiane de la loi est le fractile dordre 1/2,


cest--dire la valeur Md telle que F (Md) = 1/2. Pour dterminer la loi de la plus
petite valeur dun chantillon, cest--dire de v.a. indpendantes et de mme loi, il
faut exprimer lvnement (mn > x) laide dvnements associs aux variables Xi ,
1 i n. Ces vnements seront indpendants, du fait de lindpendance de ces v.a.

Loi du maximum

19. Soit X une v.a. de densit :



1 9 x2  si 3 < x < 3
f (x) = 36

0
sinon
Dterminer la f.r., puis la densit, de la v.a. Mn = max {X1 , . . . , Xn }, o X1 , . . . , Xn
sont des v.a. indpendantes et de mme loi que X.
Analyse de lnonc et conseils. La f.r. de Mn se dtermine aprs avoir obtenu celle de
X et en exprimant lvnement (Mn < x) laide dvnements indpendants associs
aux variables indpendantes X1 , . . . , Xn .

44

TD Statistique et probabilits

Changement de variable

20. Soit X une v.a. de densit :

1 x1/1
f (x) =

si 0 x 1
sinon

o est un nombre positif donn.


Dterminer la loi de probabilit de la v.a. Y = ln X.
Analyse de lnonc et conseils. La loi de Y est dtermine par sa fonction de
rpartition que lon exprimera en fonction de celle de X, puis que lon drivera pour
reconnatre une loi usuelle.

Loi de Gumbel

21. Soit X une v.a. de densit :



f (x) = exp (x ) e(x)

la loi de
et X1 , . . . , Xn des v.a. indpendantes et de mme loi que X. Dterminer

probabilit de Y = exp (X ) et en dduire celle de Sn = ni=1 Yi , ayant pos
Yi = exp (Xi ), 1 i n.
Analyse de lnonc et conseils. La loi de Y se dtermine dabord par sa f.r. que
lon exprime laide de celle de X. On calcule ensuite sa densit par drivation. On
reconnatra une loi usuelle, ce qui permettra den dduire facilement celle de Sn par
application dun rsultat de cours.

1  Faux. La densit f

est une fonction positive qui peut trs bien sannuler sur
certains intervalles o la f.r. sera alors constante. Considrons par exemple la
densit dfinie par :

x 1

si 4 < x < 2

4
2

f (x) = x 1
si 2 < x < 4

4 2

0
sinon
Pour 2 < x 2 la densit est nulle et F (x) = F (2) = 1/2 reste constante.

TD 3 Variable alatoire continue

45

2  Faux. On
 peut donner comme contre-exemple la loi de Cauchy de densit

1/ 1 + x2 et qui pourtant nadmet pas desprance. Cependant, si lintgrale


 +
gnralise xf (x) dx existe, alors on a bien E (X) = 0.

3  Faux. La variable Y = X suit une loi normale, comme X, et X + Y = 0, donc


cette variable suit une loi de Dirac (que lon pourrait envisager comme cas limite
dune loi normale dcart type nul). Bien sr lnonc devient vrai si on ajoute la
condition dindpendance des variables X et Y.

4  Vrai. Lexistence dun moment dun certain ordre implique celle de tous les
moments dordres infrieurs.

5  Faux. La loi est continue, la f.r. est continue et strictement croissante mais pas
forcment drivable. On peut trouver des exemples assez complexes o la loi est
continue mais pas absolument continue, cest--dire nadmettant pas de densit.

6  Vrai. Prenons lexemple de la fonction g dfinie par g (x) = |x|. Elle nest pas
injective et pourtant on peut dterminer la loi de Y = |X|. En effet, pour tout
y > 0 lvnement Y < y est quivalent y < X < y, dont on peut calculer la
probabilit. Cependant, si g nest pas injective on na pas la certitude de pouvoir
toujours dterminer la loi de Y.
7  Si la fonction F est drivable, on peut conclure que sa drive est la densit
de la loi, qui est alors absolument continue. Sinon, on tudie la continuit de F
sur son domaine de dfinition. Si elle est continue partout, la loi est continue, ou
diffuse, cest--dire quil ny a aucune masse de probabilit en aucun point. Par
contre, sil existe au moins un point x0 o F est discontinue, on a alors F (x0 + 0) =
lim F (x0 + h)  = F (x0 ) ; la loi est mixte, comportant une partie continue et une
h0+

partie discrte, car il y a au moins un point de masse non nulle : P (X = x0 ) =


F (x0 + 0) F (x0 ).

8  Lexistence dun moment centr dordre entier r est quivalente celle du


moment non centr de mme ordre, qui stablit en tudiant la convergence de
 +
lintgrale gnralise xr f (x) dx. Si cette intgrale existe pour tout r, cest que
la loi admet des moments de tous ordres. Si on tablit lexistence dun moment
dordre r0 , tous les moments dordres infrieurs r0 existent.
Dunod. La photocopie non autorise est un dlit.

9  Lintgrale de f sur ], +[ se rduit :




(1 x) dx =

k
2

qui vaut 1 pour k = 2.


Pour x 0, la densit est nulle et donc F (x) = 0. Pour 0 < x 1, on dcompose
lintervalle dintgration de f en deux :
 0
 x
 x
f (t) dt =
0 dt + 2
F (x) =
(1 t) dt = 2x x2

Enfin, pour x > 1 on dcompose en trois intgrales qui correspondent aux trois
intervalles o f conserve la mme expression :
 x
 0
 1
 x
F (x) =
f (t) dt =
0 dt + 2
0 dt = 1
(1 t) dt +

46

TD Statistique et probabilits

10  Lintgrale de f sur R se rduit :




k
2x20

x3 dx =

x0

qui vaut 1 pour k = 2x20 .


Pour x < x0 , la densit est nulle et donc F (x) = 0. Pour x x0 , on dcompose
lintervalle dintgration de f en deux :

F (x) =

f (t) dt =

x0


0 dt +

2x20

x20
x2

t3 dt = 1

x0

11  Pour x 0, la densit est nulle, donc son intgrale aussi et F (x) = 0. Pour
0 < x 2, le calcul de la f.r. F se rduit :
F (x) =

3
4


0


3x2
x3
2t t2 dt =

4
4

Pour x 2, on intgre la densit sur tout lintervalle o elle est non nulle, donc
son intgrale vaut 1 et F (x) = F (2) = 1. On peut remarquer ici que f (2 x) = f (x)
et cette symtrie de la densit implique la symtrie de la loi par rapport au centre
1
x = 1 de lintervalle, qui est donc la mdiane, avec P (X < 1) = P (X > 1) = , et
2
aussi la moyenne, avec E (X) = 1, puisque lintgrale seffectue sur un intervalle
de longueur finie.

12  On obtient aisment :

2
F (x) = x

si x < 0
si 0 x
si x >

On calcule lesprance :

E (X) =

2
xf (x) dx = 2

2
x dx = 2

x3
3

=
0

Puis le moment non centr dordre deux :




E X


=

2
x f (x) dx = 2

 
2
Et enfin V(X) = E X2 E2 (X) =

18

2
x dx = 2

x4
4

=
0

2
2

TD 3 Variable alatoire continue

47

13  Tous les moments de cette loi existent, daprs le thorme des croissances
compares, en raison de la prsence de lexponentielle qui lemporte sur toutes
 +
les puissances de x. Cela assure donc la convergence des intgrales xr f (x) dx
pour tous les entiers r. Si on remarque que f (2x ) = f (x), on en conclut que est
centre de symtrie de cette loi, donc la mdiane, mais aussi la moyenne puisque
nous savons que celle-ci existe : E (X) = . Pour le calcul du moment dordre deux,
il sera donc judicieux de faire le changement u = x :



1 +
(u + )2 e|u| du
2

 +
 +
u2 eu du + 2
eu du = 2 + 2
=

 
E X2 =

x2 f (x) dx =

et V(X) = E X


2

E2 (X) = 2.

14  Il sagit bien dune fonction de rpartition, strictement croissante de F (1) = 0

F (e) = 1, de drive nulle en dehors de lintervalle [1, e], avec F (x) = f (x) = 1/x
pour 1 < x e. On calcule donc :

E (X) =
 
E X2 =

dx = e 1

xf (x) dx =
x2 f (x) dx =

x dx =


1 2
e 1
2

 

1 2
et V(X) = E X2 E2 (X) =
e + 4e 3 .
2

15  a) On retranche 35 puis on divise par 5 pour pouvoir ensuite utiliser la


table 1, page 194 :

P (X < 25) = P


X 35
< 2 = (2) = 1 (2) = 0,022 8
5

Dunod. La photocopie non autorise est un dlit.

o est la f.r. de la loi N (0, 1). On obtient par le mme procd :


P (37,5 < X < 40) = (1) (0,5) = 0,149 8
et :
P (32,5 < X < 37,5) = (0,5) (0,5) = 2 (0,5) 1 = 0,383 0
b) Les valeurs fournies pour les probabilits figurent dans la table 1, page 194,
associes
aux nombres 0,5 et 2. En centrant sur m = E (Y) puis divisant par =

V(Y), les hypothses se traduisent donc par :





3 m
3 m
Ym
=1
= (0,5)
>





Ym
2m
2m
P (Y < 2) = P
=
= (2)
<

P (Y > 3) = P

48

TD Statistique et probabilits

Ce qui conduit au systme :


3 m
= 0,5 et

2m
=2

de solution m = 2 et = 2.

16  a)

P

La lecture de la table 1, page 194, permet dobtenir :


Xm
2m
<


= 0,308 5 = 1 0,691 5 = 1 (0,5) = (0,5)

o est la f.r. de laloi N (0, 1) et ayant pos m = E (X) et = V(X). De mme,


Xm
8m
P
<
= 0,993 8 = (2,5), ce qui donne les quations :

2m
= 0,5 et

8m
= 2,5

6X = (X 3)2 9,
de solution m = 3 et = 2. On remarque ensuite que X2 
2
donc on doit calculer la probabilit p = P (X 3) < 10,84 . On sait par ailleurs
2
que (X
 3) /4 suit une loi du khi-deux un degr de libert, donc on calcule
p = P (X 3)2 /4 < 2,71 = 0,90, valeur lue dans la table 5, page 199.

b) Avec m = E (Y) et = V(Y), on obtient :






Ym
2m
2m
P
<
= 1 0,977 2 =
= 1 (2) = (2)

et :

P

3,5 m
Ym
<


= 0,841 3 = (1)

soit :
2m
= 2 et

3, 5 m
=1

de solution m = 3 et = 1/2. La loi de 4(X 3)2 est une loi du khi-deux un degr
de libert, donc 4a est le fractile dordre 0,975 de cette loi, lu dans la table 5, soit
4a = 5,02 et a = 1,255.

17  a) La lecture de la table 6, page 200, fournit la valeur 0,873 du fractile dordre


0,8. En raison de la symtrie de cette loi par rapport lorigine, le fractile dordre
0,2 est donc 0,873.
b) La table 7, page 201, ne comporte pas le couple de degrs de libert (30, 10),
mais le couple (10, 30), qui fournit le fractile 2,16, soit P(X < 2,16) = 0,95 avec
X  F(10, 30). Linverse de X suit une loi F(30, 10), donc P(1/X > 1/2,16) = 0,95
et le fractile dordre 0,05 de la loi F(30, 10) est donc 1/2,16 = 0,46.

TD 3 Variable alatoire continue

18  a)

49

La f.r. est nulle pour x . Son expression pour x > est :


 x
e(t) dt = 1 e(x)
F (x) =
0

La mdiane vrifie donc e(Md) = 1/2, soit Md = + ln 2.


b) Lvnement (mn > x) est quivalent lvnement tous les lments de
lchantillon sont plus grands que x , ce qui scrit :
(mn > x) =

n


(Xi > x)

i=1

Du fait de lindpendance des variables Xi et de leur identit de loi avec X :


n

n


P (Xi > x) = Pn (X > x)
P (mn > x) = P
(Xi > x) =
i=1

i=1

Ainsi :
G (x) = P (mn < x) = 1 Pn (X > x) = 1 [1 F (x)]n
soit :


0
G (x) =
1 en(x)

si x
si x >

Et par drivation :

g (x) = G (x) = nf (x) [1 F (x)]

n1


0
=
nen(x)

si x
si x >

19  La f.r. de X est nulle pour x 3 et vaut un pour x > 3. Si 3 x 3, on


Dunod. La photocopie non autorise est un dlit.

obtient :
F (x) =

1
36


x3
x 1
9 t2 dt =
+ +
108 4 2

Lvnement (Mn < x) est quivalent toutes les variables de lchantillon sont
infrieures x et comme toutes les v.a. sont indpendantes et de mme loi que X,
on obtient :
n

n


P (Xi < x) = Fn (x)
G (x) = P (Mn < x) = P
(Xi < x) =
i=1

i=1

La densit tant :
g (x) = nf (x) Fn1 (x)

50

TD Statistique et probabilits

20  Puisque 0 < X < 1, la variable Y = ln X est une variable positive dont la


f.r. est dfinie pour y > 0 par :

 





G( y) = P Y < y = P ln X < y = P X > ey = 1 F ey

Sa densit est obtenue par drivation :


  1
g( y) = G ( y) = ey f ey = ey/

On reconnat la loi exponentielle de paramtre 1/.

21  La v.a. Y est positive et pour y > 0 sa f.r. est dfinie par :






G( y) = P Y < y = P exp (X ) < y = P (X ) < ln y




= P X > ln y = P X > ln y = 1 F ln y
Par drivation, on obtient comme densit pour y > 0 :
g( y) =


1 
f ln y = ey
y

qui est la densit dune loi exponentielle ou loi (1). La variable Sn est donc la
somme de v.a. indpendantes qui suivent la mme loi (1) et suit donc une loi
(n).

Couple
et vecteur
alatoires

Ce chapitre gnralise plusieurs dimensions la notion de variable alatoire. Un vecteur


alatoire a comme composantes des variables alatoires relles. Le vecteur des esprances va
dfinir lesprance de ce vecteur. La gnralisation de la variance est la matrice de variancescovariances qui contient les variances des composantes sur la diagonale principale et les
covariances comme autres lments. Si toute combinaison linaire des composantes dun
vecteur alatoire suit une loi normale, alors ce vecteur suit une loi normale multidimensionnelle.

1. Couple de v.a. discrtes

Dunod. La photocopie non autorise est un dlit.

1.1 Loi dun couple


Un couple de v.a. discrtes est constitu de deux v.a. discrtes X et Y dont les
ensembles de valeurs possibles sont {xi }iI et {yj }jJ , avec I, J N, de loi dfinie
par :


pij = P X = xi , Y = yj

1.2 Lois marginales


la loi dun couple sont associes deux lois marginales :
 
 
P X = xi , Y = yj =
pij = pi.
P (X = xi ) =
jJ

jJ

iI

iI

 
 
P Y = yj =
P X = xi , Y = yj =
pij = p.j


52

TD Statistique et probabilits

1.3 Lois conditionnelles


Pour Y = yj fix, la loi conditionnelle de X est dfinie par :


P X = xi , Y = yj
pij
j


= pi
=
P X = xi |Y = yj =
p
P Y = yj
.j


1.4 Indpendance
Les v.a. X et Y sont indpendantes si pour tout i I et tout j J :
P(X = xi , Y = yj ) = P(X = xi )P(Y = yj )

1.5 Moments associs un couple


Si h : R2 R est une application continue, elle dfinit une v.a. h (X, Y) desprance
qui se calcule par :
E [h (X, Y)] =


iI



pij h xi , yj

jJ

Pour h(X, Y) = [X E(X)] [Y E(Y)], on dfinit le moment appel covariance de X


et Y :
Cov (X, Y) = E {[X E(X)] [Y E(Y)]} = E(XY) E(X)E(Y)
On appelle coefficient de corrlation linaire de deux v.a. X et Y le nombre rel :
Cov(X, Y)
= Corr(X, Y) =

V(X) V(Y)

1.6 Loi dune somme


La loi de probabilit de la v.a. Z = X + Y est dfinie par :
P (Z = zk ) =





P X = xi , Y = yj /xi + yj = zk

Si X et Y sont indpendantes, on parle alors de convolution des lois de X et Y et :


P (Z = zk ) =


iI

P(X = xi )P(Y = zk xi )

 
 

P Y = yj P X = zk yj
jJ

TD 4 Couple et vecteur alatoires

53

2. Couple de v.a. continues


2.1 Loi du couple
Si X et Y sont deux v.a. continues, la loi de (X, Y) est dtermine par sa f.r. :
 


F x, y = P X < x, Y < y
Si F est drivable par rapport x et y, la loi de (X, Y) admet une densit f :
 
 2 F x, y
f x, y =
xy


2.2 Lois marginales


Les fonctions de rpartition marginales de X et Y sont dfinies par :
FX (x) = P(X < x) = F(x, +) et FY ( y) = P(Y < y) = F(+, y)
Si la loi du couple est dfinie par sa densit, les densits marginales sont :

fX (x) =


f (x, y) dy

et fY ( y) =

f (x, y) dx

2.3 Lois conditionnelles


Pour une loi de densit f , les lois conditionnelles sont dfinies par les densits :

 f (x, y)
fX x|Y = y =
fY ( y)


 f (x, y)
et fY y|X = x =
fX (x)

Dunod. La photocopie non autorise est un dlit.

2.4 Indpendance
Les v.a. X et Y sont dites indpendantes, si pour tous les rels x et y :
f (x, y) = fX (x)fY ( y)

2.5 Moments associs un couple


Si h : R2 R est une application continue, elle dfinit une v.a. h (X, Y) dont
lesprance se calcule par lintgrale double :

E [h (X, Y)] =

R2

h(x, y)f (x, y) dx dy

54

TD Statistique et probabilits

2.6 Rgression
La fonction : x  E (Y|X = x), sappelle fonction de rgression de Y en X, avec :

E (Y|X = x) =


yfY ( y|X = x) dy =

f (x, y)
dy
fX (x)

2.7 Loi dune somme


La loi de la v.a. Z = X + Y se dtermine par sa f.r. G, dfinie par :
G(z) = P(Z < z) = P(X + Y < z)
Elle peut se calculer, dans le cas o ce couple admet une densit f , par :

f (x, y) dx dy

G(z) =
D

o D =

 

x, y /x + y < z . Dans le cas particulier o X et Y sont indpendantes :

G(z) =

fX (x)fY (s x) ds dx =

g(s) ds

o g est la densit de Z, dfinie par :



g(z) =


fX (x)fY (z x) dx =

fX (z y)fY ( y) dy

3. Vecteur alatoire
Un vecteur alatoire X de Rn est une application de dans Rn dont toutes les
composantes Xi , 1 i n, sont des v.a. relles. On dfinit son esprance par le
vecteur :

E(X1 )

.
E(X) = ..

E(Xn )
La gnralisation de la variance est la matrice de variances-covariances :

V(X) = E [X E(X)] t [X E(X)]

TD 4 Couple et vecteur alatoires

55

Si A est une matrice de format (m, n) et b un vecteur de Rm :


E(AX + b) = AE(X) + b et V(AX + b) = V(AX) = AV(X) t A

3.1 Loi multinomiale


Le vecteur alatoire N, de composantes N1 , . . . , Nk , suit une loi multinomiale de
paramtres n, p1 , . . . , pk si :
P (N1 = n1 , . . . , Nk = nk ) =

n!
n
n
p 1 . . . pk k
n1 ! . . . nk ! 1




o kj=1 pj = 1. Si on pose t p = p1 , . . . , pk , on crit N  M(n; p) desprance
E(N) = np et de matrice de variances-covariances :
)*
' (
V(N) = n pi ij pj

1i,jk

o ij est le symbole de Kronecker qui vaut 1 quand i = j et 0 sinon.

3.2 Loi normale vectorielle


Dfinition. Un vecteur alatoire X valeurs dans Rn suit une loi normale si toute
combinaison linaire de ses composantes suit une loi normale dans R :
X  Nn

a Rn ,

aX =

n


ai Xi  N1

Dunod. La photocopie non autorise est un dlit.

i=1

La loi normale est dtermine par le vecteur esprance = E(X) et la matrice


variances-covariances = V(X), la densit au point x = (x1 , . . . , xn ) tant :
1
1
exp t (x ) 1 (x )
f (x) = ( )n
2
2
det
Si X1 , . . . , Xn sont des v.a. normales indpendantes, de lois respectives N (i , i ),
1 i n, alors elles constituent les composantes dun vecteur normal X de densit :
f (x) =


n 
1  xi i 2
1
 n  exp
( )n 
2
i
i=1
2
i
i=1

56

TD Statistique et probabilits

Vrai Faux

1. Les lois de X et Y permettent de dterminer celle du couple


(X, Y).
2. Lexpression E (Y|X) dsigne une variable alatoire.
3. Deux variables alatoires indpendantes ont une covariance
nulle.
4. La somme de deux lois binmiales est une loi binmiale.
5. Si on connat les densits des deux v.a. continues X et Y, on peut

calculer celle de X + Y.

6. Dans le cas multidimensionnel, loprateur esprance est


linaire.
 
7. Si la densit
f dun couple (X, Y) scrit sous la forme f x, y =

g (x) h y , o g et h sont deux fonctions positives, alors les v.a. X et
Y sont indpendantes.
8. Le vecteur dont les composantes X1 , . . . , Xn sont des v.a. normales est un vecteur normal.

9. Si X et Y sont deux variables alatoires relles normales de


covariance nulle, elles sont indpendantes.

10. Comment lexamen du tableau donnant la loi dun couple de v.a. discrtes
permet-il de conclure facilement la dpendance de ces deux variables?
11. Indiquer le moyen gnralement le plus simple pour obtenir les densits
marginales dun couple de v.a. continues dont on connat la fonction de rpartition.
12. Si

X est une v.a. relle de loi N (, ), on lui associe la variable centrerduite U = 1 (X ), notamment pour pouvoir utiliser les tables. Dans le cas
dun vecteur alatoire X de loi Nn (, ), indiquer la transformation qui permet
dobtenir un vecteur de loi normale centre-rduite Nn (0, I).

TD 4 Couple et vecteur alatoires

57

Variance dune somme

13. On lance un d six faces numrotes de 1 6 et on note X la v.a. qui reprsente


le chiffre obtenu. Si celui-ci est pair, la v.a. Y prend la valeur 1 et 0 sinon. Calculer
la variance V(X + Y).
Analyse de lnonc et conseils. La valeur de Y dpend du rsultat X ; donc on
peut penser intuitivement que ces variables sont dpendantes. Pour pouvoir calculer
la variance de la somme, il faut donc dterminer sa loi de probabilit, ce qui ncessite
au pralable dobtenir la loi du couple (X, Y).

Somme de variables dpendantes

14. Une urne contient quatre boules numrotes de 1 4 et lon effectue deux
tirages successifs sans remise, notant X (resp. Y) la v.a. indiquant le chiffre marqu
sur la boule tire au premier (resp. second) tirage. Dterminer la loi de probabilit
de la v.a. X + Y.
Analyse de lnonc et conseils. La loi de la somme de ces variables ne peut tre
dtermine quaprs avoir tabli celle du couple, car elles ne sont pas indpendantes.
Les tirages tant sans remise, on ne peut pas tirer deux fois le mme numro. Pour
obtenir facilement la loi de la somme, il est conseill de faire figurer sa valeur dans le
tableau donnant la loi du couple.

Dunod. La photocopie non autorise est un dlit.

Loi conditionnelle discrte

15. On jette deux ds six faces numrotes de 1 6 et on note X la v.a. qui


reprsente la somme des deux chiffres obtenus et Y la v.a. qui est gale au plus
grand de ces deux chiffres.
a) Dterminer la loi de probabilit du couple (X, Y) puis calculer E (X). Les v.a. X
et Y sont-elles indpendantes?
b) Dterminer la loi conditionnelle de Y pour X = 6, puis son esprance
E (Y|X = 6).
Analyse de lnonc et conseils. Les couples ordonns (x1 , x2 ) de rsultats associs
aux deux ds ont la mme probabilit 1/36. Pour chacun deux il faut calculer la somme
x1 + x2 , qui donnera la valeur de X, et max {x1 , x2 } qui sera celle de Y, puis regrouper les
couples de valeurs identiques ; leur nombre sera la probabilit, en 1/36-me du couple
obtenu. La loi conditionnelle est obtenue partir de la colonne du tableau associe
X = 6, en divisant les probabilits de cette colonne par la probabilit marginale
P (X = 6).

58

TD Statistique et probabilits

Esprance conditionnelle

16. La loi de probabilit du couple (X, Y) est indique dans le tableau suivant, les
valeurs tant exprimes en dizimes :
1

Dterminer la loi de probabilit de la v.a. E (Y|X), puis calculer son esprance et la


comparer avec la valeur de E (Y).
Analyse de lnonc et conseils. Lexpression E (Y|X) est bien celle dune variable
alatoire puisquil sagit dune fonction de X, qui est elle-mme une v.a. Pour une
ralisation telle que X prend la valeur X () = x, cette variable prend la valeur de
la rgression en x, cest--dire que E (Y|X) () = E (Y|X = x). Il faut donc calculer les
diffrentes valeurs de cette fonction de rgression, qui seront les valeurs possibles de
cette v.a. On peut ensuite calculer lesprance de cette v.a. par rapport la loi de X.

Loi conditionnelle binmiale

17. Le montant de lindemnit verse une entreprise qui a souscrit une police
dassurance incendie, aprs un sinistre, est une v.a. X de loi connue. Le nombre
annuel dincendies est une v.a. N qui suit une loi de Poisson de paramtre .
Dterminer la loi de probabilit de la v.a. Kx qui reprsente le nombre annuel
dincendies dun montant suprieur une valeur x positive donne. Dterminer
ensuite la loi conditionnelle de N pour Kx = k.
Analyse de lnonc et conseils. Il faut envisager toutes les valeurs possibles n de N et
ensuite reconnatre la loi de probabilit de Kx , pour chaque valeur fixe N = n. La loi de
Kx sobtiendra comme loi marginale du couple (Kx , N). Pour obtenir la loi conditionnelle
de N, il suffit ensuite dappliquer la dfinition dune probabilit conditionnelle.

Couple de v.a. indpendantes

18. Soit (X, Y) un couple de v.a. dont la loi est dfinie par la densit :



4x 1 y si 0 x 1,
f x, y =
0
sinon


0y1

TD 4 Couple et vecteur alatoires

59

a) Calculer la probabilit de lvnement (0 X < 1/3, 0 Y < 1/3).


b) Dterminer les fonctions de rpartition marginales des v.a. X et Y et tablir
quelles sont indpendantes.
Analyse de lnonc et conseils. Pour calculer la probabilit dun vnement dtermin par deux v.a. continues, on intgre la densit sur lensemble des valeurs qui
ralisent cet vnement. Les f.r. marginales vont se dduire des densits marginales
obtenues par intgration de la densit du couple par rapport lautre variable. Si le
produit de ces densits est gal la densit donne, cest que les variables du couple
sont indpendantes.

Couple de v.a. dpendantes

19. Soit (X, Y) un couple de v.a. dont la loi est dfinie par la densit :


2e(x+y)
f x, y =
0


si 0 y x
sinon

a) Calculer la probabilit de lvnement (X + Y < 1).


b) Dterminer la fonction de rpartition du couple (X, Y).

Dunod. La photocopie non autorise est un dlit.

c) Dterminer les densits marginales de X et Y. Ces variables sont-elles indpendantes?


Analyse

de lnonc et conseils. Pour dterminer la f.r. du couple en un point
M x0 , y0 , il faut intgrer la densit sur le domaine E =] , x0 [] , y0 [. Il faudra
alors distinguer plusieurs cas selon la position du point M par rapport au domaine D
o cette densit est non nulle. Ayant dtermin cette f.r., on en dduit aisment les f.r.
marginales en faisant tendre successivement y0 et x0 vers plus linfini. Cest la mthode
ici la plus simple pour obtenir ensuite les densits marginales par drivation de ces f.r.
marginales.

Valeurs extrmes dune loi uniforme

20. Soit X1 , . . . , Xn des v.a. indpendantes et de mme loi uniforme sur [0, 1].
Dterminer la loi de probabilit du couple de valeurs extrmes (mn , Mn ), ayant
pos mn = min {X1 , . . . , Xn } et Mn = max {X1 , . . . , Xn }.
Analyse de lnonc etconseils.
 Il faut dabord exprimer la f.r. du couple laide de
lvnement (mn x) Mn < y qui scrit facilement laide dvnements associs
aux variables X1 , . . . , Xn et dont la probabilit sera facile calculer. La densit de ce
couple de variables continues sen dduira alors par drivation.

60

TD Statistique et probabilits

Fonction de rgression

21. Soit (X, Y) un couple de v.a. dont la loi est dfinie par la densit :

 
 
3y si x, y D
f x, y =
0 sinon
o D est lintrieur du triangle de sommets (1, 0) , (0, 1) et (1, 0). Dterminer
lexpression de la fonction de rgression de Y en X.
Analyse de lnonc et conseils. La fonction de rgression est dfinie au point x par la
valeur de lesprance conditionnelle E (Y|X = x). La loi tant continue, cette esprance
va se calculer aprs dtermination de la densit conditionnelle, obtenue en divisant la
densit du couple par la densit marginale de X.

Loi multinomiale

22. On effectue n tirages avec remise dans une urne qui contient une boule noire,
deux blanches et trois vertes. Dterminer la loi de probabilit du vecteur N dont les
composantes N1 , N2 et N3 dsignent respectivement le nombre de boules noires,
blanches et vertes tires. Calculer ensuite E (N) et V(N).
Analyse de lnonc et conseils. Les rsultats du cours permettent dobtenir sans
difficults les rponses.

Transformation linaire dun vecteur gaussien

23. Si X1 , X2 et X3 sont trois v.a. indpendantes de mme loi N (0, 1), dterminer
la loi de probabilit du vecteur Y dont les composantes sont dfinies par :
Y1 =

1
1
(X1 + X2 ) , Y2 = (X1 + X2 X3 ) ,
2
3

Y3 =

1
(X1 + X2 + 2X3 )
6

Analyse de lnonc et conseils. Le vecteur Y est le transform linaire du vecteur


X de composantes X1 , X2 et X3 . On tablira facilement que X est un vecteur gaussien,
ce qui permettra den dduire par application du cours quil en est de mme de Y.

TD 4 Couple et vecteur alatoires

61

1  Faux. Dans le cas gnral, la connaissance des lois marginales ne permet pas
de dterminer la loi du couple. Par contre, dans le cas particulier o les variables
sont indpendantes, la loi du couple sobtient comme produit des lois marginales.

2  Vrai. Il sagit dune variable alatoire car cest une fonction de X, qui est une
variable alatoire. Pour un vnement lmentaire tel que X prend la valeur
X () = x, cette v.a. aura comme ralisation la valeur de la fonction de rgression
au point x, cest--dire E (Y|X) () = E (Y|X = x). On peut donc calculer lesprance
de cette variable par rapport la loi de X et on tablit que E [E (Y|X)] = E (Y).

3  Vrai. Si deux v.a. X et Y sont indpendantes, alors E (XY)

= E (X) E (Y), ce
qui implique que Cov (X, Y) = 0. Par contre, la rciproque est fausse dans le cas
gnral, cest--dire que deux variables peuvent avoir une covariance nulle et tre
dpendantes.

4  Faux. Pour que lnonc devienne vrai en gnral, il faut ajouter la condition

dindpendance des deux lois. Si par exemple X suit une loi binmiale, X + X = 2X
ne suit pas une loi binmiale.

5  Faux. Il est ncessaire, dans le cas gnral, de connatre la loi du couple (X, Y)
pour pouvoir dterminer celle de X + Y, puisquelle implique ces deux variables
simultanment. Cependant, si les deux variables sont indpendantes, lnonc
devient vrai.
6  Vrai. Cette proprit, qui tait vraie en unidimensionnel, subsiste dans le cas
multidimensionnel, cest--dire que si X et Y sont
 deux vecteurs alatoires n
composantes et A, B deux matrices de format p, n , alors :

Dunod. La photocopie non autorise est un dlit.

E (AX + BY) = AE (X) + BE (Y)

7  Vrai. Cependant, g et h ne sont pas forcment les densits marginales de X et


Y car il y a plusieurs factorisations possibles. Par contre, si ce sont des densits, ce
sont les densits marginales.
8  Faux. Les composantes dun vecteur normal sont bien des v.a. normales, mais
la rciproque est faussse en gnral : des composantes normales ne constituent pas
toujours un vecteur normal. Il faut pour cela quelles soient indpendantes.

9  Faux. Pour quune covariance nulle implique lindpendance de deux v.a., il


ne suffit pas quelles soient normales, il faut quelles soient les composantes dun
vecteur normal.

10  Il suffit de trouver dans les marges une valeur pi. en ligne et une valeur p.j
en colonne dont le produit soit diffrent de la valeur pij du tableau pour conclure
la dpendance de ces deux variables. Par contre, pour tablir lindpendance des
variables dun couple, il faut effectuer tous les produits des probabilits marginales
et retrouver les valeurs donnes dans le tableau.

62

TD Statistique et probabilits

 
x, y de la f.r. du couple, en faisant tendre succes 
sivement y et x vers plus linfini, on obtient les f.r. marginales FX (x) et FY y . Il
suffit alors de driver pour obtenir les densits marginales :

11  Connaissant les valeurs F

fX (x) =

 
 
dFY y
et fY y =
dy

dFX (x)
dx

12  Le vecteur X est bien sr centr. Pour rduire, on utilise la proprit, lie


aux matrices symtriques et dfinies-positives, dexistence dune matrice symtrique S telle que S2 = 1 et que nous noterons S = 1/2 . La transformation
Y = 1/2 (X ) est celle demande puisque :
V(Y) = 1/2 V(X)1/2 = S (S) = SS1 = I
car S2 = I.

13  La loi du couple (X, Y) sobtient sans difficults. Elle est indique dans le
tableau suivant :
1

1/6

1/6

1/6

1/2

1/6

1/6

1/6

1/2

1/6

1/6

1/6

1/6

1/6

1/6

On peut voir par exemple que P (X = 1, Y = 1) = 0  = P (X = 1) P (Y = 1) et donc


que les variables X et Y sont bien dpendantes. On dduit de ce tableau la loi de la
somme :
X+Y

1/6

1/3

1/3

1/6

Puis on calcule :
E (X + Y) =

1
1
1
1
1+ 3+ 5+ 7=4
6
3
3
6

et :
E (X + Y)2 =

1
1
1
59
1
1 + 32 + 52 + 72 =
6
3
3
6
3

11
. Le calcul de V(X) = 35/12 et V(Y) = 1/4 confirme que
3
V(X) + V(Y)  = V(X + Y) et donc que X et Y ne peuvent pas tre indpendantes.
soit enfin V(X + Y) =

TD 4 Couple et vecteur alatoires

63

14  Le premier chiffre x, tir dans lensemble E = {1, 2, 3, 4}, a la probabilit 1/4


et le second y, tir dans E {x}, la probabilit 1/3 puisquil ne reste plus que trois
 
1
1
1
boules. Chaque couple x, y tel que x  = y est donc de probabilit =
.
4
3
12
Cela permet de construire le tableau de la loi de probabilit du couple (X, Y), o les
valeurs numriques sont exprimes en douzimes et o la valeur entre parenthses
est celle de x + y.
1

0(2)

1(3)

1(4)

1(5)

1(3)

0(4)

1(5)

1(6)

1(4)

1(5)

0(6)

1(7)

1(5)

1(6)

1(7)

0(8)

12

De ce tableau se dduit aisment la loi de la somme :


X+Y

1/6

1/6

1/3

1/6

1/6

Dunod. La photocopie non autorise est un dlit.

15  a) La loi de probabilit du couple (X, Y) figure dans le tableau ci-dessous,


les probabilits tant exprimes en 1/36. La somme X = 6 est obtenue par exemple
pour les deux rsultats de ds (1, 5) et (5, 1) pour lesquels Y = 5, pour (2, 4) et (4, 2)
avec Y = 4 et pour lunique couple (3, 3) qui donne Y = 3. Le couple (X, Y) prend
donc les valeurs (6, 5), (6, 4) et (6, 3) avec les probabilits respectives 2/36, 2/36 et
1/36.
2

10

11

12

11

36

64

TD Statistique et probabilits

La dernire ligne du tableau donne la loi marginale de X. On constate quelle est


symtrique par rapport 7, donc E (X) = 7. Le produit des lments des marges
nest pas toujours gal aux lments du tableau ; par exemple P (X = 3, Y = 1) =
0  = P (X = 3) P (Y = 1), donc les variables X et Y ne sont pas indpendantes.
b) En divisant la colonne X = 6 par P (X = 6) = 5/36, on obtient la loi conditionnelle :

Y|X = 6

1/5

2/5

2/5

Lesprance de cette loi est :


E (Y|X = 6) =

2
2
21
1
3+ 4+ 5=
5
5
5
5

16  Pour les diffrentes valeurs possibles x de X, on calcule E(Y|X = x) et on


obtiendra ainsi les diffrentes valeurs possibles de la variable alatoire discrte
E(Y|X), avec les probabilis associes P(X = x). Par exemple :
E(Y|X = 1) =

1
1
1+ 3=2
2
2

valeur dont la probabilit est P(X = 1) = 2/10. On construit ainsi le tableau


donnant la loi de probabilit de la v.a. E (Y|X) :

E (Y|X)

3/2

4/3

7/3

2/10

2/10

3/10

3/10

Son esprance est donc :


E [E (Y|X)] =

2
2
3
3
4
3
7
9
2+
+
+
=
10
10 2 10 3 10 3
5

La loi marginale de Y, obtenue en additionnant les colonnes, permet dobtenir :


E (Y) =

1
3
9
1
1+ 2+
3=
2
5
10
5

On remarque ainsi que E [E (Y|X)] = E (Y), rsultat qui est dailleurs toujours
vrifi.

TD 4 Couple et vecteur alatoires

65

17  Pour tout entier k, lvnement (Kx = k) peut se dcomposer laide des


vnements disjoints {(Kx = k) (N = n)} avec n qui peut varier de lentier k
linfini. Ceci permet dcrire :
P (Kx = k) =

P {(Kx = k) (N = n)} =

n=k

P (N = n) P (Kx = k|N = n)

n=k

Lorsque le nombre annuel dincendies est fix n, chacun deux est dun montant
suprieur x avec une probabilit connue px = P (X > x). La loi conditionnelle de
Kx |N = n est donc une loi binmiale de paramtres n et px . Ainsi :
P (Kx = k) =

n 
n k

px
e

n! k

n=k


= e

px
k!

k

 k  

 1 px nk

nk
px
1 px
=e
k!
(n k)!
n=k

 k
px
e(1px ) = epx
k!

zj
= ez . Lexpression de cette probabilit montre que
j=0
j!
Kx suit une loi de Poisson de paramtre px . Pour Kx = k fix, la v.a. N ne peut
prendre que les valeurs entires n k, avec :

ayant utilis le rsultat


nk
e n pkx 1 px
P {(N = n) (Kx = k)}
=
P (N = n|Kx = k) =
 k
P (Kx = k)
(n k)!epx px
 
nk
(1px ) 1 px
=e
(n k)!

18  a)

On intgre la densit f sur le domaine de R2 o 0 x < 1/3 et 0 y < 1/3


pour obtenir la probabilit demande, soit :

Dunod. La photocopie non autorise est un dlit.

1/3

P (0 X < 1/3, 0 Y < 1/3) = 4

1/3

x dx
0


5
1 y dy =
81

b) Les densits marginales sobtiennent par intgration de la densit du couple


par rapport lautre variable. Pour 0 x 1, la densit de X sobtient donc par :

g (x) = 4x


1 y dy = 2x

De la mme faon, pour 0 y 1 :


 


h y =4 1y

1
0



x dx = 2 1 y

66

TD Statistique et probabilits

En intgrant ces densits, on obtient les f.r. marginales demandes :

0 si x < 0
G (x) = x2 si 0 x 1

1 si 1 < x
et :

0
si y < 0
 
H y = 2y y2 si 0 y 1

1
si 1 < y
Nous pouvions remarquer que la densit de (X, Y) peut
produit
comme

 scrire

de deux fonctions positives, par exemple 4x1[0,1] (x) et 1 y 1[0,1] y , et donc que
les v.a. X et Y sont indpendantes. Cependant, les deux fonctions retenues ici ne
sont
 pas
 les densits
  marginales, qui bien sr factorisent aussi f sous la forme
f x, y = g (x) h y , ce qui confirme lindpendance de ces deux variables.

19  a)

On intgre la densit f sur la partie A de R2 o x + y < 1 pour obtenir :




 
P (X + Y < 1) =
f x, y dx dy = 2
e(x+y) dx dy
A

AD

o D est le domaine o f est non nulle. Lensemble A D est le triangle rectangle


reprsent dans la figure 4.1.
y

y=x

x+y=1

1/2

AD
x
0

x=y

1/2
Figure 4.1

x=1y

TD 4 Couple et vecteur alatoires

67

On voit donc quil est prfrable dintgrer dabord par rapport x sur une
horizontale, pour ne pas avoir distinguer deux cas, soit :
,
 1/2
 1/2 + 1y
 y

x
y
e e y1 ey dy
e dx e dy = 2
P (X + Y < 1) = 2
0


1/2
= e2y 2e1 y 0 = 1 2e1


b) La f.r. F du couple (X, Y) est dfinie au point M x0 , y0 par :

 





f x, y dx dy
F x0 , y0 = P (X < x0 ) Y < y0 =
E

avec E =] , x0 [] , y0 [. Pour x0 0 ou y0  0, lensemble E na aucune


partie commune avec D et par consquent F x0 , y0 = 0. Si le point M est situ
lintrieur de D, on intgre sur le domaine gris D E reprsent sur la figure 4.2
o on voit quil est prfrable dintgrer sur une horizontale, cest--dire dabord
par rapport x. Ainsi, pour x0 y0 0 on obtient :
,
 y0 + x0
 y0

 y


x
e ex0 ey dy
e dx ey dy = 2
F x0 , y0 = 2
0

y



= e2y + 2ex0 ey 00 = 1 2ex0 1 ey0 e2y0

Dunod. La photocopie non autorise est un dlit.

M1 (x0 , y1 )

y=x

x0

M(x0 , y0 )

x0

Figure 4.2

Si on sort du domaineD par une verticale de M, lintersection avec lensemble E


dfini par le point M1 x0 , y1 , o y1 > x0 , est la mme que celle obtenue pour le

68

TD Statistique et probabilits

point situ sur la premire bissectrice, qui est la frontire de D. Cela veut dire que
lon peut calculer la valeur de F au point M1 partir de lexpression prcdente
qui est encore valable sur la frontire, soit :


F x0 , y1 = F (x0 , x0 ) = 1 2ex0 + e2x0
 
c) On pourrait avoir ici la tentation dcrire f x, y = 2ex ey et den conclure
que les variables X et Y sont indpendantes, la densit scrivant comme produit
de deux fonctions positives. Ceci est faux, car lexpression de f nest celle-ci que sur
le domaine D o 0 y x et il faudrait donc ajouter le terme 1D , qui lui ne peut
pas se factoriser. Cette impossibilit de factorisation montre donc, au contraire,
que ces variables sont dpendantes. Nous allons le vrifier partir de lexpression
des densits marginales, que nous allons obtenir partir des f.r. marginales. Pour
y tendant vers plus linfini, on obtient celle de X, soit pour x > 0 :
FX (x) = F (x, +) = 1 2ex + e2x
La densit marginale est donc, par drivation :


fX (x) = 2ex 1 ex
De mme, on obtient les f.r. et densit marginales de Y, soit pour y > 0 :
 


FY y = F +, y = 1 e2y
 
fY y = 2e2y
Le produit de fX et fY ne redonne pas f , donc on retrouve bien le fait que X et Y ne
sont pas indpendantes.

20  La f.r. du couple (mn , Mn ) est dfinie par :








 

F x, y = P (mn < x) Mn < y = P Mn < y P (mn x) Mn < y

Les vnements qui apparaissent au second membre peuvent sexprimer facilement laide des v.a. X1 , . . . , Xn :


n

 

Mn < y =
Xi < y

et

n


 

x Xi < y
(mn x) Mn < y =

i=1

i=1

Les v.a. Xi tant indpendantes, il en est de mme des vnements quelles dfinissent, donc :
n
n

 


  
P Xi < y
P x Xi < y
F x, y =
i=1

i=1

Dautre part, toutes ces variables ont la mme loi, de f.r. dfinie pour 0 u 1 par
P (X1 < u) = u, do :
 

n
F x, y = yn y x
pour 0 x y 1. En drivant deux fois par rapport x et y, on en dduit la
densit du couple :
 

n2
f x, y = n (n 1) y x

TD 4 Couple et vecteur alatoires

69

21  La densit marginale de X sobtient en intgrant la densit du couple sur D


par rapport y. Le triangle D, reprsent dans la figure 4.3, est dlimit par les
droites y = 1 + x et y = 1 x.
 Il est symtrique par rapport laxe des ordonnes
et comme lexpression de f x, y est symtrique en x, la densit g de X est une
fonction paire, cest--dire que la loi est symtrique par rapport lorigine. Pour
0 x 1, on obtient :

g (x) =


f x, y dy = 3

1x

y dy =

3
(1 x)2
2

1
y =1+x

y =1x
D

Figure 4.3

3
(1 |x|)2 pour |x| 1
2
et la densit conditionnelle de Y|X = x scrit donc, pour 0 < y < 1 |x| :
Dunod. La photocopie non autorise est un dlit.

On peut donc crire la densit de X sous la forme g (x) =




h y|X = x =

2y
(1 |x|)2

Lexpression de la rgression est donc, pour |x| < 1 :



E (Y|X = x) =



yh y|X = x dy =

2
(1 |x|)

1|x|

y2 dy =

2
(1 |x|)
3

22  Le vecteur N suit une loi multinomiale de paramtres n et p1 = 1/6, p2 = 2/6,


p3 = 3/6, soit :
P (N1 = n1 , N2 = n2 , N3 = n3 ) =

n!
2n2 3n3
n1 !n2 !n3 ! 6n

70

TD Statistique et probabilits

les ni , 1 i 3, tant des entiers positifs tels que n1 + n2 + n3 = n. Le vecteur


esprance est :

1

n

E (N) = 2
6
3
et la matrice de variances-covariances :

V(N) =

2
36
3

2
8
6

23  Les v.a. X1 , X2 , X3 tant indpendantes et normales constituent les composantes dun vecteur normal X, de loi N3 (0, I) et de densit :
f (x1 , x2 , x3 ) =

1
(2)

3/2

exp


1 2
x1 + x22 + x23
2

Le vecteur Y se dduit de X par une application linaire qui scrit Y = AX, o A


est la matrice :

3
3 0

A = 2 2 2

6
1 1 2
Toute combinaison linaire des composantes de Y est une combinaison linaire des
composantes de X, qui par dfinition est une variable alatoire relle. Le vecteur
Y est donc normal et ses caractristiques vont se dduire de celles de X par :
E (Y) = E (AX) = AE (X) = 0

9
1

t
t
V(Y) = V(AX) = AV(X) A = A A =
0
18
3

0
6
2

Notions
de convergence

En statistique, on est amen tudier le comportement de suites de v.a. lorsque la taille de


lchantillon devient infinie. Pour cela nous allons dfinir deux types de convergence. La
convergence en probabilit dune suite de v.a. (Xn ) vers une v.a. X signifie que ces variables
sont dautant plus proches de X que la valeur de n est leve, au sens o la probabilit que
ces variables soient loignes de plus dune valeur positive tend vers zro. La convergence
en loi correspond la convergence des fonctions de rpartition. Ces deux convergences sont
conserves par une application continue. La suite des moyennes de v.a. indpendantes et de
mme loi converge, en probabilit, vers la moyenne commune, et en loi, vers la loi normale,
aprs avoir t centre et rduite. Ce sont les deux thormes fondamentaux de la statistique
asymptotique, connus sous les noms de loi des grands nombres et thorme central limite.

Dunod. La photocopie non autorise est un dlit.

1. Convergence en probabilit
1.1 Ingalit de Markov
Si X est une v.a. positive dont lesprance existe, lingalit de Markov tablit que
pour tout > 0 :
P {X E(X)}

ou P (X )

E(X)

1.2 Ingalit de Bienaym-Tchebychev


Si X est une v.a. dont la variance existe, pour tout > 0 fix :
P (|X E(X)| )

V(X)
2

72

TD Statistique et probabilits

1.3 Convergence en probabilit


On dit que la suite de v.a. (Xn ) converge en probabilit vers une v.a. X si, pour tout
>0:
P (|Xn X| < ) 1 quand n
ou, de faon quivalente :
P (|Xn X| > ) 0 quand n
On crit :
Xn X
p

1.4 Thorme de Slutsky


Si f est une application relle continue, alors :
Xn X

f (Xn ) f (X)
p

1.5 Thorme
Si f est une application de R2 dans R uniformment continue et si (Xn ) et (Yn ) sont
deux suites de v.a. qui convergent en probabilit respectivement vers les v.a. X et
Y, alors :
f (Xn , Yn ) f (X, Y)
p

Si on applique ce thorme aux fonctions f dfinies respectivement par f (u, v) =


u
u + v, f (u, v) = uv et f (u, v) = , de Xn X et Yn Y, on dduit respectivement :
p
p
v
Xn + Yn X + Y
p

Xn Yn XY
p

Xn
X

Yn p Y

condition que P (Y = 0) = 0

1.6 Loi des grands nombres


Si (Xn ) est une suite de v.a. mutuellement indpendantes qui admettent les mmes
moments dordres un et deux, cest--dire avec pour tout entier n, E(Xn ) = m et
V(Xn ) = 2 , alors quand n :
1
X n =
Xi m
p
n
n

i=1

TD 5 Notions de convergence

73

2. Convergence en loi
On dit que la suite de v.a. (Xn ), de f.r. Fn , converge en loi vers une v.a. X de f.r. F si la
suite {Fn (x)} converge vers F (x) en tout point x o F est continue. On crit alors :
Xn X
loi

2.1 Thorme
La convergence en probabilit dune suite (Xn ) implique sa convergence en loi :
Xn X

Xn X
loi

2.2 Proprit
Si (Xn ) et (Yn ) sont deux suites de v.a. telles que pour n :
Xn X
loi

et Yn a
p

o a est un nombre rel, alors :


Xn + Yn X + a
loi

Xn Yn aX
loi

Xn
X

Yn loi a

si a  = 0

2.3 Thorme de Slutsky

Dunod. La photocopie non autorise est un dlit.

Si g est une application relle continue, alors :


Xn X
loi

g(Xn ) g(X)
loi

2.4 Conditions suffisantes de convergence en loi


Dans le cas discret o Xn () = X () = {ai /i I} :
i I , P (Xn = ai ) P (X = ai )

Xn X , n
loi

Dans le cas o Xn et X admettent pour densits respectives fn et f :


x R , fn (x) f (x)

Xn X , n
loi

74

TD Statistique et probabilits

2.5 Thorme central limite


Si (Xn ) est une suite de v.a. indpendantes et de mme loi, admettant des moments
dordres un et deux nots m = E (Xn ) et 2 = V(Xn ), alors :
X n m
n
N (0, 1)
loi

2.6 Limite dune suite image


Si la suite (Xn ) est telle que :
an (Xn m) N (0, ) ,
loi



avec an et > 0, alors si g est une application relle drivable, la suite g (Xn )
converge aussi en loi avec :
-



an g(Xn ) g(m) N 0, -g (m)- , n
loi

3. Convergence en moyenne dordre p


3.1 Dfinition
On dit que la suite de v.a. (Xn ) converge en moyenne dordre p, avec 0 < p < , vers
la v.a. X si :
E |Xn X|p 0 quand n
On crit :
Xn X
Mp

Dans le cas particulier p = 2, la convergence en moyenne dordre 2 sappelle


convergence en moyenne quadratique (m.q.). En crivant :
E (Xn X)2 = V(Xn X) + E2 (Xn X)
qui est la somme de deux termes positifs, on retrouve les deux conditions suffisantes de convergence en probabilit (cf. exercice 7, page 76) comme conditions
ncessaires de convergence en moyenne quadratique :
Xn X
m.q.


E (Xn X) 0
V(Xn X) 0

TD 5 Notions de convergence

75

3.2 Proprit
Pour toute valeur de p > 0, la convergence en moyenne dordre p est plus forte
que la convergence en probabilit, au sens o :
Xn X

Xn X

Xn X

Xn X

Mp

Donc, en particulier :
m.q.

Vrai Faux

1. Les majorants des probabilits dans les ingalits de Markov et


de Bienaym-Tchebychev ont des valeurs toujours infrieures 1.
2. Si

(Xn ) est une suite de v.a. desprance constante, dont la


variance tend vers zro, alors elle converge en probabilit vers
cette constante.

3. Si la suite (Xn ) converge en probabilit vers la v.a. X, alors les

suites ln Xn et eXn convergent en probabilit, respectivement vers


ln X et eX .

Dunod. La photocopie non autorise est un dlit.

4. Si la suite (Xn ) converge en loi vers le nombre rel a, alors elle


converge aussi en probabilit vers a.
5. La convergence en moyenne quadratique implique la convergence en loi.

6. Si X est une v.a. de signe quelconque, telle que E |X|k existe pour k entier positif
fix, montrer que lingalit de Markov peut se gnraliser sous la forme suivante :
P (|X| )

E|X|k
k

76

TD Statistique et probabilits

7. Si (Xn ) est une suite de v.a. telle que E (Xn ) a et V(Xn ) 0 quand n ,
alors on en dduit aisment que cette suite converge en probabilit vers a, par
application de lingalit de Bienaym-Tchebychev. Montrer quen fait, on peut
noncer un rsultat plus gnral que celui-ci, qui tablit que E (Xn X) 0 et
V(Xn X) 0 sont des conditions suffisantes de convergence en probabilit de
la suite (Xn ) vers la v.a. X.
8. Si X suit une loi de Poisson de paramtre , tel que tend vers linfini, on
sait que (X ) / converge en loi vers une v.a. U de loi N (0, 1). (
On peut
donc
)
approximer la probabilit P (X k) par P (Y k) o Y suit une loi N , , pour
tout entier k. Peut-on de la mme faon approximer P (X = k) par P (Y = k)?

9. Soit (Xn ) une suite de v.a. indpendantes qui suivent la mme loi de Cauchy,
symtrique par rapport lorigine, de densit f (x) =

1
 . Sachant que

1 + x2

1 n
Xi suit aussi une loi de Cauchy, peut-on en dduire de la loi des
n i=1
( )
grands nombres la convergence en probabilit de la suite Xn ?
Xn =

Ingalit de Bienaym-Tchebychev

10. Soit X une v.a. de densit :


1

1 + 3x2 si 1 x 1
4
f (x) =

0
sinon
Dterminer un intervalle de la forme [l, l] qui contienne X avec une probabilit
suprieure 0,75 puis calculer la probabilit exacte de cet intervalle.
Analyse de lnonc et conseils. On transforme la condition impose par la majoration
dune probabilit. Lintervalle demand peut alors tre obtenu par application de
lingalit de Bienaym-Tchebychev, ayant remarqu que la loi tait symtrique par
rapport lorigine.

TD 5 Notions de convergence

77

Ingalit de Markov

11. Soit X1 , . . . , Xn des v.a. indpendantes et de mme loi que la v.a. X de densit :

e(x)
f (x) =
0

si x
sinon

o est un nombre rel positif donn. On dfinit la v.a. mn = min {X1 , . . . , Xn }.


Pour n tendant vers linfini, tudier la convergence en moyenne et en probabilit
de la suite (mn ).
Analyse de lnonc et conseils. La convergence en moyenne, sous-entendu dordre
1, studie partir du comportement de la suite numrique E (mn ) car toutes les
variables sont suprieures et on peut penser intuitivement que la plus petite dentre
elles va tendre vers cette valeur minimale. Ltude de la convergence en probabilit
peut se faire directement en utilisant lingalit de Markov.

Convergence en probabilit

12. La dure dune communication tlphonique urbaine est reprsente par


une v.a. D uniformment distribue sur lintervalle [0, t], o t est un nombre rel
positif donn. On souhaite tudier le comportement de la plus longue dure de
n communications, dfinie par Mn = max {D1 , . . . , Dn }, lorsque n devient infini,
les v.a. Di tant supposes indpendantes et de mme loi que D. Montrer que Mn
converge en probabilit vers t.
Analyse de lnonc et conseils. Pour dmontrer cette convergence partir de la
dfinition, on calcule pour un > 0 fix la probabilit P (|Mn t| < ), aprs avoir
dtermin la f.r. de Mn et on montre que cette suite numrique converge vers 1.

Dunod. La photocopie non autorise est un dlit.

Convergence en moyenne quadratique

13. Soit X1 , . . . , Xn des v.a. indpendantes et de mme loi que la v.a. X de loi
normale N (0, ), o est un nombre rel positif donn. Montrer que la suite (Tn )
dfinie par :
1
|Xi |
n
n

Tn =

i=1

converge en moyenne quadratique vers une limite que lon dterminera.


Analyse de lnonc et conseils. La v.a. Tn est la moyenne de v.a. indpendantes
et de mme loi laquelle on peut appliquer la loi des grands nombres. Elle converge
donc en probabilit vers E (|X|). Ce sera donc aussi la limite pour la convergence en
moyenne quadratique, puisque cette dernire implique la convergence en probabilit
vers la mme limite.

78

TD Statistique et probabilits

Loi des grands nombres

14. Soit X1 , . . . , Xn des v.a. indpendantes et de mme loi que X, de densit :


f (x) =

|x|
e
2

o est un nombre rel positif donn. tudier la convergence en probabilit de la


suite de v.a. dfinie par :
1
|Xi |
n
n

Tn =

i=1

Analyse de lnonc et conseils. La variable Tn tant la moyenne de v.a. indpendantes


et de mme loi, on peut lui appliquer la loi des grands nombres.

Limite de la loi de Student

15. Soit X1 , . . . , Xn des v.a. indpendantes et de mme loi N (0, 1). tudier, quand
n devient infini, la convergence en probabilit de la suite :
1 2
Xi
n
n

S2n =

i=1

et en dduire la loi limite dune v.a. qui suit une loi de Student n degrs de libert.
Analyse
de lnonc et conseils. La loi des grands nombres sapplique la suite
 2
Sn . En utilisant ce rsultat et la dfinition de la loi de Student on peut tablir quelle
converge vers la loi normale.

Thorme central limite

16. Soit X1 , . . . , Xn des v.a. indpendantes et de mme loi que X, de densit :




f (x) = exp (x ) e(x)
o est un nombre rel positif donn. tudier la convergence en loi de la suite (Tn )
de v.a. dfinie par :
1  (Xi )
e
n
n

Tn =

i=1

Analyse de lnonc et conseils. La v.a. Tn est dfinie comme la moyenne de variables


indpendantes et de mme loi ; donc on va pouvoir lui appliquer le thorme central
limite.

TD 5 Notions de convergence

79

Variance infinie

17. Soit (Xn ) une suite de v.a. mutuellement indpendantes dont la loi est dfinie
par :
P (Xn = 0) = 1

1
n

et P (Xn = n) = P (Xn = n) =

1
2n

tudier la convergence en probabilit, en moyenne et en moyenne quadratique de


cette suite. Peut-on appliquer la loi des grands nombres ou le thorme central
limite?
Analyse de lnonc et conseils. Pour tudier la convergence en probabilit, on
pourra calculer la probabilit de lvnement |Xn | < , pour un > 0 fix. Ltude
des convergences en moyenne dordres 1 et 2 ne prsente pas de difficult particulire.
Pour savoir si on peut appliquer les deux thormes de convergence la moyenne
empirique, il faut bien examiner si les hypothses des noncs sont vrifies.

Limite en loi dune suite image

18. Soit X1 , . . . , Xn des v.a. indpendantes et qui suivent la mme loi exponentielle

de paramtre > 0. tudier la convergence en loi de la suite (Tn ) de v.a. dfinie


par :
Tn =

n
n


Xi

i=1

Dunod. La photocopie non autorise est un dlit.

Analyse de lnonc et conseils. La v.a. Tn scrit


  sous la forme 1/Xn et on peut
n . La proprit relative la suite
appliquer le thorme
central
limite

la
suite
X
 
image Tn = g X n permet alors dobtenir sa loi limite.

1  Faux.

Si on choisit 1 dans lingalit de Markov, ou (X) dans


lingalit de Bienaym-Tchebychev, le majorant devient suprieur un. Lingalit
est donc bien videmment vrifie, mais ne prsente aucun intrt.

2  Vrai. Lingalit de Bienaym-Tchebychev


montre
que si E (Xn ) = a et V(Xn )



0, alors pour tout > 0, on a P |Xn E (Xn )| 0, ce qui exprime que la suite
(Xn ) converge en probabilit vers a. Le rsultat reste dailleurs vrai si on a seulement
la condition E (Xn ) a au lieu de E (Xn ) = a.

80

TD Statistique et probabilits

3  Vrai. Lcriture ln Xn suppose bien sr que Xn > 0 ; les fonctions logarithme et


exponentielle tant continues, le rsultat dcoule du thorme de Slutsky.

4  Vrai. La convergence en probabilit implique toujours la convergence en loi, la


rciproque tant fausse en gnral. Cependant, dans le cas particulier o la limite
est une constante, les deux convergences sont quivalentes.

5  Vrai. La convergence en moyenne quadratique implique la convergence en


probabilit, qui son tour implique la convergence en loi.

6  On adapte la seconde forme de lingalit de Markov en lappliquant |X|k :


) E|X|k
(
P |X|k

On introduit alors un nombre > 0 tel que k = et on en dduit alors lingalit


demande puisque |X|k k est quivalent |X| .

7  Il suffit dappliquer le rsultat nonc la suite (Yn ) dfinie par Yn = Xn X,


puisque par hypothse E (Yn ) 0 et V(Yn ) 0 et que, par ailleurs :
Yn 0

Xn X
p

8  La rponse est videmment ngative, car la loi de Y est continue et par


consquent P (Y = k) = 0 pour tout entier k. Lorsquune loi discrte est approxime par une loi continue, la probabilit dun point est alors approxime par la
probabilit dun intervalle qui contient ce point. Ainsi P (X k) sera approche
par P (k 1/2 < Y < k + 1/2).
9  Il nest pas possible dappliquer ici la loi des grands nombres, puisque nous
sommes dans le cas dune loi qui nadmet aucun moment,
( ) mme pas desprance.
On a seulement ici la convergence en loi de la suite Xn vers une v.a. X de loi de
Cauchy, puisque cest la loi exacte de Xn .

10  La densit est paire et lesprance existe puisquon intgre sur lintervalle


fini [1, 1], donc E (X) = 0. On calcule alors la variance :


V(X) = E X

1
=
4

1
1

x 1 + 3x
2


1 x3
3
dx =
+ x5
2 3
5

=
0

7
15

La condition impose, qui scrit P (|X| l) 0,75, est quivalente P (|X| > l)
0,25 et lingalit de Bienaym-Tchebychev permet dobtenir pour tout l > 0 fix :
P (|X| > l)

V(X)
l2

En choisisssant l tel que V(X) 0,25l2 , la condition sera bien vrifie. Cela donne ici
l2 28/15, soit l 1,37. Comme X prend ses valeurs dans [1, 1], cest lintervalle
que lon retient, qui est de probabilit exacte gale 1, valeur qui est bien suprieure
0,75. Lapplication de lingalit de Bienaym-Tchebychev na donc pas permis
ici de rduire lintervalle demand, par rapport lensemble des valeurs possibles

TD 5 Notions de convergence

81

pour X. Connaissant la loi de probabilit, on peut dterminer ici la valeur exacte


de l telle que P (l X l) = 0,75 et qui sera solution de lquation :
0,75 =



l

1
1
1 + 3x2 dx =
x + x3 0 =
l + l3
2
2
l

1
4

quivalente l3 + l 3/2 = 0, de solution l = 0,86.

11  Nous allons dterminer la loi de probabilit de mn pour pouvoir ensuite


calculer son esprance. Comme il sagit de la plus petite observation parmi n,
il vaut mieux considrer lvnement (mn > x) qui est quivalent la ralisation
de tous les vnements (Xi > x), qui sont dailleurs indpendants en raison de
lindpendance des variables Xi . Ainsi :
n

n


P (Xi > x) = [1 F (x)]n
P (mn > x) = P
(Xi > x) =
i=1

i=1

ayant not F la f.r. commune des v.a. Xi . La f.r. de la v.a. mn est donc dfinie par :
G (x) = P (mn < x) = 1 [1 F (x)]n
et sa densit par :
g (x) = G (x) = nf (x) [1 F (x)]n1
Il faut donc dterminer aussi la f.r. de X, qui est nulle pour x < , et qui a comme
valeur pour x :
 x
x

F (x) =
e(u) du = e(u) = 1 e(x)

Par consquent, pour x :

Dunod. La photocopie non autorise est un dlit.

g (x) = nen(x)
Lesprance de mn se calcule donc par :

 +
E (mn ) = n
xen(x) dx = n

1
n

ueu du +

(x + ) en(x) dx

nen(x) dx

ayant pos u = n (x ) dans la premire intgrale que lon calcule par une
intgration par parties. La seconde intgrale vaut 1 (on intgre la densit) et donc :
E (mn ) =

1
+
n

On en conclut donc que :


E (|mn |) = E (mn ) =

1
0
n

82

TD Statistique et probabilits

quand n , condition qui exprime que mn converge en moyenne dordre 1


vers . On peut dailleurs en dduire la convergence en probabilit qui est plus
faible. Cependant, le rsultat sobtient directement par application de lingalit
de Markov la variable positive mn = |mn | :
P (|mn | ) = P (mn )

E (mn )
1
=
0

pour tout > 0, condition qui se traduit par :


mn
p

12  La f.r. de Mn est dfinie par :



G (x) = P (Mn < x) = P

n



(Di < x) =

i=1

n


P (Di < x) = Fn (x)

i=1

car les v.a. Di sont indpendantes et de mme loi, de f.r. F dfinie par F (x) = 0
pour x 0, et pour 0 x t :
 x
du
x
F (x) =
=
t
t
0
avec F (x) = 1 pour x t. On peut donc calculer, pour tout > 0 fix, la probabilit :
P (|Mn t| < ) = P (t < Mn < t + )

(
)n
= G (t + ) G (t ) = 1 1
t

si < t (pour t cette probabilit est gale 1). Comme 1 /t < 1, cette quantit
tend vers 1 et ceci montre donc que :
Mn t
p

13  Loprateur esprance tant linaire et les v.a. Xi de mme loi :


1
E (|Xi |) = E (|X|)
n
n

E (Tn ) =

i=1

Nous calculons cette valeur en faisant le changement de variable x2 = 22 u :


.
 +
 +
1
2
2
x2 /22
u
|x| e
E (|X|) =
dx =
e du =

2
2 0
La convergence en moyenne quadratique vers cette valeur, qui est lesprance de
Tn , est quivalente la convergence vers zro de la variance de Tn qui vaut :
V(Tn ) =

n
1 
1
V (|Xi |) = V (|X|)
n2
n
i=1

TD 5 Notions de convergence

83

en raison de lindpendance des v.a. Xi . On obtient :




2
V (|X|) = E |X|2 E2 (|X|) = 2 2


 

car E |X|2 = E X2 = V (X) = 2 . Ainsi :


2 2
V(Tn ) = 1
0
n
quand n , do on peut conclure :
.
Tn
m.q.

14  Nous allons calculer les deux premiers moments de la v.a. |X| :



E (|X|) =

|x| f (x) dx =

xex dx =

valeur obtenue en intgrant par parties. De la mme manire :


 
E X2 =

x2 ex dx =

2
2

et V (|X|) = 1/2 . La v.a. Tn tant la moyenne des v.a. |Xi | indpendantes, la loi des
grands nombres permet dobtenir :
Tn
p

2
15  La loi des grands nombres
 sapplique la moyenne des v.a. Xi qui converge

Dunod. La photocopie non autorise est un dlit.

vers la moyenne commune E X12 = V(X1 ) = 1, soit :


S2n 1
p

On sait par ailleurs que la v.a. Yn = nS2n suit une loi du khi-deux n degrs de libert,
comme somme de n carrs de v.a. indpendantes, de mme loi normale centrerduite. Si U est une v.a. de loi N (0, 1) indpendante
de Yn , on sait galement par
dfinition de la loi de Student que la v.a. Tn = U/ Yn /n suit une loi de Student n
degrs de libert. Le numrateur est indpendant de n et nous venons de voir que
le terme sous le radical converge en probabilit vers 1. Daprs une proprit du
cours, le rapport se comporte donc comme le numrateur, cest--dire que cette loi
de Student converge vers la loi N (0, 1), ce que lon peut crire sous la forme :
Tn N (0, 1)
loi

84

TD Statistique et probabilits

16  La v.a. Tn

est la moyenne des v.a. indpendantes Yi = exp (Xi ), de


mme loi que la v.a. Y = exp (X ), de f.r. dfinie par :
 




G y = P Y < y = P exp (X ) < y
probabilit nulle pour y 0 et qui a pour valeur, obtenue par passage au logarithme
pour y > 0 :
 






G y = P (X ) < ln y = P X > ln y = 1 F ln y
o F est la f.r. de X. La densit est donc nulle pour y 0 et a pour valeur, pour
y>0:

  1 
g y = f ln y = ey
y

qui est la densit dune loi exponentielle ou loi (1). Daprs le cours, ses moments
sont donc E (Y) = V(Y) = 1 et le thorme central limite permet donc dobtenir :

n (Tn 1) N (0, 1)
loi

17  Pour > 0 fix, on obtient P (|Xn | < ) = P (Xn = 0) = 1 1/n 1 quand


n et par consquent la suite (Xn ) converge en probabilit vers zro. Pour la
convergence en moyenne, on calcule E (|Xn |) = 1 et donc il ny a pas convergence en
moyenne dordre 1 vers zro. On sait, a fortiori, quil ne peut
 pas y avoir convergence
en moyenne quadratique. On le vrifie en calculant E Xn2 = n qui devient infini
avec n. Les variables Xn ont des lois diffrentes, donc on ne peut pas appliquer
le thorme central limite. Comme dautre part les moments dordre 2 sont aussi
diffrents, puisque V(Xn ) = n, on ne peut pas appliquer non plus la loi des
 grands
n converge
nombres. Notons cependant
que
lon
peut
dmontrer
que
la
suite
X
(
)
en loi vers la loi N 0, 1/ 2 .
18  Daprs le cours, on sait que les v.a. Xi de loi exponentielle de paramtre

ont pour caractristiques communes E (X1 ) = 1/ et V(X1 ) = 1/2 . Le thorme


central limite permet donc dobtenir :
X n 1/
n
N (0, 1)
loi
1/

quand n . La fonction g dfinie par g (x) = 1/x est continue


pour

 et drivable
x > 0, avec g (x) = 1/x2 . La convergence en loi de la suite n X n 1/ vers une

  

loi N (0, 1/) se transmet donc par cette


-  la suite n g Xn g (1/)
-
 application
qui converge vers la loi normale N 0, -g (1/)- / , ce qui donne donc comme
rsultat :

n (Tn ) N (0, )
loi

Dunod. La photocopie non autorise est un dlit.

Estimation
ponctuelle

Au phnomne tudi, nous associons maintenant un modle statistique o la v.a. X


considre, valeurs dans E, suit une loi de probabilit, note P , car elle dpend dun
paramtre qui appartient un sous-ensemble donn , appel espace des paramtres,
qui sera gnralement un sous-ensemble de R , mais qui peut aussi parfois tre inclus dans
Rk. Pour se faire une ide de la valeur inconnue du paramtre qui dtermine cette loi de
probabilit, on utilise un chantillon de cette loi, cest--dire un ensemble (X1 , ..., Xn ) de
n v.a. indpendantes et qui suivent la mme loi que X. partir des valeurs observes
x1 , ..., xn on calcule ensuite une certaine valeur numrique que lon considrera comme
une valeur approche de et quon appellera une estimation de . La rgle qui permettra
deffectuer ce calcul est un estimateur auquel on demande de possder certaines proprits. Il est sans biais si son esprance est gale la valeur du paramtre et convergent sil
converge en probabilit vers , quand la taille de lchantillon tend vers linfini. Un estimateur optimal dans la classe des estimateurs sans biais est dit efficace. Les paramtres
les plus frquents sont la moyenne et la variance de la loi, qui sont respectivement estims
par la moyenne et la variance empiriques. Dans le cas o il ny a pas destimateur vident,
on en cherche un par la mthode du maximum de vraisemblance, qui consiste maximiser la densit de lchantillon, ou par la mthode des moments, qui consiste galer
moment thorique et moment empirique correspondant.

1. Dfinition et proprits dun estimateur


Dfinition. Un estimateur de est une application Tn de En dans F, qui un
chantillon (X1 , ..., Xn ) de la loi P associe une variable alatoire relle (ou plusieurs dans le cas dun paramtre multidimensionnel) dont on peut dterminer la
loi de probabilit.

86

TD Statistique et probabilits

La loi de la v.a. Tn (X1 , . . . , Xn ) dpend de celle de X, et donc de , et chaque


ralisation Tn (x1 , . . . , xn ) sera une estimation de . Un estimateur est une statistique
particulire, en tant que fonction de lchantillon, qui permet dattribuer une valeur
au paramtre estimer. On pourrait donc le dfinir comme une statistique
valeurs dans . Comme nous navons impos ici aucune condition lensemble
F, nous allons dfinir une proprit, que lon pourrait qualifier de minimale, pour
un estimateur, cest--dire de prendre ses valeurs dans le mme ensemble que le
paramtre. On dira quun estimateur est strict si Tn (En ) .

1.1 Biais dun estimateur


Pour pouvoir considrer Tn (x1 , . . . , xn ) comme une valeur approche de , il faut
que les valeurs prises par la v.a. Tn ne scartent pas trop de la valeur, fixe, de .
Comme Tn est une v.a., on ne peut imposer une condition qu sa valeur moyenne,
ce qui nous amne dfinir le biais dun estimateur comme lcart entre sa moyenne
et la vraie valeur du paramtre :
bn () = E (Tn )
Dfinitions. Un estimateur Tn de est dit sans biais si pour tout de et tout entier
positif n :
E (Tn ) =
Un estimateur Tn de est dit asymptotiquement sans biais si pour tout de :
E (Tn ) quand n

1.2 Convergence dun estimateur


Dfinition. Un estimateur Tn est convergent si la suite de v.a. (Tn ) converge en
probabilit vers la valeur du paramtre, cest--dire pour tout de :
Tn
p

P (|Tn | < ) 1,

P (|Tn | > ) 0

> 0,

Thorme. Tout estimateur sans biais, ou asymptotiquement sans biais, dont la


variance tend vers zro, quand n tend vers linfini, est convergent.

1.3 Estimateur optimal


 Qualit dun estimateur
La qualit dun estimateur se mesure par lerreur quadratique moyenne, dfinie pour
tout par :
EQ(Tn ) = E (Tn )2 = V (Tn ) + b2n ()

TD 6 Estimation ponctuelle

87

Dans le cas particulier dun estimateur sans biais, cette erreur quadratique se
confond avec la variance de lestimateur. Si dans lerreur totale destimation on
privilgie lerreur structurelle, mesure par b2n (), on fera le choix dun estimateur
sans biais et lerreur destimation se rduira lerreur statistique mesure par
la variance de lestimateur. Si on se place donc dornavant dans la classe des
estimateurs sans biais, on pourra comparer deux estimateurs Tn et Tn de cette classe
par leur variance, qui mesure alors leur dispersion par rapport au paramtre, qui
est leur esprance commune. Nous dirons que lestimateur Tn est plus efficace que
Tn si pour tout de et pour une taille dchantillon n > N :
 
V (Tn ) V Tn

 Ingalit de Frchet-Darmois-Cramer-Rao
Dfinitions. On appelle vraisemblance (likelihood) de lchantillon (X1 , . . . , Xn ) la
loi de probabilit de ce n-uple, note L (x1 , . . . , xn ; ), et dfinie par :
L (x1 , . . . , xn ; ) =

n


P (Xi = xi |)

i=1

si X est une v.a. discrte, et par :


L (x1 , . . . , xn ; ) =

n


f (xi ; )

i=1

si X est une v.a. continue de densit f (x; ).


La quantit dinformation de Fisher est dfinie par :


ln L 2
In () = E

Dunod. La photocopie non autorise est un dlit.

Thorme. Sous les hypothses de Cramer-Rao, en particulier si E = X () est


indpendant du paramtre estimer , pour tout estimateur sans biais Tn de ,
on a :
1
= BF ()
V (Tn )
In ()
La quantit BF () est la borne infrieure de Frchet-Darmois-Cramer-Rao (FDCR
en abrg). Notons que dans les conditions dapplication de ce thorme, en
particulier si E = X () est indpendant du paramtre estimer , on obtient une
expression quivalente de la quantit dinformation de Fisher, qui est gnralement
plus simple calculer :
 2

ln L
In () = E
2

 Estimateur efficace
Dfinition. Un estimateur sans biais Tn est dit efficace si sa variance est gale la
borne infrieure de FDCR :
1
V (Tn ) =
In ()

88

TD Statistique et probabilits

2. Mthodes de construction dun estimateur


2.1 Mthode du maximum de vraisemblance
La vraisemblance L (x1 , . . . , xn ; ) reprsente la probabilit dobserver le n-uple
(x1 , . . . , xn ) pour une valeur fixe de . Dans la situation inverse ici o on a observ
(x1 , . . . , xn ) sans connatre la valeur de , on va attribuer la valeur qui parat
la plus vraisemblable, compte tenu de lobservation dont on dispose, cest--dire
celle qui va lui attribuer la plus forte probabilit. On se fixe donc la rgle suivante :
(x1 , . . . , xn ) fix, on considre la vraisemblance L comme une fonction de et on
attribue la valeur qui maximise cette fonction. Do la dfinition suivante.
Dfinition. On appelle estimateur du maximum de vraisemblance (emv) toute fonction
/
n de (x1 , . . . , xn ) qui vrifie :


n = max L (x1 , . . . , xn ; )
L x1 , . . . , xn ;/

Cette dfinition ne renseigne en aucune faon, ni sur lexistence, ni sur lunicit,


dun tel estimateur. La recherche de lemv peut se faire directement par recherche
du maximum de L, ou dans le cas particulier o la fonction L est deux fois drivable
par rapport , comme solution de lquation :
L
=0

2L
< 0. Cependant, la vraisemblance se calculant partir dun
2
produit, on prfre remplacer ce dernier problme par le problme quivalent pour
la log-vraisemblance :

qui vrifie aussi

ln L
=0

avec

2 ln L
< 0.
2

2.2 Mthode des moments


Dans le cas o le paramtre estimer est = E (X), moyenne thorique de la loi,
lestimateur naturel est la moyenne empirique, ou moyenne de lchantillon :
1
X n =
Xi
n
n

i=1

De mme, pour estimer le paramtre = V (X), variance de la loi, nous retenons


logiquement comme estimateur la variance empirique :
S 2
n =

2
1 
Xi X n
n
n

i=1

TD 6 Estimation ponctuelle

89

(la variance empirique modifie S2n est obtenue en divisant par n 1 au lieu de n).
 
Plus gnralement, si lun des moments dordre k N , non centr mk = E Xk =
mk (), ou centr k = E (X m1 )k = k (), dpend de , nous allons chercher un
estimateur par rsolution de lquation en obtenue en galant moment thorique
et moment empirique correspondant, soit :
1 k
Xi = mk ()
n
n

mkn =

k
1 
Xi X n = k ()
n
n

ou kn =

i=1

i=1

La solution de lquation retenue, si elle existe et est unique, sera appele estimateur
obtenu par la mthode des moments.

Vrai Faux

1. La moyenne empirique est un estimateur sans biais de la


moyenne dune loi.
2. Toute combinaison linaire de deux estimateurs sans biais est
un estimateur sans biais.

Dunod. La photocopie non autorise est un dlit.

3. La variance empirique est un estimateur sans biais de la


variance dune loi.
4. Tout estimateur dont la variance tend vers zro est convergent.
5. Un estimateur efficace pour un paramtre est le meilleur estimateur de celui-ci.
6. On peut trouver des estimateurs sans biais dun paramtre
qui ont une variance plus petite que la quantit 1/In ().
7. Chercher le maximum de la vraisemblance L est quivalent
chercher le maximum de la log-vraisemblance ln L.
8. Si /n est un emv pour un paramtre , alors g
du paramtre g () pour toute fonction g.


/
n est un emv

90

TD Statistique et probabilits

9. Indiquer pourquoi lcart type empirique modifi Sn , o :


2
1 
Xi X n
n1
n

S2n =

i=1

ne peut pas tre un estimateur sans biais de lcart type dune loi.

10. partir de deux estimateurs T1 et T2 du paramtre , sans biais et indpendants, on construit lestimateur T3 = T1 + (1 ) T2 , o ]0, 1[. Dterminer
, en fonction des variances V1 = V(T1 ) et V2 = V(T2 ), de faon que T3 soit un
estimateur sans biais de variance minimale. Les estimateurs T1 et T2 peuvent-ils
tre efficaces tous les deux?

Estimation dune proportion

11. Pour estimer la proportion p de foyers quips dun micro-ordinateur, on tire


au sort un chantillon de n foyers dans la population totale, de taille suppose
infinie. chaque foyer i, 1 i n, on associe une v.a. de Bernoulli :

1 si le foyer i possde un micro-ordinateur
Xi =
0 sinon
a) tudier les proprits de lestimateur naturel Fn du paramtre p et vrifier que
cest aussi lestimateur du maximum de vraisemblance.
b) Soit maintenant Gm lestimateur construit de la mme faon sur un second
chantillon de taille m, indpendant du prcdent. Dterminer les coefficients
rels et de faon que /
pn+m = Fn + Gm soit un estimateur de p sans biais et de
variance minimum.
Analyse de lnonc et conseils. Le paramtre p est une proportion dans la population
totale, donc son estimateur naturel est la proportion observe sur lchantillon, cest-dire la frquence empirique. On tablira que cet estimateur est sans biais, convergent
et efficace. Lestimateur /
pn+m est construit en fait sur un chantillon unique de taille
n+m, runissant les deux chantillons spars. Ayant tabli que la frquence empirique
tait le meilleur estimateur sans biais dune proportion, les valeurs de et doivent
donc correspondre cet estimateur construit sur la runion des deux chantillons.

TD 6 Estimation ponctuelle

91

Loi de Poisson

12. Le nombre daccidents mortels par mois, un carrefour dangereux, est une v.a.
X qui suit une loi de Poisson de paramtre , que lon cherche estimer partir dun
chantillon X1 , . . . , Xn de cette loi. tudier les proprits de lestimateur naturel de
ce paramtre et vrifier que cest aussi lestimateur du maximum de vraisemblance.
Analyse de lnonc et conseils. Le paramtre dune loi de Poisson est la moyenne
de cette loi, donc lestimateur naturel est la moyenne empirique, dont on sait a priori
quil est sans biais et convergent. On tablira de plus quil est efficace et lexpression de
la log-vraisemblance permettra de vrifier que cest lemv.

Loi conditionnelle binmiale

13. Chaque jour ouvrable, le nombre de clients qui entrent dans un grand magasin
est une v.a. X qui suit une loi de Poisson de paramtre connu. Une fois entr, il y
a une probabilit p quun client fasse des achats pour un montant suprieur 1 000
francs. Pour pouvoir estimer p on dispose dun chantillon sur n jours ouvrables
de v.a. Y1 , . . . , Yn de mme loi que la v.a. Y, qui reprsente le nombre journalier
de clients ayant effectu plus de 1 000 francs dachats. Proposer un estimateur
de p, tudier ses proprits et donner une estimation partir de lobservation
100
i=1 yi = 360, sachant que = 18.
Analyse de lnonc et conseils. Il faut dterminer au pralable la loi conditionnelle
de Y|X = x, pour en dduire ensuite la loi du couple (X, Y) et enfin, celle de Y.
Linterprtation du paramtre p pour cette loi conduit un estimateur naturel qui
posssde toutes les proprits classiques.

Dunod. La photocopie non autorise est un dlit.

Emv pour une loi discrte

14. Soit X1 , . . . , Xn un chantillon dune v.a. X valeurs entires, de loi dfinie


pour k N par :

P (X = k) =

k
(1 + )k+1

o est un paramtre positif. Dterminer lestimateur du maximum de vraisemblance de et tudier ses proprits.
Analyse de lnonc et conseils. On cherche le maximum de la vraisemblance
considre comme une fonction de et on tablira que lestimateur obtenu est sans
biais, convergent et efficace. Le calcul des moments seffectue partir de la somme de
la srie gomtrique et de ses deux premires drives.

92

TD Statistique et probabilits

Loi de Pareto

15. Soit X une v.a. qui suit une loi de Pareto de densit :

1
x
f (x) =

si x 1
sinon

o est un paramtre inconnu. Dterminer lestimateur du maximum de vraisemblance de construit partir dun chantillon X1 , . . . , Xn de cette loi et montrer
quil est convergent.
Analyse de lnonc et conseils. Le calcul des moments de X en fonction de ne
fait pas apparatre destimateur naturel de ce paramtre et il est donc ncessaire ici de
recourir une mthode de construction. Lexpression obtenue de lemv permettra de
dduire sa convergence de la loi des grands nombres.

Loi uniforme

16.

Soit X1 , . . . , Xn un chantillon dune v.a. X qui suit une loi uniforme sur
lintervalle [0, ], o est un paramtre positif inconnu. On demande de dterminer
un estimateur sans biais de construit partir de lemv et de comparer sa variance
la quantit 1/In ().
Analyse de lnonc et conseils. On remarque ici que lensemble des valeurs possibles
pour la variable dpend du paramtre estimer et donc que les conditions de lingalit
FDCR ne sont pas remplies. Par ailleurs, lexpression de la vraisemblance ne permet
pas de dterminer lemv par ltude des drives et il faut donc rsoudre directement
ce problme de la recherche du maximum.

Comparaison destimateurs

17. Soit X une v.a. qui suit une loi normale desprance et de variance (1) o
est un paramtre inconnu tel que 0 < < 1. partir dun chantillon X1 , . . . , Xn
de cette loi, on construit les estimateurs :
1
Xi
n
n

Tn =

1 2
Xi
n
n

et Sn =

i=1

i=1

Indiquer lestimateur que lon doit choisir.


Analyse de lnonc et conseils. Pour effectuer cette comparaison, il faut se donner
un critre. Ayant vrifi que ces estimateurs sont sans biais, ils peuvent tre compars
par leurs variances, le plus efficace, donc
 celui quil
 faut choisir tant de variance la
plus petite. On pourra admettre que V X2 = 22 1 2 .

TD 6 Estimation ponctuelle

93

Mthode des moments

18. Soit X une v.a. de densit :

(
)
2 1 x
si 0 x

f (x) =

0
sinon

o est un paramtre strictement positif. Dterminer par la mthode des moments


un estimateur du paramtre construit partir dun chantillon X1 , . . . , Xn de cette
loi et tudier ses proprits.
Analyse de lnonc et conseils. Pour utiliser la mthode des moments, on calcule
lesprance de cette loi, qui va sexprimer en fonction du paramtre, et on crit lgalit
avec la moyenne empirique. On rsout ensuite cette quation par rapport , la solution
fournissant lestimateur cherch. Avant de rpondre la question sur lefficacit, il est
ncessaire de bien examiner la dfinition de la loi de probabilit.

1  Vrai. Pour toute loi qui admet une esprance, la moyenne X n de lchantillon
est un estimateur sans biais de E (X).
2  Faux. Si S et T sont deux estimateurs sans biais dun mme paramtre, S + T
ne sera aussi sans biais que si + = 1.

3  Faux. La variance empirique S 2n est seulement un estimateur asymptotique-

Dunod. La photocopie non autorise est un dlit.

ment sans biais de la variance dune loi. Pour obtenir un estimateur sans biais, il
2

faut diviser ni=1 Xi X n par le nombre de variables indpendantes, soit n 1,
et
pas par le nombre n de termes. En effet, ces variables sont lies par la relation
non
n 

X
i Xn = 0.
i=1

4  Faux. Par exemple, si lon retient comme estimateur du paramtre dune


loi uniforme sur [0, ] la moyenne X n dun chantillon de cette loi, on a bien
V(X n ) = 2 /12n
 qui tend vers zro, mais cet estimateur ne converge pas vers
puisque E X n = /2. Pour que lnonc soit vrai, il faut ajouter la condition dtre
un estimateur sans biais, ou asymptotiquement sans biais.
5  Faux. Lnonc est vrai si lon se restreint la classe des estimateurs sans
biais. Mais si lon utilise comme critre gnral de comparaison entre estimateurs lerreur quadratique moyenne, on peut trouver un estimateur avec biais
meilleur quun estimateur efficace. Par exemple, pour la loi N (0, ), lestimateur
 
 
1 n
2n =
X2 est efficace, avec EQ 2n = V 2n = 24 /n. Mais lestimateur
n i=1 i
1 n
24
2
biais Tn =
plus petite
i=1 Xi a une erreur quadratique EQ (Tn ) =
n+2
n+2
que celle de 2n .

94

TD Statistique et probabilits

6  Vrai. Si les hypothses de Cramer-Rao ne sont pas vrifies, on peut toujours

calculer la quantit BF () = 1/In (), mais elle nest pas une borne infrieure pour la
variance des estimateurs sans biais de . On peut donc dans certains cas trouver des
estimateurs sans biais de variance plus petite que BF () (cf. exercice 16, page 92).

7  Vrai. La fonction ln est strictement croissante ; donc maximiser L est quivalent


maximiser ln L.
8  Vrai. Limage par une fonction quelconque g de lemv dun paramtre est
emv de limage g () de ce paramtre.

2
2
9  On sait que
 Sn est un estimateur sans biais de la variance dune loi, cest-

-dire que E S2n = 2 . Si Sn tait un estimateur sans biais de , on aurait donc
E (Sn ) = . La variance de cet estimateur serait alors V(Sn ) = E S2n E2 (Sn ) =
2 2 = 0, ce qui est impossible.

10  Il est facile de vrifier que lestimateur T3 est sans biais. Les estimateurs T1
et T2 tant indpendants, sa variance est :
V3 = V(T3 ) = 2 V1 + (1 )2 V2
Pour dterminer le minimum de cette fonction de , on calcule sa drive
V3 () = 2V1 2 (1 ) V2 , qui sannule pour = V2 / (V1 + V2 ), avec une drive seconde qui est positive. Cest donc la valeur qui permet dobtenir lestimateur
sans biais de variance minimale V3 = V1 V2 / (V1 + V2 ). Si les deux estimateurs
taient efficaces, leurs variances seraient gales la borne FDCR BF () et on aurait
alors V3 = V1 /2 = BF () /2. Ceci est impossible car aucun estimateur sans biais ne
peut avoir une variance infrieure cette borne FDCR.

11  a) La frquence thorique p est estime par la frquence empirique, cest-dire la proportion dans lchantillon de foyers possdant un micro-ordinateur,
soit :
Fn = X n =

1
Xi
n
n

i=1

On retrouve les proprits gnrales de la moyenne empirique qui est un estimateur sans biais de la moyenne thorique :
n
n
  1
1
E (Fn ) = E X n =
E (Xi ) =
p=p
n
n
i=1

i=1

et qui est convergent daprs la loi des grands nombres :


X n E (X) = p
p

Pour dmontrer quil est galement efficace pour ce paramtre, nous allons dterminer la vraisemblance partir de la densit de la loi de Bernoulli, qui peut scrire

1x
avec x = 0 ou 1, soit :
P (X = x) = px 1 p
n
n

n ni=1 xi
 

P (Xi = xi ) = p i=1 xi 1 p
L x1 , . . . , xn ; p =
i=1

TD 6 Estimation ponctuelle

95

Lexpression de la log-vraisemblance est donc :


 n 


n






xi ln p + n
xi ln 1 p
ln L x1 , . . . , xn ; p =
i=1

i=1

De drive :
1
ln L
xi
=
p
p
n

i=1

n


xi

i=1

1p

Avec pour drive seconde :


n

n


xi
n
2 ln L
1 
i=1
= 2
xi 
2
p2
p
1p
i=1
Ce qui permet de calculer la quantit dinformation de Fisher :
 2
n
 
ln L
1 
=
E (Xi ) +
In p = E
p2
p2
i=1

n


E (Xi )

i=1


2
1p

np
n np
n

+
2 = 
p2
p
1
p
1p

Lestimateur a pour variance :




n
n



 p 1p
1
1
V(Xi ) = 2
p 1p =
V(Fn ) = V(X n ) = 2
n
n
n
i=1

i=1

Dunod. La photocopie non autorise est un dlit.

qui est gale la borne FDCR, donc il est efficace. On


peut noter au passage que la
drive de la log-vraisemblance sannule pour p = ni=1 xi /n. Comme la drive
seconde est toujours ngative, il y a un maximum en ce point, donc lestimateur
prcdent est lemv.
b) Les estimateurs Fn et Gm tant sans biais, pour que /
pn+m = Fn + Gm le soit
aussi, il faut que :


pn+m = p + p = p
E /
soit la condition + = 1. Les deux chantillons tant indpendants, la variance
de cet estimateur est :




2
2
2p 1p
2p 1p
V(/
pn+m ) = V(Fn ) + V(Gm ) =
+
n
m
Pour que cette quantit soit minimale, on doit rsoudre le problme de minimisation de :
2
2
+
n
m

96

TD Statistique et probabilits

sous la contrainte + = 1. En utilisant le multiplicateur de Lagrange , on obtient


comme conditions ncessaires du premier ordre le systme :

2 n = 0

2 = 0
m
do :

+
1

=
=
=
n
m
n+m
N
ayant pos N = n + m. Les conditions du second ordre montrent quil sagit
effectivement dun minimum et lestimateur de variance minimale est construit
avec des coefficients proportionnels aux tailles dchantillon :
/
pn+m =

n
m
Fn + Gm
N
N

Ce nest autre que la frquence empirique de lchantillon global, obtenu par


runion des deux chantillons partiels indpendants. Cest lestimateur efficace,
de variance minimale :


p 1p
V(/
pn+m ) =
N

12  On

estime le paramtre = E (X), moyenne thorique de la loi, par la


moyenne de lchantillon, ou moyenne empirique :
1
X n =
Xi
n
n

i=1

On vrifie que cet estimateur est sans biais, daprs les proprits de linarit de
lesprance :
n
n
  1
1
E X n =
E (Xi ) =
=
n
n
i=1

i=1

et quil est convergent, daprs la loi des grands nombres :


X n = E (X)
p

Il converge dailleurs en moyenne quadratique puisquil est sans biais et que sa


variance tend vers zro :
V(X n ) =

n
n
1 
1 

V(X
)
=
= 0
i
n2
n2
n
i=1

i=1

TD 6 Estimation ponctuelle

97

Nous allons maintenant tablir quil est efficace en calculant la quantit dinformation de Fisher partir de la vraisemblance :
n

L (x1 , . . . , xn ; ) = e

i=1 xi

n


xi !

i=1

Do la log-vraisemblance :

 n 
n


ln L (x1 , . . . , xn ; ) = n +
xi ln
ln (xi !)
i=1

i=1

et sa drive premire :
1
ln L
xi
= n +

i=1

Les hypothses de Cramer-Rao tant vrifies, on peut utiliser la drive seconde :


n
1 
2 ln L
=

xi
2
2
i=1

pour calculer :

 2
n
1 
n
ln L
n
=
E (Xi ) = 2 =
In () = E
2
2

i=1

Son inverse est la borne FDCR, gale ici la variance de X n qui est donc un
estimateur efficace du paramtre . La drive de ln L sannule pour = X n et
comme dautre part la drive seconde est toujours ngative, on tablit ainsi quil
sagit de lexpression de lestimateur du maximum de vraisemblance de .

Dunod. La photocopie non autorise est un dlit.

13  Lorsque X = x, chacun des x clients entrs effectue des achats dun montant
suprieur 1 000 F avec une probabilit p, donc la loi de Y, conditionnellement
X = x, est une loi binmiale de paramtres x et p. La loi du couple (X, Y) se
dtermine donc par :
 




xy
x x y 
P X = x, Y = y = P (X = x) P Y = y|X = x = e
p 1p
x! y
 y  
xy
p 1 p


= e
y! x y !
pour x et y entiers tels que 0 y x. On obtient la loi marginale de Y par
sommation de cette loi du couple :
 y  


 1 p xy

 


p


P Y=y =
P X = x, Y = y = e
y! x=y
xy !
x=y
 y
 y
p
(1p)
p p
=e
=e
e
y!
y!

98

TD Statistique et probabilits

Ce qui montre que Y suit une loi de Poisson de paramtre p. Les rsultats
de lexercice prcdent permettent daffirmer que /
pn = Y n / est un estimateur
sans biais, convergent et efficace, de variance V(/
pn ) = p/n. On obtient comme
estimation /
p100 = 3,6/18 = 0,2.

14  La vraisemblance a pour expression :


L (x1 , . . . , xn ; ) =

n


P (Xi = xi ) =

i=1 xi

(1 + )n+

i=1

i=1 xi

et la log-vraisemblance :
 n 


n


ln L (x1 , . . . , xn ; ) =
xi ln n +
xi ln (1 + )
i=1

i=1

Sa drive est :
1
ln L
xi
=

n+

n
i=1

xi

i=1

1+

i=1

qui sannule pour =

n


tudions la drive seconde :


xi /n = x.
n+

n


xi
n
1 
2 ln L
i=1
= 2
xi +
2

(1 + )2
i=1
< 0 pour = x qui correspond donc bien un
qui a comme valeur n/x (1 + x)
maximum. Lemv est par consquent la moyenne empirique :
1
/
n = X n =
Xi
n
n

i=1

Nous allons dailleurs voir que le paramtre est ici la moyenne de la loi :
E (X) =


k=0

k
(1 + )k+1

k1


k
1+
(1 + )2 k=1


k
quantit qui se calcule partir de la somme de la srie gomtrique
k=0 x =

2
k1
1/ (1 x) pour |x| < 1, et de sa drive k=1 kx
= 1/ (1 x) . La valeur de la
somme prcdente est obtenue pour x = / (1 + ), soit :
E (X) =

(1 + )2

(1 + )2 =

Le calcul pralable de lesprance aurait donc permis de retenir la moyenne


empirique comme estimateur naturel, sans avoir recourir une mthode de

TD 6 Estimation ponctuelle

99

construction comme celle du maximum de vraisemblance. On sait que cet estimateur est sans biais, convergent daprs la loi des grands nombres et de variance
V(X)/n. Pour le calcul de la variance,
utiliser la seconde drive de
nous allons k2
la somme de la srie gomtrique
k

1)
x
= 2/ (1 x)3 , qui va nous
(k
k=2
permettre dobtenir le moment factoriel :

k2



2

k (k 1) P (X = k) =
k

1)
= 22
E [X (X 1)] =
(k
1+
(1 + )3
k=0

k=2

ayant remplac x par /(1 + ). On en dduit ensuite :


 
V(X) = E X2 E2 (X) = E[X(X 1)] + E(X) E2 (X) = 2 +
Calculons maintenant la quantit dinformation de Fisher :


2 ln L
In () = E
2

n
1 
= 2
E (Xi )

n


n+

E (Xi )

i=1

(1 + )

i=1

n
n
n

1+
(1 + )

La variance de lestimateur est :


  V(X)
(1 + )
1
V /
n =
=
=
n
n
In ()
et cet estimateur est donc aussi efficace.

15  La densit nest dfinie que pour > 1. Lesprance a pour valeur :



E (X) =


xf (x) dx =

+1

( 1) x

dx = ( 1)

x+2
+ 2

+
1

quantit qui nest dfinie que pour > 2. Si cette condition est ralise, on obtient :

Dunod. La photocopie non autorise est un dlit.

E (X) =

1
2

On voit ainsi que le paramtre na pas dinterprtation simple en terme de moment.


On calcule donc la vraisemblance pour dterminer lemv :
L (x1 , . . . , xn ; ) = ( 1)n

n


x
i

avec min xi 1

i=1

Les expressions de la log-vraisemblance et de ses drives sont donc :


ln L (x1 , . . . , xn ; ) = n ln ( 1)

n

i=1


ln L
n
ln xi
=

1
n

i=1

2 ln L
n
=
2

( 1)2

ln xi

100

TD Statistique et probabilits


La drive premire sannule pour = 1 + n/ ni=1 ln xi , avec une drive seconde
ngative, et il sagit donc bien dun maximum. Lemv est donc dfini par :
/
n = 1 +

n
n


ln Xi

i=1

Il est de la forme /
n = 1 + 1/Y n , ayant pos Yi = ln Xi pour 1 i n. Pour savoir si
on peut appliquer la loi des grands nombres Y n , nous allons calculer lesprance
de Y = ln X :


E ln X = ( 1)


+
x ln x dx = x+1 ln x 1 +

x dx =

1
1

On aurait pu galement



 obtenir ce rsultat partir de la loi de Y dfinie par sa f.r.
G( y) = P Y < y = P ln X < y = P (X < e y ) = F (e y ), o F dsigne la f.r. de X.
Pour x 1 :

F (x) =


f (u) du = ( 1)

u du = 1 x1

 
avec F (x) = 0 pour x < 1. Ainsi, pour y < 0, on a G y = 0 et pour y 0 :
G( y) = 1 e(1)y . La v.a. Y est donc positive, de densit ( 1) e(1)y , et on
reconnat une loi exponentielle de paramtre 1. On retrouve bien la valeur de
lesprance, la variance tant :
V(Y) =

1
( 1)2

Par consquent, la loi des grands nombres permet dobtenir :


Y n E (Y) =
p

1
1

On en dduit, du thorme de Slutsky, la convergence de lestimateur :


/
n = 1 +

1
1 + ( 1) =
Y n p

Notons que cet estimateur aurait pu aussi tre obtenu par la mthode des moments,
applique la loi de Y. En effet, lquation :
E (Y) =

1
= Y n
1

admet comme solution unique = 1 + 1/Y n .

TD 6 Estimation ponctuelle

101

16  La densit de cette loi uniforme est 1/ sur lintervalle [0, ]. Lexpression de


la vraisemblance est donc :
L (x1 , . . . , xn ; ) =

1
n

si 0 xi pour 1 i n. Elle est nulle si ces conditions ne sont pas remplies,


cest--dire que L = L () = 0 pour < max {x1 , . . . , xn }. Au-del de cette valeur, la
fonction L varie comme 1/, donc est dcroissante (voir figure 6.1). Par consquent,
il y a un maximum en ce point, o la vraisemblance nest pas drivable. Lemv est
donc :
Mn = max {X1 , . . . , Xn }

max xi

Figure 6.1

Dunod. La photocopie non autorise est un dlit.

La valeur du paramtre tant la plus grande valeur possible de la variable, on


lestime logiquement par la plus grande observation de lchantillon. Pour tudier
les proprits de cet estimateur, il est ncessaire de dterminer sa loi de probabilit,
par lintermdiaire de sa fonction de rpartition :

G (x) = P (Mn < x) = P

n



(Xi < x) =

i=1

n


P (Xi < x) = Fn (x)

i=1

car les variables de lchantillon sont indpendantes et de mme f.r. F. On obtient


la densit g en drivant :
g (x) = nFn1 (x) f (x)
o f (x) = 1/ pour x [0, ] et f (x) = 0 en dehors de cet intervalle. La f.r. de X est
dfinie par F (x) = x sur lintervalle [0, ]. Ainsi :

E (Mn ) =


xg (x) dx = n
0

n
xn
dx =

n+1

102

TD Statistique et probabilits

donc cet estimateur est seulement asymptotiquement sans biais. Lestimateur sans
biais est :
Tn =

n+1
Mn
n

Pour calculer sa variance, nous avons besoin de :


 +
 n+1
 
x
n 2
E M2n =
x2 g (x) dx = n
dx =

n
+
2

0
Do on dduit :

 
V(Mn ) = E M2n E2 (Mn ) =

n
(n + 2) (n + 1)2

et enfin :
V(Tn ) =

2
n (n + 2)

Lensemble des valeurs prises par la variable est ici E = X () = [0, ], qui dpend
du paramtre ; donc pour calculer la quantit dinformation de Fisher, on doit
utiliser la premire formule fournie par la dfinition :


ln L 2
In () = E

La log-vraisemblance a ici comme expression ln L = n ln , de drive n/ pour


Mn , do :
In () =

n2
2

Si on compare la variance de lestimateur sans biais Tn et la quantit 1/In (), on


observe que :
V(Tn ) =

2
2
1
< 2 =
n (n + 2)
n
In ()

Cependant, ce majorant nest pas une borne infrieure pour la variance des estimateurs sans biais, puisque les conditions de lingalit FDCR ne sont pas remplies. Il
nest donc pas anormal de trouver un estimateur sans biais de variance plus petite
que cette quantit.

17  Lestimateur

naturel du paramtre = E (X) est la moyenne empirique


Tn = X n , qui est sans biais et convergent
daprs la loi des grands nombres. Par
 
ailleurs, on peut remarquer que E X2 = V(X) + E2 (X) = , donc le paramtre
sinterprte aussi comme la moyenne thorique de la loi de Y = X2 . Lestimateur
Sn = Y n est la moyenne empirique de lchantillon de cette loi ; il est donc aussi
sans biais et convergent daprs la loi des grands nombres. Ces deux estimateurs
sans biais vont tre compars par leurs variances :
V(X)
(1 )
V(Tn ) = V(X n ) =
=
n
n

et V(Sn ) =

V(Y)
n

TD 6 Estimation ponctuelle

103

Pour pouvoir obtenir facilement la variance de Y = X2 , on peut utiliser le fait


que (X )2 / (1 ) suit une loi du khi-deux un degr de libert, comme carr
dune loi normale centre-rduite. On en dduit :
V(X )2 = E (X )4 E2 (X )2 = 22 (1 )2
car on sait par ailleurs que E (X )4 = 32 (1 )2 .
On crit enfin X2 = [(X ) + ]2 pour obtenir :


 
V X2 = V(X )2 + 42 V(X ) + 4 Cov X , (X )2


= V(X )2 + 42 V(X) = 22 1 2
On forme le rapport des variances :
V(Sn )
= 2 (1 + )
V(Tn )
Comme cerapport dpend du paramtre estimer, tant de valeur suprieure
31
1 pour
< < 1, la comparaison entre ces deux estimateurs nest pas
2
possible.

18  Le calcul de lesprance donne :


E (X) =


0


(
2 x2
x)
x3
dx =
x 1

2
3

=
0

On cherche donc rsoudre lquation X n = /3, de solution immdiate = 3X n ,


ce qui fournit lestimateur de la mthode des moments Tn = 3X n , qui va tre sans
biais par construction :
 
E (Tn ) = 3E X n = 3E (X) =
et convergent daprs la loi des grands nombres :
Tn = 3X n 3E (X) =
p

La question de lefficacit ne se pose pas ici car X prend ses valeurs dans lintervalle
[0, ], qui dpend du paramtre de la loi ; donc les conditions de lingalit FDCR
ne sont pas remplies.

Estimation
par intervalle
de confiance

Afin de juger de la prcision du rsultat dun problme destimation, nous allons associer
un chantillon dune loi inconnue un ensemble de valeurs, et non plus une valeur unique.
Ces valeurs constituent gnralement un intervalle inclus dans lensemble des valeurs
possibles pour le paramtre. La dtermination de cet intervalle, dit de confiance, seffectue
par la donne de la probabilit, dnomme niveau de confiance, que la vraie valeur du
paramtre appartienne cet intervalle.

1. Dfinition et principe de construction

Dunod. La photocopie non autorise est un dlit.

Dfinition. Un intervalle de confiance pour le paramtre , de niveau de confiance


1 ]0, 1[, est un intervalle qui a la probabilit 1 de contenir la vraie valeur
du paramtre .
Pour obtenir cet intervalle, on utilise un estimateur Tn dont on connat la loi en
fonction de , ce qui permet de dterminer les valeurs t1 = t1 () et t2 = t2 () telles
que :
P {t1 () Tn t2 ()} = 1
Il faut ensuite inverser cet intervalle pour Tn afin dobtenir un intervalle pour
, dont les bornes vont dpendre de lestimateur Tn , cest--dire dterminer les
valeurs a = a (Tn ) et b = b (Tn ) telles que :
P {a (Tn ) b (Tn )} = 1
Ainsi, [a (Tn ) , b (Tn )] est un intervalle de confiance de niveau 1 pour le paramtre
. Il sobtient en dterminant lensemble des valeurs de pour lesquelles on a
simultanment, pour Tn fix :
t1 () Tn

et Tn t2 ()

106

TD Statistique et probabilits

Si par exemple ces deux fonctions sont croissantes, on voit sur la figure 7.1 que :
t1 () Tn t1
1 (Tn )

et Tn t2 () t1
2 (Tn )

Tn
t2 ()

t1 ()
Tn

a(Tn ) = t1
2 (Tn )

b(Tn ) = t1
1 (Tn )

Figure 7.1

Lintervalle est facile obtenir ici car les fonctions t1 et t2 sont inversibles :
t1 () Tn t2 ()

1
a (Tn ) = t1
2 (Tn ) t1 (Tn ) = b (Tn )

Le risque total = P (Tn < t1 ) + P (Tn > t2 ) peut tre a priori rparti de multiples
faons. Posons 1 = P { > b (Tn )} et 2 = P { < a (Tn )} ; les diffrents choix
possibles sont les suivants.

 Intervalle bilatral (1 2 > 0)


Symtrique : 1 = 2 = /2
Cest le choix que lon fait si la loi de Tn est symtrique, ou si on na aucune
information particulire, ce choix tant le moins arbitraire.
Dissymtrique : 1  = 2
Seules des raisons trs particulires peuvent permettre de fixer les valeurs de 1 et
2 telles que 1 + 2 = .

 Intervalle unilatral (1 2 = 0)
droite : 1 = 0, 2 =
Cest linterprtation donne au paramtre qui conduit un intervalle de la forme
> a (Tn ).
gauche : 1 = , 2 = 0
Linterprtation du paramtre peut galement conduire un intervalle de la
forme < b(Tn ).

TD 7 Estimation par intervalle de confiance

107

2. Intervalle pour une proportion


Soit (X1 , . . . , Xn ) un chantillon dune v.a. X qui suit une loi de Bernoulli de paramtre p, estim par /
pn = X n . On utilise
pn =
 la loi exacte de n/
 Sn pour dterminer
les solutions t1 = t1 p et t2 = t2 p des inquations P n/
pn nt1 /2 et
P n/
pn nt2 /2. On trace le graphe de ces deux fonctions de p. Pour une
valeur observe /
pn , lintersection de lhorizontale correspondante avec ces deux
courbes permet de lire sur laxe des
des valeurs de p pour
  abscisses lintervalle
 
lesquelles on a simultanment t1 p /
pn et t2 p /
pn (voir figure 7.2). Ainsi,
lintervalle de confiance sobtient par simple lecture de labaque.
p n
1

t2 (p)

t1 (p)
p n

intervalle pour p

Dunod. La photocopie non autorise est un dlit.

Figure 7.2

Si on ne dispose pas dabaque, on utilise la loi asymptotique de/


pn . On retient alors
un intervalle symtrique, partir de la valeur de a lue dans la table 2, page 203, de
la loi normale, telle que :


/
pn p
P a < n
<a =1
pq
On fait une seconde approximation en remplaant p par /
pn dans les bornes de
lintervalle, ce qui conduit lintervalle de confiance pour p :
0

0 



/
/
pn 1 /
pn 1 /
pn
pn
/
pn a
< p </
pn + a
n
n
o a est le fractile dordre
est
 1 /2 de la loi N (0, 1). Cette approximation


acceptable pour np 1 p 3. On peut galement remplacer p 1 p par sa
borne suprieure 1/4, et obtenir ainsi lintervalle approch le plus grand :
a
a
/
pn < p < /
pn +
2 n
2 n

108

TD Statistique et probabilits

3. Intervalles associs aux paramtres de la loi normale


On dispose dun chantillon (X1 , . . . , Xn ) dune v.a. X qui suit une loi N (m, ).

3.1 Intervalle pour la moyenne dune loi normale dcart type


connu
La moyenne empirique X n est
de m dont on connat la loi de probabi un estimateur

lit, qui est la loi normale N m, / n . Lintervalle de confiance pour le paramtre


m est dtermin partir de la valeur de sa probabilit : 1 = P b < X n m < a .
La loi de la v.a. X n m tant symtrique, on choisit b = a, qui doit vrifier la
condition :


a
X n m
a
1=P <
<
/ n
/ n
/ n
Lintervalle de confiance, de niveau 1 , pour le paramtre m est donc :

X n u < m < X n + u
n
n
o u est le fractile dordre 1 /2 de la loi normale standard, soit u =
1 (1 /2) , tant la f.r. de la loi N (0, 1).

3.2 Intervalle pour la moyenne dune loi normale dcart type


inconnu
La statistique utilise dans la situation prcdente tait la variable normale centrerduite :
X n m X n m
= n

/ n
Le paramtre tant inconnu va tre remplac par un estimateur, bas sur lestimateur sans biais de 2 :
n
2
1 
Xi X n
S2n =
n1
i=1

On utilise donc comme nouvelle statistique :


X n m
n
Sn
de loi de Student n 1 degrs de libert. Par lecture de la table 6, page 200, on
dtermine la valeur de t telle que :


X n m
P t < n
<t =1
Sn
La valeur de t est le fractile dordre 1 /2 de la loi de Student Tn1 , ce qui fournit
lintervalle de confiance pour m de niveau 1 :


Sn
Sn
P X n t < m < X n + t
=1
n
n

TD 7 Estimation par intervalle de confiance

109

3.3 Intervalle pour la variance dune loi normale desprance


connue
Lestimateur sans biais de 2 , bas sur lchantillon (X1 , . . . , Xn ) de cette loi N (m, )
o m est connu est :
1
(Xi m)2
n
n

/
2n =

i=1

de loi connue : n/
2n /2  2n . On peut donc dterminer les valeurs de a et b telles
que :


/
2
P a < n 2n < b = 1

Ce qui conduit lintervalle de confiance dfini par :



 2
/
2
/

P n n < 2 < n n = 1
b
a
Cependant, il ny a quune seule condition pour dterminer les deux valeurs a et b
et il reste un degr dincertitude

 puisque
 la loi utilise nest pas symtrique. Si on
pose 1 = P 2n < a et 2 = P 2n > b , la seule contrainte dans le choix de 1 et
2 est 1 + 2 = .

3.4 Intervalle pour la variance dune loi normale desprance


inconnue
Quand le second paramtre m de la loi normale est inconnu, lestimateur sans biais
de 2 quil faut retenir est :
2
1 
Xi X n
n1
n

Dunod. La photocopie non autorise est un dlit.

S2n =

i=1

Sa loi est connue, (n 1) S2n /2  2n1 , et on peut dterminer les valeurs de a et b


telles que :
2
1
S2
P a < (n 1) n2 < b = 1

Ce qui permet den dduire lintervalle de confiance dfini par :


1

S2
S2
P (n 1) n < 2 < (n 1) n
b
a

2
=1

L encore, il ny a quune
seule
les valeurs de a et b. Si

 contrainte
 pour dterminer

nous posons 1 = P 2n1 < a et 2 = P 2n1 > b , la contrainte est 1 + 2 = .

110

TD Statistique et probabilits

Vrai Faux

1. On peut toujours trouver un intervalle de confiance qui contient


le paramtre avec une probabilit gale 1.
2. un estimateur donn du paramtre, de loi connue, on peut
associer une infinit dintervalles de confiance de mme niveau de
confiance donn.
3. La frquence empirique fn permet de construire un intervalle
de confiance pour le paramtre dune loi de Bernoulli, de niveau
exact 1 , avec 0 < < 1.
4. Cest pour une proportion p voisine de 50 % que lestimation
de ce paramtre est la plus imprcise.
5. Pour un niveau de confiance donn, lintervalle pour la
moyenne dune loi normale dcart type connu est de longueur
minimale si on le choisit symtrique.
6. Pour un niveau de confiance donn et une taille dchantillon
donne, la longueur dun intervalle bilatral symtrique est fixe.
7. Un intervalle de confiance pour une moyenne a une longueur
fixe pour un niveau donn et une taille dchantillon n donne,
cette longueur tendant vers zro avec 1/n.

8. Sur un chantillon de 100 objets prlevs dans un lot de fabrication, on na


observ aucun dfectueux. La proportion p de dfectueux admet donc comme
estimation /
p100 = 0. Peut-on retenir, avec lapproximation normale, lintervalle de
confiance de niveau 0,95 qui se rduit la valeur 0 ou lintervalle approch le plus
grand qui est 0,10 < p < 0,10?
9. Une socit de vente par correspondance dsire tablir le profil de sa clientle et
extrait par tirage sans remise cent dossiers de son fichier clients. Malheureusement
vingt dentre eux savrent inexploitables. Indiquer comment partir dun intervalle de confiance on peut dterminer le nombre minimum de dossiers extraire
pour quil y en ait au moins mille dexploitables avec une probabilit de 0,95.
10. Le chiffre daffaires moyen dun commerant, calcul sur les trente derniers
jours, est de 2 000 francs, avec un cart type empirique de valeur s30 = 300 francs.

TD 7 Estimation par intervalle de confiance

111

Si on admet que son chiffre daffaires quotidien peut tre reprsent par une v.a. X
de loi normale, desprance m et dcart type inconnus, donner un intervalle de
confiance de niveau 0,95 pour le paramtre m. Obtient-on le mme intervalle si
est connu, de valeur = 300?

11. Un sondage effectu auprs de 1 000 personnes, rparties en cinq groupes de


200 personnes, a donn comme valeur moyenne de dpenses mensuelles consacres aux loisirs 301 F. Nayant relev que la dispersion empirique des moyennes
empiriques de chacun des cinq groupes, soit lcart type empirique s5 = 15,51,
construire un intervalle de confiance de niveau 0,95 pour cette dpense de loisirs.
Comment expliquer lamplitude de lintervalle alors que lenqute porte sur 1 000
individus?

Intervalles pour une proportion

Dunod. La photocopie non autorise est un dlit.

12. Sur 100 personnes interroges, 51 dclarent quelles voteront pour le candidat D. Magog aux prochaines lections prsidentielles. Donner un intervalle
de confiance de niveau 0,95 pour la proportion p dintentions de vote pour ce
candidat, dans la population. Mme question si ce sondage a t effectu auprs
dun chantillon de 1 000 personnes. Combien aurait-il fallu interroger dlecteurs
pour que le rsultat soit fourni 2 % prs?
Analyse de lnonc et conseils. Lintervalle pour p peut tre dtermin par simple
lecture de labaque 2, page 204, ou par lapproximation normale puisque la taille de
lchantillon le permet. La longueur de cet intervalle peut sexprimer en fonction de
la taille dchantillon, dont la valeur minimale peut tre dtermine pour que cette
longueur soit infrieure 4 %.

13. la sortie dune chane de montage, 20 vhicules automobiles tirs au sort


sont tests de faon approfondie et 2 dentre eux prsentent des dfauts importants.
Donner un intervalle de confiance de niveau 0,95 pour la proportion p de vhicules
fabriqus qui prsentent des dfauts importants.
Analyse de lnonc et conseils. Linterprtation du paramtre p conduit ici
construire un intervalle unilatral gauche, sans utiliser lapproximation normale
puisque la taille dchantillon est trop faible.

112

TD Statistique et probabilits

Moyenne dune loi normale dcart type connu

14. On a effectu 25 peses dun objet, avec une balance dont la prcision est
mesure par lcart type = 1. La totalisation de ces peses tant de 30,25 g,
donner un intervalle de confiance de niveau 0,90 pour le poids de cet objet.
Analyse de lnonc et conseils. Le rsultat dune pese peut tre considr comme
une v.a. qui suit une loi normale dont la moyenne est gale au vrai poids de lobjet
et dont lcart type est la caractristique de prcision fournie par le constructeur de la
balance. On est alors ramen au problme classique de lintervalle de confiance pour la
moyenne dune loi normale dcart type connu.

Moyenne dune loi normale dcart type inconnu

15. Un fabricant dampoules lectriques annonce une dure de vie moyenne


de ses ampoules de 170 heures. Afin de vrifier cette affirmation, un organisme
de dfense des consommateurs prlve au hasard 100 ampoules dans un lot de
fabrication et, lissue de lexprimentation, constate une moyenne de dure de
vie de 158 heures, avec un cart type empirique de 30 heures. Si on admet que
cette dure de vie suit une loi normale, peut-on dduire de cette enqute que
laffirmation du fabricant est mensongre?
Analyse de lnonc et conseils. Laffirmation du fabricant peut tre valide partir
de la construction dun intervalle de confiance qui devrait contenir la valeur 170.
En choisissant un niveau de confiance de 99 % au lieu de la valeur habituelle 95 %,
lintervalle obtenu sera plus grand, ce qui est plus favorable au fabricant. Pour que le
rsultat ne puisse pas tre contest, on peut mme choisir un intervalle unilatral de la
forme m < constante.

Variance dune loi normale de moyenne connue

16. Pour estimer la prcision dun thermomtre, on ralise n = 100 mesures indpendantes de la temprature dun liquide maintenu une temprature constante
de 20 degrs Celsius. Les observations xi , 1 i 100, ayant conduit la valeur
100 2
i=1 xi = 40 011, construire un intervalle de confiance de niveau 0,95 pour la
prcision de ce thermomtre, mesure par la dispersion 2 des mesures.
Analyse de lnonc et conseils. Si on fait lhypothse classique de normalit des
erreurs de mesure, il sagit de construire un intervalle de confiance pour la variance
dune loi normale, de moyenne connue m = 20. On peut donner un intervalle symtrique, mais compte tenu de linterprtation du paramtre, il parat plus logique de
construire un intervalle donnant une borne suprieure de ce qui mesure en fait limprcision du thermomtre.

TD 7 Estimation par intervalle de confiance

113

Variance dune loi normale de moyenne inconnue

17. Afin de vrifier la rgularit des horaires des bus, la RATP a effectu 71 relevs
des carts en secondes constats entre larrive des bus un arrt et lhoraire moyen
constat. Lestimation sans biais du paramtre 2 obtenue a t de 5 100. En dduire
un intervalle de confiance de niveau 0,95 pour cette mesure de la rgularit des
horaires.
Analyse de lnonc et conseils. On fait toujours lhypothse classique de normalit
des erreurs de mesure, donc il sagit toujours de construire un intervalle de confiance
pour la variance dune loi normale, mais cette fois de moyenne inconnue. Seuls en effet
sont ici relevs les carts la moyenne empirique.

Loi de Poisson

18. Le nombre dinterruptions du trafic de plus dune minute, dans une journe,
sur la ligne A du RER, est suppos suivre une loi de Poisson de paramtre inconnu,
que lon se propose destimer partir du relev de ces interruptions sur 200
journes. Les moments empiriques calculs sur cet chantillon ont pour valeurs
x200 = 3 et s2200 = 3,2. En dduire un intervalle de confiance de niveau 0,95 pour le
paramtre de cette loi de Poisson.
Analyse de lnonc et conseils. On sait que la moyenne empirique est un estimateur
efficace de la moyenne de la loi de Poisson. La loi exacte de cet estimateur ne pouvant
pas tre utilise, on construit un intervalle approch partir de la loi asymptotique,
dduite du thorme central limite. Pour que les ingalits obtenues ne soient pas trop
difficiles exploiter, on remplacera au dnominateur le paramtre par son estimateur.

Dunod. La photocopie non autorise est un dlit.

cart type de la loi normale

19. Soit X une v.a. de loi normale N (0, ) o est un paramtre rel strictement
positif, que lon se propose destimer partir dun chantillon (X1 , . . . , Xn ) de cette
loi. Construire, partir de :
1
|Xi |
n
n

Dn =

i=1

un estimateur sans biais de et montrer quil est convergent. partir de lobservation D100 = 1,084, construire un intervalle de confiance de niveau 0,95 pour .
Analyse de lnonc et conseils. On dtermine les moments de la v.a. |X| pour
construire lestimateur demand par la mthode des moments et tudier ensuite ses
proprits. Lintervalle de confiance sera obtenu partir de sa loi asymptotique, dduite
du thorme central limite.

114

TD Statistique et probabilits

Loi exponentielle

20. La

dure de vie dun certain matriel lectronique est une v.a. X de loi
exponentielle de paramtre > 0 et (X1 , . . . , Xn ) est un chantillon de cette loi.
Dterminer, par la mthode des moments, un estimateur sans biais de et montrer
quil est convergent. Construire un intervalle de confiance de niveau 0,95 pour
partir dun chantillon o on a observ une moyenne empirique x100 = 0,79.
Analyse de lnonc et conseils. On rsout lquation en obtenue par galisation des
moyennes thorique et empirique et on ajuste pour obtenir un estimateur sans biais. On
construira lintervalle de confiance partir du thorme central limite donnant ensuite
la loi asymptotique de cet estimateur partir de la loi limite dune suite image figurant
dans les rappels de cours du chapitre 5.

Loi exponentielle tronque

21. Soit X une v.a. de densit :



e(x)
f (x ; ) =
0

si x
sinon

o est un paramtre rel inconnu. Si (X1 , . . . , Xn ) est un chantillon de cette


loi, dterminer partir de mn = min {X1 , . . . , Xn } un estimateur sans biais de .
Construire un intervalle de confiance de niveau 0,95 pour partir dun chantillon
o on a observ m100 = 1,26.
Analyse de lnonc et conseils. Il faut au pralable dterminer la loi de probabilit
de la valeur minimale de lchantillon pour ensuite calculer ses moments et en dduire
un estimateur sans biais. Cest en utilisant la fonction de rpartition de mn que lon
pourra obtenir un intervalle de confiance de niveau exact 0,95 pour le paramtre.

Loi de Pareto

22. Le revenu mensuel X, en francs constants, des mnages dune population


donne est considr comme une v.a. de densit :
3
3
si x
f (x ; ) = x4

0
sinon
o est le revenu minimum de cette population. Si (X1 , . . . , Xn ) est un chantillon
de cette loi, construire partir de mn = min {X1 , . . . , Xn } un estimateur sans biais
de . Construire un intervalle de confiance de niveau 0,98 pour partir dun
chantillon o on a observ m300 = 4,04.

TD 7 Estimation par intervalle de confiance

115

Analyse de lnonc et conseils. On dtermine au pralable la loi de probabilit de


la valeur minimale de lchantillon pour ensuite calculer les moments et en dduire
un estimateur sans biais. Cest en utilisant la fonction de rpartition de mn que lon
pourra obtenir un intervalle de confiance de niveau exact 0,98 pour le paramtre.

1  Vrai. Il suffit de le choisir suffisamment grand. Sil sagit dune proportion, elle
est contenue dans [0, 1] avec une probabilit gale 1. Si le paramtre est positif,
lintervalle [0, +[ le contient avec une probabilit gale 1.

2  Vrai. Comme il ny a quune condition pour dterminer les deux bornes de


lintervalle de confiance, il y a une infinit de choix possibles. Pour fixer lintervalle,
il faut imposer une condition supplmentaire, comme par exemple lintervalle
unilatral droite ou lintervalle bilatral symtrique.

3  Faux. La loi binmiale de nfn ne permet pas de construire un intervalle de


confiance de niveau exact, car cest une loi discrte. Les abaques permettent cependant dobtenir un niveau trs lgrement suprieur celui souhait, dautant plus
proche de la valeur exacte que la taille dchantillon n est leve.
4  Vrai. La frquence

 empirique fn qui est lestimateur de p a une variance pro-

portionnelle p 1 p , produit de deux termes dont la somme est constante et qui


est maximal quand ils sont gaux, soit p = 0,5. Cest donc au voisinage de cette
valeur que lintervalle de confiance sera de longueur maximum.

Dunod. La photocopie non autorise est un dlit.

5  Vrai. La loi de lestimateur moyenne empirique tant la loi normale symtrique, la longueur de lintervalle symtrique par rapport son centre sera minimale.

6  Faux. Si la loi de lestimateur dpend dun autre paramtre inconnu quil faut
estimer, cette longueur peut tre une variable alatoire, comme dans le cas de
lintervalle de confiance pour la moyenne dune loi normale dcart type inconnu.

7  Faux. Si on prend lexemple de lintervalle de confiance pour la moyenne


dune loi normale, lnonc est vrai si lcart type est connu, mais faux dans le
cas contraire.
En effet, dans ce dernier cas, lintervalle est de longueur alatoire
Ln = 2tSn / n, qui tend cependant en probabilit vers zro quand n tend vers
linfini.

8  Bien sr, aucune de ces deux rponses nest satisfaisante. Le paramtre p tant

positif, on pourrait retenir lintervalle 0 < p < 0,10 qui est bien de niveau suprieur
0,95 mais trs approximatif puisquil correspond au cas, le plus dfavorable, dun

116

TD Statistique et probabilits

paramtre voisin de 0,5 alors que manifestement ici il est proche de zro ! Rappelons
dautre
 part que lapproximation normale nest considre comme justifie que
si np 1 p 3, donc il faudrait que p soit suprieur ici 4 %. Il faut donc
avoir recours labaque 2, page 204, qui va fournir lintervalle le plus exact, soit
0 < p < 0,04. Cependant, si on ne dispose pas de cet abaque, on peut quand mme
partir de lapproximation normale donnant lintervalle symtrique :


/
pn p
P a < n
<a =1
pq
avec ici /
p100 = 0. Mais on nutilisera pas la seconde approximation de p par /
p100
au dnominateur puisque cette valeur est nulle. Pour 1 = 0,95 on lit a = 1,96
donc on est amen rsoudre les ingalits :
1,96 <

p
n < 1,96
pq

Comme p > 0, cela se rduit :


1,96 >

p
1p

soit lintervalle de confiance :


0<p<

1,962
= 0,04
n + 1,962

9  Si on associe chaque dossier du fichier une variable de Bernoulli X qui prend

la valeur 1 quand il nest pas exploitable, on aura P (X = 1) = p qui reprsentera


la proportion
de dossiers inexploitables. Si on prlve n dossiers, il y en aura

n  ni=1
X
qui
pourront
se traduit donc
par
i
 tre utiliss. La condition impose



P n ni=1 Xi 1 000 = 0,95 qui peut encore scrire P X n 1 1 000/n = 0,95.
La quantit 1 1 000/n peut donc sinterprter comme la borne suprieure dun
intervalle de confiance unilatral pour une proportion, de niveau 0,95. Ayant
observ sur un chantillon de taille 100 la valeur /
p100 = 0,2, on obtient par lecture
de labaque 1, page 203, lintervalle p < 0,28, ce qui correspond la valeur de n
telle que 1 000/n = 0,72, soit n = 1 389.

10  On applique la formule donne dans les rappels de cours avec x30 = 2 000

et s = 300, la table 6 donnant comme fractile dordre 0,975 de la loi de Student


29 degrs de libert la valeur t = 2,045. Lintervalle de confiance obtenu est
donc 1 888 < m < 2 112. Lestimation de tant exactement gale la valeur
de ce paramtre, on aurait pu penser que lintervalle ne serait pas modifi. Mais
lapplication des formules du cours dans le cas o est connu, avec comme fractile
dordre 0,975 de la loi normale u = 1,96, conduit lintervalle 1 893 < m < 2 107.
Sa longueur est 214, lgrement infrieure celle, 224, de lintervalle prcdent.
Ainsi, mme dans le cas dune estimation sans erreur, le fait destimer un paramtre
inconnu fait perdre de linformation et donc fournit un intervalle moins prcis.

TD 7 Estimation par intervalle de confiance

117

11  Si X est la v.a. qui reprsente la dpense consacre aux loisirs, de loi suppose
normale N (m, ), on ne dispose pas ici de 1 000 observations de cette variable, mais
seulement de lchantillon des moyennes empiriques Mj , 1 j 5, cest--dire
(
)
dune v.a. M qui suit une loi N m, / 200 . Lintervalle de confiance pour m est


5 m /S5 qui suit une loi de Student quatre
donc bas sur la statistique 5 M
degrs de libert. Il est donc de la forme :
S5
S5
5 t
5 + t
M
<m<M
5
5
o t est le fractile dordre 0,975 de la loi T4 lu dans la table 6, page 200, soit
t = 2,776. Lintervalle obtenu est donc 282 < m < 320. Lamplitude assez leve
de cet intervalle, malgr une taille dchantillon importante, sexplique par une
grande dispersion du caractre mesur dans les cinq groupes, qui paraissent assez
dissemblables quant leur comportement vis--vis des loisirs.

12  La

lecture de labaque pour n = 100 et /


p100 = 0,51 donne lintervalle
0,42 < p < 0,62. Le fractile dordre 0,975 de la loi normale a comme valeur a = 1,96,
ce qui fournit comme nouvel intervalle approch 0,41 < p < 0,61 de mme
longueur que le prcdent mais dcal de 1 % vers la gauche. Enfin, en remplaant p 1 p par sa borne suprieure 1/4, on obtient le mme intervalle, ce
qui sexplique par la valeur exacte de p qui doit tre effectivement proche de 0,5.
Pour une taille dchantillon n = 1 000, on ne peut plus utiliser labaque, mais
lapproximation normale fournit un intervalle prcis, soit ici 0,48 < p < 0,54 de
longueur 6 %. Pour une taille dchantillon n quelconque, la longueur de lintervalle
est :
0

Dunod. La photocopie non autorise est un dlit.

ln = 2a



/
pn 1 /
pn
n



pn 1 /
pn . Pour une estimation voisine
et la condition ln 0,04 impose n 2 500a2/
ici de 0,5, on aboutit la contrainte n 2 400. Dans le cas le plus dfavorable dune
proportion voisine de 50 %, il faut donc des tailles dchantillon leves pour
lestimer avec prcision.


p20 = 1,8, ce qui nautorise pas
obtient ici /
p20 = 0,10 et n/
p20 1 /
admettre que np 1 p 3, condition de validit de lapproximation normale.
Lintervalle unilatral exact est fourni par labaque 1, page 203 : p < 0,28. Lutilisation de lapproximation normale avec le fractile dordre 0,95 a = 1,644 9 aurait
donn lintervalle p < 0,21 assez loign de lintervalle exact.

13  On

14  On peut considrer que la valeur indique par la balance est une v.a. X de

loi normale, desprance m gale au poids rel de lobjet et dcart type = 1. Le



fractile dordre 0,95 de la loi normale tant u = 1,644 9, lobservation 25
i=1 xi =
30,25 conduit lestimation ponctuelle x25 = 1,21 puis lintervalle de confiance
0,88 < m < 1,54. Compte tenu du petit nombre de mesures et de la valeur leve
de lcart type, cet intervalle est peu prcis.

118

TD Statistique et probabilits

15  Pour construire un intervalle de confiance pour lamoyenne


m

 de cette loi

normale dcart type inconnu , on utilise la statistique n X n m /Sn qui suit


une loi de Student n 1 degrs de libert. Avec ici n = 100, on lit dans la table 6 le
fractile dordre 0,995 : t = 2,63. On obtient comme intervalle bilatral symtrique :
150 < m < 166. La valeur indique par le fabricant est bien en dehors de cet
intervalle. Si on choisit un intervalle de mme niveau, mais unilatral gauche, il
sera dfini par :


X n m
P
n
> t = 0,99
Sn
soit t = 2,37 et lintervalle m < 165. Il y a donc 99 chances sur 100 que cette publicit
soit mensongre.

16  On obtient comme estimation de la variance :


1  2
xi m2 = 0,11
100
100

/
2100 =

i=1

Les fractiles dordre 0,025 et 0,975 de la loi du khi-deux 100 degrs de libert, lus
dans la table 5, page 199, sont respectivement a = 74,22 et b = 129,56, do
lintervalle bilatral symtrique 0,08 < 2 < 0,15. Si on retient un intervalle
unilatral gauche, le fractile dordre 0,05 est a = 77,93, ce qui donne comme
intervalle 2 < 0,14.

17  Pour un intervalle de confiance bilatral symtrique, on relve dans la table 5

les fractiles dordres respectifs 0,025 et 0,975 70 degrs de libert a = 48,76 et


b = 95,02, do 3 757 < 2 < 7 322. Pour un intervalle unilatral gauche, le
fractile dordre 0,05 est a = 51,74, ce qui donne comme intervalle 2 < 6 900.

18  Daprs le thorme central limite, lestimateur du paramtre , centr et


rduit, converge en loi vers la loi normale centre et rduite :
X n
n
N (0, 1)
loi

Les inquations que lon peut en dduire sexprimant en fonction de et ,


on remplace le paramtre au dnominateur par son estimateur et lintervalle de
confiance bilatral symtrique se dduit de la condition :


X n
P u < n 3
< u = 0,95
X n
o on retient comme valeur approche de u le fractile dordre 0,975 de la loi N (0, 1),
soit u = 1,96. Lintervalle obtenu est alors :
0
0
0
0
n
n
X n
X
X
X n
u
< X n < u
X n u
< < X n + u
n
n
n
n
soit pour cet chantillon 2,76 < < 3,24.

TD 7 Estimation par intervalle de confiance

119

19  Pour calculer lesprance de |X|, on fait le changement de variable 22 u = x2 :


1
E (|X|) =
2

2 /22

|x| ex

2
dx =
2

.
eu du =

Lexpression de la variance se dduit aisment de la formule dveloppe :






2
2
V (|X|) = E |X|2 E2 (|X|) = 2 2 = 1
2

3
Lestimateur de obtenu par la mthode des moments est solution de Dn = 2/,
puisque Dn est la moyenne empirique de lchantillon (|X1 | , . . . , |Xn |). La solution
est lestimateur, sans biais par construction :
.

Tn =
Dn
2
Il est convergent, daprs la loi des grands nombres, puisque :
.
2
Dn E (|X|) =
p

Cet estimateur tant sans biais et de variance :


V(Tn ) =

(
) 2

V(Dn ) =
V (|X|) =
1
2
2n
2
n

qui tend vers zro, est dailleurs aussi convergent en moyenne quadratique. Sa loi
asymptotique va se dduire du thorme central limite :
Dn E (|X|)
N (0, 1)
n
loi
(|X|)
3
En multipliant numrateur et dnominateur par /2, on obtient en effet :

Dunod. La photocopie non autorise est un dlit.

Tn
n 3
N (0, 1)
/2 1 loi

On peut alors obtenir un intervalle bilatral symtrique de niveau voisin de 0,95


par la relation :



Tn
P u < n 3
< u = 0,95
/2 1
en prenant pour valeur approche de u le fractile dordre 0,975 de la loi N (0, 1),
soit u = 1,96. La rsolution de cette double ingalit conduit :
.
2
2
u
< Tn < u

2n
2n

.
.

2
1u
2n

2
< Tn < 1 + u
2n

120

TD Statistique et probabilits

Do lintervalle pour lcart type :


Tn
Tn
3
3
<<
1 + u ( 2) /2n
1 u ( 2) /2n
Soit, pour cet chantillon, lintervalle de confiance : 1,16 < < 1,56.

20  On sait que la moyenne thorique de la loi exponentielle E () est E (X) = 1/,


donc la mthode des moments conduit rsoudre lquation en : 1/ = X n . La
/
solution fournit lestimateur
n = 1/X n . La loi exponentielle est la loi (1, ) ;

donc nX n = Sn = ni=1 Xi suit une loi (n, ), dont la densit permet de calculer
lesprance de cet estimateur :
 
E /
n = nE
=

1
Sn


n
(n)


=
+

n
(n)

n ex xn2 dx

un2 eu du =

n
n (n 1)
=

(n)
n1

Cet estimateur est asymptotiquement sans biais, lestimateur sans biais tant :
Tn =

n 1/
n1
n =
n
Sn

La loi des grands nombres permet dobtenir la convergence en probabilit de X n


vers E (X) = 1/ et le thorme de Slutsky permet de conclure que 1/X n converge
vers , donc aussi Tn puisque (n 1) /n tend vers 1. On peut aussi calculer la
variance de cet estimateur partir de :


1
E
S2n

1
=
(n)
= 2

n x n3

2
dx =
(n)

un3 eu du

2
(n 2)
=
(n)
(n 1) (n 2)

Do on dduit V(1/Sn ) = 2 / (n 1)2 (n 2), puis :



V(Tn ) = (n 1)2 V

1
Sn


=

2
n2

qui tend vers zro quand n devient infini. Donc, Tn converge en moyenne quadratique vers , puisquil est sans biais. La loi de Tn nest pas une loi tabule qui
permet de construire un intervalle de confiance, donc on utilise la loi asymptotique
dduite du thorme central limite :
X n 1/
n
N (0, 1)
loi
1/
car, pour la loi exponentielle E (), V (X) = 1/2 . Pour obtenir la loi asymptotique
de /
n = 1/X n on applique le rsultat relatif la loi limite dune suite image vue

TD 7 Estimation par intervalle de confiance

121

 
au chapitre 5, avec /
n = g X n et g (x) = 1/x, soit g (x) = 1/x2 et -g (1/)- = 2 ,
do :
/
n
n
N (0, 1)
loi

n 1/
n1
n puisque
tend vers 1 quand n
n
n
devient infini. On obtient donc un intervalle de confiance bilatral symtrique pour
partir de la condition :

Le rsultat est le mme pour Tn =


Tn
< u = 0,95
P u < n

en remplaant u par le fractile dordre 0,975 de la loi normale centre-rduite, soit


u = 1,96. La rsolution de cette double ingalit pour conduit lintervalle :

u < Tn < u
n
n

Tn
Tn
<<

1 + u/ n
1 u/ n

Soit, pour cet chantillon 1,05 < < 1,56.

21  Pour dterminer la loi de mn = min {X1 , . . . , Xn }, on considre lvnement


mn > x qui est quivalent lvnement tous les Xi sont suprieurs x. Les v.a. Xi
tant indpendantes et de mme loi de f.r. F, on en dduit :
P (mn > x) = P

n



(Xi > x) =

i=1

n


P (Xi > x) = [1 F (x ; )]n

i=1

La f.r. de X est nulle pour x < et dexpression :



F (x ; ) =

e(t) dt = 1 e(x)

Dunod. La photocopie non autorise est un dlit.

pour x . La f.r. de mn est donc aussi nulle pour x < et dfinie par :
G (x ; ) = 1 en(x)
pour x , sa densit tant g (x ; ) = nen(x) . On peut alors calculer son
esprance :

E (mn ) = n
=

1
n

xen(x) dx = n

ueu du +

(x ) en(x) dx + n

g (x ; ) dx =

en(x) dx

1
+
n

la premire intgrale tant lesprance dune loi exponentielle de paramtre 1 et la


seconde lintgrale de la densit de mn . Lestimateur sans biais construit partir de
mn est donc Tn = mn 1/n. Comme mn > , on aura Tn > 1/n ; donc lintervalle

122

TD Statistique et probabilits

retenu sera de la forme Tn a < < Tn + 1/n. La f.r. de mn va permettre de


dterminer un intervalle de confiance de niveau 1 par la condition :




1
1
1 = P < Tn < a = P < mn < + a +
n
n




1
1
= G + a + ; G ( ; ) = G + a + ; = 1 ena1
n
n


soit = e(na+1) ou a = 1 + ln /n, ce qui correspond lintervalle :
mn +

ln
< < mn
n

Pour cet chantillon , on obtient lintervalle : 1,23 < < 1,26.

22  Comme

dans lexercice prcdent, on dtermine la loi de mn


min{X1 , . . . , Xn } partir de :
n

n


P (Xi > x) = [1 F (x ; )]n
P (mn > x) = P
(Xi > x) =
i=1

i=1

La f.r. F de X est nulle pour x < et dexpression :


 x

x
3
dt
= 3 t3 = 1 3
F (x ; ) = 33
4
x
t
pour x . La f.r. de mn est donc aussi nulle pour x < et dfinie par :
 3n

G (x ; ) = 1
x
pour x , sa densit tant g (x ; ) = 3n3n /x3n+1 . On peut alors calculer son
esprance :

 + 3n
+
1

3n
3n

dx
=
3n
=
E (mn ) = 3n

3n
3n1
x
3n 1
(3n 1) x

3n 1
mn . En raison de la condition mn >
3n
et la f.r. de mn dpendant de x/, lintervalle de confiance de niveau 1 est
dtermin par la condition :
Lestimateur sans biais est donc Tn =

1 = P (0 < mn < a) = P ( < mn < + a)


= G ( + a ; ) G ( ; ) = G ( + a ; ) = 1

1
(1 + a)3n

soit (1 + a)3n = 1/ ou ln(1 + a) = ln /3n. Lintervalle pour le paramtre est :


mn
< < mn
1+a
Pour = 0,02 et n = 300, on obtient a = 0,004 et lintervalle 4,02 < < 4,04, donc
intervalle trs troit.

Dunod. La photocopie non autorise est un dlit.

Thorie
des tests

Btir un test ncessite, comme pour un problme destimation, de construire au pralable


un modle statistique o la v.a. X suit une loi de probabilit P , qui dpend dun paramtre
inconnu. On fait lhypothse a priori que la valeur de ce paramtre est gale une valeur
fixe 0 et on cherche valider cette hypothse, au vu dun chantillon de la loi de X. Cette
hypothse qui est privilgie, parce quelle parat la plus vraisemblable a priori, est appele
hypothse nulle et note H0 . Construire un test va consister dcouper lensemble Rn des
ralisations possibles du n-chantillon en deux rgions, celle o lon dcidera daccepter
H0 , et celle o on dcidera de la rejeter, qui se nommera rgion critique du test. Pour
dlimiter ces deux rgions, on fixera une valeur faible la probabilit de lerreur qui
consiste dcider, au vu de lchantillon, de rejeter lhypothse nulle alors que celle-ci est
vrifie. Cette probabilit se nomme risque de premire espce, sa valeur standard tant de
5 %. Lorsque le paramtre ne peut prendre que deux valeurs distinctes 0 et 1 , cest le
thorme de Neyman et Pearson qui permet de dterminer la forme de la rgion critique,
partir du rapport des vraisemblances associes chacune des deux valeurs possibles du
paramtre.

1. Dfinitions et principe gnral de construction


On considre un modle statistique o la loi de probabilit P de la v.a. X dpend
dun paramtre inconnu qui varie dans un sous-ensemble donn de R. On
suppose que cet ensemble est partitionn en deux sous-ensembles donns 0 et 1 ,
auxquels vont tre associes les deux hypothses notes H0 : 0 et H1 : 1 .
Construire un test consiste dfinir une rgle de dcision qui va associer une dcision
un chantillon observ (X1 , . . . , Xn ) de la loi de X, les deux dcisions possibles
tant D0 : accepter H0 , et D1 : accepter H1 . chaque dcision correspond une rgion
cest--dire
de Rn , qui va donc tre partitionne en deux sous-ensembles W et W,

124

TD Statistique et probabilits

que si la ralisation de lchantillon est un point (x1 , . . . , xn ) de W, on dcide D1 ,


on dcide
donc on rejette H0 ; dans le cas contraire, cest--dire pour un point de W,
D0 , donc on accepte H0 .
Dfinitions. La rgion W de rejet de lhypothse nulle H0 se nomme rgion critique
rgion dacceptation.
du test et la rgion W
La construction dun test va donc consister dterminer cette rgion critique et la
mthode retenue dpendra des consquences que lon attribue chacune des deux
erreurs qui sont associes aux deux dcisions possibles et qui sont les suivantes.
Dfinitions. Lerreur de premire espce consiste dcider D1 alors que H0 est vraie,
soit rejeter tort lhypothse nulle H0 . Lerreur de seconde espce consiste dcider
D0 alors que H1 est vraie, soit accepter tort lhypothse nulle H0 .

2. Mthode de Bayes
On se place dans le cas o on a attribu des probabilits a priori p0 et p1 = 1 p0
chacune des hypothses respectives H0 et H1 et que lon a galement associ un
cot chaque dcision, en fonction de lhypothse qui est effectivement ralise.
Le tableau suivant contient ces cots, la dcision prise figurant en colonne et
lhypothse vraie en ligne :

H0 p0
 
H1 p1

D0

D1

C00

C01

C10

C11

Aprs la ralisation (x1 , . . . , xn ) on peut calculer, laide du thorme de Bayes, les


probabilits a posteriori 0 et 1 des hypothses H0 et H1 :
0 =

p0 L0
p0 L0 + p1 L1

et 1 =

p1 L1
p0 L0 + p1 L1

o on a not L0 la valeur de la vraisemblance L (x1 , . . . , xn ; ), quand 0 , et L1 ,


quand 1 . On peut alors calculer les esprances du cot de chaque dcision
pour cette distribution a posteriori :
E [C (D0 )] = C00 0 + C10 1

et E [C (D1 )] = C01 0 + C11 1

La rgle de dcision de Bayes consiste associer lobservation (x1 , . . . , xn ) la dcision


dont lesprance de cot est la plus faible.

TD 8 Thorie des tests

125

3. Mthode de Neyman et Pearson


3.1 Principe de la rgle de Neyman et Pearson
On privilgie une hypothse que lon considre comme la plus vraisemblable et
que lon choisit comme hypothse nulle H0 . Ce sera celle dont le rejet tort sera le
plus prjudiciable. Lautre hypothse H1 est lhypothse alternative.
Dfinitions. On appelle risque de premire espce la probabilit de rejeter tort
lhypothse nulle, soit :
= P (D1 |H0 ) = P (H1 |H0 ) = P (W| 0 )
On appelle risque de seconde espce la probabilit daccepter tort lhypothse nulle,
soit :
1 )
= P (D0 |H1 ) = P (H0 |H1 ) = P (W|
Privilgier lhypothse nulle revient considrer que lerreur la plus grave consiste
la rejeter tort. La mthode de Neyman et Pearson fixe un seuil maximum 0 au
risque de premire espce et le test est alors dtermin par la recherche de la rgle
qui minimise lautre risque de seconde espce.
Dfinition. On appelle puissance dun test la probabilit de refuser H0 avec raison,
cest--dire lorsque H1 est vrifie, soit :
= P (D1 |H1 ) = P (H1 |H1 ) = P (W| 1 ) = 1
La rgle de dcision de Neyman et Pearson consiste dterminer la rgion critique W
pour laquelle la puissance est maximum, sous la contrainte 0 .

Dunod. La photocopie non autorise est un dlit.

3.2 Hypothses simples


Une hypothse est qualifie de simple si la loi de la v.a. X est totalement spcifie
quand cette hypothse est ralise. Dans le cas contraire, elle est dite multiple. Nous
allons examiner le cas o le paramtre ne peut prendre que deux valeurs 0 et 1 ,
ce qui correspond au choix entre les deux hypothses simples suivantes :

H0 : = 0
H1 : = 1
Thorme de Neyman et Pearson. Pour un risque de premire espce fix 0 , le
test de puissance maximum entre les hypothses simples ci-dessus est dfini par
la rgion critique :
1
2
L0 (x1 , . . . , xn )
W = (x1 , . . . , xn ) /
k
L1 (x1 , . . . , xn )
o la valeur de la constante k est dtermine par le risque fix 0 = P (W| = 0 ),
ayant pos L0 (x1 , . . . , xn ) = L (x1 , . . . , xn ; 0 ) et L1 (x1 , . . . , xn ) = L (x1 , . . . , xn ; 1 ).

126

TD Statistique et probabilits

3.3 Hypothses multiples


Nous allons seulement considrer le cas dune hypothse simple contre une hypothse multiple de la forme suivante :

H0 : = 0
H1 :  = 0
On dtermine dabord par la mthode de Neyman et Pearson la rgion critique W
du test suivant :

H0 : = 0
H1 : = 1
o 1 est une valeur fixe diffrente de 0 . Si W ne dpend pas de 1 , alors on aura
obtenu un test uniformment le plus puissant (UPP),
 cest--dire
 que pour toute autre
rgion critique W , on aura P (W| 1 ) P W | 1 pour tout de 1 .
Thorme de Lehmann


H0 : 0
H1 : > 0

On suppose que la loi P est rapport des vraisemblances monotone, cest--dire


quil existe une statistique Tn telle que :
L (x1 , . . . , xn ; )
L (x1 , . . . , xn ; )
soit une fonction croissante de Tn pour toutes les valeurs > .
Alors, il existe un test UPP de niveau , de rgion critique dfinie par la condition :
Tn > k.

4. Tests du khi-deux
4.1 Test dindpendance
Pour tester lindpendance de deux caractres X et Y, qualitatifs ou quantitatifs, respectivement r et
s modalits,
on relve le nombre nij dindividus dune

population de taille n = ri=1 sj=1 nij qui possdent simultanment la modalit
i, 1 i r, du caractre X et la modalit j, 1 j s, du caratre Y. Si
pij est la probabilit
thorique correspondante, les probabilits marginales sont
pi. = sj=1 pij et p.j = ri=1 pij et lindpendance de ces deux caractres se traduit par
lhypothse nulle H0 : pij = pi. p.j . Pour tester cette hypothse contre lalternative
H1 : pij  = pi. p.j , on utilise la statistique :

2
s 
s
r 
r 


n2ij
nij ni. n.j /n
Dn =
1
= n
ni. n.j /n
ni. n.j
i=1 j=1

i=1 j=1

TD 8 Thorie des tests

127

dont la loi asymptotique


loi du khi-deux (r 1) (s 1) degrs de
sous H0 est la
libert. On a pos ni. = sj=1 nij et n.j = ri=1 nij . La rgion critique de ce test est de
la forme Dn C ; pour un risque de premire espce = P (Dn C|H0 ), la valeur
de C est approxime par le fractile dordre 1 de la loi 2(r1)(s1) .

4.2 Test dadquation


Pour tester lhypothse nulle quune v.a. X admet pour fonction de rpartition
une fonction donne F, on utilise un n chantillon de la loi de X. Si la loi
est discrte, avec k valeurs possibles de probabilits pi = P (X = xi ), ou si les
observations continues ont t rparties en k classes disjointes (ai , ai+1 ), avec cette
fois pi = P {X (ai , ai+1 )} = F (ai+1 )F (ai ), on compare cette distribution thorique
avec la distribution empirique dfinie par les valeurs ni /n, o ni est le nombre
dobservations xi ou appartenant la classe (ai , ai+1 ). On utilise comme distance
entre ces deux distributions la statistique :
2
k 
k


ni npi
n2i
=
n
Dn =
npi
npi
i=1

i=1

Dunod. La photocopie non autorise est un dlit.

dont la loi asymptotique sous H0 est la loi du khi-deux k 1 degrs de libert. La


rgion critique de ce test est de la forme Dn C. Pour un risque de premire espce
= P (Dn C|H0 ), la valeur de C est approxime par le fractile dordre 1 de
la loi 2k1 . On considre que cette approximation est possible si npi 5 ; en cas
deffectif de classe trop petit pour que cette condition soit remplie, on regroupe
des classes contigus. Si la loi de X sous H0 dpend de r paramtres quil a fallu
estimer au pralable, le nombre de degrs de libert de la loi asymptotique devient
k r 1.

Vrai Faux

1. Pour un problme de test donn, choisir une valeur importante


de la probabilit a priori p0 de lhypothse nulle dans la mthode
de Bayes est quivalent choisir une valeur faible du risque de
premire espce dans la mthode de Neyman et Pearson.
2. Les deux hypothses dun test de Neyman et Pearson jouent
des rles symtriques.
3. Le risque de seconde espce est toujours plus grand que le
risque de premire espce .
4.

Sans information a priori, chacune des deux hypothses peut


indiffremment tre choisie comme hypothse nulle, dans un test
de risque de premire espce fix .

128

TD Statistique et probabilits

Vrai Faux

5. Dans le cas dun test entre deux hypothses simples, on peut


toujours calculer sa puissance.
6.

Dans le cas dun test entre deux hypothses simples, on peut


toujours trouver un test de risque de premire espce fix .

7. Si on intervertit les deux hypothses simples dun test, la


conclusion au vu du mme chantillon peut tre change.

8. Le nombre X dincidents graves par an survenus dans lune des centrales


nuclaires franaises, suit une loi de Poisson de paramtre . Disposant de statistiques sur les neuf dernires annes, construire un test de risque de premire
espce = 0,05 entre les deux hypothses suivantes :

H0 : = 2
H1 : = 1
9. Un gnrateur de nombres au hasard permet dobtenir une simulation de la
loi uniforme sur lensemble des dix chiffres {0, 1, . . . , 9}. La distance entre la distribution empirique obtenue sur un chantillon de n = 100 chiffres et la distribution
thorique a pour valeur D100 = 2,1. Le fractile dordre 0,95 de la loi 29 tant 16,9,
on accepte ladquation la loi uniforme. Si la mme distribution empirique est
obtenue sur un chantillon de taille N = 1 000, expliquer pourquoi cette fois on
refuse ladquation la loi uniforme.

Mthode de Bayes

10. Un magasin propose aux acheteurs dun tlviseur de souscrire pour 300 F
une garantie complmentaire de cinq ans pour le remplacement du tube-image,
dune valeur de 2 500 F. On sait par ailleurs que 80 % de ces tlviseurs sont
fabriqus en Asie et que la probabilit de dfaillance du tube-image est alors
p = 0,15. Le reste des appareils est fabriqu en Europe, avec dans ce cas p = 0,05.
En interrogeant vingt anciens acheteurs, on apprend que deux dentre eux ont eu
changer leur tube dans les cinq ans qui ont suivi leur achat. Cette information

TD 8 Thorie des tests

129

conduit-elle souscrire cette garantie ? Une garantie 350 F ferait-elle changer


davis?
Analyse de lnonc et conseils. Pour utiliser la mthode de Bayes, il faut construire le
tableau des cots. Si on ne prend pas la garantie, on dtermine le cot moyen qui dpend
de la valeur de p. La vraisemblance est associe ici un chantillon dune loi de Bernoulli
qui prend la valeur un quand le tube est en panne dans les cinq annes aprs lachat.

11. Une entreprise possde cinq photocopieuses sur lesquelles neuf interventions
ont t ncessaires lanne prcdente, avec un cot moyen par intervention de
1 000 F. Une socit lui propose un contrat dentretien de 2 400 F par an et par
machine. Le nombre annuel de pannes est suppos suivre une loi de Poisson de
paramtre . Pour le quart des machines produites la valeur du paramtre est = 3.
Une amlioration du procd de fabrication a permis dobtenir ensuite = 1 pour
la production des trois quarts restants. Compte tenu de ces informations, quelle
sera la dcision de lentreprise?
Analyse de lnonc et conseils. Le cot moyen en labsence de contrat dpend du
paramtre qui reprsente lesprance de la loi. La vraisemblance dun chantillon
dune loi de Poisson permet ensuite de construire la rgle de Bayes et de conclure au
vu des observations faites.

Dunod. La photocopie non autorise est un dlit.

Comparaison des mthodes de Bayes et de Neyman-Pearson

12. Le dirigeant dune grande marque de vtements pense quune campagne


publicitaire choquante aurait une chance sur deux de russir. Avant de lancer
cette campagne lchelon national, une pr-campagne a t effectue dans cinq
grandes villes, ce qui a conduit une augmentation de bnfices pour cette marque
de quatre millions de francs au total. On admet que laccroissement de bnfices
dans une ville est une v.a. de loi normale dcart type connu = 2 et de moyenne
m = 2 si la campagne a t efficace et m = 0 dans le cas contraire. Sachant que le
cot par ville de cette campagne est de 0,5 million de francs, quelle dcision ces
informations conduisent-elles prendre ? Quelle serait la rgle de dcision dans
loptique de Neyman-Pearson o on souhaiterait avant tout limiter le risque de
ne pas lancer une campagne qui serait efficace ? Mme question dans le cas o la
campagne est considre comme efficace ds que m > 0?
Analyse de lnonc et conseils. On traduit dabord les informations donnes pour
construire le tableau des cots. On crit ensuite la vraisemblance dun chantillon de
taille cinq dune loi normale dcart type donn, ce qui permet dtablir la rgle de
Bayes et de conclure au vu des observations recueillies aprs la pr-campagne. On
construit ensuite la rgle de dcision de Neyman-Pearson associe lhypothse nulle
retenue par ce dirigeant. Cette rgle dpend bien sr du risque de premire espce
retenu et on verra que la conclusion est diffrente selon les choix = 0,05 et = 0,10. Le
changement dhypothse nulle propos ensuite conduit modifier trs sensiblement
cette rgle.

130

TD Statistique et probabilits

Test dune proportion

13. Entre les deux tours de llection prsidentielle, le candidat D. Magog commande un sondage une socit spcialise pour connatre ses chances dtre lu.
Si p est la proportion dlecteurs qui ont lintention de voter pour lui, cette socit
est conduite effectuer le test entre les hypothses simples suivantes :

H0 : p = 0,48
H1 : p = 0,52
a) Indiquer le sens que lon peut accorder ce choix dhypothse nulle et dterminer la rgion critique du test de risque de premire espce = 0,10 dans le cas
dun sondage ralis auprs de n = 100 lecteurs. On calculera ensuite la puissance
pour des valeurs de n gales 100, 500 et 1 000.
b) On considre maintenant le test suivant :

H0 : p = 0,49
H1 : p = 0,51
Dterminer la taille dchantillon minimum pour que la puissance soit suprieure
0,90 et indiquer dans ce cas la rgion critique.
Analyse de lnonc et conseils. On utilise le thorme de Neyman et Pearson pour
dterminer la forme de la rgion critique de ce test entre deux hypothses simples. On
introduit pour cela une variable de Bernoulli indicatrice de lintention de vote pour le
candidat D. Magog, de paramtre p. La taille de lchantillon permet dutiliser la loi
asymptotique de la statistique qui sert dlimiter cette rgion critique, pour dterminer
une valeur approche du seuil en fonction du risque de premire espce fix. Pour
calculer la puissance du second test en fonction de diffrentes tailles dchantillon, on
exprimera ce seuil en fonction de la taille n.

Test de la moyenne dune loi normale dcart type connu

14. On dispose dun chantillon (X1 , . . . , Xn ) dune v.a. X qui suit une loi normale

desprance inconnue m et dcart type connu = 2 pour choisir entre les deux
hypothses :

H0 : m = 2
H1 : m = 3

Dterminer la rgion critique du test de Neyman et Pearson et calculer sa puissance


dans le cas o n = 100 et = 0,05. Quelle devrait tre la taille dchantillon
minimum pour que cette puissance soit suprieure 0,95? 0,99?
Analyse de lnonc et conseils. On dtermine la forme de la rgion critique de ce test
par le thorme de Neyman et Pearson, en faisant le rapport des vraisemblances associes aux deux hypothses simples. On transforme les ingalits successives obtenues

TD 8 Thorie des tests

131

en ne conservant que les termes dpendant de x1 , . . . , xn et en remplaant les autres


par une nouvelle constante. On aboutit la dfinition dune rgion critique qui fait
intervenir une statistique dont on connat la loi de probabilit sous lhypothse nulle,
ce qui permet de dterminer le seuil de la rgion critique en fonction du risque de
premire espce fix. On peut ensuite calculer la puissance du test comme probabilit
de cette rgion critique, cette fois en se plaant dans lhypothse alternative.

Test de la moyenne dune loi normale dcart type inconnu

15. On dispose dun chantillon (X1 , . . . , Xn ) dune v.a. X qui suit une loi normale

desprance inconnue m et dcart type inconnu , pour choisir entre les deux
hypothses :

H0 : m = 1
H1 : m = 2

Dterminer la rgion critique du test de Neyman et Pearson et calculer sa puissance


dans le cas o n = 25 et = 0,05.
Analyse de lnonc et conseils. La dmarche est identique celle de lexercice
prcdent, mais la rgion critique est dtermine partir dune statistique dont la loi
nest pas connue sous lhypothse nulle. Il faudra donc modifier cette statistique par
lutilisation dun estimateur de lcart type, qui est inconnu ici, et dfinir la rgion
critique laide dune statistique de loi connue sous H0 .

Test de lcart type dune loi normale de moyenne connue

Dunod. La photocopie non autorise est un dlit.

16. Un fabricant de thermomtres prlve un chantillon de taille n = 76 dans


un lot quil vient de produire. La valeur indique par ces thermomtres plongs
dans un liquide maintenu la temprature constante de 16 degrs est considre
comme une v.a. X de loi normale dont lcart type est inconnu. Il dsire effectuer
le test entres les deux hypothses suivantes :

H0 : = 1
H1 : = 2
Pour un risque de premire espce = 0,05, indiquer ce que sera sa conclusion pour
76 2

des observations de tempratures telles que 76
i=1 xi = 1 140 et
i=1 xi = 17 195.
Que se produit-il si on intervertit les deux hypothses?
Analyse de lnonc et conseils. Le rapport des vraisemblances fournit la forme de
la rgion critique de ce test. Cette rgion est dfinie laide dune statistique dont la
loi est connue sous lhypothse nulle, ce qui permet de dterminer le seuil critique en
fonction du risque de premire espce .

132

TD Statistique et probabilits

Paramtre dune loi uniforme

17. Un gnrateur de nombres au hasard est cens simuler une loi uniforme sur
[0, 1]. Sil est drgl, il fournira une simulation dune loi uniforme sur [0, ] avec
= 1,1. Sil fournit les valeurs 0,95 ; 0,24 ; 0,83 ; 0,52 et 0,68 doit-on considrer quil
est bien rgl?
Analyse de lnonc et conseils. Le problme pos se ramne un test sur la valeur
du paramtre dune loi uniforme sur [0, ], o les hypothses confrontes sont = 1
et = 1,1. Le rapport des vraisemblances ntant pas dfini partout, on construira
la rgion critique sans rfrence au thorme de Neyman et Pearson en utilisant un
estimateur du paramtre .

18. La v.a. X suivant une loi uniforme sur [, 2], donner la rgion critique et la
puissance du test de risque de premire espce entre les hypothses suivantes :

H0 : = 1
H1 : = 0,9
Peut-on en dduire la rgion critique du test suivant :

H0 : = 1
H1 : < 1
Analyse de lnonc et conseils. Il nest pas question de dterminer ici un estimateur
efficace puisque lensemble des valeurs possibles pour la variable dpend du paramtre
estimer. Cependant, entre les diffrents estimateurs sans biais possibles pour , obtenus par la mthode des moments ou partir des valeurs extrmes mn = min {X1 , . . . , Xn }
et Mn = max {X1 , . . . , Xn } de lchantillon (X1 , . . . , Xn ) de X, on fait le choix de celui qui
est le plus efficace. On admettra quil sagit de lestimateur Tn = (n + 1) Mn / (2n + 1).
On construira donc la rgion critique partir de cet estimateur dont la loi est connue
sous H0 .

Hypothse multiple pour une proportion

19. Sur un chantillon de 900 naissances, on constate quil y a 470 garons. Un


gnticien dcide dutiliser ces donnes pour effectuer le test suivant relatif aux
proportions p et 1 p de naissances respectivement masculines et fminines :

H0 : p = 0,50
H1 : p = 0,48
Quelle est la conclusion, au vu de cet chantillon, et pourquoi est-ce peu satisfaisant?

TD 8 Thorie des tests

133

Quelle est la conclusion retenue si on effectue le test suivant :



H0 : p = 0,5
H1 : p  = 0,5
Analyse de lnonc et conseils. On procde comme dans lexercice 4, page 127, en
utilisant la loi limite pour dterminer la rgion critique, ce qui se justifie par la taille
leve de lchantillon. Le calcul de la puissance permet dapprcier la qualit de ce
test. On retient ensuite comme alternative p = p1 en tudiant successivement les cas
p1 > 0,5 et p1 < 0,5 pour en dduire la rgion critique du test dalternative p = 0,5.

Hypothses multiples pour la moyenne dune loi normale

Dunod. La photocopie non autorise est un dlit.

20. Un fabricant de conserves de petis pois produit des botes o ltiquette


annonce un poids net goutt de 560 g. Il prlve un lot de 200 botes pour
sassurer quil naura pas dennuis lissue dun contrle ventuel. Formaliser
le problme de test et indiquer sil existe un test UPP. Pour un risque de premire
espce retenu = 0,01 quelle sera sa conclusion pour des observations (x1 , . . . , xn )

200
2 = 17 959,75 ? Peut-on dterminer la
telles que 200
i=1 xi = 111 140 et
i=1 (xi x)
fonction puissance de ce test si le procd de fabrication est tel que sa prcision est
caractrise par un cart type connu = 10?
Analyse de lnonc et conseils. On pourra considrer le poids net goutt comme
une v.a. de loi normale dont les paramtres m et sont inconnus, ltiquette annonant
que m = 560 qui sera donc lhypothse privilgie par le fabricant. Il aura des ennuis
seulement si le poids est infrieur cette valeur annonce, donc lhypothse alternative
est m < 560. On rsout dabord le test entre deux hypothses simples m = m0 contre
m = m1 avec m0 = 560 et m1 qui est une valeur quelconque, infrieure 560. Si la
rgion critique obtenue par la mthode de Neyman et Pearson est indpendante de
la valeur m1 , ce sera celle du test le plus puissant contre lalternative m < 560. Sans
hypothse supplmentaire, on ne peut pas dterminer la fonction puissance puisque le
seuil critique dpend dune statistique. Pour cela nous allons tester lautre hypothse
= 10 et, si elle est accepte, on calculera la fonction puissance en faisant comme si
lcart type tait connu.

21. Un industriel produit des pices dont la caractristique principale peut tre
considre comme une v.a. X de loi normale, de moyenne m = 1 et dcart type
= 1. Il prlve au hasard 25 pices qui ont t produites, pour tester si le rglage de
la machine est toujours m = 1. Sachant que la prcision est toujours caractrise
par = 1, indiquer les trois tests que lon peut envisager pour contrler un
drglement ventuel et reprsenter leur fonction puissance pour un risque de
premire espce = 0,05. Prciser chaque fois la dcision qui sera prise pour un

chantillon o on a observ 25
i=1 xi = 30,25.

134

TD Statistique et probabilits

Analyse de lnonc et conseils. Pour savoir si la machine est drgle, on effectue


un test dont lhypothse nulle est m = 1, car cest bien entendu lhypothse qui est
privilgie. Lhypothse alternative sera une hypothse multiple, diffrente selon que
lon a ou non des informations supplmentaires sur la nature du drglement. Si lon
pense a priori que la valeur de rglage a t augmente, lalternative sera m > 1 ; elle
sera m < 1 si lon pense quelle a diminu et on retiendra m = 1 sans information a
priori. Pour dterminer la rgion critique des deux premiers tests, on se place dabord
dans le cas dune hypothse alternative simple, conforme lhypothse multiple (voir
exercice prcdent) ; pour le troisime test on retiendra lunion des rgions critiques
des deux prcdents.

Comparaison de proportions

22. Un sondage effectu auprs de 2 000 personnes indique que 19 % dentre


elles connaissent la marque de lessive Omopaic. Aprs une campagne publicitaire, un sondage analogue auprs de 1 000 personnes montre que 230 dentre
elles connaissent cette marque. Peut-on considrer que cette campagne a t
efficace?
Analyse de lnonc et conseils. Il faut associer deux variables de Bernoulli, indicatrices de notorit de cette marque de lessive, avant et aprs la campagne et faire un test
de comparaison entre les paramtres de ces deux lois. Lhypothse nulle est lgalit de
ces paramtres, lalternative correspond une valeur plus grande aprs la campagne.
On utilisera la loi approche de lestimateur de la diffrence de ces deux paramtres
pour construire la rgion critique.

Comparaison dchantillons

23. Pour comparer deux marques dampoules lectriques, on a effectu des essais
sur des chantillons prlevs au hasard. La dure de vie moyenne observe sur
un chantillon de 25 ampoules de la marque 1 est de 1 012 heures, avec un cart
type empirique de 241 h. Sur un chantillon de 13 ampoules de la marque 2, on a
obtenu respectivement 1 104 h et 319 h. Peut-on considrer que ces marques sont
de qualits quivalentes?
Analyse de lnonc et conseils. Nous ferons lhypothse que les dures de vie des
ampoules des marques 1 et 2 sont des v.a. X et Y de lois normales et lhypothse nulle
correspond lgalit des moyennes de ces deux lois. Les tailles dchantillon sont trop
faibles pour pouvoir faire des approximations de loi ; donc, pour effectuer ce test, il
faut au pralable tester lgalit des variances de ces deux lois. Si cette hypothse est
accepte, on pourra raliser le test de lgalit des moyennes de deux lois normales de
mme cart type, car la loi de la statistique de test dans ce cas sera connue.

TD 8 Thorie des tests

135

Test dindpendance

24. Le chef dtablissement dun grand lyce parisien dsire comparer les taux
de succs au baccalaurat des trois sections gnrales. Les statistiques de lanne
prcdente figurent dans le tableau suivant :
L

ES

Total

Russite

41

59

54

154

chec

21

36

75

132

Total

62

95

129

286

Au vu de ce tableau, peut-on considrer que les taux de russsite sont indpendants


de la section du baccalaurat?
Analyse de lnonc et conseils. Pour rpondre cette question, il faut utiliser
le test dindpendance du khi-deux. On remplit donc le tableau qui serait obtenu
dans lhypothse nulle tester dindpendance des deux caractristiques, russite au
baccalaurat et section choisie, puis on calcule la distance du khi-deux entre ces deux
tableaux.

Tests dadquation

Dunod. La photocopie non autorise est un dlit.

25. Pendant 200 minutes, on note toutes les minutes le nombre de voitures qui
ont franchi un poste de page sur lautoroute, ce qui donne la distribution observe
ci-aprs :
Nombre de voitures

10

11

Effectif observ

15

30

46

38

30

16

13

Dterminer la loi thorique que lon pourrait retenir pour modliser ce phnomne
darrives par minute un page.
Analyse de lnonc et conseils. Parmi les lois usuelles, cest la loi de Poisson
qui parat convenir pour modliser ces arrives au poste de page. Il faut estimer
le paramtre de cette loi et ensuite tester son adquation la loi observe, en tant
attentif au nombre de degrs de libert de la loi utilise et aux effectifs de classes.

26. la sortie dune chane de fabrication, on contrle toutes les trente minutes
le nombre de pices dfectueuses contenues dans un lot de vingt pices produites.

136

TD Statistique et probabilits

Les rsultats observs sur 200 lots indpendants sont rsums dans le tableau
suivant :

Nombre de dfectueux

Nombre de lots

26

52

56

40

20

Quelle loi thorique du nombre de dfectueux par lot de vingt peut-on retenir au
vu de ces observations?
Analyse de lnonc et conseils. Il sagit de tester ladquation de cette distribution
empirique une distribution thorique qui nest pas donne ici. Cependant, le nombre
de dfectueux dans un lot de 20 pices produites suit une loi binmiale de paramtres
n = 20 et p qui reprsente la probabilit quune pice soit dfectueuse (cest--dire
la proportion de pices dfectueuses fabriques par cette chane). Comme lun des
paramtres de cette loi nest pas fix, il faudra lestimer et en tenir compte pour le
nombre de degrs de libert de la loi asymptotique de la statistique utilise dans ce test.

1  Vrai. Si lhypothse nulle est privilgie dans la mthode de Bayes par une
valeur forte de p0 , elle doit donc tre rejete avec un risque trs faible derreur
qui est justement le risque de premire espce dans la mthode de Neyman et
Pearson.

2  Faux. Le principe de la mthode de Neyman et Pearson consiste au contraire


faire jouer des rles dissymtriques aux deux hypothses, lhypothse nulle tant
a priori celle qui parat la plus vraisemblable. Il faut donc des contre-preuves fortes
pour la rejeter.

3  Vrai. Lerreur la plus grave consistant rejeter tort lhypothse nulle avec
une probabilit , il serait contraire lesprit de la mthode de Neyman et Pearson
que lautre erreur ait une probabilit plus faible.

4  Faux. Dans le cas de deux hypothses simples et sans information a priori


laffirmation est vraie. Mais si une seule des hypothses est simple, cest celle que
lon doit retenir comme hypothse nulle pour que lon puisse construire la rgion
critique de risque de premire espce fix une valeur donne .

TD 8 Thorie des tests

137

5  Vrai.

Si on retient comme dfinition dune hypothse simple celle qui est


fournie dans les rappels de cours, la loi de X est totalement spcifie sous lalternative H1 et le calcul de la puissance est donc possible. Par contre, si on retient
la dfinition plus gnralement admise o une hypothse simple correspond au
cas o le paramtre ne peut prendre quune seule valeur, cette affirmation peut
devenir errone. Si nous prenons lexemple dune v.a. X qui suit une loi normale
dcart type inconnu et que le test porte sur la moyenne, soit H0 : m = m0 contre
m = m1 , la loi sous H1 nest pas totalement dtermine car elle dpend de deux
paramtres, et il nest donc pas possible de calculer la puissance.

6  Faux. Dans le cas dune loi discrte, les valeurs du risque de premire espce ne
varient pas de faon continue et ne comporteront pas en gnral la valeur exacte .

7  Vrai. La rgion critique tant construite partir de lhypothse nulle, linversion des hypothses peut conduire des conclusions inverses, pour le mme
chantillon, si on intervertit les deux hypothses.

8  Lexpression de la vraisemblance est :


L (x1 , . . . , xn ; ) =

n


i=1

xi
1 xi
= en n

xi !
xi !
i=1

Le rapport des vraisemblances, L0 sous H0 , et L1 sous H1 , scrit donc :


n
L0
= e2n 2 1 xi
L1

Le thorme de Neyman et Pearson, qui permet dobtenir le test de puissance


L0
maximum, dfinit la rgion critique par la condition
k, qui est donc ici
L1
quivalente :
n


xi C

Dunod. La photocopie non autorise est un dlit.

i=1

La valeur du seuil C qui dfinit cette rgion critique W est dtermine par la
condition :

 n

= P (W|H0 ) = P
Xi C| = 2
i=1

avec i=1 Xi qui suit une loi de Poisson de paramtre(2n. Pour n = )9, on lit dans
9
les tables de la loi de Poisson P (18) les probabilits P
i=1 Xi 10 = 0,030 4 et
(
)
9
P
i=1 Xi 11 = 0,054 9. Comme la loi est discrte, on constate donc que lon
ne peut pas trouver un test de niveau exact = 0,05. Si on retient comme rgion
critique lensemble des points (x1 , . . . , x9 ) tels que :
9

i=1

xi 10

138

TD Statistique et probabilits

on obtiendra un test de risque de premire espce infrieur 5 %. Si on tient absolument avoir un test de risque exact = 0,05, il faut construire ce quon appelle
un test mixte. Pour cela on procde de la faon suivante. Pour des observations


telles que 9i=1 xi 10, on rejette lhypothse nulle. Dans le cas o 9i=1 xi = 11, on
effectue un tirage au sort o on rejette lhypothse H0 avec une probabilit (on
laccepte donc avec une probabilit 1 ). Le test sera bien de risque exact = 0,05
si on choisit tel que :
 9

 9



= 0,05 = P
Xi 10| = 2 + P
Xi = 11| = 2 = 0,030 4 + 0,024 5
i=1

soit =

i=1

196
= 0,8.
245

9  Lexpression de la statistique de test est :


Dn = n

 k
 (ni /n)2
i=1

pi


1

Pour un chantillon de taille N o la distribution empirique est caractrise par les


mmes valeurs ni /n, la statistique associe aura pour valeur :
 k

 (ni /n)2
DN = N
1
pi
i=1

Dans le cas o N = 10n, on aura donc DN = 10Dn , soit pour les valeurs donnes
D1 000 = 21 qui est suprieur au seuil 16,9, ce qui conduit rejeter ladquation la
loi uniforme. Pour une taille dchantillon plus leve, la valeur de la statistique
augmente et la distribution empirique obtenue doit donc tre plus proche de la
distribution thorique pour quon accepte ladquation.

10  Le cot de la dcision D0 de prendre la garantie est de 300 F et le cot moyen


associ la dcision D1 de ne pas la prendre est de 2 500p, car p qui reprsente
la probabilit de panne est aussi la valeur moyenne de la variable indicatrice de
panne dfinie par :

 
1 si panne p


X=
0 sinon 1 p
Les renseignements sur la provenance du tlviseur se traduisent par les probabilits a priori 0,8 et 0,2 affectes aux deux valeurs possibles de p qui sont p = 0,15 et
p = 0,05. Tout ceci est rsum dans le tableau de cots suivant :
D0

D1

prob. a priori

H0 : p = 0,15

300

375

0,8

H1 : p = 0,05

300

125

0,2

TD 8 Thorie des tests

139

La vraisemblance de lchantillon (X1 , . . . , Xn ) de cette loi de Bernoulli scrit :


N

N Ni=1 xi


L x1 , . . . , xn ; p = p i=1 xi 1 p

avec xi {0, 1}, 1 i n. On note L0 la vraisemblance pour p = 0,15 et L1 pour


p = 0,05. Les esprances a posteriori des cots sont :
E [C (D0 )] = 3000 + 3001

et E [C (D1 )] = 3750 + 1251

La rgle de Bayes conduit prendre la garantie si E [C (D0 )] < E [C (D1 )] soit :


1751 < 750 7 0,2 L1 < 3 0,8 L0 7L1 < 12L0

 20
20

19 
19
12
ln 3 + ln
xi > 20 ln
xi > 1,39
ln

17
17
7
i=1

i=1

Les xi ne prenant que des valeurs entires, on dcide de prendre la garantie pour

des observations telles que 20
i=1 xi 2, ce qui est le cas pour cet chantillon.
Pour un cot de garantie de 350 F, la relation E [C (D0 )] < E [C (D1 )] est vraie pour
2251 < 250 , soit 9 0,2 L1 < 0,8 L0 , ce qui est quivalent :


 20
20
20


19
9
19 
xi > 20 ln
xi > 2,51
xi 3
+ ln
ln 3 + ln
17
17
4
i=1

i=1

i=1

et cette fois on ne prend donc pas la garantie.

Dunod. La photocopie non autorise est un dlit.

11  Les donnes fournies conduisent affecter les probabilits a priori 0,75 et


0,25 aux deux valeurs possibles = 1 et = 3 du paramtre de cette loi de
Poisson. Le nombre annuel moyen de pannes pour cette loi est E (X) = . Si on
prend la dcision D0 de ne pas souscrire de contrat dentretien, cela correspond
aux cots moyens pour chaque hypothse de 1 000 F et 31 000 = 3 000 F. Tout cela
est rsum dans le tableau de cots suivant :
D0

D1

prob. a priori

H0 : = 1

1 000

2 400

0,75

H1 : = 3

3 000

2 400

0,25

Les esprances a posteriori des cots sont :


E [C (D0 )] = 1 0000 + 3 0001

et E [C (D1 )] = 2 4000 + 2 4001

La rgle de Bayes conduit ne pas souscrire le contrat dentretien si E [C (D0 )] <


E [C (D1 )] soit :
6001 < 1 4000 3 0,25 L1 < 7 0,75 L0 L1 < 7L0
La vraisemblance de lchantillon de la loi de Poisson scrit :
5

L (x1 , . . . , x5 ; ) = e5

i=1 xi

5

i=1

xi !

140

TD Statistique et probabilits

Lingalit prcdente est donc quivalente, en prenant les logarithmes, :


 5 
5
5



xi ln 3 < 10 + ln 7
xi < 10,87
xi 10
i=1

i=1

i=1

puisque les xi ne prennent que des valeurs entires. Lobservation


conduit donc ne pas souscrire le contrat dentretien.

5
i=1

xi = 9

12  Dans

loptique de Bayes, les hypothses m = 0 et m = 2 ont la mme


probabilit a priori 1/2. La dcision D0 de ne pas lancer la campagne a un cot
nul. La dcision D1 dentreprendre cette campagne a un cot de 0,5 diminu dun
bnfice moyen de 2, dans le cas o la campagne a t efficace. Ce qui conduit au
tableau des cots suivant :
D0

D1

prob. a priori

H0 : m = 0

0,5

0,5

H1 : m = 2

1,5

0,5

Les esprances a posteriori des cots sont E [C (D0 )] = 0 et E [C (D1 )] = 0,50 1,51 ;
donc on aura E [C (D0 )] < E [C (D1 )] si 0 > 31 , soit L0 > 3L1 . Laccroissement de
bnfices par ville est une v.a. X de loi N (m, 2) soit une vraisemblance :


5
1
1
2
L (x1 , . . . , xn ; m) = exp
(xi m)
8
2 2
i=1

En prenant les logarithmes, la dernire ingalit est quivalente :

*

1 ' 2
xi < 5 2 ln 3 = 2,80
xi (xi 2)2 > ln 3
8
5

i=1

i=1

Lobservation i=1 xi = 4 conduit donc lancer la campagne publicitaire si on


adopte cette rgle de dcision de Bayes.
Dans loptique de Neyman-Pearson, lhypothse nulle ne pas rejeter tort est
celle dune campagne qui serait efficace, ce qui correspond lhypothse simple
H0 : m = 2. Lhypothse alternative est alors H1 : m = 0. Le thorme de Neyman
et Pearson dfinit la forme de la rgion critique par L0 /L1 k, soit ici en prenant
les logarithmes :

*

1 '
xi < C
(xi 2)2 x2i < k1
8
5

i=1

i=1

la valeur
( de la constante )C tant dtermine par le risque de premire espce
5

i=1 Xi < C|m = 2 . Sous lhypothse nulle, la moyenne empirique X5 suit


(
)
une loi normale N 2, 2/ 5 ; donc C est dfini par :


X 5 2
C/5 2
<

=P
2/ 5
2/ 5

=P

TD 8 Thorie des tests

141

soit C = 10 + 2u 5 o u est le fractile dordre de la loi normale centre-rduite.


Pour un risque = 0,05, on a u = 1,644 9 et C = 2,64 ; donc la rgle de Neyman
conduit accepter lhypothse nulle, cest--dire lancer la campagne. Par contre,
pour un risque de premire espce plus lev = 0,10, on lit dans la table 2,

page 195, le fractile u = 1,281 6, do C = 4,27. Lobservation 5i=1 xi = 4 conduit
cette fois ne pas lancer la campagne.
Le changement de m = 2 en m > 0 oblige retenir lhypothse simple m = 0
comme hypothse nulle du test de Neyman-Pearson. La rgion critique L0 /L1 k
est cette fois dfinie par :



1  2
xi > C
xi (xi m)2 < k1
8
5

i=1

i=1

)
(
5
o la constante C est dtermine par la condition = P
i=1 Xi > C|m = 0 . On

obtient cette fois C = 2u 5, o u est le fractile dordre 1 de la loi normale


centre-rduite. Pour un risque = 0,10, le fractile est u = 1,281 6 et C = 5,73 ;
donc mme avec ce risque de premire espce lev on dcide de ne pas lancer la
campagne. Le changement dhypothse nulle, d des raisons techniques, amne
ne la rejeter que pour des trs grandes valeurs observes daugmentation de
bnfices, mme si on choisit un risque lev.

13  a)

Choisir p = 0,48 comme hypothse nulle, au lieu de p = 0,52, cest vouloir


se prmunir avant tout contre le risque de conclure son lection, en acceptant
lhypothse p = 52 % alors quen fait on aurait p = 48 %. Ce candidat prfre
tre agrablement surpris, plutt que dentretenir un faux espoir. On introduit ici
des variables de Bernoulli associes chaque lecteur interrog i, 1 i n, qui
prennent la valeur 1 quand celui-ci dclare son intention de vote pour le candidat
D. Magog :

1 p
Xi =
0 1p

Dunod. La photocopie non autorise est un dlit.

La vraisemblance de lchantillon (X1 , . . . , Xn ) de cette loi de Bernoulli scrit :


n
n

1xi

n ni=1 xi
 

pxi 1 p
= p i=1 xi 1 p
L x1 , . . . , xn ; p =
i=1

avec xi {0, 1}, 1 i n. On note L0 la vraisemblance pour p = 0,48 = p0 et L1


pour p = 0,52 = p1 . Le rapport des vraisemblances scrit :
L0
=
L1

p0
p1

 ni=1 xi 

1 p0
1 p1

n ni=1 xi

La rgion critique est dfinie par le thorme de Neyman et Pearson, aprs avoir
pris les logarithmes, par lingalit :
 n 


n


p0
1 p0
xi ln
+ n
xi ln
ln k
p1
1 p1
i=1

i=1

142

TD Statistique et probabilits

qui est quivalente :




1 p1
p0
+ ln
ln
p1
1 p0


n

xi k1

i=1


Comme p0 < p1 et 1 p1 < 1 p0 , on obtient la condition ni=1 xi k2 . On peut
dfinir galement la rgion critique laide de la moyenne empirique, qui est un
estimateur sans biais du paramtre tester p et dont on pourra dterminer la loi
asymptotique. Cest lensemble des points (x1 , . . . , xn ) tels que :
xn C
La valeur de la constante C, qui est le seuil critique de ce test, est dfinie partir
du risque de premire espce, soit :


= P X n C|p = 0,48
Si on utilise la loi asymptotique, dduite du thorme central limite, la v.a. X n
suit approximativement une loi normale desprance p0 et de variance p0 q0 /n avec
q0 = 1 p0 . On obtient donc une valeur approche de C par la condition :


C p0
=P U 3
p0 q0 /n
o U est une v.a. de loi N (0, 1). Ainsi, u dsignant le fractile dordre 1 de cette
loi, la rgion critique est dfinie par la condition :
.
xn p0 + u

p0 q0
n

Pour = 0,10 on lit dans la table 2, page 195, le fractile u = 1,281 6 et le seuil
critique pour n = 100 est alors C = 0,48 + 1,281 6/20 = 0,544. En dpit dun risque
de rejet de lhypothse nulle assez lev puisque = 10 %, on ne rejette lhypothse
p = 48 % que si plus de 54,4 % des personnes interroges dclarent vouloir voter
pour ce candidat, valeur bien suprieure p1 = 52 %. Ceci sexplique par une
taille dchantillon trop faible pour sparer deux hypothses voisines de 50 %. La
puissance de ce test se calcule par :




C

p
1
= P X n C|p = p1 $ P U 3
p1 q1 /n

Les valeurs de p0 et p1 tant proches de 1/2, on peut remplacer C par p0 + u/2 n


et on calcule alors une valeur approche de la puissance par la probabilit :



= P U u + p0 p1 2 n


ou = 1 u 0,08 n , dsignant la f.r. de la loi N (0, 1). Pour n = 100, on
obtient = 0,544, soit un risque de seconde espce lev = 0,456. Le risque de
premire espce tant fix, la puissance augmentera si la rgion critique sagrandit,

TD 8 Thorie des tests

143

cest--dire si le seuil C diminue, ce qui se produira en augmentant la taille de


lchantillon. Le tableau suivant fournit les diffrents seuils et puissances pour les
tailles dchantillon proposes :
n

100

500

1 000

0,544

0,509

0,500 3

0,544

0,695

0,894

b) La rgion critique, de ce test est dfinie par :

xn 0,49 + u/2 n


Sa puissance est calcule approximativement par = 1 u 0,04 n . Pour
que cette puissance
soit suprieure
0,90, il faut que la taille dchantillon vrifie

1,281 6 0,04 n < 1,281 6, soit n > 64,08 ou n 4 107. Pour cette valeur
leve de n, on obtient lgalit des risques = = 0,10 et un seuil critique
C = 0,50 quidistance des deux hypothses. Il faut donc environ quatre fois plus
dobservations que pour le test prcdent afin de sparer ces deux hypothses,
encore plus proches, avec les mmes risques.

14  La vraisemblance scrit :



n
1 
1
2
L (x1 , . . . , xn ; m) = exp 2
(xi m)
2
2
i=1

La forme de la rgion critique, donne par le thorme de Neyman et Pearson, est


L0 /L1 k, ce qui en passant aux logarithmes conduit lingalit :

n
*
1 '
(xi 2)2 (xi 3)2 ln k
2
2
i=1

Dunod. La photocopie non autorise est un dlit.

Elle est quivalente, aprs dveloppement du crochet, :


2

n


xi + 5n 22 ln k

i=1

Pour linstant, on cherche seulement dterminer la forme de la rgion critique et


lexpression des constantes qui apparaissent
dans cette ingalit est sans intrt.

On remplace donc cette ingalit par ni=1 xi k1 , qui lui est quivalente. La
rgion critique est donc dfinie partir de la valeur de la somme des observations.
Cependant, comme cest la loi de la moyenne empirique X n qui est connue, il est
prfrable de faire intervenir cette moyenne dans la dfinition de la rgion critique
W, qui sera donc lensemble des points (x1 , . . . , xn ) tels que :
xn C
Il reste prciser la valeur de cette constante C, qui sera le seuil de cette rgion,
partir du risque de premire espce qui est fix. Il reprsente la probabilit de

144

TD Statistique et probabilits

cette rgion, lorsque lhypothse nulle est ralise, et par consquent, la condition
qui dfinit C scrit :


= P (W|m = 2) = P X n C|m = 2


Sous H0 , la moyenne empirique X n suit la loi N 2, 2/ n , donc en centrant et
rduisant on obtient la condition :


C2
=P U
2/ n
o U est une v.a. de loi N (0, 1). Ainsi la constante C est dfinie par :
u
C = 2 + 2
n
o u est le fractile dordre 1 de la loi N (0, 1). Pour un risque = 0,05, on lit
dans la table 2, page 195, le fractile u = 1,644 9, do une rgion critique dfinie
pour n = 100 par :
W = {(x1 , . . . , x100 ) /x100 2,33}
Dans ce cas, la puissance du test est la probabilit de cette rgion dans lhypothse
alternative, soit :



2,33 3

= P X100 2,33|m = 3 = P U
= 0,996
2/ 100


On obtient ainsi un risque de seconde espce de valeur = 0,004 trs infrieure


celle du risque de premire espce, ce qui est contraire loptique de Neyman et
Pearson qui a permis de btir ce test. Si on veut que, plus logiquement, , il faut
choisir une valeur plus faible pour . Si on retient par exemple = 0,001, le fractile
dordre 0,999 est u = 3,090 2, soit C = 2,62. La puissance est alors = 0,971 9, donc
= 0,028 1 est bien cette fois suprieur , ce qui est plus cohrent.
Pour un risque = 0,05, la condition 0,95 conduit choisir une taille
dchantillon n telle que :



u
n

= P Xn 2 + 2 |m = 3 = P U u
0,95
2
n


ce qui est quivalent 1,644 9 n/2 1,644 9, soit n 6,6, donc une taille
dchantillon suprieure n0 = 44 pour laquelle on aura = 0,05 = avec
C = 2,5 seuil quidistant des deux hypothses. Si on choisit une taille dchantillon
suprieure n0 , ce qui tait le cas ici, le risque diminue et devient infrieur
= 0,05, ce qui est contraire loptique dans laquelle a t construit
ce test. La

condition 0,99 impose de choisir n tel que cette fois 1,644 9 n/2 2,326 3,
soit n 64. On avait dailleurs obtenu = 0,996 pour n = 100.

TD 8 Thorie des tests

145

15  La mthode de Neyman et Pearson conduit la mme rgion critique que


dans lexercice prcdent. Mais cette fois il nest pas possible de dterminer le
seuil C car la loi de X n dpend du paramtre inconnu . On fait donc intervenir

1 n 
2 de la variance 2 et la variable
lestimateur sans biais S2n =
i=1 Xi Xn
n 1



centre et rduite n X n m / est remplace par la statistique n X n m /Sn
qui suit une loi de Student n 1 degrs de libert. La rgion critique W est donc
lensemble des points (x1 , . . . , xn ) tels que :
xn 1
n
C
sn
o la valeur du seuil C est dtermine par la condition :


X n m
n
C|m = 1
=P
Sn
cest--dire que C est le fractile dordre 1 de la loi de Student n 1 degrs de
libert. Pour un risque = 0,05 et n = 25, on lit dans la table 6 le fractile C = 1,711,
do une rgion critique dfinie par :
W = {(x1 , . . . , x25 ) / x25 1 + 0,34s25 }
La puissance
alternative,

reprsente


 la
4 probabilit de cette
rgion
4
 dans lhypothse

soit = P n X n 1 Sn C|m = 2 = P n X n 2 Sn C n/Sn . La


4

v.a. n X n 2 Sn suit une loi de Student n 1 degrs de libert, mais on ne
peut pas calculer cette probabilit car la borne de lintervalle dpend de Sn qui est
une variable alatoire.

16  Pour effectuer ce test, nous disposons dun chantillon dune loi normale

desprance 16 et dcart type = 1 sous H0 et = 2 sous H1 . Le rapport des


vraisemblances a donc pour expression :
 n

n
n
L0
1
1
3
2
2
n
= 2 exp
(xi 16)
(xi 16) = 2n exp
(xi 16)2
L1
8
2
8

Dunod. La photocopie non autorise est un dlit.

i=1

i=1

i=1

La rgion critique est donc dfinie par le thorme de Neyman et Pearson comme
lensemble des points (x1 , . . . , xn ) tels que :
n


(xi 16)2 C

i=1


o C est le fractile dordre 1 de la loi 2n suivie par ni=1 (Xi 16)2 sous
lhypothse nulle. Pour = 0,05, on lit dans la table 5, page 199, par interpo
2
lation pour n = 76, la valeur C = 97. Les observations donnent 76
i=1 (xi 16) =
2
17 195 32 1 140 + 76 16 = 171, ce qui conduit refuser lhypothse nulle
= 1. Linterversion des hypothses change le sens de lingalit, la rgion critique
tant dfinie par :
n

i=1

(xi 16)2 C

146

TD Statistique et probabilits


Mais cette fois cest la variable ni=1 (Xi 16)2 /4 qui suit une loi 2n sous H0 et
cest donc C/4 qui est le fractile dordre de cette loi. Pour = 0,05, on dduit
de la table 5, page 199, par interpolation pour n = 76, la valeur C = 227. On
refuse donc nouveau lhypothse nulle, qui est cette fois = 2. Lexpression des
deux rgions critiques nous montre que pour toutes les observations telles que

2
97 < 76
i=1 (xi 16) < 227 linterversion des hypothses entranera linterversion
des conclusions. Ceci sexplique par la remarque quil sagit dune rgion de
probabilit trs faible, quelle que soit lhypothse retenue, puisque :

P

76



(Xi 16) > 150| = 1 $ 0
2

i=1

et :
P

76



(Xi 16) < 180| = 2 $ 0,002 6
2

i=1

17  Le paramtre reprsentant la plus grande valeur possible de la variable X

de loi uniforme sur [0, ], lestimateur de bas sur un n-chantillon de cette loi
sera la plus grande valeur observe, soit Mn = max {Xi /1 i n}. Bien entendu,
on rejettera lhypothse nulle H0 : = 1 si on observe Mn > 1. La forme de
la rgion critique est donc Mn > C, la valeur de C 1 tant dtermine par
= P (Mn > C| = 1) ou 1 = P (Mn C| = 1) = Cn , soit C = (1 )1/n . Pour
= 0,05 et n = 5, on obtient C = 0,99 ; donc on accepte bien ici lhypothse = 1.

18  La valeur du paramtre tant plus petite dans lhypothse alternative, on


acceptera donc celle-ci pour les plus petites valeurs de lestimateur, do une rgion
critique de la forme Tn < C, la valeur de C tant dtermine par :


2n + 1
= P (Tn < C| = 1) = P Mn <
C| = 1
n+1
La loi de Mn est obtenue par P (Mn < x) = Fn (x) o F est la f.r. de la loi uniforme
sur [, 2], dfinie par :

0
si x

x
F (x) =
1 si x 2

1
si 2 x
On obtient donc :

=

n
2n + 1
C1
n+1

Soit la rgion critique dfinie par :


Mn < 1 + 1/n

TD 8 Thorie des tests

147

La puissance de ce test se calcule par :




= P Mn < 1 + 1/n | = 0,9 =

n
1 + 1/n
1
0,9

La rgion critique prcdente tant indpendante de la valeur = 1 dans


lhypothse alternative, avec seulement la condition 1 < 1, est aussi celle du
test dalternative H1 : < 1. Cependant, cette alternative tant une hypothse
multiple, on ne peut pas calculer la puissance de ce test.

19  On introduit ici une variable de Bernoulli, indicatrice dune naissance masculine, de paramtre p. Nous avons vu dans lexercice 4, page 127, que le rapport
des vraisemblances conduit une rgion critique dfinie par :

 n
p0
1 p1 
ln
+ ln
xi k
p1
1 p0
i=1


avec ici p0 = 0,50 et p1 = 0,48, donc de faon quivalente ni=1 xi C. La constante
C est dfinie par :
 n



C
=P
Xi C|H0 = P X n |p = 0,5
n
i=1

Dunod. La photocopie non autorise est un dlit.

On utilise la3
loi approche
de Xn , qui est la loi normale de paramtres p = 0,5 et
dcart type pq/n = 1/2 n. Donc, en centrant sur 1/2 et en rduisant, on obtient
comme valeur approche du seuil critique :

n
n
C= +u
2
2
o u est le fractile dordre de la loi N (0, 1) et le risque de premire espce
retenu. Pour = 0,05, le fractile est u = 1,644 9, donc pour n = 900, on obtient
C = 425, ce qui conduit ici retenir lhypothse nulle p = 50 %, ce qui parat
logique puisquon a observ 52 % de naissances masculines dans cet chantillon.
Cependant, le calcul de la puissance va permettre de juger de la qualit de ce test :
 n





C
C/n

0,48
=P
Xi C|H1 = P X n |p = 0,48 $ P U 3
n
0,48 0,52/n
i=1
soit ici comme valeur approche (0,467) = 0,32 o est la f.r. de la loi N (0, 1).
Il y a donc 68 chances sur 100 daccepter lhypothse p = 0,50 dans le cas o
p = 0,48. Le risque de seconde espce est trs lev.
Suivant que p1 < 0,5 ou p1 > 0,5, la rgion critique sera de la forme xn < k1 ou
xn > k2 . On retient donc pour lalternative p  = 0,5 une rgion critique symtrique
par rapport lhypothse nulle, donc dfinie par :
|xn 0,5| > C


o C est dfinie par = P -X n 0,5- > C|H0 donc de valeur approche u/2 n
o u est le fractile dordre 1 /2 de la loi N (0, 1). Pour = 0,05, on lit u = 1,96 et

148

TD Statistique et probabilits

C = 0,033. Pour lobservation x900 = 0,52, on retient nouveau lhypothse p = 0,5.


Cependant, lautre risque derreur a pour expression :


= P 0,467 < X n < 0,533|p = 0,48


0,467 0,48
0,533 0,48
=P
n
<U< n
0,48 0,52
0,48 0,52
soit = 0,78 valeur encore plus leve que dans le test prcdent. Il serait plus
logique ici de retenir comme alternative p > 0,5, la rgion critique tant alors
dfinie par x900 > 0,527 5. On accepterait encore lhypothse p = 0,5.

20  Daprs ce qui a t obtenu dans lexercice 6, page 128, la rgion critique du


test entre les hypothses :

H0 : m = 560
H1 : m = m1
avec m1 < 560 est lensemble des points (x1 , . . . , xn ) tels que :
xn 560
n
C
sn
La constante C est dfinie par la condition :


X n 560
=P
n
C|m = 560
Sn
cest--dire que cest le fractile dordre de la loi de Student 199 degrs de
libert. Pour = 0,01, on litdans la table 6, page 200, le fractile C = 2,345. Pour
cet chantillon, on obtient 200 (x200 560) /s200 = 6,40, valeur trs infrieure
au seuil critique ; donc on rejette lhypothse nulle, bien que le risque ait t
choisi trs faible. Comme la rgion critique est indpendante de la valeur de m1 ,
pourvu que m1 < 560, ce test qui est de puissance maximum daprs le thorme
de Neyman et Pearson est un test UPP pour lalternative m < 560. On ne peut pas
calculer sa puissance, qui est dfinie par :




X n 560
X n m
560 m
=P
n
C|m < 560 = P
n
C+ n
Sn
Sn
Sn
4

En effet, si la loi de n X n m Sn est connue, loi de Student n 1 degrs de
libert, la borne de lintervalle dpend de Sn , qui est une v.a. On va donc tester
lhypothse = 10, quivalente 2 = 100, contre lalternative 2  = 100. On utilise
pour cela la variance empirique et la rgion dacceptation de lhypothse nulle de
ce test est de la forme :
2
n 

Xi X n
a<
<b
100
i=1

rgion de probabilit 1 . Donc a et b sont respectivement les fractiles dordre /2


et 1 /2 de la loi du khi-deux n 1 degrs de libert. Pour n = 200, on utilise

TD 8 Thorie des tests

149

lapproximation par la loi N (0, 1) de la loi de 2Y 2 1 avec Y de loi 2 et



2
ici = n 1. On obtient a = 150,49 et b = 253,14. Comme 200
i=1 (xi x200 ) /100 =
179,60, on accepte lhypothse = 10 et on est ramen un problme de test de la
moyenne dune loi normale dcart type connu. La rgion critique est alors dfinie
par :
xn 560
n
C
10
et C est le fractile dordre de la loi N (0, 1). Pour = 0,01, on lit C = 2,326 3 et la
rgion critique est dfinie par xn < 558,36. La fonction puissance est alors dfinie
en fonction de m par :


X n m
560 m
=P
n
C+ n
10
10


=

'

*
2 (558,36 m)

o est la f.r. de la loi N (0, 1).

21  On effectue le test entre les hypothses simples :



H0 : m = m0
H1 : m = m1
pour une v.a. X de loi N (m, ) avec lcart type connu = 1. Le thorme de
Neyman et Pearson conduit une rgion critique dfinie par :
(m0 m1 )

25


xi k

Dunod. La photocopie non autorise est un dlit.

i=1

La forme de la rgion critique de ce test, de puissance maximum, ne dpend pas


de la valeur prcise de m1 , mais de sa position par rapport m0 = 1. Ainsi, pour le
test de :

H0 : m = 1
H1 : m > 1
toutes les valeurs de m correspondant lalternative sont suprieures m0 ; donc
la rgion critique du test prcdent est toujours la mme et on a obtenu un test
UPP :
W1 = {(x1 , . . . , x25 ) / x25 C}
o C est dfini par :


= P (W1 |H0 ) = P X 25 C|m = 1 = P {U 5 (C 1)} = 1 {5 (C 1)}
avec U v.a. de loi N (0, 1), de f.r. . Le seuil de ce test est donc C = 1 + u/5,
o u est le fractile dordre 1 de la loi N (0, 1). Pour = 0,05, on lit dans la
table 2, page 195, le fractile u = 1,644 9 et on obtient C = 1,33. Sur cet chantillon

150

TD Statistique et probabilits

on a observ x25 = 1,21 ; donc on accepte lhypothse nulle dun bon rglage. La
fonction puissance de ce test est dfinie par :


1 (m) = P (W1 |H1 ) = P X 25 C|m > 1
= P {U 5 (C m)} = 1 {u 5 (m 1)}
Pour le test de :


H0 : m = 1
H1 : m < 1

on obtient aussi un test UPP de rgion critique :


W2 = {(x1 , . . . , x25 ) /x25 C}
avec toujours C = 1 + u/5, mais cette fois u tant le fractile dordre de la loi
N (0, 1). Pour = 0,05, on a donc u = 1,644 9 et C = 0,67, lhypothse nulle tant
bien sr toujours accepte. La fonction puissance de ce test est dfinie pour m < 1
par :
2 (m) = {u + 5 (1 m)}
Pour le test de :


H0 : m = 1
H1 : m  = 1

on ne peut pas cette fois dduire la forme de la rgion critique de celle du test entre
les hypothses simples, car elle dpend de la position inconnue de m par rapport
1. On va retenir une rgion critique qui sera lunion des prcdentes, cest--dire
dfinie par x25 C1 ou x25 C2 , mais qui ne sera pas celle dun test UPP. En raison
de la symtrie de la statistique de test et de lalternative, on retient comme rgion
critique :
W = {(x1 , . . . , x25 ) / |x25 1| C}
o C est dfinie par :

 = P (W|H0 ) = P -X 25 1- C|m = 1 = P (|U| 5C) = 2 [1 (5C)]
Donc C = u/5 o u est le fractile dordre 1 /2 de la loi N (0, 1). Pour = 0,05, on
lit u = 1,96 et C = 0,392, soit une rgion critique dfinie par x25 0,61 ou x25 1,39
et une nouvelle fois on accepte lhypothse nulle. La fonction puissance de ce test
est dfinie pour m quelconque par :
(m) = 1 {u + 5 (1 m)} + {5 (1 m) u}
Le graphe des trois fonctions puissances sur la figure 8.1, page ci-contre, montre
bien que ce dernier nest pas UPP puisque 1 (m) (m) pour m > 1 et 2 (m)
(m) pour m < 1.

TD 8 Thorie des tests

151

1 (m)

2 (m)

(m)

0,05
0

Figure 8.1

22  Les variables indicatrices de notorit de la marque Omopaic sont X et Y

Dunod. La photocopie non autorise est un dlit.

respectivement avant et aprs la campagne, de paramtres p1 et p2 . On dispose


dchantillons de ces deux lois, deffectifs respectifs n1 = 2 000 et n2 = 1 000, pour
effectuer le test :


H0 : p1 = p2
H0 : p1 p2 = 0

H1 : p1 p2 < 0
H1 : p1 < p2
Les moyennes empiriques X et Y de ces deux chantillons permettent de dfinir
lestimateur sans biais X Y du paramtre tester = p1 p3
2 . Sa loi approche
est une loi normale desprance et dcart type inconnu = p1 q1 /n1 + p2 q2 /n2
o q1 = 1 p1 et q2 = 1 p2 . Sous lhypothse nulle, on estime la valeur commune
p = p1 = p2 par la runion des deux chantillons :
n

n2
1


1
n1 X + n2 Y
/
=
Xi +
Yi
p=
n1 + n2
n1 + n2
i=1

i=1

Cet estimateur permet aussi destimer dans ce cas lcart type :


 

= p 1 p (1/n1 + 1/n2 )
On effectue alors le test laide de la v.a. normalise :
X Y
/
=  

/
p 1 /
p (1/n1 + 1/n2 )
dont on peut admettre, compte tenu des tailles dchantillon leves, quelle suit
approximativement une loi normale standard dans lhypothse nulle. La rgion

152

TD Statistique et probabilits

critique est dfinie par /


< C, o on retient comme valeur approche de C le fractile
dordre de la loi N (0, 1) pour un risque de premire espce fix. Pour = 0,05,
la rgion critique est dfinie 
par /
< 1,644 9 et on obtient pour cet chantillon


x = 0,19, y = 0,23, /
p = 0,203, /
p 1 /
p (1/n1 + 1/n2 ) = 0,015 6 et /
= 2,57, donc
on accepte lhypothse de lefficacit de la campagne. Pour un risque plus faible
= 0,01, le seuil critique est C = 2,33 et lhypothse nulle est encore rejete.

23  Les dures de vie des ampoules des marques 1 et 2 sont respectivement les

v.a. X et Y de lois respectives N (m1 , 1 ) et N (m2 , 2 ), ces quatre paramtres tant


inconnus. Le test effectuer est :


H0 : m1 = m2
H0 : m1 m2 = 0

H1 : m1 m2  = 0
H1 : m1  = m2

et utilise pour cela lestimateur sans biais X Y de m1 m2 . Cet estimateur suit


une loi normale centre sous H0 , mais de variance inconnue 21 /n1 + 22 /n2 , o n1
et n2 sont les effectifs des chantillons respectifs des lois de X et Y. On utilise donc
les estimateurs sans biais de 21 et 22 qui sont respectivement :
1

2
1 
Xi X
=
n1 1

S21

2

2
1 
Yi Y
=
n2 1

et

S22

i=1

i=1


Si on remplace lcart type inconnu par son estimateur S21 /n1 + S22 /n2 pour rduire
on nobtiendra pas une loi de Student. Il faut pour cela que lcart type des
X Y,
deux chantillons soit le mme, donc on doit faire un test pralable dgalit des
variances :

H0 : 21 = 22
H1 : 21  = 22
On accepte lhypothse nulle si le rapport S21 /S22 est voisin de 1, soit une rgion
dacceptation de la forme :
a<

S21
<b
S22

Les valeurs des constantes a et b sont dfinies par :






S21
S21

= P 2 < a|H0 = P 2 > b|H0


2
S2
S2
avec S21 /S22 qui suit une loi F (n1 1, n2 1) sous H0 . Pour = 0,10, on lit dans
1
la table 7, page 201, le fractile a =
= 0,46 et on obtient par interpolation
2,18
b = 2,50. La valeur calcule de S21 /S22 pour cet chantillon est 0,55, donc on accepte

TD 8 Thorie des tests

153

lgalit des variances. On retient alors comme estimateur sans biais de la variance
commune 2 = 21 = 22 :
S2 =

(n1 1) S21 + (n2 1) S22


n1 + n2 2

La rgion critique du test initial est alors dfinie par :


-X Y 3
>t
S 1/n1 + 1/n2
o t est dtermin par :
+
=P

-X Y -

3
> t|H0
S 1/n1 + 1/n2

donc est le fractile dordre 1 /2 de la loi de Student n1 + n2 2 degrs de


libert. Pour = 0,05, on lit dans la table 6, page 200, le fractile t = 2,028. Pour cet
chantillon, on observe s2 = 77 081,06 et :
x y
92
3
=
= 0,97
94,93
s 1/n1 + 1/n2
Donc on accepte lgalit des moyennes de ces deux lois.

24  Dans

Dunod. La photocopie non autorise est un dlit.

lhypothse nulle dindpendance des deux caractristiques de ces


candidats au baccalaurat, le tableau est obtenu partir du produit des effectifs
marginaux. Par exemple, le nombre dtudiants ayant russi en section L serait
154 62
dans ce cas
, arrondi 33 puisquil sagit deffectifs entiers. On aboutit
286
ainsi au tableau suivant :
L

ES

Total

Russite

33

51

70

154

chec

29

44

59

132

Total

62

95

129

286

La rgion critique est de la forme Dn C o C a comme valeur approche le fractile


dordre 1 de la loi du khi-deux deux degrs de libert, pour un test de risque
de premire espce . Pour = 0,05, on lit dans la table 5, page 199, la valeur
C = 5,991. La valeur de la statistique utilise pour ce test est ici :
Dn =

(41 33)2
(59 51)2
(54 70)2
+
+
33
51
70
(21 29)2
(36 44)2
(75 59)2
+
+
+
29
44
59

soit Dn = 14,85 ; donc on rejette lhypothse dindpendance.

154

TD Statistique et probabilits

800
= 4, donc on teste
200
ladquation une loi de Poisson de paramtre = 4. La table 4, page 198,
nous permet de calculer les effectifs thoriques en multipliant les probabilits
individuelles par 200 et en arrondissant. Par exemple pour x = 1, la probabilit
vaut p1 = 0,073 3, soit un effectif thorique np1 = 14,66 arrondi 15. On obtient
ainsi le tableau des deux distributions, empirique et thorique :

25  La moyenne empirique de cette distribution vaut

Nombre de voitures

10

11

Effectif observ

15

30

46

38

30

16

13

Effectif thorique

15

29

39

39

31

21

12

Les effectifs des valeurs extrmes tant infrieurs 5, on regroupe les deux premires et les quatre dernires valeurs. Il reste donc seulement huit classes de valeurs
et comme le paramtre de la loi thorique retenue a t estim, la statistique qui
dfinit la rgion critique Dn C suit approximativement une loi du khi-deux six
(8 1 1) degrs de libert. Pour = 0,05, le seuil critique est le fractile dordre
0,95 de cette loi, soit C = 12,6. La valeur observe ici est :
Dn =

49
1
1
25
1
1
(16 19)2
(30 29)2
+
+
+
+
+
+
+
= 3,196
19
29
39 39 31 21 12 10

donc on retient comme loi thorique la loi P (4) pour la v.a. X qui reprsente le
nombre de voitures qui arrivent par minute ce poste de page.

26  Sion considre que le nombre de dfectueux est une v.a. X de loi binmiale

B 20, p , on estime le paramtre p partir de la moyenne empirique x200 = 2,01 et


on retient p = 0,1. Les probabilits individuelles pi lues dans la table 3, page 197,
de la loi binmiale B (20 ; 0,1) permettent de calculer les effectifs thoriques npi ,
arrondis en valeurs entires. Par exemple, pour la valeur x = 0, on lit p0 = 0,121 6,
soit np0 = 24,32 arrondi 24. On obtient ainsi le tableau des deux distributions,
empirique et thorique :
Nombre de dfectueux

Nombre de lots

26

52

56

40

20

Effectif thorique

24

54

57

38

18

On regroupe les trois dernires valeurs pour obtenir un effectif thorique suprieur
cinq. La rgion critique est de la forme Dn C. La loi asymptotique de la
statistique Dn est une loi du khi-deux quatre degrs de libert car il y six classes
de valeurs distinctes retenues et un paramtre estim. Pour = 0,05, la valeur de
C est le fractile dordre 0,95 de la loi 24 , soit C = 9,5. La valeur observe ici est :
Dn =

1
4
4
9
(26 24)2
(52 54)2
+
+
+
+
+ = 1,59
24
54
57 38 18 9

TD 8 Thorie des tests

155

Donc on accepte comme loi thorique la loi binmiale B (20 ; 0,1). Pour = 0,10,
la conclusion serait identique puisque le seuil serait C = 7,8.
La valeur retenue pour p tant ici trs faible, on pourrait aussi considrer que
la prsence dune pice dfectueuse est un vnement rare susceptible dtre
modlis par la loi de Poisson. La variance empirique a pour valeur 1,98 trs
proche de celle 2,01 de la moyenne empirique, ce qui conforte cette possibilit. On
va donc calculer les effectifs thoriques associs une loi de Poisson P (2) :
Nombre de dfectueux

Nombre de lots

26

52

56

40

20

Effectif thorique

27

54

54

36

18

On regroupe encore les trois dernires valeurs et on obtient Dn = 3,13, valeur un


peu plus leve que dans le cas de la loi binmiale, mais on peut galement retenir
cette loi thorique.

Annales corriges
Universit
Panthon-Assas,
Paris II

SUJETS D'EXAMEN

LICENCE CONOMIE ET GESTION, 2e ANNE


Septembre 2007
Dunod. La photocopie non autorise est un dlit.

1. Deux vnements A et B ont comme probabilits respectives 1/4 et 1/3 de se


raliser seuls (lun et pas lautre). Sachant que la probabilit que lun ou lautre se
ralise est de 3/4, prciser sils sont indpendants ou non.

2. Quatre joueurs A, B, C et D tirent successivement et sans remise une carte dun


lot de 6 cartes numrotes de 1 6. Si un joueur tire une carte paire, il a gagn et
le jeu sarrte.
a) Calculer la probabilit de gain de chaque joueur.
b) Soit N la v.a. qui reprsente le nombre de tirages effectus lissue de ce jeu.
Calculer E (N) .

3. La loi dune v.a. X est dfinie par P (X = n) = n1 n +1 1 pour tout entier n  1 .


Calculer P (X < n) pour tout entier n , puis E (X) .

158

4.

TD Statistique et probabilits

a) Soit X une v.a. de loi normale, telle que P (X < 2) = 0,3085 et



P (X < 2) = 0,9332 . Trouver le nombre rel a tel que P X2 + 2X < a = 0,975 .

b) Soit U une v.a. de loi normale centre et rduite et V une v.a. qui suit une loi
du khi-deux 16 degrs de libert. Ces deux v.a. tant indpendantes, trouver le

nombre rel b tel que P


U
< b = 0,975 .
V

5. On effectue deux tirages successifs sans remise dans une urne qui contient 3
boules noires et 2 boules rouges. On note X la v.a. qui reprsente le nombre de
boules rouges tires et Y la v.a. qui vaut 1 si on tire une boule noire au premier
tirage et 0 sinon. Dterminer la loi de probabilit du couple (X, Y) puis calculer
cov (X, Y) . Les v.a. X et Y sont-elles indpendantes ?

6. Soit X une v.a. de loi normale desprance et de variance (1 ) , o est


un paramtre rel inconnu, avec 0 < < 1 .
a) partir dun chantillon (X1 , ..., Xn ) de X dterminer deux estimateurs Tn et
Tn de par la mthode des moments, en utilisant les moments non centrs
dordres 1 et 2. tudier leurs proprits.
b) Comparer ces 2 estimateurs et indiquer celui quil faut choisir. Lun deux est-

il efficace ? On donne V X2 = 22 1 2 .

7. Soit X une v.a. de densit :


f (x; ) =

0
e(x)

si x <
si  x

o est un paramtre rel inconnu.


a) Calculer E (X) .
b) partir dun chantillon (X1 , ..., Xn ) de X dterminer un estimateur Tn de
par la mthode des moments et tudier ses proprits.
c) Dterminer la loi limite de Tn quand n devient infini et en dduire un intervalle
de confiance bilatral symtrique de niveau voisin de 1 pour , dans le cas
o on a observ un chantillon de taille suprieure 100. On donne V (X) = 1 .

8. Soit (X1 , ..., Xn ) un chantillon dune v.a. X de densit :


2
3x
3
f (x; ) =

0

si 0  x 
sinon

o est un paramtre rel inconnu strictement positif.


a)

Dterminer

la

Mn = max {X1 , ..., Xn } .

fonction

de

rpartition

de

X,

puis

celle

de

TD 9 Annales corriges Universit Panthon-Assas, Paris II

159

b) Reprsenter lallure gnrale du graphe de la vraisemblance L (x1 , ..., xn ; )


pour (x1 , ..., xn ) fix et variant. En dduire lestimateur du maximum de vraisemblance, puis un estimateur sans biais Tn du paramtre . Est-il efficace ?
c) Dterminer en fonction de 1 et 2 les rels t1 et t2 compris entre 0 et 1 qui vrifient les deux conditions :

1 = P (Mn < t1 ) et 2 = P (Mn > t2 )


En dduire un intervalle de confiance bilatral symtrique de niveau 1 pour .

Mai 2007

1. Un magasin souhaite squiper dun dtecteur de faux billets de 500 euros. On


note p la probabilit quun dtecteur repre effectivement un billet qui est faux.
a) On prsente 100 faux billets un dtecteur bon march et seulement 80 dentre
eux sont dtects. Construire un intervalle de confiance pour p , de niveau
1 = 0,95, laide dun abaque puis en utilisant une approximation que lon
justifiera, si lon ne disposait pas de cet abaque.
b) Ce caissier prsente nouveau 50 faux billets un dtecteur plus sophistiqu
qui les a tous dtects. Construire laide dun abaque un intervalle de confiance
de niveau 1 = 0,95 pour le paramtre p associ ce dtecteur. Quelle
approximation pourrait-on utiliser ici si lon ne disposait pas de cet abaque ?

2. Soit X une v.a. de loi normale desprance et de variance 2 , o est un


paramtre rel inconnu strictement positif.
a) tudier les proprits de lestimateur Xn construit partir dun chantillon
(X1 , ..., Xn ) de X .
b) tudier les proprits de lestimateur sans biais Tn de construit partir de la
variance empirique modifie :

2
1

Xi Xn
n1

Dunod. La photocopie non autorise est un dlit.

S2n =

i=1

c) Comparer les estimateurs Tn et Xn et indiquer celui quil faut choisir. Lun


deux est-il efficace ?

3. Une tude statistique effectue pour la chane de magasins Farrecour a tabli


que le bnfice mensuel moyen du magasin i, 1  i  n , pouvait tre reprsent
par une v.a. de loi normale desprance mi et de variance 2 , ces valeurs tant
dtermines par ltude. Une campagne publicitaire nationale a conduit une
augmentation du bnfice. Pour estimer ce paramtre rel inconnu , on
observe sur une certaine priode les nouveaux bnfices mensuels moyens de
chaque magasin i, 1  i  n , reprsents cette fois par une v.a. Xi de loi normale
desprance mi + et de variance 2 .

160

TD Statistique et probabilits

a) Dterminer un estimateur Tn de par la mthode du maximum de vraisemblance. tudier ses proprits. Est-il efficace ?
b) Dterminer un intervalle de confiance bilatral symtrique de niveau 1
pour . Application : 2 = 1 ,

36

i=1 (xi

mi ) = 270 et 1 = 0,95.

Janvier 2007

1. Dans une certaine population, la probabilit de naissance dun garon est de


4/7. Dterminer la proportion de familles de trois enfants o les enfants ne sont
pas tous du mme sexe, en prcisant lensemble fondamental retenu pour
modliser ce problme.

2. Soit p la proportion de bovins dun dpartement franais atteints de la maladie ESB ( vache folle ). On utilise un test de dpistage qui se rvle positif avec
une probabilit 1 si lanimal est effectivement malade et avec une probabilit
si lanimal est sain.

a) Dterminer la probabilit p quun animal pris au hasard dans ce dpartement soit effectivement malade, sachant que le test sest rvl positif.

b) On suppose partir de maintenant que = . Dterminer p puis calculer


() . Commenter le rsultat.
c) Calculer la valeur de (0,005) pour = 0,02 , puis pour = 0,01 . Commenter
le rsultat.

3. La fonction de rpartition dune v.a. X est nulle pour x  3 et pour tous les
entiers n  3 a pour valeur :

F (x) = 1

1
2n2

si n < x  n + 1

Dterminer la loi de probabilit de X .

4. Soit X une v.a. de densit :

1 + 3 x2
f (x) = 4 4

si 1  x  1
sinon

a) Dterminer la densit de la v.a. Y = X2 .


b) Calculer E (Y) .

5. Soit X une v.a. de loi normale centre et rduite.


a) Dterminer la loi de probabilit des v.a. Y = 2X, X + Y, X + Y + Z avec
Z = 3X .
b) Calculer cov (X, Y) et V (X + Y + Z) .

TD 9 Annales corriges Universit Panthon-Assas, Paris II

161

Septembre 2006

1. On lance un d rouge et un d vert et on considre les vnements A obtenir un chiffre pair sur le d rouge , B obtenir un chiffre pair sur le d vert et
C la somme des chiffres obtenus est paire . Les vnements A, B et C sont-ils
indpendants deux deux ? dans leur ensemble ? On prcisera lensemble fondamental retenu pour modliser ce problme.

2. On effectue lexprience suivante sur la mmoire des rats. Un rat peut appuyer
sur lune des trois manettes places devant lui et dans un seul cas il recevra de la
nourriture. On note X la variable alatoire qui reprsente le nombre de tentatives
effectues par le rat jusqu ce quil obtienne de la nourriture.
a) Dterminer la loi de probabilit de X dans les 3 situations suivantes :
il choisit au hasard une manette chaque tentative (aucune mmoire) ;
il exclut la mauvaise manette choisie la tentative prcdente (mmoire
courte) ;
il exclut toutes les mauvaises manettes choisies aux tentatives prcdentes
(mmoire parfaite).
b) Calculer dans chacune de ces situations la probabilit quil fasse plus de 3 tentatives pour obtenir de la nourriture.

3. Soit X une v.a. de densit :

x
si 0  x  1

f (x) = 2 x si 1  x  2

0
sinon
a) Dterminer la fonction de rpartition de X et en dduire la mdiane de cette loi.
b) Calculer P {|X 1| < x} pour tout rel x .

Dunod. La photocopie non autorise est un dlit.

4. Soit (X, Y) un couple de v.a. de densit :



f x, y =

2 si 0  x  y  1
0 sinon

a) Dterminer les densits marginales de X et Y . Les v.a. X et Y sont-elles indpendantes ?


b) Dterminer les densits conditionnelles de X sachant que Y = y et de Y sachant
que X = x .

5. Pour connatre la proportion p dutilisateurs dinternet dans une rgion franaise, on effectue un sondage auprs de N personnes qui ont t tires au hasard
et avec remise dans un fichier des habitants de cette rgion qui est dcoupe en
deux zones rurale et urbaine. On tire donc deux sous-chantillons indpendants

les estimateurs
de tailles respectives n et m, avec n + m = N . On note Tn et Tm

162

TD Statistique et probabilits

associs de p . On retient comme estimateur construit sur lchantillon total




pN = aTn + bTm
. Dterminer le rel b en fonction du rel a pour que cet estimateur soit sans biais. Dterminer ensuite a pour que cet estimateur soit optimal.

6. Soit (X1 , ..., Xn ) un chantillon dune v.a. X de densit :

2x
f (x; ) = 2

si 0  x 
sinon

o est un paramtre rel inconnu strictement positif.


a) Calculer E (X) et V (X) .
b) Dterminer un estimateur Tn de par la mthode des moments. tudier ses
proprits. Est-il efficace ?
c) Dterminer un nouvel estimateur sans biais Tn de construit partir de
Mn = max {X1 , ..., Xn } . Comparer les estimateurs Tn et Tn et indiquer celui quil
faut choisir.

7.

Soit (X1 , ..., Xn ) un chantillon dune v.a. X de loi normale centre et de


variance , o est un paramtre rel strictement positif.

a) Dterminer un estimateur Tn de par la mthode des moments. tudier ses


proprits. Est-il efficace ?
b) Dterminer un intervalle de confiance de niveau 1 = 0, 95 pour .
Application :

50

2
i=1 xi

= 100.

Mai 2006

1.

Soit p la probabilit quune pice produite par une machine prsente un


dfaut grave.
a) On prlve au hasard 150 pices produites pour effectuer un contrle de qualit. Sachant que 6 dentre elles prsentent un dfaut grave, construire un intervalle de confiance pour p de niveau 0,95.
b) Une nouvelle machine est installe et sur 30 pices prleves au hasard aucune
ne prsente un dfaut grave. Donner un intervalle de confiance de niveau 0,95
pour ce nouveau paramtre p . Peut-on considrer que cette nouvelle machine est
de meilleure qualit ?

2. Soit (X1 , ..., Xn ) un chantillon dune v.a. X de densit :


f (x; ) =

e(x)

o est un paramtre rel inconnu.

si x >
si x 

TD 9 Annales corriges Universit Panthon-Assas, Paris II

163

n du maximum de vraisemblance du paramtre .


a) Dterminer lestimateur 
n est-il effib) Calculer la quantit dinformation de Fisher In () . Lestimateur 
cace ?

3. Pour connatre le budget mensuel consacr aux loisirs, on a effectu un sondage dans neuf villes franaises auprs de 100 mnages. On note X la variable
alatoire qui reprsente le budget loisir dun mnage tir au sort et Y celle qui
reprsente la moyenne dun chantillon de taille 100 de ces budgets dans une ville
donne. On dispose donc dun chantilllon (Y1 , ..., Y9 ) de cette v.a. Y .
a) Indiquer la loi quil est logique de retenir pour cette v.a. Y et en dduire alors
la loi de la moyenne empirique Y9 de lchantillon.
b) Dterminer un estimateur de chacun des paramtres m = E (X) et 2 = V (X) .
c) Dterminer un intervalle de confiance bilatral symtrique de niveau 1
pour m. Application :

i=1 yi

= 2709 ,

2
9
= 1800 et 1 = 0,95.
i=1 yi y9

Janvier 2006

1. Parmi les patients venus consulter un ophtalmologue, 10 % taient myopes,


20 % presbytes, les autres ayant une bonne vue, les proportions de ceux dclarant
souffrir de maux de tte tant respectivement de 90 %, 50 % et 5 %. Quelle est la
probabilit quun patient souffrant de maux de tte nait pas besoin de porter de
lunettes ?

Dunod. La photocopie non autorise est un dlit.

2. Soit X une v.a. de densit :


x

1
f (x) = 2

(3 x)

2
0

si 0  x  1
si 1  x  2
si 2  x  3
sinon

a) Dterminer la fonction de rpartition de X .


b) Calculer E (X) .

3.

Soit X une v.a. de loi normale, telle que P (X < 3) = 0,1587 et


P (X > 12) = 0,0228 . Calculer P (X > 0) puis trouver le nombre rel a tel que



P [X E (X)]2 < a = 0,975 .

4. On lance 2 boules qui tombent chacune au hasard dans lun des 2 tiroirs A ou
B. On note X la v.a. qui reprsente le nombre de boules tombes dans le tiroir A
et Y la v.a. qui reprsente le nombre de tiroirs non vides. Dterminer la loi de pro-

164

TD Statistique et probabilits

babilit du couple (X, Y) puis calculer cov (X, Y) . Les v.a. X et Y sont-elles indpendantes ?

Septembre 2005

1. Une urne contient trois boules rouges et deux boules noires. On effectue des
tirages successifs sans remise et on arrte ds quon a obtenu 2 boules rouges.
Prciser lensemble fondamental retenu pour modliser ce problme et calculer la probabilit de chaque vnement lmentaire.
2. Soit (X1 , ..., Xn ) des v.a. indpendantes et de mme loi que X de densit :


f (x) =

2 (1 x) si 0  x  1
0

sinon

Dterminer la densit de la v.a. Mn = max {X1 , ..., Xn } .

3.

Soit X une v.a. de loi normale, telle que P (X < 1) = 0,500 et


P (1,6 < X < 0,4) = 0,770 . Calculer P (X > 0) puis trouver le nombre rel a tel


que P X2 + 2X < a = 0,995 .

4. Soit (X, Y) un couple de v.a. de densit :



f x, y =

eyx

si y  x et 0  y  1

sinon

Dterminer les densits marginales de X et Y . Les v.a. X et Y sont-elles indpendantes ?

5. Un joueur participe une loterie o sa probabilit de gain est 1/ , avec > 1 .


Il joue jusqu ce quil ait gagn et on note X la v.a. qui reprsente le nombre de
tirages indpendants auxquels il a particip.
a) Dterminer la loi de probabilit de X et calculer E (X) .
b) partir dun chantillon (X1 , ..., Xn ) de X dterminer un estimateur Tn de
par la mthode des moments et tudier ses proprits.

6. Soit (X1 , ..., Xn ) un chantillon dune v.a. de loi normale desprance et de


variance 2 , o est un paramtre rel strictement positif. On pose :

Xi
n
n

Xn =

i=1

2
1

Xi Xn
n1
n

S2n =

i=1

Tn1 =

Xn
n
Sn

Dterminer partir de Tn 1 un intervalle de confiance bilatral symtrique de


niveau 1 = 0,95 pour dans le cas o n = 30 .

TD 9 Annales corriges Universit Panthon-Assas, Paris II

165

7. Soit (X1 , ..., Xn ) un chantillon dune v.a. X de densit :


f (x; ) =

x1 1
0

si 1  x
sinon

o est un paramtre rel inconnu strictement positif. Dterminer un estimateur


Tn de par la mthode du maximum de vraisemblance. tudier ses proprits.
Est-il efficace ?

Mai 2005

1. Soit p la probabilit quun systme dalarme se dclenche bon escient.


a) Sur 250 essais indpendants effectus dans une bijouterie il y a eu 240 dclenchements justifis de lalarme. Construire un intervalle de confiance pour p de
niveau 0,95 laide dun abaque, puis en utilisant une approximation que lon justifiera, si lon ne disposait pas de cet abaque.
b) Un nouvel quipement est install dans cette bijouterie et sur 30 essais indpendants effectus, tous ont provoqu un dclenchement justifi. Donner un
intervalle de confiance pour ce nouveau paramtre p de niveau 0,95. Peut-on
considrer que ce nouvel quipement est de meilleure qualit ?

2. Pour comparer deux modles de pse-lettre, nots A et B, on effectue des


peses successives indpendantes dune lettre de poids exact connu 100 g. On
note X la v.a. qui reprsente le poids affich par un pse-lettre.
a) Indiquer la loi quil est logique de retenir pour cette v.a. X et prciser alors le
paramtre qui peut servir dindicateur de qualit dun modle de pse-lettre.
Dterminer un estimateur Tn de construit partir dun chantillon (X1 , ..., Xn )
de X et tudier ses proprits.

Dunod. La photocopie non autorise est un dlit.

b) Pour le modle A on a effectu 30 peses indpendantes, les valeurs observes

30 2
= 3020 et
i = 1 xi = 315400 . Dterminer un
intervalle de confiance de niveau 1 = 0,95 pour .

x1 , ..., x30 conduisant

30

i = 1 xi

c) Pour le modle B on a effectu 50 peses indpendantes, les valeurs observes

50 2
= 4950 et
i = 1 yi = 510000 . Dterminer un
intervalle de confiance de niveau 1 = 0,95 pour le paramtre associ ce

y1 , ..., y50 conduisant

50

i = 1 yi

modle. Quel modle vous parat de meilleure qualit ?

3. Soit (X1 , ..., Xn )

un chantillon dune v.a. X de densit :

f (x; ) =

x1 1
0

si 0  x  1
sinon

o est un paramtre rel inconnu strictement positif.

166

TD Statistique et probabilits

a) Dterminer la densit de la v.a. Y = ln X .


b) Calculer E (X) et V (X) .
c) Dterminer un estimateur Tn de par la mthode du maximum de vraisemblance. tudier ses proprits. Est-il efficace ?

Janvier 2005

1. Le jeu de lambassadeur consiste transmettre oralement son voisin, sans


que les autres entendent, un message compliqu pour samuser des dformations
quil peut subir. Le message initial contient une quantit dinformation note I0
(par exemple le nombre de phonmes) et chaque relais il y a une probabilit p
quil soit transmis correctement. Avec une probabilit q = 1 p la quantit dinformation est diminue et devient aI0, avec 0 < a < 1 . On note In la v.a. qui reprsente la quantit dinformation obtenue aprs n relais. Dterminer la loi de probabilit de I1 , I2 puis In pour n > 2 .

2. Une information est transmise sous forme de codage logique en 0 ou 1.


Il y a une probabilit p derreur au cours de chaque relais de transmission, cest-dire de transformer le 0 (resp. 1) en 1 (resp. 0). On note Vn lvnement linformation transmise aprs n relais est exacte, cest--dire identique linformation dorigine et on pose pn = P (Vn ) .
a) Calculer p1 et p2 .
b) Calculer pn en fonction de pn1 pour n  2 .

1
en fonction de un1 et en dduire la valeur de un , puis
2
celle de pn , en fonction de n et p .

c) Calculer un = pn

Calculer la limite de pn quand n devient infini.

3. Soit X une v.a. de densit :

1 + 3 x2
f (x) = 4 4

si 1  x  1
sinon

a) Calculer E (X) et V (X) .


b) Dterminer la fonction de rpartition de X puis calculer la probabilit que X
appartienne lintervalle [x1 , x2 ], en fonction des rels x1 et x2 tels que x1 < x2 .

4. Soit (X, Y) un couple de v.a. discrtes dont la loi de probabilit est donne par
le tableau ci-aprs.
Calculer E (X) , E (Y) puis cov (X, Y) . Les v.a. X et Y sont-elles indpendantes ?

TD 9 Annales corriges Universit Panthon-Assas, Paris II

167

1/8

1/8

1/8

1/4

1/8

1/4

LMENTS DE CORRECTION

Septembre 2007

Les hypothses se traduisent par P A B =

1
1
3
, P A B = , P (A B) = .
4
3
4

On en dduit :




1
P (A B) = P (A B) P A B P A B =
6


5
P (A) = P (A B) + P A B =
12

1
P (B) = P (A B) + P A B =
2
Comme P (A B) = P (A) P (B) , les vnements A et B sont dpendants.

a) Un joueur gagne sil tire une carte paire et si le(s) prcdent(s) a (ont) tir
une carte impaire. On obtient ainsi :


3
3 3
6
, P (B) = =
,
6
6 5 20
3 2 1 3
1
P (D) = =
6 5 4 3 20
Dunod. La photocopie non autorise est un dlit.

P (A) =

P (C) =

3 2 3
3
=
,
6 5 4 20

b) On en dduit :

E (N) =

3
6
3
1
35
+2
+3
+4
=
6
20
20
20 20

On a P (X < 0) = P (X < 1) = 0 et, pour n  2 :

P (X < n) =

n
1

P (X = k) =

k=1

=1

1
n

 


1
1 1
+
+ ...
1

2
2 3

 

1
1
1
1
+
+

n2 n1
n1 n

168

TD Statistique et probabilits

On obtient :

E (X) =

nP (X = n) =

n=1

n=1

1
=
n+1

cest--dire que cette loi nadmet pas desprance.

a) On pose m = E (X) et 2 = V (X) et on considre la variable centre et


rduite ; les conditions scrivent :


X m 2 m
<

La table 1 permet dobtenir

X+1
2

2

= 1 0,6915 P

Xm 2m
<

= 0,9332

2+m 1 2m 3
= et
= do m = 1 et = 2 . La v.a.

suit une loi du khi-deux 1 degr de libert ; la condition :


P

X+1
2

2

a+1
<
4


= 0,975

permet dobtenir, partir de la table 5, a = 19,08 .



V 4 suit une loi de Student 16 degrs de libert, donc la table
b) La v.a. U
6 permet dobtenir b = 0,53 .

La loi du couple (X, Y) figure dans le tableau ci-aprs, avec les lois de X et
Y dans les marges de ce tableau :


3
10

1
10

4
10

3
10

3
10

6
10

3
10

6
10

1
10

2 3
3
=
. On calcule partir
5 4 10
4
3
3
.
du tableau E (X) = , E (Y) = et E (XY) = P (X = 1, Y = 1) =
5
5
10
9
et les variables X et Y sont dpendantes.
Ainsi cov (X, Y) =
50
Avec par exemple P (X = 1, Y = 0) = P (RN) =

TD 9 Annales corriges Universit Panthon-Assas, Paris II

169

a) Comme E (X) = , lestimateur Tn obtenu par la mthode des moments

est la moyenne empirique Xn, estimateur sans biais et convergent daprs la loi
 
des

grands

nombres.

De

E X2 = V (X) + E2 (X) = ,

mme,

donc

1 n
Tn =
X2 est aussi un estimateur sans biais et convergent de daprs la
n i=1 i

loi des grands nombres.

b) Pour comparer ces deux estimateurs sans biais, nous formons le rapport des
variances :

V (Tn )
= 2 ( + 1)
V (Tn )
Comme cette quantit dpend de la valeur du paramtre estimer, on ne peut pas
conclure. Ces deux estimateurs ne sont pas comparables. Aucun deux ne peut
tre efficace, car il serait alors toujours le meilleur.

a) On calcule E (X) = + 1 .

b) Lestimateur Tn = Xn 1 obtenu par la mthode des moments est sans biais et


convergent daprs la loi des grands nombres.
c) Daprs le thorme central-limite :

Xn E (X)
N (0, 1)
n
(X)
loi
donc on obtient :

n (Tn ) N (0, 1)
loi


1
. On construit
n

Lestimateur Tn suit asymptotiquement la loi normale N ,

Dunod. La photocopie non autorise est un dlit.

donc un intervalle de confiance bilatral symtrique, puisque cette loi est symtrique. On peut trouver la valeur aproche de la constante u telle que :

1 = P u < n (Tn ) < u

Lintervalle de confiance est alors dfini par :

u
u
Tn < < Tn +
n
n
o u est approxim par le fractile dordre 1

N (0, 1) .

de la loi normale standard


2

a) La f.r. F de X est nulle pour x  0 , a pour valeur 1 pour x  et a pour


expression, quand 0  x  :


F (x) =

3
3


0

t2 dt =

x3
3

170

TD Statistique et probabilits

On calcule la f.r. de Mn :

G (x) = P (Mn < x) = P

n



=

(Xi < x)

i=1

n


P (Xi < x) = Fn (x)

i=1

On obtient la densit par drivation :

g (x) = G (x) = nFn1 (x) f (x)


Donc pour 0  x  :

g (x) = 3n

x3n1
3n

b) Lexpression de la vraisemblance est :


L (x1 , ..., xn ; ) =

n 
n

i=1

x2i

si 0  xi  pour 1  i  n . La vraisemblance, considre comme une fonction


de , est nulle pour 0  < max {x1 , ..., xn } puis dcroissante pour
 max {x1 , ..., xn } (voir figure 9.1) :

Figure 9.1
Il y a un maximum au point de discontinuit de la vraisemblance et lestimateur
du maximum de vraisemblance est donc Mn. Comme E (Mn ) =

3n
, lesti3n + 1

3n + 1
Mn . La question de lefficacit ne se pose pas
3n
car lensemble des valeurs possibles pour X dpend de .

mateur sans biais est Tn =

c) Des deux conditions :

1 = G [ (1 t1 )] = (1 t1 )3n
1 2 = G [ (1 t2 )] = (1 t2 )3n

TD 9 Annales corriges Universit Panthon-Assas, Paris II

171

on dduit :

t1 = 1 11 3n

t2 = 1 (1 2 )1 3n

Lintervalle de confiance est dfini par la condition :

1 = P {t1 < Mn < t2 }


Sil est bilatral symtrique 1 = 2 = /2, do lintervalle de confiance pour
:

Mn

<<

1 3n

(1 2)

Mn
( 2)1 3n

Mai 2007

a) Lintervalle de confiance unilatral obtenu avec labaque 1 est p > 72 % .


On peut ici utiliser le thorme central limite :



pn p
n
N (0, 1)
p 1 p loi
On utilise cette loi asymptotique pour trouver la valeur approche de la constante
u telle que :

0,95 = P 
pn u





pn 1 pn
< p
n

p100 = 0,8 et on lit dans la table 2 u = 1,645 do p > 73 % .


On a ici 
p50 = 1 , donc on
b) On lit sur labaque p > 93 % . Pour cet chantillon, on obtient 

Dunod. La photocopie non autorise est un dlit.

pn 1 
pn . Lintervalle de confiance serait
ne peut pas remplacer p 1 p par 
obtenu par rsolution de lingalit :


p 1p

p50 u
<p
n

 a) Lestimateur X
n est sans biais et convergent daprs la loi des grands
nombres.

b) Lestimateur Tn =

1 2
S obtenu par la mthode des moments est sans biais. La
2 n

n1 2
S suit une loi du khi-deux n 1 degrs de libert, donc
2 n
22
V (Tn ) =
. Cet estimateur est sans biais et sa variance tend vers zro donc il
n1
v.a.

est convergent.

172

TD Statistique et probabilits

c) Pour comparer ces deux estimateurs sans biais, nous formons le rapport des
variances :

n
V (Tn )
=

1
V Xn
Comme cette quantit dpend de la valeur du paramtre estimer, on ne peut pas
conclure. Ces deux estimateurs ne sont pas comparables. Aucun deux ne peut
tre efficace, car il serait alors toujours le meilleur.

a) Lexpression de la vraisemblance est :

L (x1 , ..., xn ; ) =

n


f (xi ; ) =

i=1


=

n

i=1

n

1
(x mi )2
exp i
22
2

exp

n
1

(xi mi )2
22
i=1

La log-vraisemblance est donc :


n
 
1

ln L (x1 , ..., xn ; ) = n ln 2 2
(xi mi )2
2
i=1

On obtient comme drive :


n
lnL
1

= 2
(xi mi )

i=1

Elle sannule pour =

1 n
(x mi ) . On drive une nouvelle fois :
n i=1 i
2 lnL
2

n
<0
2

Le point qui annule la drive premire correspond donc un maximum et lestimateur du maximum de vraisemblance est :

(Xi mi )
n
n

Tn =

i=1

Les v.a. Yi = Xi mi suivent des lois normales desprance et de variance 2 ,


donc Tn = Yn est un estimateur sans biais et convergent daprs la loi des grands
nombres. On calcule alors la quantit dinformation de Fisher :

In () = E

2 lnL
2

Lestimateur est donc efficace puisque :

V (Tn ) =

1
2
=
n
In ()

n
2

TD 9 Annales corriges Universit Panthon-Assas, Paris II

173

b) Lestimateur Tn = Yn suit une loi normale desprance et de variance 2 n .


On construit donc un intervalle de confiance bilatral symtrique puisque cette
loi est symtrique. On doit trouver la valeur de la constante u telle que :



Tn
1 = P u < n
<u

Lintervalle de confiance est alors dfini par :

u
u
< Tn <
n
n
Ce qui est quivalent :

u
u
Tn < < Tn +
n
n
o u est le fractile dordre 1

de la loi normale standard N (0, 1) .


2

Application : 7,17 < < 7,83 .

Janvier 2007

Lensemble fondamental est constitu de tous les vnements lmentaires


possibles, crits sous la forme de triplets dont la premire lettre dsigne le sexe du
premier n. On a donc :


= {F, G}
Il y a quiprobabilit donc :

P (GGG) =

 3
4
7

P (FFF) =

 3
3
7

Dunod. La photocopie non autorise est un dlit.

La probabilit que les enfants ne soient pas tous du mme sexe est donc :

 3  3
36
4
3

=
7
7
49

a) Avec des notations videntes :






 + P M T+
P (M) P T+ |M




=
p =P M T =
P (T+ )
P (M) P (T+ |M ) + P M P T+ M
p (1 )


=
p (1 ) + 1 p
b) Dans le cas o = :


p =

p (1 )
+ p (1 2)

174

TD Statistique et probabilits

On obtient () = 1 /2, cest--dire que dans le cas o le risque derreur du test


est gal la proportion danimaux malades, il y a seulement une chance sur deux
quun animal dont le test est positif soit rellement malade.
c) On a :

(0,005) =

1
1 + 198

Soit (0,005) = 49 /248( 1 /5) pour = 0,02 et (0,005) = 99 /298( 1 /3) pour
= 0,01 . Mme avec un risque derreur de 1 % le taux de dtection exact est de
lordre de 30 %, cest--dire trs faible. Cela est d au fait que la maladie est rare.

La fonction de rpartition est constante par morceaux, donc la loi de proba-

bilit est discrte, avec ici X () = {3, 4, ..., n, ...} et pour tous les entiers n  3 :

pn = P (X = n) = P (X < n + 1) P (X < n)
 


1
1
1
= F (n + 1) F (n) = 1 n2 1 n3 = n2
2
2
2

a) On calcule la f.r. de Y :






G y = P Y < y = P X2 < y

On a donc G y = 0 pour y  0, G y = 1 pour y  1 et, pour 0  y  1 :






G y =P y<X< y =F y F y

La densit est obtenue par drivation :




1 
1
g y = f
y + f y = 1 + 3y
2 y
4 y
b) On obtient comme esprance :

E (Y) =

1
4


0

y + 3y y dy =
15

a) Toute fonction linaire dune v.a. normale suit une loi normale, donc Y
suit une loi normale centre de variance 4 , X + Y = 3X suit une loi normale centre de variance 9 et X + Y 3X = 0 suit une loi normale dgnre (de variance
nulle), cest--dire est une variable certaine, P (X + Y + Z = 0) = 1 .


b) On a cov (X, Y) = E (XY) = E 2X2 = 2V (X) = 2 et V (X + Y + Z) = 0 car cest


une variable certaine.

TD 9 Annales corriges Universit Panthon-Assas, Paris II

175

Septembre 2006

Lensemble fondamental est constitu de tous les vnements lmentaires


possibles, crits sous la forme de couples dont la premire lettre dsigne le rsultat du d rouge :


= {P, I}

Les vnements considrs sont A = {(PP) , (PI)} , B = {(PP) , (IP)}


C = {(PP) , (II)} . Il y a quiprobabilit donc :

P (A) = P (B) = P (C) =

et

2
4

Dautre part, A B = A C = B C = {(PP)} donc :

P (A B) =

1
= P (A) P (B)
4

P (A C) =

P (B C) =

1
= P (B) P (C)
4

1
= P (A) P (C)
4

donc les vnements A , B et C sont indpendants deux deux. Enfin,


A B C = {(PP)} donc :

P (A B C) =

1
1
= P (A) P (B) P (C) =
4
8

donc les vnements A , B et C ne sont pas mutuellement indpendants.

a) Avec des notations videntes, on obtient dans le cas aucune mmoire


(am) :


Dunod. La photocopie non autorise est un dlit.



P (X = n) = P N...NN =

 n1
1
2
,
3
3

n1

Dans le cas mmoire courte (mc) :

1
P (X = 1) = ,
3

2

P (X = n) = P N...NN =
3

 n1
1
,
2

n2

Dans le cas mmoire parfaite (mp) :

1
2 1 1
, P (X = 2) = = ,
3
3 2 3
P (X = n) = 0 n  4
P (X = 1) =

P (X = 3) =

b) On calcule ensuite aisment, dans le cas am :

P (X  3) =

1 2
4
19
+ +
=
3 9 27 27

pam =

8
27

2 1
1
1=
3 2
3

176

TD Statistique et probabilits

Dans le cas mc :

P (X  3) =

1 1 1 5
+ + =
3 3 6 6

P (X  3) =

1 1 1
+ + = 1 pmp = 0
3 3 3

pmc =

1
6

Dans le cas mp :

a) La fonction de rpartition de X est nulle pour x  0 . Son expression pour

0 < x  1 est :


F (x) =

tdt =
0

x2
2

Pour 1  x  2 :

F (x) = F (1) +
1

(2 t) dt =

x2
+ 2x 1
2
1
2

On a ensuite F (x) = 1 pour x > 2 . Puisque F (1) = , la mdiane vaut 1 (cest le


centre de symtrie de cette loi).

b) On a P {|X 1| < x} = 0 pour tout rel x  0 . Pour x > 0 :

P {|X 1| < x} = P {1 x < X < 1 + x} = F (1 + x) F (1 x)


Donc P {|X 1| < x} = 1 pour tout rel x  1 . Pour 0 < x < 1 :

P {|X 1| < x} = 1 (1 x)2 = x(2 x)

a) Les densits marginales de X et Y sobtiennent par intgration de la densit du couple (voir figure 9.2) :



fX (x) =

fY y =


f x, y dy = 2


f x, y dx = 2

dy = 2 (1 x)

si 0  x  1

dx = 2y si 0  y  1
0

On constate que f x, y = fX (x) fY y donc les v.a. X et Y ne sont pas indpendantes.


b) Les densits conditionnelles sobtiennent en divisant la densit du couple par
la densit marginale de la v.a. qui conditionne :



f x, y
1
=
fX x |Y = y =
pour 0 < x  y
y
fY y
 
Il sagit de la loi uniforme sur lintervalle 0, y .
La loi de Y sachant que X = x a pour densit :

TD 9 Annales corriges Universit Panthon-Assas, Paris II

177

Figure 9.2


f x, y
1
=
fY y |X = x =
fX (x)
1x

pour x  y < 1

Il sagit de la loi uniforme sur lintervalle [x, 1].



pN = aE (Tn ) + bE (Tm
)
Les estimateurs Tn et Tm
sont sans biais, donc E 

Dunod. La photocopie non autorise est un dlit.

pN sera aussi sans biais si b = 1 a. Les estimateurs Tn


= (a + b) p . Lestimateur 

T
et m sont indpendants, donc :
!



a2 (1 a)2
2
2
pN = a V (Tn ) + b V Tm = p 1 p
V 
+
n
m
Lestimateur optimal est celui de variance minimale ; on doit donc minimiser la
fonction de a :

f (a) =

a2 (1 a)2
+
n
m

Cest une fonction de drive :

f  (a) =
La drive sannule pour a =

2a 2 (1 a)

n
m

2 2
n
> 0 donc lestimateur
avec f (a) = +
n m
n+m

sans biais optimal est :


pN =


nTn + mTm
N

178

TD Statistique et probabilits

a) Nous calculons lesprance de cette loi :

E (X) =

x dx =

Pour calculer la variance, nous avons besoin de :


E X

x dx =

Do :

 
2
V (X) = E X2 E2 (X) =
18
b) En galant E (X) avec la moyenne empirique Xn, on obtient comme solution

3
Xn . Lestimateur obtenu par la mthode des moments est donc :
2

3
Xn
2
3 3
Cet estimateur est sans biais, E (Tn ) = E Xn = E (X) = , et convergent, car
2
2
Tn =

daprs la loi des grands nombres :

Xn E (X)
p

do on dduit en multipliant par

Tn =

3
:
2

3
3
Xn E (X) =
p 2
2

On peut galement tablir la convergence de cet estimateur sans biais en montrant que sa variance tend vers 0 :

V (Tn ) = V

3
Xn
2

9 9V (X)
V Xn =
0
4
4n

Lensemble des valeurs possibles pour la variable est ici X () = [0, ] qui dpend
du paramtre estimer. Lingalit FDCR nest donc pas vrifie et la question de
lefficacit ne se pose pas.
c) La f.r. F de X est nulle pour x  0 , a pour valeur 1 pour x  et a pour expression, quand 0  x  :

F (x) =
On calcule ensuite la f.r. de Mn :

2
2

tdt =
0

x2
2

TD 9 Annales corriges Universit Panthon-Assas, Paris II

G (x) = P (Mn < x) = P

n



=

(Xi < x)

i=1

n


179

P (Xi < x) = Fn (x)

i=1

On obtient la densit de Mn par drivation de sa f.r. :

g (x) = G (x) = nFn1 (x) f (x) = 2n

x2n1

0x

2n

Ainsi :

E (Mn ) =

2n

2n

x2n dx =

2n

2n + 1

La valeur de E (Mn ) montre que lestimateur sans biais est :

Tn =

2n + 1
Mn
2n

Pour les mmes raisons que dans la question prcdente, la question de lefficacit ne se pose pas. On calcule ensuite :

  2n 
2n 2
E M2n = 2n
x2n+1 dx =

2n + 2

0
Do la variance :

 
V (Mn ) = E M2n E2 (Mn ) =

n
(n + 1) (2n + 1)2

La variance de cet estimateur est :


V Tn = V

2n + 1
Mn
2n


=

2
(2n + 1)2
V
=
(M
)
n
4n (n + 1)
4n2

Dunod. La photocopie non autorise est un dlit.

Nous allons comparer ces deux estimateurs sans biais en formant le rapport de
leurs variances :

2
V (Tn )
=
0
V (Tn ) n + 1
Lestimateur Tn est donc infiniment plus efficace que Tn .

a) On a E(X2 ) = , donc lestimateur Tn de par la mthode des moments


est la moyenne empirique :


1
2
Xi
n
n

Tn = Xn2 =

i=1

Cet estimateur est sans biais :

 
E (Tn ) = E X2 =

180

TD Statistique et probabilits

Il est aussi convergent daprs la loi des grands nombres :

Xn2 E(X2 ) =
p

Pour savoir sil est efficace, on dtermine dabord lexpression de la vraisemblance :

L (x1 , ..., xn ; ) =

n


f (xi ; ) =

i=1


=

n

n

i=1

x2
1

exp i
2
2
1
2
xi
2
n

exp

i=1

La log-vraisemblance est donc :

n
n
1
2
xi
ln (2) ln
2
2
2
n

ln L (x1 , ..., xn ; ) =

i=1

Soit en drivant :
n
ln L
n
1
2
xi
=
+

2 22
i=1

On drive une nouvelle fois :

2 ln L
2

n
22

n
1

x2i

i=1

On calcule alors la quantit dinformation de Fisher :

In () = E

2 ln L
2

n
22

n
1
 2
n
E Xi = 2
3 i=1
2

La v.a. X2 / suit une loi du khi-deux 1 degr de libert, donc V(X2 ) = 22 et :

V (Tn ) =

1
22
=
n
In ()

Lestimateur Tn est donc efficace.


b) La v.a. nTn / suit une loi du khi-deux n degrs de libert. Le paramtre
mesurant un degr dimprcision, on choisit un intervalle unilatral dfini par :

"

1=P

#
nTn
>a

Application : T50 = 2 et a = 34,76 d o lintervalle <

100
= 2,88 .
a

TD 9 Annales corriges Universit Panthon-Assas, Paris II

181

Mai 2006

a) Lintervalle de confiance est unilatral gauche en raison de linterprtation du paramtre. La taille dchantillon (n = 150 ) permet dutiliser le thorme
central limite :



pn p
n
N (0, 1)
p 1 p loi
On utilise cette loi asymptotique pour trouver la valeur approche de la constante
u telle que :

0,95 = P p < 
pn + u




pn 1 
pn

p150 = 4 % et on lit dans la table 1 u = 1,645 do p < 7 % .


On a ici 
b) On doit utiliser labaque car n = 30 est trop petit ; on lit p < 8 % . Lestimation
de p est ici de 0 % contre 4 % dans le cas prcdent. Cependant, cela conduit malgr tout un intervalle de confiance plus grand car la taille dchantillon est trs
petite. On ne peut pas conclure une meilleure qualit de la nouvelle machine.

a) Lexpression de la vraisemblance est :

L (x1 , ..., xn ; ) =

n


f (xi ; ) = exp

i=1


n

(xi ) = e

exp

i=1


xi

i=1

si  xi

pour 1  i  n . Cette fonction de est croissante pour


 min {x1 , ..., xn } puis nulle pour > min {x1 , ..., xn } (voir figure 9.3) :

Dunod. La photocopie non autorise est un dlit.

min xi

Figure 9.3
Il y a un maximum au point de discontinuit de la vraisemblance et lestimateur

n = min {X1 , ..., Xn } .


du maximum de vraisemblance est donc 

182

TD Statistique et probabilits

b) La question de lefficacit ne se pose pas car lensemble des valeurs possibles


pour X dpend de . On peut cependant calculer la quantit dinformation de
Fisher :

ln L
=n

2

ln L
In () = E
= n2

a) La v.a. Y tant la moyenne de 100 variables indpendantes desprance m


et dcart type , on peut considrer quelle suit la loi asymptotique dduite du
thorme central limite, cest--dire quelle suit une loi normale desprance m et
dcart type /10. La moyenne empirique Y9 suit donc une loi normale desp
rance m et dcart type divis par 9 , soit /30.


b) La moyenne empirique Y9 est un estimateur sans biais de m. La question de la


convergence ne se pose pas puisque la taille dchantillon est ici fixe 9 ; cependant il sagit quand mme dun bon estimateur car cela correspond 900 observations individuelles. La variance empirique modifie :

2
1

Yi Y9
8
9

S29 =

i=1

est un estimateur sans biais de la variance de Y qui vaut 2 /100.


c) Pour construire un intervalle de confiance bilatral pour m, on utilise la statistique :

Y9 m
9
S9
qui suit une loi de Student 8 degrs de libert. On peut donc trouver la valeur t
telle que :



Y m
1 = P t < 9 9
<t
S9
Lintervalle de confiance est alors :

t
t
Y9 S9 < m < Y9 + S9
3
3
Pour 1 = 0,95 le fractile est t = 2,306 et on obtient lintervalle :

289,5 < m < 312,5

TD 9 Annales corriges Universit Panthon-Assas, Paris II

183

Janvier 2006

Avec des notations videntes, les hypothses se traduisent par :

1
10
9
P (MT |MY ) =
10
P (MY) =

P (PR) =

2
10

P (BV) =
5
10

P (MT |PR ) =

7
10

P (MT |BV ) =

1
20

On en dduit :

7
1

7
P (BV MT)
10 20
=
=
P (BV |MT ) =
1
9
2
5
7
1
P (MT)
45

10 10 10 10 10 20

a) La fonction de rpartition de X est nulle pour x  0 . Son expression pour

0 < x  1 est :


t
x2
dt =
2
4

F (x) =
Pour 1  x  2 :

F (x) = F (1) +
1

2x 1
1
dt =
2
4

Pour 2  x  3 :

F (x) = F (2) +
2

3t
x2 + 6x 5
dt =
2
4

On a ensuite F (x) = 1 pour x > 3 .


b) On obtient :
Dunod. La photocopie non autorise est un dlit.

E (X) =
0

x2
dx +
2


1

x
dx +
2


2

3x x2
3
dx =
2
2

On pose m = E(X) et 2 = V(X) et on considre la variable centre et


rduite ; les conditions scrivent :


Xm 3m
<

= 1 0,8413 P

La table 1 permet dobtenir


dduit :


P (X > 0) = P

X m 12 m
<

= 0,9772

3m
12 m
= 1 et
= 2 do m = 6 et = 3 . On en




X6
X6
> 2 = P
< 2 = 0,9772
3
3

184

TD Statistique et probabilits


La v.a.

X6
3

2
suit une loi du khi-deux 1 degr de libert ; la condition :


P

X6
3

2

a
<
9


= 0,975

permet dobtenir, partir de la table 5, a = 45,18 .

La loi du couple (X, Y) est donne dans le tableau suivant, avec les lois de X
et Y dans les marges :


1/4

1/4

1/2

1/2

1/2

1/4

1/2

1/4

 2
1
Avec par exemple P (X = 1, Y = 2) = 2
. On calcule partir du tableau
2
3
3
E (X) = 1, E (Y) = et E (XY) = . Ainsi cov (X, Y) = 0 et les variables X et Y sont
2
2
cependant dpendantes, car par exemple P (X = 1, Y = 1) = P (X = 1) P (Y = 1) .

Septembre 2005

La construction dun arbre permet dobtenir aisment

= {RR, RNR, RNNR, NNRR, NRNR, NRR} , avec :


3
10
1
P (NNRR) =
10
P (RR) =

1
5

P (RNR) =

P (NRNR) =

1
10
1
P (NRR) =
5

P (RNNR) =
1
10

On peut vrifier que la somme de ces probabilits est bien gale 1.

La f.r. F de X est nulle pour x  0 , a pour valeur 1 pour x  1 et a pour


expression, quand 0  x  1 :



F (x) = 2
0

t2
(1 t) dt = 2 t
2

On calcule ensuite la f.r. de Mn :

G (x) = P (Mn < x) = P

n

i=1


(Xi < x)

!x

= 2x x2
0

n

i=1

P (Xi < x) = Fn (x)

TD 9 Annales corriges Universit Panthon-Assas, Paris II

185

On obtient la densit de Mn par drivation de sa f.r. :


n1
g (x) = G (x) = nFn1 (x) f (x) = 2n (1 x) 2x x2

0x1

La moyenne m = E (X) tant le centre de symtrie de la loi normale, on

en dduit m = 1 . On pose 2 = V (X) et on considre la variable centre et


rduite ; lautre condition scrit :


 

0,6 X + 1 0,6
0,6
= 2
1 = 0,770
P
<
<

La table 1 permet dobtenir = 1/2. On en dduit :

P (X > 0) = P (2X + 2 > 2) = 0,0228


La v.a. 4(X + 1)2 suit une loi du khi-deux 1 degr de libert ; la condition :


$
P 4X2 + 8X + 4 < 4a + 4 = 0,995

permet dobtenir, partir de la table 5, a = 0,97 .

Les densits marginales de X et Y sobtiennent par intgration de la densit


du couple (voir figure 9.4) :



fX (x) =


f x, y dy =


0

eyx dy = 1 ex

si 0  x  1

eyx dy = (e 1) ex si 1  x
 +
 +


fY y =
f x, y dx =
eyx dx = 1 si 0  y  1
fX (x) =



On constate que f x, y = fX (x) fY y donc les v.a. X et Y ne sont pas indpen-

Dunod. La photocopie non autorise est un dlit.

dantes.

1
Figure 9.4

186

TD Statistique et probabilits

a) La v.a. X suit une loi gomtrique de paramtre 1/ :

1
P (X = k) =


k1
1
1

k N

avec E(X) = .
b) En galant E(X) avec la moyenne empirique Xn, on obtient comme solution
= Xn . Lestimateur obtenu par la mthode des moments est donc Tn = Xn . Cet

estimateur est sans biais, E (Tn ) = E Xn = E (X) = , et convergent daprs la loi
des grands nombres.

Pour construire un intervalle de confiance bilatral pour , on utilise la statistique Tn1 qui suit une loi de Student n 1 degrs de libert. On peut donc
trouver la valeur t telle que :




Xn
1 = P t < n
<t
Sn
o t est le fractile dordre 1

. Lintervalle de confiance est alors :


2

Sn
Sn
Xn t < < Xn + t
n
n
Pour 1 = 0,95 et n = 30 le fractile est t = 2,045 .

Lexpression de la vraisemblance est :

L (x1 , ..., xn ; ) =

n

1
i=1

1 1

xi

1 1
 n 
n
1

xi

i=1

La log-vraisemblance est :


ln L (x1 , ..., xn ; ) = n ln

n
1
ln xi
+1

i=1

On obtient comme drive :


n
ln L
n
1

ln xi
= + 2


i=1

Elle sannule pour =

1 n
ln xi . La drive seconde est :
n i=1
2 ln L
2

n
2

n
2

ln xi

i=1

Au point qui annule la drive premire, la drive seconde est ngative, donc
cela correspond un maximum et lestimateur du maximum de vraisemblance

TD 9 Annales corriges Universit Panthon-Assas, Paris II

187

est :

ln Xi
n
n

Tn =

i=1

Nous avons E (Tn ) = E (ln X) , donc nous calculons :

E (ln X) =

1 1

Soit en intgrant par parties :

E (ln X) = x

ln x

&+
1

ln xdx

1 1

dx =

Cet estimateur est donc sans biais et convergent daprs la loi des grands
nombres :

Tn E (ln X) =
p

Pour savoir sil est efficace on calcule alors la quantit dinformation de Fisher :

2 ln L

In () = E

Il faut maintenant calculer :


2

E (ln X) =

n
2

n
2

1 1

E (ln Xi ) =

i=1

n
2

(ln x) dx

Soit en intgrant par parties :


%
&+
1
2
(ln x)
E (ln X) = x
+2
2

1 1

ln xdx = 2E (ln X) = 2

Dunod. La photocopie non autorise est un dlit.

Ainsi V (ln X) = 2 et :

V (Tn ) =

1
V (ln X) 2
=
=
n
n
In ()

donc lestimateur est efficace.

Mai 2005

a) Lintervalle de confiance unilatral obtenu avec labaque 1 est p > 93 % .

On peut ici utiliser le thorme central limite :


pn p
n
N (0, 1)
p 1 p loi

188

TD Statistique et probabilits

On utilise cette loi asymptotique pour trouver la valeur approche de la constante


u telle que :

0,95 = P 
pn u




pn 1 
pn
< p
n

p250 = 0,96 et on lit dans la table 1 u = 1,645 do p > 94 % , rsultat trs


On a ici 
proche du rsultat exact prcdent.
b) On doit utiliser labaque car n = 30 est trop petit ; on lit sur labaque 1 p > 90 %
p30 = 1 . Bien que lestimation soit plus leve que dans
avec pour cet chantillon 
le cas prcdent, cela conduit malgr tout un intervalle de confiance plus grand
car la taille dchantillon est trs petite. On ne peut pas conclure une meilleure
qualit du nouvel quipement.

a) On considre que le poids affich peut scrire X = 100 + , o on fera


lhypothse que lerreur de mesure suit une loi normale centre. La variance
note de cette loi sera un bon indicateur de qualit ; moins les mesures affiches
seront disperses autour de la vraie valeur, meilleur sera le pse-lettre. On retient
comme estimateur sans biais de cette variance thorique la variance empirique :


(Xi 100)2
n
n

Tn =

i=1

La v.a. nTn / suit une loi du khi-deux n degrs de libert, donc E (Tn ) = et

V (Tn ) = 22 /n.
b) Le paramtre mesurant un degr dimprcision, on choisit un intervalle unilatral dfini par :

"

1=P

#
nTn
>a

Pour n = 30 on lit a = 18, 49 et on obtient comme estimation :


A
T30
=

1
(315400 200 3020) + 1002 = 380
30

do lintervalle < 617 .


c) Pour n = 50 on lit a = 34,76 et on obtient comme estimation :
B
T50
=

1
(510000 200 4950) + 1002 = 400
50

do lintervalle < 575 . Bien que lestimation soit ici plus grande, lintervalle de
confiance est plus petit car la taille dchantillon est plus grande. Le modle B
parat donc de meilleure qualit.

a) La f.r. de la v.a. Y = ln X est nulle pour y  0 et a pour expression pour

y>0:

TD 9 Annales corriges Universit Panthon-Assas, Paris II

189








G y = P ln X < y = P ln X > y = P X > ey


= 1 F ey
o F est la f.r. de la v.a. X . On en dduit par drivation la densit de Y , qui est
nulle pour y  0 et qui a pour expression pour y > 0 :

g y =e


f

On reconnat la densit de la loi exponentielle de paramtre 1/ .


b) Nous calculons lesprance :

E (X) =

dx =

1
+1

Pour calculer la variance, nous avons besoin de :


E X


=

1 +1

dx =

1
2 + 1

Do :

 
V (X) = E X2 E2 (X) =

2
( + 1)2 (2 + 1)

c) Lexpression de la vraisemblance est :

L (x1 , ..., xn ; ) =

n

1
i=1

1 1
=
xi

1 1
 n 
n
1

xi

i=1

La log-vraisemblance est :


ln L (x1 , ..., xn ; ) = n ln +

n
1
ln xi
1

Dunod. La photocopie non autorise est un dlit.

i=1

On obtient comme drive :


n
ln L
n
1

ln xi
= 2


i=1

Elle sannule pour =

1 n
ln xi . La drive seconde est :
n i=1
2 ln L
2

n
2

n
2

ln xi

i=1

Au point qui annule la drive premire, la drive seconde est ngative, donc
cela correspond un maximum et lestimateur du maximum de vraisemblance
est :

190

TD Statistique et probabilits

ln Xi
n
n

Tn =

i=1

Nous avons E (Tn ) = E (ln X) = E (Y) = donc cet estimateur est sans biais ; il a
pour variance :

V (Tn ) =

V (ln X) 2
=
n
n
1
n

Il est donc convergent car cette variance tend vers 0 avec . Pour savoir sil est
efficace, on calcule la quantit dinformation de Fisher :

In () = E

2 ln L
2

n
2

n
2

E (ln Xi ) =

i=1

n
2

Ainsi :

V (Tn ) =

1
2
=
n
In ()

donc lestimateur est efficace.

Janvier 2005

On a :

P (I1 = I0 ) = p P (I1 = aI0 ) = 1 p




P (I2 = I0 ) = p2 P (I2 = aI0 ) = 2p 1 p



2
P I2 = a2 I0 = 1 p

Plus gnralement, pour tout entier k tel que 0  k  n :

 n


k
pnk 1 p
P In = ak I0 =
k

a) On obtient p1 = 1 p et :


2

p2 = P (V2 V1 ) + P V2 V1 = 1 p + p2

b) Pour n  2 :





pn = P Vn Vn1 + P Vn Vn1






= P Vn1 P Vn |Vn1 + P Vn1 P Vn Vn1





= pn1 1 p + 1 pn1 p = p + 1 2p pn1

c) On obtient :

un = pn


n1

n
1
1
u1 =
= 1 2p un1 = 1 2p
1 2p
2
2

Ainsi, pour 0 < p < 1 :

TD 9 Annales corriges Universit Panthon-Assas, Paris II

pn =

191

n
1 1
1
+
1 2p car |1 2p| < 1
2 2
2

avec pn = 1 si p = 0 et p2k = 1, p2k+1 = 0 si p = 1 .

a) On obtient E (X) = 0 car la loi est symtrique et :

  2  1

7
V (X) = E X2 =
x2 + 3x4 dx =
4 0
15
b) La f.r. F de X est nulle pour x  1 a pour valeur 1 pour x  1 et a pour expression, quand 1  x  1 :


F (x) =


x3 x 1
1 3 2
+ t dt =
+ +
4 4
4
4 2

La probabilit demande se calcule par :

p = P {X [x1 , x2 ]} =

x2

x1

f (t) dt = F (x2 ) F (x1 )

On a p = 0 pour x2 < 1 et 1 < x1 , les autres valeurs tant indiques dans le


tableau suivant, en fonction de la position de x1 et x2 :
x1 < 1 < x2 < 1 x1 < 1 < 1 < x2
1
4

x32 + x2 + 2

On

obtient

E (X) = 0

1 < x1 < x2 < 1


1
4

car

(x2 x1 ) +

la

loi

1 < x1 < 1 < x2

1

est

symtrique,

x3 x31
4 2


1 3
x1 + x1 2
4
E (Y) =

1
,
2

Dunod. La photocopie non autorise est un dlit.

cov (X, Y) = E (XY) = 0 . Les variables X et Y sont cependant dpendantes, car


1
3 3
par exemple P (X = 1, Y = 2) = = P (X = 1) P (Y = 2) = .
8
8 8

Tables statistiques

Table 1 : Fonction de rpartition de la loi normale centre rduite


Table 2 : Fractiles de la loi normale centre rduite
Table 3 : Loi binmiale
Table 4 : Loi de Poisson
Table 5 : Fractiles de la loi 2
Table 6 : Fractiles de la loi de Student T
Table 7 : Fractiles dordre 0,95 de la loi de Fisher-Snedecor
Table 7 (suite) : Fractiles dordre 0,975 de la loi de Fisher-Snedecor
Abaque 1 : Intervalles de confiance pour une proportion (bilatral de niveau 0,90
ou unilatral de niveau 0,95)
Abaque 2 : Intervalles de confiance pour une proportion (bilatral de niveau 0,95
ou unilatral de niveau 0,975)

Ces tables sont publies avec laimable autorisation de la Revue de statistique


applique, numro spcial Aide-mmoire pratique des techniques statistiques, ditions
du CERESTA, 1986.

194

TD Statistique et probabilits

Table 1
Fonction de rpartition de la loi normale centre rduite
Probabilit F(u) dune valeur infrieure u

Tables pour les grandes valeurs de u

Tables statistiques

Table 2
Fractiles dordre P de la loi normale centre rduite

195

196

TD Statistique et probabilits

Table 2 (suite)
Fractiles dordre P de la loi normale centre rduite

Grandes valeurs de u

197

Tables statistiques

Table 3
Loi binmiale
Probabilits cumules

198

TD Statistique et probabilits

Table 4
Loi de Poisson

199

Tables statistiques

Table 5
Fractiles dordre P de la loi 2

200

TD Statistique et probabilits

Table 6
Fractiles dordre P de la loi de Student T

Tables statistiques

Table 7
Fractiles dordre 0,95 de la loi de Fisher-Snedecor F(1 , 2 )

201

202

TD Statistique et probabilits

Table 7 (suite)
Fractiles dordre 0,975 de la loi de Fisher-Snedecor F(1 , 2 )

Tables statistiques

Abaque 1
Intervalles de confiance pour une proportion p
Intervalle bilatral de niveau de confiance 0,90
Intervalles unilatraux de niveau de confiance 0,95

203

204

TD Statistique et probabilits

Abaque 2
Intervalles de confiance pour une proportion p
Intervalle bilatral de niveau de confiance 0,95
Intervalles unilatraux de niveau de confiance 0,975

Index

A
abaque : 159, 165, 171, 181, 187, 188
algbre : 2, 7, 8
atome : 7, 15

B
biais : 86

C
coefficient de corrlation : 52
combinaison sans rptition : 18
convergence
en loi : 73, 75, 76, 78, 79
en moyenne : 77, 79
en moyenne quadratique : 74, 75,
77, 79, 96, 119, 120
en probabilit : 72-79, 86, 120
convolution : 52
couple : 158, 161, 164, 166, 168
covariance : 23, 52, 56, 158, 160, 164,
166, 168, 184, 191

D
densit : 36, 39-42, 44, 45, 53, 55, 56,
160-166, 170
conditionnelle : 161, 176
marginale : 59, 161, 164, 176, 185

E
cart type : 22, 45, 90, 112, 129-131,
137, 152

emv : 89
ensemble fondamental : 1, 5-7, 9, 11,
12, 25, 26, 160, 161, 164, 173, 175
erreur quadratique moyenne : 86, 93
esprance : 22, 25, 27, 36, 39, 42, 45,
56-58, 61, 81, 82, 119, 130, 131
conditionnelle : 58, 60
estimateur
convergent : 86, 89-91, 113, 169, 171,
172, 178, 180, 190
du maximum de vraisemblance :
88, 90, 91, 159, 160, 165, 166, 170,
172, 181, 186, 189
efficace : 87, 89-92, 113, 132, 159,
160, 162, 163, 165-167, 169, 170,
172, 180, 187, 190
optimal : 162, 177
sans biais : 86, 87, 89-91, 113, 114,
142, 145, 159, 162, 169, 171, 172,
190
vnement
lmentaire : 1, 6, 9, 13, 14, 26, 61,
164, 173, 175
incompatible : 5, 9
indpendant : 5, 167, 175

F
fonction de rpartition : 35, 40, 44, 47,
56, 59, 114, 115, 127, 158, 160, 161,
163, 166, 169, 170, 174, 176, 183, 184,
188, 191
formule
de Bayes : 4, 11, 13

206

TD Statistique et probabilits

exponentielle tronque : 43
gamma : 38
gomtrique : 24, 32, 186
hypergomtrique : 24, 34
limite : 158, 169
marginale : 51, 53, 58, 61, 64, 97
mixte : 45
multinomiale : 55, 60
normale : 38, 39, 42, 45, 55, 56, 77,
78, 92, 108, 111-113, 129-131, 133,
134, 137, 147, 151, 158-164, 169,
188
uniforme : 37, 59, 92, 128, 132, 176,
177
uniforme discrte : 32, 33

de la probabilit totale : 4, 12, 26


de Poincar : 3, 8
fractile : 42, 43, 142, 169, 173, 182, 186
frquence empirique : 90, 94, 110, 115

I
indpendance : 157, 158, 161, 164, 166
ingalit
de Bienaym-Tchebychev : 71, 75,
76
de Frchet-Darmois-Cramer-Rao :
87, 92, 178
de Markov : 71, 75, 77

L
loi
asymptotique (limite) : 171, 181,
182, 188
binmiale : 24, 30, 33, 56, 65, 97, 136
binmiale ngative : 25
conditionnelle : 52, 53, 57, 58, 91
de Bernoulli : 23, 94, 107, 110, 129,
141
de Cauchy : 45, 76
de Dirac : 23, 45
de Fisher-Snedecor : 39, 43
de Gumbel : 44
de Laplace : 41
de Pareto : 40, 92, 114
de Poisson : 24, 58, 76, 91, 113, 128,
129, 135, 155
de probabilit : 21, 25-28, 44, 57, 58,
60, 81, 87, 114, 115, 160, 161, 163,
164, 166
de Student : 39, 43, 78, 108, 116, 118,
145, 148, 153, 168, 176, 182, 186
des grands nombres : 72, 76-79, 92,
94, 96, 103, 119, 120, 169, 178, 180,
187
diffuse : 36, 40
du khi-deux : 39, 42, 83, 103, 118,
127, 148, 153, 154, 158, 168, 171,
180, 184, 185, 188
du maximum : 43
exponentielle : 38, 50, 79, 84, 100,
114, 189

M
matrice de variances-covariances :
54, 55, 70
mdiane : 43, 46, 47, 161, 176
mthode des moments : 88, 89, 93,
100, 113, 158, 162, 164, 169
moment : 23, 27, 37, 40, 45
moyenne empirique : 88, 91, 93, 94,
98, 102, 108, 113, 114, 142, 143, 151,
154, 155, 163, 169, 178, 179, 182, 186

P
permutation sans rptition : 18
probabilit conditionnelle : 4, 10, 11,
13, 31, 58
puissance : 125, 128, 130-133, 137

Q
quantit dinformation de Fisher : 87,
95, 97, 99, 102, 163, 172, 180, 182,
187, 190

R
rgion
critique : 124, 130-132, 134, 142, 143,
146, 153
dacceptation : 124
rgression : 54, 58, 60, 61

Index

risque
de premire espce : 125, 127-133,
153
de seconde espce : 125, 127, 147

de Bayes : 124
de Lehmann : 126
de Slutsky : 72, 73, 80, 100, 120
tribu : 2, 8, 25

support : 41

valeur extrme : 59, 132


variable alatoire certaine : 23, 29, 174
variables alatoires indpendantes :
161, 164, 166, 176, 185
variance : 22, 25, 26, 37, 39, 41, 42, 57,
112, 113, 119, 120, 145, 152
empirique : 88, 148, 155, 159, 182,
188
vraisemblance : 87-89, 94, 101, 129,
137, 139, 141, 143, 145, 159, 170, 172,
180, 181, 186, 189

T
test
dadquation : 127, 135
dindpendance : 126, 135
mixte : 138
UPP : 126, 133, 149
thorme
central limite : 74, 78, 79, 113, 142,
169, 171, 181, 182, 187

Dunod. La photocopie non autorise est un dlit.

207

TD co Sup

4 e dition

Jean-Pierre Lecoutre

STATISTIQUE
ET PROBABILITS

PUBLIC

Les ouvrages de la collection TD proposent des rsums


de cours, de nombreux QCM, des questions de rflexion,
ainsi que des exercices dentranement et des sujets
dannales corrigs.
Cette 4 e dition, complte par des sujets dannales
rcents, couvre en 180 questions et exercices les bases
de la statistique et des probabilits :
notion de probabilit ;
variable alatoire discrte ;
variable alatoire continue ;
couple et vecteur alatoires ;
notions de convergence ;
estimation ponctuelle ;
estimation par intervalle de confiance ;
thorie des tests.

JEAN-PIERRE LECOUTRE

30%
Cours

ISBN 978-2-10-054431-8

Licence conomieGestion, AES, MASS


MIAGE

70%
Applications

Matre de confrences
luniversit PanthonAssas (Paris II).

- QCM
- questions de rflexion
- exercices dentranement
- annales
+ corrigs

www.dunod.com