Vous êtes sur la page 1sur 185

1

Statistique pour la gestion II


(STAT-D-202)
ECTS: 7 (théorie: 3.5, exercices: 3.5)

Catherine Dehon
Bâtiment S - 11ème étage - bureau S11.226
e-mail: cdehon@ulb.ac.be
Université libre de Bruxelles
Année 2009-2010

Bachelier en Ingénieur de gestion - 2ème année

Version 1
2

AVERTISSEMENT

Ce syllabus a été rédigé dans le but de faciliter


la prise de notes pendant le cours théorique.
La mise à jour du présent syllabus sera faite via
le cours théorique.
Il est bien entendu que l’examen portera sur
l’ensemble de la matière vue au cours théorique
(des élements pourraient être ajoutés oralement
au cours) ainsi que la matière des travaux pra-
tiques.
3

A savoir ....

• Cycle et année d’étude:


BA2 - cours obligatoire au premier quadrimestre.

• But du cours:
1. Introduction des concepts d’inférence statis-
tique (estimation, test d’hypothèse, régression,. . .).
2. Mise en pratique des connaissances dans des
situations de la vie de tous les jours.

• Méthode d’enseignement et support:


Théorie : Cours ex cathedra. Syllabus de théorie
contenant la copie des transparents projetés (et
commentés) au cours disponible sur le site:
http://www.ulb.ac.be/soco/statrope/.
4

• Exercices:
Subdivision des étudiants en groupes de T.P.
Les énoncés des exercices sont disponibles sur
le site : http://www.ulb.ac.be/soco/statrope/.
Les solutions ainsi que quelques examens résolus
des années précédentes sont également téléchar
geables sur ce site.

• Méthode d’évaluation:
L’examen est organisée durant la session de jan-
vier. L’examen comporte une partie théorique
et une partie pratique, sans interruption entre
les deux. Le formulaire utilisé lors des TP sera
fourni lors de l’examen. Aucune note person-
nelle n’est autorisée.
Chapitre 1

INTRODUCTION A LA
STATISTIQUE

But: Transformer des données en information

La Statistique: ensemble de méthodes et ou-


tils mathématiques visant à collecter, décrire
et analyser des données afin d’obtenir de l’infor-
mation permettant de prendre des décisions
malgré la présence d’incertitude (erreur, bruit)

5
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 6

La statistique joue un rôle essentiel dans de nom-


breuses disciplines:

• en économie: taux de croissance, nombre de


brevets déposés, prix de l’immobilier,...
• en finance: rentabilité d’un investissement,...
• en marketing: étude de marché, ...
• en gestion des ressources humaines: absentéisme,...
• en médecine: mise sur le marché de nouveaux
médicaments, ...
• en sciences sociales, en sciences politiques,
etc


la statistique est l’outil de confrontation d’une
théorie scientifique à l’observation
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 7

1.1 EXEMPLES

1.1.1 RENTABILITE D’UN INVESTISSEMENT

Pour investir intelligemment vos économies, vous


allez voir le conseiller de la banque qui vous
suggère 2 types d’investissement:
- investir dans le secteur de l’informatique
- investir dans le secteur agro-alimentaire.

Votre but est double:


- maximiser les profits
- minimiser les risques.

Pour prendre la décision, vous réalisez une étude


statistique.
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 8

1. Collecte des données


Sélectionner au hasard un échantillon de 100 en-
treprises dans le secteur de l’informatique et 100
dans le secteur de l’agro-alimentaire.

Calculer le taux de rentabilité de l’investissement


pour chaque entreprise (rate of return on in-
vestissment):
ROI = Bénéfice/Valeur de l’investissement.
Exemples:
- investir 100 euros en 2003 et avoir 106 euros
en 2004 donc bénéfice de 6 euros:
ROI = 6/100 = 0.06 = 6%
- investir 100 euros en 2003 et avoir 80 euros en
2004 donc perte de 20 euros:
ROI = -20/100 = -20%.
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 9

2. Statistique Descriptive:
Tableaux-Graphiques
• Variable étudiée: taux de rentabilité.
• Variable quantitative continue.
• Variable étudiée sur 2 populations:
Info et Agro alimentaire.
• Effectif: n=100 dans chaque secteur.

Informatique ROI(%) Agro-Ali ROI(%)


Entreprise 1 10 Entreprise 1 7
Entreprise 2 -5 Entreprise 2 3
··· ··· ··· ···
Entreprise 99 30 Entreprise 99 -2
Entreprise 100 -25 Entreprise 100 10
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 10

Graphiques: Histogrammes

Secteur informatique
effectif

0 4 8

−10 −5 0 5 10

ROI

Secteur de l'agroalimentaire
effectif

10
0

−10 −5 0 5 10

ROI

Comparaison des 2 histogrammes:


• centre de la distribution plus à gauche pour
le secteur informatique donc moins rentable
• dispersion plus grande en informatique donc
plus risqué
=⇒ Investir dans l’agro alimentaire.
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 11

Statistiques descriptives: Paramètres

Calculs de quelques statistiques:

Paramètres Informatique Agro-Ali


Minimum -5.05 -1.14
Maximum 8.16 7.63
Médiane 0.92 3.62
Moyenne 1.09 3.31
Variance 7.97 3.76
...
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 12

3. Inférence statistique (2ème bach.)

• Tester l’égalité des moyennes des taux de renta-


bilité dans les 2 secteurs
• Tester si la moyenne des ROI dans le secteur
de l’informatique est significativement plus
petite que dans le secteur agro alimentaire
(donc moins rentable en moyenne)
• Tester si la dispersion dans les 2 secteurs est
identique. Dans le cas contraire tester si le
secteur de l’informatique est plus risqué
• ...
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 13

1.1.2 PROBLEME D’ABSENTEISME EN ENTREPRISES


(Chadhury, Ng, “Canadian Journal of Economics”, 1992)

L’absentéisme réduit la production de ± 10%



Deux économistes ont sélectionné 100 firmes et
mesuré le nombre moyen de jours d’absence par
employé sur une année. Cette variable (X1) est
quantitative.

Ils ont également mesuré plusieurs variables sus-


ceptibles d’influencer le taux d’absentéisme:
X2 = salaire moyen (quantitative continue)
X3 = % d’employés part-time (idem)
X4 = capacité à travailler en équipe (0=non,
1=oui =⇒ variable qualitatitve dichotomique)
X5 = qualité des relations avec le manager
(0=mauvais, 1=bon =⇒ Idem)
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 14

1. Statistique Descriptive: Graphiques

Histogramme du taux d’absenteisme Hist. du salaire moyen Hist. du pourcentage de Part Time

15
15
20

10
15

10
effectif

effectif

effectif
10

5
5
5
0

0
0 5 10 15 0 10000 30000 50000 0 10 20 30 40

Absenteisme Salaire Part Time

Graphique 2 dimensions Graphique 2 dimensions Graphique 2 dimensions


14

14

14
12

12

12
10

10

10
Absent

Absent

Absent
8

8
6

6
4

4
2

0.0 0.2 0.4 0.6 0.8 1.0 15000 25000 35000 0 5 10 15 20 25 30

Manager Salaire Part.Time


CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 15

2. Statistiques descriptives numériques

Absent Salaire PT Equipe Manager


Minimum 2.10 12023 0 0 0
Maximum 14.8 42986 30.80 1 1
Médiane 5.65 22586 9.10 1 1
Moyenne 6.23 23587 11.52 0.67 0.64
Ecart-type 3.36 6656.19 8.08 0.47 0.48
Skewness 0.66 0.80 0.58 - -
Kurtosis 2.44 3.38 2.46 - -

Différents types de variables

Attention aux interprétations !!!!


CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 16

3. Régression linéaire multiple


Le taux d’absentéisme peut être expliqué en par-
tie par les autres variables (en supposant un lien
linéaire). Dependent Variable: ABSENT
Variable Coefficient t-Statistic
SALAIRE -0.000211 -5.319899
PART-TIME -0.093396 -2.862929
EQUIPE 1.491396 2.671433
MANAGER -2.706436 -4.951130
C 13.01733 11.43809
R-squared 0.416499 F-statistic: 16.95260

Le taux d’absentéisme diminue si


- le salaire moyen augmente
- le pourcentage de part time augmente
- non capacité à travailler en équipe
- les relations avec le manager sont bonnes
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 17

1.2 MOTS CLEFS

• Population: collection complète (dans le sens


où elle inclut tous les individus à étudier) d’individus
sur laquelle porte l’étude

• Paramètre: mesure numérique décrivant une


caractéristique de la population

• Echantillon: sous-ensemble d’individus obtenus


à partir de la population (méthodes de sondage)

• Une statistique: mesure numérique décrivant


une caractéristique de l’échantillon

• Donnée: fait numérique ou non porteur d’infor-


mation
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 18

• Variable: Caractéristique dont la valeur change


d’un individu à l’autre dans la population

• Type de variable:
- variable directe: mesurable directement (salaire)
- indicateur: non mesurable directement (santé
des entreprises belges cotées en bourse: BEL20)
- variable qualitative: caractéristiques (modalités)
non numériques (profession)
- variable dichotomique: variable qualitative
ne prenant que 2 modalités (sexe)
- variable quantitative dicrète: valeurs numériques
isolées (nombre d’enfants)
- variable quantitative continue: valeurs numériques
sur un intervalle continu (salaire)
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 19

1.3 DEMARCHE SCIENTIFIQUE

Objectif(s) à atteindre, Question(s) à poser



Collecte des données:relevé direct, expérimentation,
enquête exhaustive (recensement),
enquête partielle (Sondage)

Analyse descriptive:
univariée (Stat 1) et bivariée (Stat 1)
P-variée (Analyse des données)

Analyse confirmatoire: Inférence statistique
Estimation, Tests d’hypothèse (Stat 2)
Régression Linéaire et Séries Chrono. (Econo)

Prévisions, Conclusions, Décisions
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 20

=⇒ Deux grandes aires d’étude:

• Statistique descriptive: Etape préliminaire


donnant des graphiques et des valeurs numériques
résumant l’information du jeu de données

• Inférence statistique: facilite le processus de


décision en utilisant des procédure d’estimation,
de problèmes de tests, ...

Lien entre Statistique et Probabilité:

Probabilité
Population −→ Echantillon

Inférence Statistique
Echantillon −→ Population
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 21

1.4 MATIERE VUE EN STATISTIQUE 1

• Analyse descriptive des séries univariées et bi-


variées
- Objectifs: explorer et décrire
- Organisation: tableaux et graphiques
- Synthèse: position, dispersion, forme

• Calculs de probabilité

• Analyse d’une série chronologique


- Décomposition en différentes composantes
- Prévision

• Variables aléatoires discrètes et lois de proba-


bilité
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 22

1.5 PLAN DU COURS

• Introduction
• Variables aléatoires continues et lois de prob-
abilité
• Lois de probabilité multivariées
• Combinaisons de variables aléatoires et com-
portements asymptotiques
• Distributions échantillonnées
• Le problème de l’estimation
• Les tests d’hypothèses
• Analyse de variance
• Modèles de régression
• Aperçu d’autre méthodes statistiques
CHAPITRE 1. INTRODUCTION A LA STATISTIQUE 23

1.6 REFERENCES

• Anderson D., Sweeney D., Williams T. (2001),


Statistiques pour l’économie et la gestion,
Bruxelles, De Boeck Université.
• Dagnelie P. (1998), Statistique théorique et
appliquée. Tome 2: Inférence statistique
à une et à deux dimensions, Bruxelles, De
Boeck Université.
• Dehon, C. , Droesbeke, J-J. et Vermandele C.
(2008), Eléments de statistique, Bruxelles,
Editions de L’Unviversité de Bruxelles.
• http://www.ulb.ac.be/soco/statrope/ (notes
de cours et TP)
#$%&'()*!+!,!-.'/!0*!
1).2%2'3'(4!56'7%)'4*/!
!"#$%&'"!,!8((*6('.6!%9:!;$%6<*=*6(/!
='69/;93*>=%?9/;93*!@%'(!%9!;.9)/!($4.)'A9*!*(!
6.6!'6;39/!0%6/!;*/!6.(*/B!

!
!
!

! " ! +
D!E%&&*3/! 6$%,$70"/$0+$12,%"!,!/%!7%3*9)!*/(!
04(*)='64*!&%)!3*!)4/93(%(!0G96*!
! *:&4)'*6;*!%34%(.')*!
()*+%,"-."/$0+$12,%"!,!&).;*//9/!0.6(! !
.6!6*!&*9(!&%/!&)47.')!3*!)4/93(%(! !
!
F:*=&3*/!,!>!3%6;*)!96!04! F:*=&3*!,!.6!3%6;*!+!&'H;*/!0*!=.66%'*!*(!
! ! ! >!?.9*)!%9!3.((.! .6!/G'6(4)*//*!%9!6.=2)*!N!0*!)4/93(%(/!!
! ! ! >!@%')*!96*!.@@)*!0*!7*6(*! @%;*!.2(*69/!,!
>! A9%3'(4!0G96*!&'H;*!I04@*;(9*9/*! !
.9!6.6J!0%6/!96!&).;*//9/!
'609/()'*3!
>! *(;!
!
!

(3*$."4+.5$-1,002-/Ω Ω!,!*6/*=23*!0*/!
)4/93(%(/!&.//'23*/!
!

F:*=&3*!,!.6!3%6;*!+!&'H;*/!0*!=.66%'*!
!
!
!
Ω! !
K"!,!1"!∩!1+
K+!,!1"!∩!L+
KC!,!L"!∩!1+
KM!,!L"!∩!L+
!

! C ! M
8+9,-,1,2-/:;'-"/<$%,$70"/$0+$12,%"=/
!
!
56*!7%)'%23*!%34%(.')*!I7B%BJ!N!*/(!96*!
@.6;('.6!04@'6'*!/9)!Ω!Q!7%3*9)/!0%6/!
96!*6/*=23*!6.(4!RB!
!

!
!

!
!
8!;$%A9*!K!0*!Ω!.6!%//.;'*!96*!7%3*9)!
:SNIKJ!∈!RB!
!
!

! O ! P
8,3.%>1"/"1/.2-1,-'"/ @2,/A:,31%,7'1,2-B/:;'-"/<=$=/:,3.%>1"/
! !
U'!R!*/(!96!*6/*=23*!0'/;)*(V!3%!7B%B!*/(! e6!%//.;'*!Q!3%!7%3*9)!:!∈!R!
0'(*!0'/;)H(*!I&%)!*:*=&3*/!RSWXV!"V! 3G*6/*=23*!0G47H6*=*6(/!,!
YV!6Z!.[!6!∈!\!]!RS^J! F:SWK!f!K!∈!Ω!*(!NIKJS:!Z!
! !
F:*=&3*/!,!! e6!&*9(!0.6;!;%3;93*)!&.9)!(.9(!:!∈!R!,!
! &:!S!1NI:J!S!1INS:J!S!1IF:J!
()*+%,"-."/ 6$%,$70"/ 6$0"'%3/ !
$0+$12,%"=/?/ *233,70"3/6 !!@2,/:"/*%27$7,0,1+/:"/?/C/
#.6(%;(*)!O!;3'*6(/! \2)*!0*!;3'*6(/!A9'! XV!"V!+V!CV!MV!O!
&%//*6(!;.==%60*6(
∈6F=!
DA)E*)BE/)/∈
D6/&*;(*)!96*! \2)*!0*!)%0'./! XV!"V!YBV!OX! !
;%)<%'/.6!0*!OX! 04@*;(9*9/*/! E*=%)A9*!,!WI:V&:JV!:!∈RZB*/(!96*!g1!
)%0'./!
_4)*)!96!)*/(%9)%6(! \.=2)*!0*!;3'*6(/! XV!"V!+V!CV!YB!
//'!
&*60%6(!96*!?.9)64*! ! ! ! &:!≥!X!!∀!:!∈!R!
!
U'!R!*/(!;.6('69V!3%!7B%B!/*)%!0')*! ! ! *(! !
" " ="
!
!
;.6('69*!I&%)!*:*=&3*!R!S!ℜJ! !
()*+%,"-."/ 6$%,$70"/ 6$0"'%3/ F:*=&3*/!,!0'/()'29('.6!96'@.)=*V!
$0+$12,%"=/? *233,70"3/6/ 2'6.='%3*V!0*!c*)6.9'33'V!0*!1.'//.6V!
`.9*)!%9!3.((.! a.6(%6(!<%<6*) D6(*)7%33*!0*!Eb! <4.=4()'A9*V!2'6.='%3*!64<%('7*V!
_4)*)!96!)*/(%9)%6(! c464@';*/! D6(*)7%33*!0*!Eb!
&*60%6(!96*!?.9)64*! $h&*)<4.=4()'A9*V!*(;!
!

! T ! d
L.6;('.6!0*!)4&%)('('.6,! F/&4)%6;*!=%($4=%('A9*!0*!N,!
! #l $ m = " " ! ! = µ
LI:JS1INj:J!! ! :k!E! !
!
! !
R%)'%6;*!0*!N!,!
#lI $ − µ J + m = " "! I ! − µ J + = σ +
! !
!
a.=*6(!0G.)0)*!)!&%)!)%&&.)(!Q!
3G.)'<'6*,!
#l $ % m = " " ! ! % = µ n %
! !
!
a.=*6(!;*6()4!0G.)0)*!),!
#lI $ − µ J % m = " "! I ! − µ J % = µ %
!
!
L.6;('.6!<464)%()';*!0*/!=.=*6(/,!
!
' $ I& J = #l(&! m = " (&! "!
!
!! %7*;! & ∈ ) !
F(!.6!%!3%!)*3%('.6!/9'7%6(*/!,!
* % ' I& J
µ %n = l m& =X !
*& %
!
! i ! "X
DD!-.'!0G96*!7B%B!;.6('69*! @2,/:;'-"/<=$=/.2-1,-'"/C/
! ≤/?/≤
GA)/≤ ≤/)H:)BI9A)B/:)/
/
1)*6.6/!3*!;%/!<464)%3!.[!:!∈!E!I%9()*!
9A)B/"31/$**"0+/92-.1,2-/:"/:"-3,1+A:"/
&.//'2'3'(4!,!:!∈!Q!96!'6(*)7%33*!0*!EJ!
*%27$7,0,1+B/3'**23+"/.2-1,-'"/3'%/!=/
!
!
e6!=*/9)*!96*!7B%B!;.6('69*!&%)!
3G'6(*)=40'%')*!0G'6(*)7%33*/B!
E%&&*3!,!

!
!
F:*=&3*/!,!0'/()'29('.6!96'@.)=*V!
6.)=%3*V!0*!-%&3%;*V!3.<>6.)=%3*V!
*:&.6*6('*33*!64<%('7*V!<%==%V!
! 3.<'/('A9*V!χ+V!*(;!!
!

!
! "" ! "+
1).&)'4(4/!0*!@I:J! J2-.1,2-/:"/%+*$%1,1,2-/
! /
E%&&*3!,!U(%('/('A9*!0*/;)'&('7*!,!

!
g4@'6'('.6!,!LI:J!S!1IN!≤!:J!! .[!:!∈!E!
!

!
!

1).&)'4(4/B!
!

!
! "C ! "M
! (3*+%$-."/#$15+#$1,&'"E/92-.1,2-/
! K+-+%$1%,."/:"3/#2#"-13E/L=//
!
/
/

! "O ! "P
/ @2,3/.2-1,-'"3/*$%1,.'0,>%"3/
/
/

/
/
! "T ! "d
/

/
/
/ /
/
/
! "i ! +X
/
/ /
/ /
/ /
! +" ! ++
/

/ /
/ /
/
! +C ! +M
/

/
/
/ /
/ /
/
! +O ! +P
/
/

/
! +T ! +d
/ /
/

/ /
/ /
/ /
! +i ! CX
/ /

/
/ /
! C" ! C+
/ /

/ /
/ /
/
! CC ! CM
/ /

/
/ /
/ /
! CO ! CP
/ /

/ /
/ /
/ /
! CT ! Cd
/ /

/
/ /
/ /
! Ci ! MX
/ /

/ /
/ /
/ /
/ /
! M" ! M+
/

/
/ /
/ /
/ /
! MC ! MM
#$%&'()*!C!,!-.'/!0*!
1).2%2'3'(4!c'7%)'4*/!
vx

Ω • •
• X • • •
• •
• • • • • x•
ω ••
• ••
••
Y Z
vz
vy • •
• • • •
• y• • •z • •

• •
• • •
•• ••
!
!

oR%)'%23*!%34%(.')*!Q!&!0'=*6/'.6/!I7*;(*9)!
# !& #/ !M &
% /" ( % (
//"
% (
%34%(.')*J!,!! ! ! %" ( $% % / ! & (
% (
% /" ( % //" (
$#' % (
! $ / ! ''!
F:*=&3*!,!e6!3%6;*!+!&'H;*/!0*!=.66%'*!,!
! N!S!6.=2)*!0*!@%;*/!.2(*69!]!
p!S!4;%)(V!&)'/!*6!7%3*9)!%2/.39*V!*6()*!3*!
6.=2)*!0*!@%;*/!*(!3*!6.=2)*!0*!&'3*/!
Ω v
ω 1 : P1 ∩ P2 y

/ ω 2 : P1 ∩ F2
2

1
ω 3 : F1 ∩ P2

ω 4 : F1 ∩ F2 0
1 2 x

! MO ! "
DB!-.'/!2'7%)'4*/!0'/;)H(*/! F:*=&3*!,!e6!3%6;*!+!&'H;*/!0*!=.66%'*!,!
! N!S!6.=2)*!0*!@%;*/!.2(*69!]!
!
p!S!4;%)(V!&)'/!*6!7%3*9)!%2/.39*V!*6()*!3*!
"J! 8+9,-,1,2-/
6.=2)*!0*!@%;*/!*(!3*!6.=2)*!0*!&'3*/!
/
!
# ! (&
% # ( (&
%
! !&)*60!3*/!7%3*9)/! !.[! !
$"' $ )' Ω v
ω 1 : P1 ∩ P2 y
!
( 2

%# (& ∈ < = < ( ⊗ < ) !


ω 2 : P1 ∩ F2

//$ )'
1
ω 3 : F1 ∩ P2

! ω 4 : F1 ∩ F2 0
1 2 x
!
! o!!!' () = *[A! = (B#A" = )B] ≥ N ! !
! !
{[
! o!gB1B+!,! A(E )B E '()
// ] }
EA(E )B ∈ < !
!!!!!!!!!!!!!!!h! h"SX! h+S+! ' (=!
!
! o!\BcB!,! " " '() = M ! :! !
( )
:"!S!X! &""!S!X! &"+!S!"rM! "rM!
! o!q%23*%9!0*!&).2%2'3'(4/!,!
!! !!
!!!!!!!!h! h! ' (=! :+!S!"! !!!&+"!S!"r+ !!&++!S!X! "r+!
:! !
$ ! !!
$ ! :C!S!+! &C"!S!X! &C+!S!"rM! "rM!
"!! !! "! !! "!!
! ! '= ) ! "r+! "r+! "!
:! ' ( )! ' (=!
!!
$ !!
$ !
"!! !! "! !! "!! !
' = )! ! ' = )! ! "!
!! !! !
$ $

! + ! C
! !
+J! @2,3/#$%K,-$0"3/ MJ! P2#"-1/."-1%+/:;2%:%"/%/"-/)/"1/:;2%:%"/3/
! "-/Q/
{
! "sJ!gB1B!INJ!,! / A( E ' (= B E ( ∈ < ( }! !
! [ ]
o! µ -. = / A! − µ ( B - A" − µ ) B . !
! ! .[! ' ( = = * A ! = ( B = " ' () ! !
) ! ! = " " A( − µ ( B - A) − µ ) B . '() !
! ( )
! µ ( = " ( ' ( = !]! σ O( = " A( − µ ( B O ' (= !]!BBB! !
! ( ( o! #%/!&%)(';93'*)!,!.2<$%,$-."!
! !
{
! +sJ!gB1B!IpJ!,! A )E '= ) B E ) ∈ < ) !
/ } [
! µ MM = σ () = / A! − µ ( B A" − µ ) B ! ]
! !
! !
! ! .[! '= ) = * A" = ) B = " ' () !
( \BcB!, µ MM = / [ !" ] − µ ( µ ) = µ MM ′ − µ ( µ ) !
! !
! µ ) = " ) '= ) !]! σ O) = " A ) − µ ) BO '=) !]!BBB! OJ! R2"99,.,"-1/:"/.2%%+0$1,2-!
! ) ) !
! µ MM σ ()
! ρ= = !
σ( σ) σ(σ)
CJ! J2-.1,2-/:"/%+*$%1,1,2-!
! !
! !! +A(E )B = * [A! ≤ (B # A" ≤ )B]! !
! ! E%&&*3!,! −M ≤ ρ ≤ M !
! = " " '%, !
%≤ ( ,≤) !
! M ! O
! SS=/@2,3/#'01,<$%,+"3/
8,31%,7'1,2-3/.2-:,1,2--"00"3/
!! 012345653783"3893!3:3
!
:,3.%>1"3/
' () !
e6!/*!@':*!NS!:!!*(!.6!&./*!! ' ) ( = ! "J! T+-+%$0,1+3/
' (=
! !
{(
! ! ! ) E ')(
!! // ) E ) ∈< ) ! } o!N = A ! M E ! O E === E ! ' B U !,!7*;(*9)!%34%(.')*!
!
! ! ! µ ) ( = / [" ! = ( ] = " ) ' ) ( !
)
o!R%3*9)/!0*!N!,!: = A ( M E ( O E === E ( ' B U !.[!!
!!
[ ]
!
! σ O) ( = / A" − µ ) ( B O ! = ( ! : ∈ < = ⊗ < <!
!! / <

( )
O
! = " ) −µ )( ')(! !
) [ ]
o ' ( M === ( ' = * A! M = ( M B ∩ === ∩ A! ' = ( ' B !
! !
!! ;12345653783!3893"3:3 +J! @2,3/#$%K,-$0"3E/02,3/.2-:,1,2--"00"3E/
'() .2%%+0$1,2-/121$0"E/.2%%+0$1,2-/*$%1,"00"E/
e6!/*!@':*!pS!h!!*(!.6!&./*!! ' ( ) = !
'=) .2%%+0$1,2-/#'01,*0"E/*0$-3/:"/%+K%"33,2-E/L!
!
{
! ! ! A( E ' ( ) B E ( ∈< ( !
!! // } !
!
! ! !&%)%=H()*/! µ ( ) E σ O( ) E === !
!
TJ! 8%2,1"3/:"/%+K%"33,2-E/R2'%7"3/:"/
%+K%"33,2-E/!$**2%1/:"/.2%%+0$1,2-E/===!
R.')!gBeB+V!&%)!%6%3.<'*

! P ! T
CJ!()"#*0"C/:,31%,7'1,2-!! ! ! ! SSS=/@2,3/7,<$%,+"3/.2-1,-'"3/
! ! ! ! #'01,-2#,$0"! !!
!
E1 → p1 !!"J! 8+9,-,1,2-!
# !& # (&
E2 → p2 ! o! % ( → % ( ∈! O !
e
M M
 m 
∑ pi = 1 !! //$ " ' $ )'
 i=1 
Em → pm o!-%!@.6;('.6!0*!0*6/'(4!@I:VhJ!04@'6'*!&%)!!
! !
o!6!)4&4('('.6/!'604&*60%6(*/! *[A( ≤ ! ≤ ( + 7(B ∩ A) ≤ " ≤ ) + 7)B]!
!
= > A ( E ) B 7( 7) !
! ! A ! M E ! O E ===E ! = B U !.[! !< !S!6.=2)*!0*! /< ! y
!
o!R%3*9)/!,!A ( M E ( O E === E ( = B U ! y + dy
y
!
=
! (< !,!*6('*)/!t!X!(*3/!A9*! " (< = 9 ! x x + dx x
< =M !
!

! +J!
!! J2-.1,2-/:"/%+*$%1,1,2-!
o!1).2%2'3'(4/!,!
!!
+A(E )B = *[A! ≤ (B ∩ A" ≤ )B]!
!
! *A!M = (M E !O = (O E ===E != = (= B ! ( )
! ! = ) ) > A%E,B 7% 7, !
!!! −∞ − ∞
9V ( ( (
! = 'M M 'O O === '== !
(M V (O V === (= V
y

!
y

\BcB!,!-.'/!=%)<'6%3*/!S!2'6.='%3*/!u
x x
!
!
! d ! i
WB! @2,3/#$%K,-$0"3/ (3*+%$-."3/#$15+#$1,&'"3/
/ !
! "sJ! 45*53?!2!,!! >M A ( B E (/ ∈ ! ! @$<3=A-B<9AC8/
∞ ∞
.[! >M A ( B = ) > A ( E ) B 7) ! ! µ ( E σ (O E === ! ! *6!N!,!! / M [ B A!B ] = ) B A(B > M A(B 7( !
−∞ −∞
! ! *6!p!,!*:*);';*!
! #%/!&%)(';93'*)/!,!
! +sJ! 45*5?"23,!! >O A )B E )/ ∈! ! >!a.h*66*!=%)<'6%3*!0*!N!,! ! / M A!B = µ M !
>!R%)'%6;*!=%)<'6%3*!0*!p!,!*:*);';*B!

.[! >O A )B = ) > A ( E )B 7( ! ! µ ) E σ O) E === !
−∞ 3
! @$<3D$97<E<$998CC83783"3893!3F3(3:3

! / OYM [ GA! E"B ] = ) GA( E )B > A )Y (B 7) = ϕ A(B!
XB! 8,31%,7'1,2-3/.2-:,1,2--"00"3=/ −∞
/ #%/!&%)(';93'*)/!,!
+,-.&/,-01*(1*(-0/&21.,-*/&/,--(33(0!,! >a.h*66*!,!
! ∞
! I'J! 3.'!0*!p!4(%6(!0.664!N!S!:!,! F+f"lpmS /A" Y ! = (B = ) ) > A )Y (B 7)
> A( E )B −∞ !
> A ) Y (B = ! +
> M A(B >!R%)'%6;*!σ +f"!,!

! I''J!3.'!0*!N!4(%6(!0.664!p!S!h!,! H A" Y ! = ( B = ) [ ) − / A" Y ! = ( B ]O > A ) Y ( B 7)
> A( E )B
> A( Y )B = ! −∞
> O A)B ∞
! ! = ) ) O > A )Y (B 7) − [/A" Y ! = (B ] O
! −∞ !
!
!
I*:&)*//'.6/!%6%3.<9*/!&.9)!N!4(%6(!0.664!p!S!hJ!
!
! "X ! ""
@$<3I<,A-<J83/ /
∞ ∞
/[GA ! E " B]= ) ) G A ( E ) B > A ( E ) BB 7( 7) Z [B! R$3/*$%1,.'0,"%/C/@$/02,/-2%#$0"/
−∞ −∞ 7,<$%,+"/
#%/!&%)(';93'*)141 !
>!#.7%)'%6;*!,!I*:*);';*J! "sJ!526/-/&/,-14!!
σ MO = / [A ! − µ M B A" − µ O B ] !
= /A !" B − µ M µ O!
# !& # (&
!
! o! ! % ( → % ( ∈!E! O !
@<89389E-83C8.37<>>J-89E8.38.'J-A9D8.3 $ " ' $ )'
=AEGJ=AE<K%8.33 !
! M
! o! > ((E )) = !
-%K!.@!'(*)%(*0!*:&*;(%('.6/,! O π σ (σ ) M − ρ O
/ [GA ! E " B]= /M {/ O Y M [ G A ! E "B] }! !
! * (( − µ )O (( − µ ( )() − µ ) ) () − µ ) ) -
O
M
! g4=.6/()%('.6!,! − ,
(
− Oρ + /
O (M − ρ O ) σ (O σ(σ ) σ O)
! /M {/ O YM [ G A ! E " B ] }! ×8 +
! .

! ! * ∞ -! !
= / ) G A ( E ) B > A ) Y ( B 7)
, /
.[! µ ( E µ ) ∈!EV! σ ( E σ ) ∈!E +N !*(!ρ ∈[−M\M]!
M
+− ∞ .
! ! ∞ * ∞ - !
= ) !
, ) G A ( E ) B > A ) Y ( B 7) / > M A ( B 7(
# !&
+− ∞ .
( )
−∞

! !
∞ ∞ !! % ( !v!\! µ ( E µ ) E σ (O E σ O) E ρ
= ) ) G A ( E ) B > M A ( B > A ) Y ( B 7( 7) ! $"' !
−∞ −∞ %!'! '!&!'!'! (!
!! >A(E)B
! ! = / [ G A ! E " B ]!
!
#%/!&%)(';93'*)!,!
GA ! E" B = " ! /A" B = / M / OYM A" B [ ]!
! "+ ! "C
+sJ!7,&8&/,-0198&%/./(33(0!,!! CsJ! +,-.&/,-1*(1*(-0/&21<2.%/&=%(198&%/./(33(>4!
! !
($ )
N!S!! :
(!)
:!S! ; ! > A( E )B=
A O
M
O π B A :"1 Σ B M]O 8
M
O

− () − µ ) Σ − M () − µ )

! ! ! ! !
!
# µ ! & # µ" & !
o! µ !S! %$ µ ; (' !S! %$ µ+ (' V! !
! !
\BcB!,!F6!047*3.&&%6(!;*((*!*:&)*//'.6V!.6!!
# σ MM σ MO & # σ MO σ MO & ! ! )*().97*!I*:*);';*J!,!
! Σ=%σ σ ( = % O (! !
$ OM OO ' σ
$ MO σ O '
!
! .[! σ MO = ρ σ M σ O ! M
> A( E )B = O
!
! Oπ σ M σ O M −ρ
\BcB!, Σ !*/(!/*='w04@'6'*!&./'('7*!,!*6!*@@*(! !
! !
:"1 Σ = σ MO σ OO − σ MOO
M * A( − µ M B O A( − µM BA ) − µ O B A ) − µ OBO -
− − O ρ +
= σ MO σ OO − ρ O σ MO σ OO = σ OM σ OO AM − ρ O B ≥ N ! O A M − ρ O B ,+ σ OM σMσO σ OO /
.
8
! !
!!U'! ρ < M !V! Σ !*/(!96*!=%()';*!)4<93'H)*!! !
!
! I0.6;!'67*)/'23*J!,!
!
O
−M M # σ O − σ MO &
Σ = % (!
:"1 Σ $ − σ MO σ MO '
M # σ OO −ρσM σO &
! = % (!
:"1 Σ $ − ρ σ M σ O σ MO '
! "M ! "O
E*&)4/*6(%('.6!<)%&$'A9*!0*!@!I:!V!hJ!&.9)! MsJ!?,/0198%@/-83(0!,!
σ M = σ O = M !I0G%&)H/!c$%((%;$%)hh%!*(!`.$6/.6!r!U%&.)(%J! !
! @2,/#$%K,-$0"/"-/?!,!!N!v!\!A µ M E σ MO B !
! A ( − µ M BO

∞ M O σMO
>M A ( B = )−∞∞ > A ( E ) B 7 ) = 8
O π σM
!
I*:*);';*JB!
!
!
@2,/#$%K,-$0"/"-/^!,!p!v!\!A µ O E σ OO B !
A ) − µ O BO

∞ M O σ OO
>O A )B = )−∞∞ > A ( E ) B 7 ( = 8
O π σO
I*:*);';*J!
!

!
!

! "P ! "T
OsJ!?,/01.,-*/&/,--(33(0!,! A>1B%,"%/2&21*(13819,;(--(1.,-*/&/,--(33(1C
! 5%,/&(1*(1%2@%(00/,-1(-19,;(--(1D=8*%8&/D=(B!
-.'!0*!p!4(%6(!0.664!N!S!:!,!
> A( E )B !
> A ) Y (B = ! 1).&)'4(4!,! -%! @.6;('.6! B A ! B! A9'!
> M A(B

M * σ
) − µ O − ρ O A( − µ M B
-
O {
='6'='/*!!! / [ " − B A ! B ] O ! }
M Oσ O
,
AM − ρ B +
O
σM /. ! */(!0.664*!&%)! B A ! B = / OYM A " B!
= 8 O

σO M−ρO Oπ
!

! g4=.6/()%('.6!,!
! !

! !-.'!\!A µ OYM E σ O ! / {[ " − B A!B ] O }!


OYM B!.[!,!
!
! {
= / M / O YM [ " − B A! B ]O !}
µ OYM = /A" Y ! = (B = µ O + ρ
σO
A( − µ M B ! { [
= / M / O YM " − / O YM A" B + / O YM A" B − B A ! B ]
O
}
σM
σ OOYM = H A" Y ! = (B = σ OO AM − ρ O B !! ! !
! = /M {/ O YM [" − / O Y M A" B ]
O
}!
! ! { [
+ / M / OYM / OYM A"B − B A!B ] }!
O

f(y|x) 02 42
x1
[ ]
%!'!'!
[
+ O / M 1 / O Y M A" B − B A ! B / O Y M " − / O YM A" B
'!&!'!'!'! (!
] 5
x2 x3
23 62
x !! N
\.(.6/!3%!7%)'%6;*!;.60'('.66*33*!0*!p!*6!N!&%)!
!
µ y|x 1
µ y|x 2 µ y|x 3
{[
H OYM A" B = / OYM " − / OYM A" B
O
! ]}
y ! !
! gH/!3.)/!,!
F:*);';*!,!-.'!0*!N!4(%6(!0.664!p!S!!h!I&%)! !
%6%3.<'*J!
!
{
/ [ " − B A ! B ]O ! }
! "d ! "i
[ ]
= / M HO YM A" B + / M {[ / OYM A" B − B A ! B ] }!
O R$3/*$%1,.'0,"%/:"/0$/02,/7,<$%,+"/-2%#$0"/C/
µ OYM = /A" Y ! = (B = µ O + ρ
σO
A( − µ M B !
-*!='6'=9=!/*)%!%((*'6(!/'! σM
! σO
B A ! B = / OYM A" B! 0.6;!,! B A(B = µ O + ρ A( − µ M B = α + β ( !
σM
I;A@0J!
! .[!β = σ MO ] σ MO !*(! α = µ O − β µ M
!
#%/!&%)(';93'*)!,!!U'!! B A!B = / A"B !,! !! ! ;.9)2*!3'64%')*!
! !
{
! H A" B = / [ " − / A " B ]O ! } .[!3%!7%)'%6;*!)4/'09*33*!*/(!0.664*!&%),!
!
!
] {[ )] }
o! σ OO =M = !7%3*9)!='6'=%3*!0*!
[ (
O
= / M HO YM A"B + / M / OYM A"B − / M / OYM A"B
[
/ A" − α − β ! B O ! ]
= / M [HO YM A"B ]+ HM [/ OYM A"B ] !
!
! ! = σ OO AM − ρ O B !
.[!HM !*/(!96*!7%)'%6;*!0%6/!3%!3.'!=%)<'6%3*!! !
*6!N! ! I04=.6/()%('.6!*6!*:*);';*J!
!
#.6/4A9*6;*/!!,!
!
o! -*/!7%)'%6;*/!;.60'('.66*33*/!0n96*!3.'!!
! 6.)=%3*!2'7%)'4*!/.6(!4<%3*/!Q!3%!7%)'%6;*!!
! )4/'09*33*!
!
o! -*/!=.h*66*/!;.60'('.66*33*/!/.6(!/9)!3%!!
! 0).'(*!0*!)4<)*//'.6!aBxB!!
! +X ! +"
E>1F,G8%/8-.(1 !
!
σ"+!S!FINpJ!>!µ"!µ+!
DRB!-.'/!=93('7%)'4*/!;.6('69*/!
!
!
!
g2&(%9/-8&/,-1*(1#1<1$1:1>!,!
! A23 LJ9J-AC<EJ.3
[
! /A !" B = / M / OYM A ! " B ! ] 3
!

e)!,!
( )U
N = ! M E ! O E === E ! ' !,!7*;(*9)!%34%(.')*!
! !
/ OYM A ! " B = / A ! " ! = ( B !
!
( )
U
R%3*9)/!0*!N!,!: = ( M E === E ( ' !.[!://∈ ! ' !
* σO -
! = ( /A " ! = ( B = ( µ O + ρ A( − µ M B ! !
,+ σM ./ L.6;('.6!0*!0*6/'(4!,! > () ) E :∈/ ! ' !
* σO -
[ ]
! / M / OYM A ! " B = / M ! µ O + ρ
,+ σM
!A ! − µ M B
./
!
!
* - I23 M3 @$<.3=A-B<9AC8.3
σO , 3
! =µM µO +ρ / M A ! O B − µ MO / !
σ M , %!'! '!
&!'!' (!
! / 3 M3 @$<.3D$97<E<$998CC8.3
!! + σM O
. 3
! = µ M µ O + ρ σ M σ O! 3 M3 6$--JCAE<$93 N3E$EAC83
! 3 3 3 3 3 3 N3'A-E<8CC83
! w!=%CE<'C83
w!3
!σ M O ρ σ M σ O ρ
= ! = !;.*@@B!#.))43%('.6!
M3 *CA9.3783-JB-8..<$93
! YY!

! ++ ! +C
! !
;J! /(8='C83:3@$<39$-=AC83=%CE<,A-<J83
! o! R%3*9)/!0*! )/ C ) ∈! ' !
RB!R%)'%23*/!%34%(.')*/!
! o! L.6;('.6!0*!0*6/'(4!,! '604&*60%6(*/!
! $B/ 8+9,-,1,2-/A.$3/:"/O/<=$=B/
M
− () − µ ) Σ − M () − µ )
U !
M
> A)B = 8 O N!*(!p!/.6(!'604&*60%6(*/!//'!,!
(O π ) ' O (:"1 Σ )M]O !
!
.[! µ //∈ ! ' !*(! Σ ' × ' !*/(!96*!=%()';*!)4*33*!
[( ) ( )]
* A M ≤ ! ≤ IM ∩ A O ≤ " ≤ I O !
!
/h=4()'A9*V!/*='w04@'6'*!&./'('7*!
!
( ) ( )
= * AM ≤ ! ≤ IM = * A O ≤ " ≤ IO !
! !
∀ A < IM E ∀ A O < IO ∈ ! !
! o! 1).&)'4(4!C!,! // M
U.'(!9!96!7*;(*9)!A9*3;.6A9*!0*!//! ' !,! !
! !
!
(
' = %M E===E%' ! )U y
! b2
'
! ! / ' ∈! !V!!
N!*/(!6.)=%3!/'V! ∀
!
! ! 9n!N = " % & ! & !*/(!96*!7B%B!! ! a2
&
! ! 6.)=%3*!
a1 b1 x!
!
!
!
! +M ! +O
!
7B/ R=_=`=/:U,-:+*"-:$-."/
Chapitre 4 : Théorèmes
/
! HI>1F801*/0.%(&141
fondamentaux
! ! o! ' () = ' (= '= ) ! ∀ / A( E )B ∈ < !
! I Sommes et Produits de v.a.
! JI>1F801.,-&/-=141
! > A(E )B = >M A(B = >O A)B! Soient X et Y deux v.a. et a, b ∈ R
! //∀A(E )B ∈! O ! Théorème 1 : E( X + Y ) = E (X ) + E(Y )
1
1 KsJ!#%/!<464)%3!,! Démonstration : Cas discret
! +A(E )B = +M A(B = +O A )B !
! //∀A(E )B ∈ < ! • Loi de X : {(x, px ) , x ∈v x }
! {
• Loi de Y : ( y, p y ) , y ∈v y }
#.6/4A9*6;*!,!
! U'! N! *(! p! /.6(! '604&*60%6(*/V! 3%!
0'/()'29('.6! ?.'6(*! 0*! INVpJ! */(! • Loi de (X,Y) : {[(x, y) , p xy ], x ∈v x , y ∈v y }
;.=&3H(*=*6(!/&4;'@'4*!&%)!3%!;.66%'//%6;*! où p xy est tel que p x = ∑ p xy et p y = ∑ p xy
0*/!0'/()'29('.6/!=%)<'6%3*/! y x
! {
• Loi de X + Y : (x + y, pxy ) x ∈v x , y ∈v y }
.B/ ()1"-3,2-/$'/.$3/#'01,<$%,+/ E(X + Y) = ∑ ∑ (x + y)pxy
! M E === E ! ' !/.6(!'604&*60%6(*/!//'! x y

! = ∑ ∑ xpxy + ∑ ∑ ypxy
'
( ) ( )
+ ( M E === E ( ' = ∏ +! < ( < !V!!!
< =M
x y x
= ∑ xpx + ∑ yp y = E(X) + E(Y)
y

x y cqfd
∀ A( M E === E ( ' BU ∈ < !
!
// Exercices : - cas continu
! +P
- extension E(aX + bY ) = aE (X ) + bE(Y )
1
Théorème 2 Corollaire 1
Si X et Y sont indépendantes alors Deux variables indépendantes sont non
E(X Y ) = E( X ) . E(Y ) corrélées
Démonstration : Cas discret
Reprenons les notations utilisées dans le Démonstration :
théorème 1
Soit X et Y deux v.a. indépendantes :
• Loi de X Y : {(x y , pxy ) x ∈v x , y ∈v y }
µ 11 = E [[X − E ( X )] [Y − E (Y )] ]
•Indépendance ⇔ pxy = px p y , ∀ (x , y) ∈v
= E( XY ) − E ( X ) ⋅ E (Y ) = 0 ⇒ ρ = 0
• E(X Y) = ∑ ∑ xy pxy = ∑ ∑ xy px p y cqfd
x y x y
Remarque :
   
=  ∑ x px   ∑ y p y  = E(X) . E(Y)
x  y  Indépendance ⇒ ρ=0
MAIS ρ=0 ⇒ pas indépendance
cqfd
Exercices : - cas continu Exception : Loi normale (à démontrer)

2 3
Théorème 3
V (X + Y ) = V ( X ) + V (Y ) + 2 Cov (X, Y ) Corollaire 2
Si X et Y sont indépendantes :
Démonstration :
1°) V (X + Y ) = V ( X ) + V (Y )
1°) Rappel : Variances et covariances sont
indépendantes d’un changement 2°) V (aX + bY ) = a 2V (X ) + b 2V (Y )
d’origine
Démonstration : exercice
2°) • Supposons que E(X) = E(Y) = 0

⇒ V(X) = E(X 2 ) , V(Y) = E(Y 2 ) Théorème 4


Si X et Y sont indépendantes :
et Cov (X , Y) = E(X Y )
MX +Y (t) = MX (t)⋅ MY (t)
• Comme E(X + Y ) = 0 :

[
V (X + Y) = E (X + Y) 2 ] Démonstration : exercice

[
= E X 2 + 2 X Y + Y2 ] Remarque :
On peut étendre tous ces résultats pour n v.a.
= E(X 2 ) + 2E(XY) + E(Y 2 )

= V (X) + 2 Cov(X,Y) + V (Y)

cqfd
4 5
⇒ X + Y ~ b (n1 + n2 , p)
II Théorèmes d’addition. cqfd
Nous présenterons ces théorèmes en considérant
Théorème 6 (variables de Poisson)
la somme de deux v.a. X et Y Mais il est clair
qu’on peut étendre ces résultats pour n v.a. Si X ~ p (λ 1 ) et Y ~ p (λ 2 ) sont
indépendantes :
Théorème 5 (variables binomiales) X + Y ~ p (λ 1 + λ 2 )
Si X ~ b (n 1, p) et Y ~ b (n 2 , p) sont
indépendantes : Démonstration : exercice

X + Y ~ b (n1 + n2 , p)
Théorème 7 (variables normales)
Si X ~ n (µ 1 , σ 12 ) et Y ~ n (µ 2 , σ 22 ) sont
Démonstration :
indépendantes :
n1
• X ~ b (n1 , p) ⇒ MX (t) = (q + pet ) 1°) X + Y ~ n ( µ 1 + µ 2 , σ 12 + σ 22 )
n
Y ~ b (n2 , p) ⇒ MY (t) = (q + pe t ) 2 2°) a X + bY ~ n ( a µ 1 + b µ 2 , a 2 σ 12 + b 2 σ 22 )

• MX +Y (t) = MX (t) MY (t) (théorème 4) Démonstration : exercice


n1 + n2
= (q + pe t )

6 7
Remarques :
III Convergences
1) Si {Xn }→a ⇒ {Xn − a}p →0
p

A. Convergence en probabilité
2) Convergence vers une v.a. :
Soient : • Suite de v.a. {X1 ,", Xn ,"} = {Xn }
Soit X une v.a. : {Xn }→X si
p

• Valeur a ∈R {Xn − X}p →0


Définition 1 : Théorème 8
→µ ∈R
Supposons que E(Xn ) n→∞
La suite {Xn } converge en probabilité vers a :
⇒ {Xn } → µ si V(Xn ) 
p

→ 0
{Xn }→a
p
n→ ∞

si ∀ ε et δ positifs, arbitrairement petits, Nous démontrerons ce résultat à partir


∃ n0 ∈N tel que n > n0 entraîne : d'un lemme : l'inégalité de Bienaymé–
Chebichev
P( Xn − a > ε ) < δ

N.B. : P( Xn − a ≤ ε ) > 1 − δ

8 9
Démonstration du théorème 8 :
Inégalité de Bienaymé–Chebichev :
ε
Posons k = dans l'inégalité de B. C., où ε
( )
Si X ~ l oi µ , σ 2 et k ∈R +0 : σ
est un nombre positif, arbitrairement petit :
1
P( X − µ ≥ k σ)≤
k2 V (X)
P ( X − E(X) ≥ ε ) ≤
Démonstration : ε2
a) Cas d'une loi discrète {(x , p x ), x ∈v }
• Pour toute v.a. Xn de la suite {Xn } :
I : x − µ ≥ kσ II III : x − µ ≥ kσ
( )
––––––––––––|––––––•––––––|–––––––––––– V (X n )
P X n − E(X n ) ≥ ε ≤
µ − kσ µ µ + kσ ε2

σ 2 = ∑ (x − µ ) 2 p x • Si V (X n )  
→ 0 alors
n→ ∞
x
= ∑ (x − µ ) p x + ∑ (x − µ ) p x {Xn − E(Xn)}p →0
2 2
x ∈I x ∈II

+ ∑ (x − µ ) p x
2
x ∈ III
≥ ∑ k 2 σ 2 px + 0 + ∑ k 2 σ 2 px
Comme E(X n ) n→


→µ : {X n}p → µ
x ∈I x ∈III
1 cqfd
⇒ P( X − µ ≥ k σ )≤
k2
b) Cas d'une loi continue : par analogie
10 11
La loi des grands nombres de Bernoulli B. Convergence en loi
• Schéma de Bernoulli :
Définition 2
S → P(S) = p
e • Suite de v.a. {Xn } ; v.a. X
S → P(S ) = q = 1 − p
• {Xn }→ X si
loi
FXn (x) → FX (x)
On répète e n fois (indépendance, uniformité) n→ ∞
en tout point de continuité de F(.)
• X = nombre d'apparitions de S ~ b (n , p )
X N.B. : F(.) = Fonction de répartition
• Fréquence d'apparitions de S :
n
⇒ E  = p ; V  =
X X pq Remarque :
 n  n n
(q = 1 − p )
On peut aussi définir la convergence en loi à
partir des :
pq
• Inégalité de B.C. avec k = ε : 1°) fonctions de densité (cas continu) :
n
 X − p ≥ ε  ≤ pq f n (x) → f (x)
P n→∞
 n  nε 2
 X  pq
⇒ lim P − p ≥ ε ≤ lim =0 2°) fonctions génératrices des moments :
n→∞  n  n → ∞ nε 2
M n (t) → M(t)
• Loi des grands nombres : n→∞
 X 
lim P − p ≥ε =0
n→ ∞  n 
12 13
C. Convergence en moyenne IV Théorèmes asymptotiques
d’ordre p
A. Exemple introductif

Définition 3 1) X ~ b (n ; 0,50)

[ ]
Supposons que E (Xn − X) p existe, où {Xn } et
X concernent des v.a., et p ∈R +0 :

{Xn }moyenne

( p)
→X si

[(
E Xn − X )
p
]n →∞ → 0
Cas particulier : Convergence en moyenne
quadratique : cas correspondant à p=2

D. Hiérarchie des convergences

Moyenne (p) ⇒ Probabilité ⇒ Loi (Eléments de Statistique, p. 259)

14 15
2) Variable binomiale centrée réduite B. Théorème de Moivre-Laplace
X − np X − 0. 5 n Si X ~ b (n, p), alors :
Z= =
npq 0.25 n X − np en loi
→ n (0,1)
npq n→∞
Exemple : n=8
Schéma de la démonstration

[ ( )] ( )
1°) X ~ b (n, p) ⇒ MX (t) = 1 + p e t − 1 n = E etx
X−µ
2°) Z = où µ = np ; σ = npq
σ
 tX − µt 
⇒ M Z (t) = E e ( ) tZ
= E e σ e σ 
 
µt n
−  t 
σ
=e  1 + p ( e σ − 1) 
 
 
µt  t

3°) log M Z (t) = − σ + n log 1 + p(e − 1) 
σ

 
t
• Développement en série de e σ

• Développement en série de
 
t
(Eléments de Statistique, p. 260) σ
log 1 + p(e − 1)
 
16 17
t2 2 C. Distribution de Poisson
4°) lim log M Z (t) ≈ ⇒ M Z (t) ≈ e t / 2
n→∞ 2
Énoncé du théorème de convergence
soit la fonction génératrice des moments de
la v.a. n (0 , 1) Si X ~ p (λ ), alors :

Conditions d'application du théorème X − λ en loi


→ n (0,1)
λ λ →∞
Théorème valable sous l'une des deux conditions
suivantes : Exemples

1°) npq = 9

2°) n = 20, np = 10, nq = 10

C. En résumé

18 19
D. Théorème central limite (T.C.L.) Principes de la démonstration sous les
conditions de Lévy-Lindeberg :
Soit {X 1, X 2, ..., X n } une suite de v.a. • Xi ~ Loi (µ , σ 2 ,...)
indépendantes , de moyennes µ i et de variance E(XT ) = nµ ; V(XT ) = nσ 2
σ i2 finies (i=1, ..., n). Sous quelques “conditions n
générales”, la v.a. ∑ X − nµ
XT − E(XT ) i =1 i
XT = X 1 + X 2 +... +X n , ⇒ XTCR = =
V(XT ) σ n
n
de moyenne E(X T ) = ∑ µ i et de variance n Xi − µ n 1
i =1 = ∑ = ∑ Xic
n i =1 σ n i =1 σ n
V(XT ) = ∑ σ i2 , est telle que :   t 
n
i =1 ⇒ M X TCR (t) = M X ic  
  σ n  
XT − E(XT ) en loi  t 
→ n (0,1) En développant MX ic   en fonction des
V(XT ) n→∞  σ n
moments, on peut montrer que :
“Conditions générales” pouvant exister n
 1  t2 1 t3 µ 3 
a) Lévy-Lindeberg : les Xi sont équidistribuées MX TCR (t) = 1 +  + +... 
 n 2 n 3! σ 3
 

σ 2
b) Lindeberg: n
i
n→∞
→ 0 , ∀i = 1,...,n 14
4244
3
→ vers 0 quand n→∞
∑σ
2
j
j =1 2 n
 1t  2
⇒ lim M X TCR (t) = lim  1 +  = e t /2
n→∞ n→∞  n 2
N.B. : ∃ autres conditions + théorème relatif à
des v.a. dépendantes c’est-à-dire la F.G.M. de la loi N (0,1)
20 21
Corollaire du théorème central limite Annexe 1 relative au théorème de Moivre-
(conditions de Lévy-Lindeberg) Laplace
t
σ t t2 t3
• e = 1+ + + +...
Soit : σ 2σ2 6 σ3

1 XT  t  t t2 t3 
X = ∑ X i= σ
1 + p  e − 1 = 1 + p  + + +... 
ni n    σ 2 σ 2
6 σ 3

14444244443
x
E(XT ) nµ
⇒ E(X ) = = =µ x2 x3
n n • log (1 + x ) = x − + −... ( x < 1)
2 3

V(XT ) nσ 2 σ 2   t 
V(X ) = = 2 =
n2 n n ⇒ log 1 + p  e σ − 1 
  
2
t t2  p2  t t2  p3  t 
3
=p  + 
+... −  + 
+... + +... +...
T.C.L. : quand n → ∞ : σ 2σ2  2 σ 2σ2  3 σ 

XT − n µ loi µt t t2  n p2  t 
2
→ n (0,1) ⇒ log M Z ( t ) = − + n p + +...  − +...
σ n σ σ 2 σ2  2 σ 

n p3  t 
3
+ +... +...
X − µ loi 3 σ 
⇒ → n (0,1)
σ/ n
 µ n p   n p n p  2  n p n p n p3  3
2 2
= − + t+ − t + − +  t +...
 σ σ   2σ 2 2 σ2   6σ3 2 σ3 3σ3
t2 n  p − 3 p2 + 2 p3  3
N.B. : n → ∞ correspond, en pratique, à n = 30 = + 3
2 σ 
 t +...
6 

22 23
Annexe 3 relative au théorème central limite
Annexe 2 relative au théorème de convergence
 t2X2 t3X3 
(Poisson)
λ (e t −1)
• MX (t ) = E e ( )
tX
= E 1 + tX +
 2!
+
3!
+...

• X ~ p(λ ) : M X (t ) = e
t2 t3
X−µ ( )
= 1 + t E( X ) + E X + E X 3 +...
2
( )
• Z= où µ = λ et σ = λ 2! 3!
σ
t2 ' t3 '
 X t −µ t  = 1+ t µ 1' + µ 2 + µ 3 +...
( )
• MZ (t ) = E e tZ = E e σ e σ 
2! 3!
 
t2 t3
 t  • MX c (t ) = 1 + t µ 1 + µ 2 + µ 3 +...
µt µt λ  e σ −1 2! 3!
− −
MX   =
t  
= e σ e σ e t2 2 t 3
σ = 1 + σ + µ 3 +...
2! 3!
 t 
• log MZ (t ) = −t λ + λ  e λ − 1  t  t2 σ 2 t3 µ 3
• MX c =1+ 2 + +...
   σ n σ n 2! σ 3 n3 2 3!
 t t2 t3 
= −t λ + λ  + + 3 2 + ... − 1 1 t2 t3 µ3 
 λ 2λ 3λ  = 1+ + +...
n  2 3! n σ 3 
t2 t3
= + +...  1  t2 1 t3 µ 3 
n
2 6 λ • MX TCR (t ) = 1 +  + +...
 n2 σ 3
 
2 t2  n 3!
t
• lim log MZ (t ) = ⇒ MZ (t ) ≈ e2
λ →∞ 2
24 25
Exemple
Chapitre 5 : Distributions
échantillonnées Etudier le salaire des belges (variable X) ⇒
N=10 millions :

I Introduction. Moyenne population: µ


Mais on n’a pas les moyens pour interroger
10 millions de personnes
Rappel: ⇒ échantillon de taille n=1000.

- mesure d’une caractéristique de la 1 1000


population (lettre greque) x = ∑ xi
Moyenne échantillon: n i =1
- mesure d’une caractéristique de
l’échantillon (lettre latine).
⇒ x est une estimation de la moyenne
population µ
Bien souvent il est impossible d’étudier
l’ensemble de la population (N grand ou Remarque :
infini), c’est pourquoi on se restreint à
l’étude d’un échantillon de taille n en général : x ≠ µ (erreur d’échantillonnage)
II Sondage – Echantillon aléatoire 2. Echantillon aléatoire – Tirage PEAR.
Expérience aléatoire E → variable aléatoire X
1. Comment sélectionner un échantillon ? E ( X ) = µ , V ( X ) = σ 2 , ...
(cours de méthodes de sondage).
A chaque tirage, on a la même population
a) Sondage aléatoire ⇒ le résultat des n tirages est une suite de valeurs
de n variables aléatoires X i indépendantes et
Un sondage est dit aléatoire si chaque individu
équidistribuées (i.i.d.) avec :
de la population a une probabilité connue et non
nulle d’appartenir à l’échantillon X i : même loi que X x i : valeur de X i
et
b) Sondage aléatoire simple
E(Xi ) = µ , V(Xi ) = σ 2 i = 1 , ... , n
Un sondage aléatoire est dit simple si tous les
échantillons de taille n fixée a priori, prélevés au Convention : Pour simplifier l’écriture, on
sein d’une population d’effectif N, sont évitera la double notation X et x pour ne
réalisables avec la même probabilité conserver que les minuscules. Le contexte nous
dira s’il s’agit d’une v.a. ou de sa valeur
⇒ Tous les individus k de la population ont la
même probabilité d'être sélectionnés En résumé :
Échantillon aléatoire : {x 1 , ... , x n }
Cas particuliers • E (x i ) = µ ; V (x i )= σ 2 ; ...
• Tirage PEAR (probabilités égales, avec remise) • les x i sont indépendantes
• Tirage PESR (probabilités égales, sans remise)
III Paramètres des distributions
échantillonnées des moments Syllabus 6-7 à 6-42

Statistique : toute v.a. g (x1 , ... , xn ).


Sa loi est appelée distribution échantillonnée
(ou d’échantillonnage)

1 n
Exemple : x = ∑ xi
n i=1
a) Moyenne E(x )
1  1
E(x ) = E  ∑ xi  = ∑ E(x i )
n i  n i
1 1
= ∑ µ = nµ = µ
n i n

b) Variance V(x )
1  1
V(x ) = V  ∑ xi  = 2 ∑ V(xi )
n i  n i
1 1 σ2
= 2 ∑ σ = 2 nσ =
2 2
n i n n

c) Loi de x Voir plus loin


2. EXEMPLES PRATIQUES.
Chapitre 6 : Inférence
a) Estimation.
statistique
1 AU DEPART, DES QUESTIONS...

• Quel est le taux d'écoute de ce programme de


radio ?

• Quel pourcentage de votes émis obtiendra ce parti


lors du prochain scrutin ?

• Quel est le revenu moyen des employés du secteur


bancaire ayant moins de 5 ans d'ancienneté ?

• Quelle est la hauteur de ce bâtiment?

• Le dé est–il pipé ?

• Cette promotion est–elle meilleure que la précédente


?

• Comment mesurer la relation entre prix de vente


d’un produit et quantité consommée ?

• Comment prévoir l’évolution des taux d’intérêt pour


la prochaine semaine ?
b) Tests d’hypothèses 3 ON RECUEILLE DES DONNEES

• Choix de concepts (variables) liés aux questions

• Processus de mesure des variables

• Collecte des données (sondages, expériences,...)

4 COMMENT UTILISER LES DONNEES


POUR REPONDRE AUX QUESTIONS ?

• Intérêt d’une démarche scientifique


(raisonnements par induction ou déduction)

• Choix d'une procédure de réponse

• Interprétation des résultats de l'ap-plication de


cette procédure

• Formulation des réponses


5 EXEMPLE DE PROCEDURES
b) Utilisation d'un modèle
a) Prélèvement d'un échantillon dans une
population

• Exemple • Modèle = représentation du problème réel

Comment estimer la proportion des individus


d'une population qui achè-tent un produit
déterminé à partir d'un échantillon prélevé • Comparaison = méthode d'inférence statistique
("convena-blement") dans cette dernière ?

• Estimation = méthode d'inférence statistique


4) Loi de x i
Chapitre 7 : Estimation des (x i −µ ) 2

paramètres f (x i) =
1

e 2 x i ∈R

⇒ f (x i ) = f (x i ; µ )
A EXEMPLE INTRODUCTIF
{
5) Loi de x 1 , ... , x n }
1) Population U
{ }
n
f x 1 , ... ,x n = ∏ f (x i )
X ~ n (µ , 1), où µ est un paramètre inconnu i=1
appartenant à un espace de paramètres Θ (par
exemple, Θ = R ) car les x i sont des v.a. indépendantes
( xi −µ )2

( )
n 1
2) Objectif ⇒ f x 1 , ... ,x n = ∏ e 2
i =1 2 Π
On veut estimer µ 1 n
− ∑ ( x i −µ )2
1 2 i =1
= e
(2 Π ) n/2
{
3) Échantillon aléatoire x 1 , ... , x n } ⇒ f (x 1 , ... , x n ) = f (x 1 , ... , x n ; µ)
• Rappel : x i désigne à la fois la v.a. et la
valeur prise par celle–ci
• Les observations sont supposées i.i.d.
(indépendantes et identiquement distribuées)
1 2
6) Comment estimer µ ? B METHODES D’ESTIMATION
Estimateur : µˆ = µˆ (x 1 , ... , x n )
1. Définitions et notations
Exemples :
• Population U (v.a. X) où la loi de X est donnée:
1 n
• µˆ 1 = ∑ xi = x a) Cas discret : {(x, px ) , x ∈v }
n i=1
b) Cas continu : f (x) , x ∈v
1 k
• µˆ 2 = ∑ xi k ∈{1, ... , n}
k i =1
• Paramètres à estimer : θ1 , ... , θ K (θ i ∈Θ i )
• µˆ 3 = x i i ∈{1, ... , n} N.B. :l’ensemble des paramètres est noté θ (θ ∈Θ)

x +xn
• µˆ 4 = 1
2 { }
• Échantillon aléatoire x 1 , ... , x n où la loi de
x i dépend de θ :
• µˆ 5 = x 1/2
Comment choisir un estimateur ? a) Cas discret : p xi = pxi (θ)
Quelles sont ses propriétés ? b) Cas continu : f (x i ) = f (x i ; θ)
7) Remarque
(N.B. : les x i sont supposés i.i.d.)
v.a. µˆ : estimateur de µ
n n
valeur observée de µˆ : estimation de µ Convention : ∑ = ∑ ; ∏ =∏
i=1 i i =1 i
3 4
2. Méthode des moments C. Exemples

A. Rappel 1°) X ~ p (λ) , λ ∈R +0


Moment par rapport à l’origine de la loi de X
On désire estimer λ (1 seul paramètre inconnu)
µ k ′ = E (X k ) = ϕ k (θ 1 , ... , θ K ) où k = 1 , ... , K

Moment par rapport à l’origine de l’échantillon


1 Moment population : µ'1 = E (X) = λ [= ϕ 1 (λ)]
m'k = ∑ xik k = 1 , ... , K
n i Moment échantillon : m ′ =x
1

B. Définition des estimateurs


θˆ 1 , ... , θˆ K sont déterminés en résolvant le
⇒ Équation :
système de K équations à K inconnues :

ϕ1 (θ1 ,...θ K )|θ =θˆ ,...,θ = m1' ϕ1 (λ )|λ =λˆ = m1' ⇔ λˆ = x


K =θ K
ˆ
1 1

ϕ 2 (θ1 ,...θ K )|θ =θˆ ,...,θ =θˆK


= m2'
1 1 K

........ Conclusion :
ϕ K (θ1 ,...θ K )|θ =θˆ ,...,θ =θˆK
=m '
K L’estimateur du paramètre inconnu λ obtenu par la
1 1 K
méthode des moments est donné par x

5 6
2°) X ~ n (µ , σ 2 ) , µ ∈R , σ 2 ∈R +0 3°) X ~ u [0,θ] , θ ∈R +0

• On désire estimer µ et σ 2 (2 paramètres 1 0 ≤ x ≤ θ



inconnus) ⇒ f (x) = θ
0 ailleurs
Moments population : 

[
µ 1′ = E(X) = µ = ϕ 1 (µ, σ 2) ]
[ ]
µ 2 ′ = E(X 2 ) = σ 2 + µ 2 = ϕ 2 (µ, σ 2)

Moments échantillon :
m 1′ = x
m 2′ = s 2 + x 2
• On veut estimer θ (1 paramètre inconnu)
θ
⇒ Équations : (correction des notations) Moment population : µ'1 = E (X) =
2
ϕ 1 (µ,σ 2 ) = m1' Moment échantillon : m1 = x
'
 µ = x
 ⇔ 
θ
ϕ 2 (µ,σ 2 ) = m'2

σ 2 + µ 2 = s 2 + x 2 | ˆ= x
⇒ Équation : 2 θ =θ
Conclusion :
Conclusion :
Les estimateurs des paramètre inconnus µ et
L’estimateur du paramètre inconnu θ obtenu par la
σ 2 obtenus par la méthode des moments sont méthode des moments est donné par θˆ = 2 x
donnés par µˆ = x et σˆ 2 = s 2 Attention à ce résultat !
7 8
3. Méthode du maximum de vraisemblance B. Définition des estimateurs MV
Supposons devoir estimer un paramètre θ ∈Θ
Valeur θˆ ∈Θ telle que ()
L θˆ = max L(θ)
θ∈Θ
A. Rappel et Intuition
Pour estimer θ , on choisit dans Θ la valeur qui
assure à l’échantillon la plus grande
“ vraisemblance ” de se réaliser Équation du maximum de vraisemblance :

Si L(θ) est différentiable et possède un maximum


sur Θ , θˆ est solution de l’équation du M.V. :
{
Loi de l’échantillon x 1 , ... , x n }
dL(θ )
1°) Cas discret :
p (x 1 , ... , x n ; θ) = ∏ pxi |θ =θˆ = 0
i dθ
Fonction de vraisemblance :
L(θ) = p(x 1 , ... , x n ; θ)
Remarque :

2°) Cas continu : Si θˆ correspond au maximum de L(θ), il


f (x 1 , ... , x n ; θ) = ∏ f (xi ) correspond aussi au maximum de
i L* (θ) = log L(θ), obtenu en résolvant
Fonction de vraisemblance : l’équation :
L(θ) = f (x 1 , ... , x n ; θ)
d log L(θ )
|θ =θˆ = 0

9 10
C. Exemples 2°) X ~ u [0,θ] , 0 < θ < ∞
1°) X ~ n (µ , 1 )
(x − µ) 2 1 0≤xi ≤θ
1 − i θ
f (x i ) = e 2 (x i ∈R ) • f (xi ) = 
• 2Π
0 ailleurs

( xi −µ)2 
1
• L(µ ) = ∏ e 2
i 2Π 1
• L(θ) = ∏ f (xi ) = n
1
− ∑ (xi −µ )2 i θ
1 2i
= e
(2 Π) n/2 d L(θ) −n
n 1 • = n+1 ≠0
• L* (µ) = − log 2 Π − ∑ (x i − µ) 2 dθ θ
2 2 i
d log L( µ ) • L(θ) est une fonction décroissante de θ
|µ = µˆ = 0
• Equation du M.V. : dµ
⇒ La plus grande valeur de L(θ) est donnée
∑ ( x − µˆ ) = 0 ⇔ ∑ x − nµˆ = 0
i
i
i
i par la plus petite valeur possible de θ

⇒ Estimateur du M.V. : µˆ =
1 Comme θ ≥ x i (i = 1, ..., n) , l’estimateur du
∑ xi = x
n i M.V. est :
d 2 L* (µ)
N.B. : Maximum car =−n<0 θˆ = x (n)
d µ2
11 12
D. Propriétés générales 4. Autres méthodes d’estimation
1°) Invariance A. Méthode des moindres carrés
Si θˆ est un estimateur M.V. de θ et si φ = u(θ), Cette méthode repose sur l'existence d'un modèle
alors : économétrique reliant une variable réponse (à
expliquer) et des variables explicatives par des
φˆ = u( θˆ ) paramètre(s) θ → cf. chapitre régression linéaire
est un estimateur M.V. de φ multiple

2°) Existence et unicité B. Méthode du chi-carré minimum


Un estimateur M.V. n’existe pas toujours, n'a pas • X ~ loi(θ)
nécessairement une forme explicite et n’est pas • Échantillon i.i.d. {x1 ,..., xn }
nécessairement unique
• Distribution observée {(x j ,n j ); j = 1,..., J}
3°) Cas de plusieurs paramètres :
(
• p j (θ) = P X = x j )
Si θ1 ,...,θ K sont K paramètres, on peut, sous
• Estimateur θˆ de θ obtenu en minimisant
certaines conditions de régularité, les estimer en
[ ]
2
résolvant le système d'équations M.V. : J n j − n p j (θ)
∂L(θ1 ,...,θ K )
D2 = ∑
n p j (θ)
∂θ k
|θ =θˆ ,...,θ =θˆ = 0
1 1 K K
k = 1,..., K j =1

N.B. : D'autres propriétés seront présentées plus


tard dans le cours C. Méthodes robustes, méthodes
non-paramétriques, etc
13 14
C. PROPRIETES D’UN ESTIMATEUR
2. Précision d'un estimateur : Efficacité, MSE
Avertissement : Nous nous intéressons aux
a) Efficacité relative: Cas d'estimateurs sans biais
propriétés principales de l'estimateur θˆ d'un
paramètre θ ∈Θ
• Définition :
1. Estimateur sans biais Si θˆ 1 et θˆ 2 sont deux estimateurs sans biais de
a) Définition θ , l'efficacité relative de θˆ 1 par rapport à θˆ 2 est
θˆ est un estimateur sans biais de θ si définie par

()
E θˆ = θ ∀ θ ∈Θ
( ) ( ) V(θˆ 1 )
ER θˆ 1 , θˆ 2 = V θˆ 2

b) Exemple • θˆ 1 est relativement plus efficace que θˆ 2 si


• Variable X ; moyenne µ ; µˆ = x
• EAS {x 1 , ... , x n } : E( µˆ ) = µ ( )
ER θˆ 1 , θˆ 2 ≥ 1

• Exemple (estimateurs d'une moyenne µ ) :


c) Biais d'un estimateur
σ 2 
() ()
B θˆ = E θˆ − θ µˆ 1 = x : V(x ) =
n  ⇒ ER(µˆ 1 , µˆ 2 ) = n
d) Estimateur asymptotiquement sans biais µˆ 2 = x1 : V(x1 ) = σ 2 
Estimateur θˆ n de θ tel que x est relativement plus efficace que x1 si n > 1
( )
lim E θˆ n = θ
n→∞
15 16
b) Trade off entre biais et variance : MSE c) Efficacité relative : Cas général
i) En guise d'illustration
Si θˆ 1 et θˆ 2 sont des estimateurs quelconques de θ ,
l'efficacité relative de θˆ 1 par rapport à θˆ 2 est définie
par
( ) ( ) EQM(θˆ 1 )
ER θˆ 1 , θˆ 2 = EQM θˆ 2
ii) Écart quadratique moyen

() [( ) ] {[ ( ) ( ) ] } d) Efficacité absolue
2 2
EQM θˆ = E θˆ − θ = E θˆ − E θˆ + E θˆ − θ

= E{
[ ( )]}[ ( ) ]
2 2 Nous allons d’abord travailler dans une classe
θ
ˆ − E θ
ˆ + E θ
ˆ − θ
d’estimateur (classe des estimateurs linéaires) pour
+2[E(θˆ )− θ]E[θˆ − E(θˆ )] ensuite définir l’efficacité absolue de manière
14243 générale
0
( ) [ ( )] [= MSE(θˆ )]
2
= V θˆ + B θˆ
c) Cas d'un estimateur sans biais
() ()
EQM θˆ = V θˆ
d) Mesure de précision de θˆ
1
η=
EQM θˆ ()
1
Si θˆ est sans biais, η =
()

V θˆ

17 18
3. Estimateur BLUE 3°) Estimateur sans biais de variance minimum : on doit
minimiser la variance par rapport aux ai i=1,…,n
a) Définition
Estimateur BLUE = estimateur linéaire sans biais de • Min V(µ˜ ) = ∑ ai2 V (x i ) = ∑ ai2 ∑a i = 1
variance minimum (Best Linear Unbiased i i i
Estimation) • Fonction de Lagrange :
b) Exemple l (a1 , ... , an ; λ) = ∑ ai2 − λ ( ∑ ai − 1)
X ~ n (µ,1) ; µ ∈R i i

1°) Estimateur linéaire : • C.N. pour avoir un minimum :

µ˜ = c + ∑ ai xi c, a1 , ..., an ∈R  ∂l λ
; = 0 ⇔ 2 ai − λ = 0 ⇔ ai =
i  ∂ ai 2

2°) Estimateur sans biais :  ∂l
= 0 ⇔ ∑ ai = 1
 ∂λ i
µ˜ est sans biais si, ∀ µ,c et ai ∈R :
nλ 2
E(µ˜ ) = µ ⇔ c + ∑ ai µ = µ ⇒ ∑ ai = =1 ⇒ λ=
i 2 n
i
1
  ⇒ ai = i = 1,...,n
⇔ c + µ  ∑ ai − 1 = 0 n
 i 
1
⇒ c = 0 ; ∑ ai = 1 4°) Donc l’estimateur BLUE : µ˜ = ∑ xi = x
n i
i

19 20
4. Efficacité absolue c) Information de Fisher

a) Objectif poursuivi  d log L(θ) 2 


In (θ) = E 

 dθ  
Rechercher un estimateur sans biais θ*
d'un paramètre θ tel que
d) Estimateur SBVM (efficace)
( )≤ V(θˆ )
*
V θ
Si θ* est un estimateur sans biais de θ tel que
où θˆ est un autre estimateur sans biais de θ ( )
V θ* =
1
I n (θ)
, il est de variance minimum (efficace)

⇒ recherche d'un estimateur sans biais


de variance minimum (SBVM)

b) Borne de Cramer–Rao

On suppose remplies certaines conditions de


régularité permettant de réaliser certaines opérations
(fonction L(θ) différentiable, permutation des
opérations d'intégration et de dérivation,...)

Si L(θ) est la fonction de vraisemblance et θˆ un


estimateur sans biais de θ :

 d log L(θ)  2 
V(θ) ≥ 1 E 
ˆ

 dθ  
21 22
d) Exemple 5. Estimateur convergent

• X ~ n (µ ,1) µ ∈R ; µˆ = x a) Définition
Soit θˆ n = θˆ (x 1 , ... , x n ) un estimateur de θ ; il est
n 1
• log L (µ) = − log 2 Π − ∑ (x i − µ) 2 convergent si

( )
2 2 i
lim P θˆ n − θ < ε = 1 , ∀ε > 0
n→∞
d log L(µ)
• = ∑ (x i − µ) p
dµ i Notation : θˆ n → θ

  d log L(µ) 2    
2
• In (µ) = E     = E  ∑ (x i − µ) 

 dµ 
  i  

 
= E ∑ (xi − µ) 2 car xi indépendants
 i 

[ ]
= ∑ E (xi − µ) 2 = n
i 14243
σ2 = 1
1
• Inégalité de Cramer–Rao : V(µˆ ) ≥
n
σ2 1
Or V(µˆ ) = = ⇒ estimateur SBVM
n n
23 24
b) Propriété (C.S. pour avoir convergence) 6. Estimateur exhaustif
Si θˆ n est un estimateur de θ tel que :
a) Définition intuitive
lim E ( θˆ n ) = θ et lim V ( θˆ n ) = 0 Estimateur qui conserve toute "l'information
n→∞ n→∞
fournie par l'échantillon
p
alors : θˆ n → θ b) Définition formalisée

•Démonstration : cf. le théorème 8 du chapitre 4 1°) Cas discret :


Supposons que E(Xn ) n→∞→µ ∈R
• Loi de {x1 ,..., xn } : p (x1 ,..., xn ; θ)

⇒ {Xn } → µ si V(Xn ) 


p

→ 0
n→ ∞
• Loi de θˆ : pθ θˆ ()
c) Exemple
• X ~ n (µ,1) • θˆ est exhaustif si la loi conditionnelle
( )
p x1 ,..., xn θˆ ne dépend pas de θ
• Échantillon : {x1 , ... , xn }
• Principe de factorisation :
1
• µˆ = x : E( µˆ ) = µ ; V( µˆ ) = →0
n n→∞ ()
p (x1 ,..., xn ; θ) = pθ θˆ ⋅ h(x1 ,..., xn )

⇒x
p
→ µ où h(x1 ,..., xn ) est indépendante de θ

25 26
2°) Cas continu : c) Exemple :
• Loi de {x1 ,..., xn } : f (x1 , ..., xn ; θ)
• X ~ n (µ,1 )

• Loi de θˆ : gθ θˆ () 1
1
− ∑ (x i −µ )2
f (x1 , ..., xn ; µ) =
2i
• e
(2 Π)n 2
• θˆ est exhaustif si la loi conditionnelle
( )
f x1 , ..., xn θˆ est indépendante de θ • µˆ = x = ∑ xi ~ n  µ, 
1
n i
1
n

• Principe de factorisation : en vertu du théorème d'addition des lois


normales indépendantes
()
f (x1 , ..., xn ; θ) = gθ θˆ ⋅ h(x1 ,..., xn )
n (µˆ −µ )2
où h est indépendante de θ n −
⇒ gµ (µˆ ) = e 2

3°) Cas de plusieurs paramètres :
• Principe de factorisation :
Définition analogue basée sur les lois
f (x1 , ..., xn ; µ) = gµ (µˆ ) ⋅ h(x1 ,..., xn )
conditionnelles (
p x1 ,..., xn θˆ k ) ou
( )
f x1 , ..., xn θˆ k , où k = 1,..., K

f (x1 ,..., xn ; µ )
ne dépend pas de µ

⇒ principe de factorisation gµ (µˆ )

27 28
f (x1 ,... , xn ;θ)
• Déterminons d) Théorème : Exhaustivité et efficacité
gµ ( µˆ )
1°) Énoncé :
−1/2 ∑ (xi −µ)2 n(µˆ −µ)2
− Un estimateur exhaustif θˆ est efficace si
/ n
1
= e i e 2
(2 Π) n / 2 2Π et seulement si
d log L(θ)
1
1
[
− ∑ (x i −µ) 2 −(µˆ −µ)2
2i ] dθ
(
= k (θ) ⋅ θˆ − θ )
= n−1 e
où k (θ) ne dépend pas des observations
n(2Π ) 2
1
− ∑ [(x i −2 µ+ µˆ )(x i − µˆ )] 2°) Exemple :
1 2i
= n−1 e • X ~ n (0,1)
n(2Π ) 2
  • µˆ = x est un estimateur exhaustif de µ
 
−  ∑ (xi − µˆ )−2µ ∑ (x i − µˆ )
1 2 2
n 1
• log L(µ) = − log2 Π − ∑ (xi − µ)
2
2 i
 i 424
1 3 2 2 i
1  =0 
= n−1 e
d log L(µ )
n(2Π ) 2 • = ∑ (xi − µ ) = n(x − µ )
1 dµ i
− ∑ (xi2 − µˆ 2 )
=
1 2i
: ne dépend pas de µ ⇒ k (µ) = n ⇒ µˆ est efficace
n−1 e
n(2Π ) 2

⇒ µˆ est un estimateur exhaustif de µ


29 30
7. Propriétés des estimateurs M.V. 8. À propos de terminologie

Sous certaines conditions de régularité, la solution Le tableau suivant indique la correspondance entre
θˆ n de l'équation M.V. possède les propriétés quelques termes français et anglais spécifiques à
suivantes : l'estimation

a) S’il existe un estimateur efficace, il est solution


de l’équation M.V.
Français Anglais
Vraisemblance Likelihood
b) S’il existe un estimateur exhaustif, toute solution Sans biais Unbiaised
de l’équation M.V. est fonction de cet estimateur
Biais Bias
Écart quadratique Mean squared error
c) Si l’équation M.V. admet une solution unique θˆ n , moyen
cet estimateur est convergent, asymptotiquement
Convergent Consistent
efficace et asymptoti-quement normal :
Exhaustif Sufficient
  d log L  2  Efficacité Efficiency
θˆ n ≈ n  θ ,1 E   
  d θ  

31 32
b) Exemple
D INTERVALLE ET REGION DE
CONFIANCE • X ~ n (µ ,σ 2 )
1 Introduction
σ2
• EAS {x1 ,..., xn } ? x ~ n (µ, )
a) Estimation ponctuelle n

• Echantillon EAS :
x = (x1 ,..., xn ) ∈x ⊂ R n
'

• Estimation d'un paramètre θ :

Si θ ∈Θ , où Θ est l'espace des


paramètres :

θˆ = θˆ (x )

• Utiliser la loi de θˆ pour mieux apprécier


l'écart entre θˆ et θ
33 34
2 Région et intervalle de confiance C) Intervalle de confiance
S'il n'y a qu'un paramètre, la région de confiance
s'appelle intervalle de confiance :
A) Objectif
• Soit un paramètre θ ∈Θ ⊂ R
Rechercher Θ ˆ =Θ ˆ (x ) ⊂ Θ tel que P(Θ
ˆ ∋ θ)
• On désire construire un intervalle (l1 , l2 )
soit fixée a priori
où li = li (x1 ,..., xn ) — i = 1, 2 — tel que
P (l1 ≤ θ ≤ l2 ) = 1 − α
où 1 − α est un niveau de confiance
choisi a priori
Remarques
1°) l1 et l2 sont des variables aléatoires
2°) L'intervalle peut être bilatéral ou unilatéral
• Cas bilatéral : on impose généralement que
B) Niveau de confiance P (l1 > θ) = α 2 , P (l2 < θ) = α 2
• Si P(Θ
ˆ ∋/ θ)= α, où 0 < α < 1, on a : ( )
4244
14 3
P(Θ
ˆ ∋ θ)= 1 − α
α2 l1 1−α l2 α2
⇒ 1 − α = niveau de confiance
• Cas unilatéral :
• Niveaux usuels : 0. 95 ; 0.99 ; 0.90 ; ...
l2 = ∞ et P (l1 > θ) = α
ou l1 = −∞ et P (l2 < θ) = α
35 36
3. Exemples de construction d’intervalle de 2°) Construction de l’I.C. (1 − α) :
confiance.
• Rappels :
A) Intervalle de confiance pour la moyenne
Si Z ~ n (0,1) et α ∈(0,1), z1−α/2
d’une variable normale X ~ n (µ ,σ 2 ) α
µ ∈R , σ 2 ∈R +0 (quantile d’ordre 1 − ), est défini par :
2
α
a) Cas où σ 2 est connu P (Z ≤ z1−α/ 2 ) = 1 −
2
1°) Loi de µˆ :
Il en résulte que
• Échantillon aléatoire : {x1 ,..., xn }
P (−z1−α /2 ≤ Z ≤ z1−α /2 ) = 1 − α
• Estimateur de µ : µˆ = x
Rappel : µˆ est un estimateur M.V. de µ

σ2
• Loi de µˆ : x ~ n (µ, )
n
Rappel : Théorème d’addition des
v.a. normales indépendantes

• Loi centrée réduite :


N.B. : − z1−α /2 = zα/2
x −µ
~ n (0,1)
σ/ n
37 38
Table 10 : Quantiles z p de la variable Z ~ n (0,1) x −µ
• Comme ~ n (0,1) :
( ) ( )
définis par : F z p = P Z ≤ z p = p (0 < p < 1) σ/ n
x −µ
⇒ P(−z1−α/2 ≤ ≤z )=1−α
σ / n 1−α/2
σ σ
⇔ P(−z1−α/2 ≤ x − µ ≤ z1−α/2 )=1−α
n n
σ σ
⇔ P(−x − z1−α/2 ≤ −µ ≤ −x + z1−α/ 2 )
n n
=1−α
σ σ
⇔ P(x − z1−α/2 ≤ µ ≤ x + z1−α/2 ) =1−α
144244 3n 144244 3n
l1 l2

σ σ
Si l1 = x − z1−α/2 et l2 = x + z1−α /2 :
n n

P(l1 ≤ µ ≤ l2 ) = 1 − α

⇒ (l1 , l2 ) est un I.C. (1 − α) pour µ

14
4244
3 14
4244
3

39 40
b) Cas où σ 2 est inconnu 2°) Propriété de tn−1 :

1°) Loi de µˆ : loi de Student (cf. chapitre 5) Si Y ~ tn−1 , le quantile tn−1;1−α 2 d’ordre 1 − α 2
[où α ∈(0,1)] est tel que
x −µ x −µ
~ t n−1 (ou ~ t n−1)
s/ n−1 S/ n
( )
P Y ≤ tn−1;1−α/2 = 1 − α 2

• Nombre de degrés de liberté : υ = n − 1

( )
⇒ P −tn−1;1−α/2 ≤ Y ≤ tn−1;1−α/2 = 1 − α

41 42
Table 12 : Quantiles tv; p de la variable de Student tv 4°) I.C. (1 − α) pour µ :
( ) ( )
définis par : F tv; p = P tv ≤ tv; p = p
x−µ
P  −tn−1;1−α/ 2 ≤ ≤ tn−1;1−α/ 2  = 1 − α
 s / n−1 

⇔ P  x − tn−1;1−α/2
s
≤µ
 n−1

s 
≤ x + tn−1;1−α /2 =1−α
n − 1

Posons :

s S
l1 = x − tn−1;1−α/ 2 = x − tn−1;1−α/2
n−1 n

s S
l2 = x + tn−1;1−α /2 = x + tn−1;1−α /2
n−1 n

⇒ l’I.C. (1 − α) pour µ est donnée par (l1 , l2 )

43 44
B) Intervalle de confiance pour la variance (
⇒ P χ n;α
2 2
)
/2 ≤ Y ≤ χ n;1−α /2 = 1 − α
d’une loi normale : X ~ n (µ ,σ 2 )
µ ∈R , σ 2 ∈R +0

a) Cas où µ est connu

∧ 1
1°) σ 2 = ∑ (x i − µ) 2
n i

∧2 4°) I.C. (1 – α) :
 x i − µ 
2

2°) 2 =∑  σ   ∧2 
σ i n σ
P  χ 2n;α/ 2 ≤ 2 ≤ χ n;1−α
2
/2  = 1 − α
2  σ
n  
= ∑ [v. a. n (0,1) indép.] ~ χ 2n
i =1
 
 ∧ ∧ 
3°) Propriétés de Y ~ χ 2n : n σ2 2 n σ2
⇔ P 2 ≤σ ≤ 2  =1−α
χ n;1−α /2 χ n;α /2
Quantiles χ 2n;α /2 et χ 2n;1−α/2 définis par :  1424 3 123 
 l1 l2 

( )
P η ≤ χ 2n;α/ 2 = α / 2

(
P η ≤ χ n;1−α
2
)
/2 = 1 −
α
2
45 46
Table 11 : Quantiles χ 2v , p de la variable χ 2v définis b) Cas où µ est inconnu
( )
par : P χ v2 ≤ χv2, p = p
∧2
1°) σ = s 2 ou S 2

2°) Nous avons vu que (cf. chap. 6) :

ns 2 2
~ χ n −1
σ2

3°) I.C. (1 – α) :

ns2
l1 = 2
χ n−1;1 −α/ 2

n s2
l2 =
χ n2 −1;α /2

47 48
4. Propriété relative aux grands échantillons Exemple 1. Intervalle de confiance pour la
moyenne d’une loi quelconque
• Si θˆ est un estimateur sans biais du
paramètre θ , de variance V θˆ ()
et a) Rappel
admettant une D.P. (approximative-
T.C.L. implique que, pour n grand (n = 30) :
ment) normale, un intervalle de
confiance pour θ , au niveau de x −µ
confiance (1 − α ), est défini par ≈ n (0,1)
σ/ n

[θˆ − z1−α 2 () ( )]
V θˆ , θˆ + z1−α 2 V θˆ ⇒ la construction d’un I.C. pour µ est basée sur cette
loi asymptotique

où z1−α 2 est le quantile d'ordre


1 − α 2 de Z ~ n (0 ,1) b) Cas où σ 2 est connu

σ
I.C. (1 – α) : x ± z 1 − α/ 2
• ()
Si V θˆ est inconnu et qu'on peut n
l'estimer par un estimateur convergent c) Cas où σ 2 est inconnu
()
Vˆ θˆ , l'intervalle est alors défini par
I.C. (1 – α) :

[θˆ − z1−α 2 () ( )]
Vˆ θˆ , θˆ + z1−α 2 Vˆ θˆ
x ± z 1 −α/ 2
s
= x ± z 1− α/2
S
n−1 n
49 50
Exemple 2. Intervalle de confiance pour une c) Remarque
proportion
πˆ A est la solution unique de l’équation
a) Loi de X M.V. ⇒ exhaustif, efficace
Soit X ~ b (1, π A ) , où π A représente la
proportion d’individus possédant une modalité A
d) Loi de πˆ A
b) Échantillon aléatoire {x1 ,..., xn }
1°) Loi exacte : n πˆ A ~ b (n , π A ) → exercices
1 si i possède la modalité A
• xi = 
0 sinon 2°) Loi asymptotique (n grand) :
• n A = nombre d’éléments de l’échantillon π (1 − π A )
πˆ A ≈ n  π A , A
possédant la modalité A :  n 
n
nA = ∑ x i πˆ A − π A
i =1 ⇔ ≈ n (0,1)
π A (1 − π A )
• nA ~ b (n, π A ) n
⇒ E (nA ) = n π A ; V (nA ) = n π A (1 − π A )
N.B. : Loi valable si
• Estimation de π A :
nA n π A (1 − π A ) > 9
πˆ A = =x
n
ou
π (1 − π A )
⇒ E ( πˆ A ) = π A ; V ( πˆ A ) = A
n n > 20, n π A > 10, n(1 − π A ) > 10
51 52
e) Construction de I.C. (1 − α) pour π A f) Valeurs approchées de l1 et l2 :
πˆ A − π A
≈ n (0 ,1)  π (1 − π A ) k
• πˆ A ≈ n  π A , A ⇒ π A = πˆ A + ,
π A (1 − π A )  n  n
n
où k est une constante (inconnue)
πˆ A − π A
⇒ P (−z1−α/2 ≤ ≤ z1−α/ 2 ) = 1 − α  πˆ + k   1 − πˆ − k 
π A (1 − π A )
π A (1 − π A )  A n  A
n
n • =
n n
πˆ A (1 − πˆ A ) 1 − 2 πˆ A k 2
= + k 3 /2 − 2
n n n
πˆ A (1 − πˆ A )
≈ quand n est grand
n
• Valeurs approchées de l1 et l2 :

 π A (1 − π A ) πˆ A (1 − πˆ A )
⇔ P πˆ A − z1−α/2 ≤ πA l1 ≈ l*1 = πˆ A − z1−α/ 2
 144442444 n 43 n
 l1 πˆ (1 − πˆ A )
l2 ≈ l*2 = πˆ A + z1−α/2 A
 n
π (1 − π A )  • Remarque : on peut aussi estimer V (πˆ A )
≤ πˆ A + z1−α /2 A =1−α
14444244443 n  par son estimateur sans biais :
l2 

53 54
5. Incertitudes absolue et relative c) Taille d'un échantillon aléatoire

a) Incertitude absolue ( Ia ) Problème : Comment déterminer n en fonction d’une


incertitude maximale souhaitée ?
• On désigne parfois sous ce terme la demi–
longueur de l’intervalle de confiance, quand ce Exemples :
dernier est symétrique
- Estimation d’une moyenne
• Exemple : pour l’estimation de la moyenne µ de
X ~ n (µ,σ 2 ) : Si on veut que Ia ≤ ∆ µ :
2
σ z σ
σ z1−α/2 ≤ ∆ µ ⇔ n ≥  1−α/2 
Ia = z1−α/ 2 n  ∆µ 
n
- Estimation d’une proportion
b) Incertitude relative ( Ir )
• Si on veut que Ia ≤ ∆ π :
• Elle est obtenue en divisant l'incertitude absolue π (1 − π A )
par l’estimation du paramètre z1−α/2 A ≤∆π
n
2
z1−α/2 π A (1 − π A )
⇔n≥
• Exemple (voir ci–dessus) : (∆ π)2
σ 1
z1−α/2 • Comme π A (1 − π A ) ≤ , on peut choisir
Ir = n 4
x n ≥ z1−α /2 / 4 (∆ π)2
2
55 56
6. Région de confiance

Illustrons le cas de plusieurs paramètres par un


( )
'
exemple : X ~ n (µ,σ 2 ) où θ = µ ,σ 2 est un
paramètre inconnu à estimer

Utilisation des intervalles de confiance

s
• I.C. (µ ) : x ± tn−1;1−α 2
n −1
P( A ∩ B ) = 1 − P (A ∪ B )

 n s2 
( )
I.C. σ 2
: 2
χ
n s2
, 2
χ
 = 1 − [P (A ) + P(B ) − P( A ∩ B )]
 n−1;1−α 2 n−1;α 2 
1 − P( A ) − P (B ) + P( A ∩ B )
123 123 1424 3
≥0
• P[IC(µ) ∋ µ ] = P( A) = 1 − α' α' α''

≥ 1 − α' − α'' = 1 − α
[( ) ]
• P IC σ2 ∋ σ 2 = P (B) = 1 − α''
où α = α' + α ''

[ ( ) ]
• P IC(µ) ∋ µ ∩ IC σ 2 ∋ σ 2 = P( A ∩ B) ⇒ Région de confiance de niveau ≥ 1 − α

57 58
• Problème du délégué étudiant :
Chapitre 8 : Tests Hypothèse nulle : H0 : µ = 25 cl
Hypothèse alternative : H1 : µ < 25 cl
d’hypothèses
• Problème du fabriquant :
A INTRODUCTION Hypothèse nulle : H0 : µ = 25 cl
Hypothèse alternative : H1 : µ > 25 cl
1) Problème de test- Introduction
• Remplissage automatique d’une machine à café • Problème de l’inspecteur indépendant :
(σ = 1.5 cl) ⇒ contenu X Hypothèse nulle : H0 : µ = 25 cl
Hypothèse alternative : H1 : µ ? 25 cl
• X ~ n (µ,σ 2 ) où µ ∈R et σ = 1.5 cl • Comment tester la validité de
? paramètre d’intérêt : ? = µ où ? ? Θ
H0 : µ = 25 cl (µ = 25 cl) ? H 1 : µ < 25 cl
Hypothèse nulle : H0
Hypothèse alternative : H1 où H0+H1= Θ H0 : µ = 25 cl (µ = 25 cl) ? H 1 : µ > 25 cl

Problème des test : caractérisé par H0 et H1 H0 : µ = 25 cl (µ = 25 cl) ? H1 : µ ? 25 cl

Problème de décision :
- RH0 : rejet de l’hypothèse nulle sur base d’un échantillon ??

- RH 0 : non rejet de l’hypothèse nulle

Remarques
- non rejet de H0 ne veut pas dire acceptation de H0
- H0 contient le modèle que l’on met en doute.
1 2
3) Analogie avec les intervalles de confiance
2) Problème de tests d’hypothèses
pour un paramètre à partir d'un
1°) Hypothèses nulle et alternative : échantillon
Si θ ∈Θ :
• Echantillon EAS : x = (x1 ,..., xn ) ∈x ⊂ R n
'
H0 : θ ∈Θ0 où Θ0 ⊂ Θ
H1 : θ ∈Θ1 = Θ − Θ0 • Estimation d'un paramètre θ :

2°) Utilisation d'un échantillon : Si θ ∈Θ , où Θ est l'espace des paramètres :


θˆ = θˆ (x )

3°) Règle de décision :


• Rejeter H0 (R H0 ) ou non (R H0 ) • Région de confiance :
• Région critique C0 (zone de rejet) :

Θ ˆ (x ) ⊂ Θ tel que P(Θ


ˆ =Θ ˆ ∋ θ)= 1 − α

R H0 si x ∈C0 = C (Θ 0 ) ; R H0 si x ∉C0 où 1 − α est le niveau de confiance


3 4
4) Vocabulaires 5) Erreurs de 1ère et 2ème espèces

a) Hypothèses simples et composites : Hypothèse vraie → H0 H1


Décision ↓
• Hypothèses simples : Θ0 = {θ0 } , Θ1 = {θ1 } erreur (I) bravo
R H0
α 1-β
• Hypothèses composites : cas contraire bravo erreur (II)
R H0
Exemple : H0 : θ ≤ θ0 1-α β

a) Risque de 1ère espèce :


b) Valeur hypothétique de θ :
α = P(R H0 H0 ) = P (x ∈C0 θ ∈Θ0 )
Si Θ0 = {θ0 }, θ 0 est appelé valeur
hypothétique de θ ⇒ P (R H0 H0 ) = P (x ∉C0 θ ∈Θ0 ) = 1 − α

b) Risque de 2ème espèce :


c) Tests bilatéraux et unilatéraux :
β = P(R H0 H1 ) = P (x ∉C0 θ ∈Θ1 )
• Test bilatéral :
⇒ P (R H0 H1 ) = P(x ∈C0 θ ∈Θ1 ) = 1 − β
H0 : θ = θ 0 ↔ H1 : θ ≠ θ0

• Tests unilatéraux : c) Remarques :


• α et β varient en sens opposés (exemple)
H0 : θ ≤ θ0 (ou θ = θ0 ) ↔ H1 : θ > θ0 • On se fixe α (petit) et on tente de choisir une
procédure qui présente un risque β "le plus
H0 : θ ≥ θ0 (ou θ = θ0 ) ↔ H1 : θ < θ0
petit possible"
5 6
6) Variable de décision (statistique de test) 7) Test optimaux et test sans biais
• Il peut être difficile d'exprimer de façon simple la
région critique a) Fonction de puissance :

⇒ On exprime souvent la règle de décision en r (θ) = P (RH0 ) = P (x ∈C0 ) , θ ∈Θ


fonction de θˆ ou d'une variable T (statistique de
test) dépendant de θˆ b) Puissance du test
Si θ ∈Θ1 : r (θ) = P (RH0 θ ∈Θ1 ) = 1 − β
• Exemple (ELST, p. 335)

On compare µˆ = x à µ 0 : R H0 si x est "trop loin"


de µ 0 (=25cl) c) Niveau (de signification) du test :
α = sup r (θ)
θ ∈Θ0
⇒ la statistique de test T est basée sur x ou plus
précisément est la variable centrée réduite sous H0 N.B. : Si Θ0 = {θ0} : α = r (θ0 )
(sous H0 = en supposant que H0 est vraie)
:
x − µ0 d) Test uniformément le plus puissant (UPP ou
T= UMP) de niveau α :
σ/ n
• La règle de décision est construite à partir de la loi Test tel que
de probabilité de T
r (θ) ≥ r * (θ) , ∀ θ ∈Θ1
En effet si H0 est vérifié T ~ N(0,1), il « suffit » donc
de vérifier si la valeur obtenue est cohérente avec où r * (θ) est la fonction de puissance de tout
cette loi. autre test de niveau α

7 8
e) Test sans biais : B METHODE DE NEYMAN-PEARSON
Le test • Objectif : Maximiser la puissance r (θ) , θ ∈Θ1
pour une valeur α fixée a priori
H0 : θ ∈Θ0 ↔ H1 : θ ∈Θ1
• N.B. : Nous présentons le cas où le modèle
est sans biais si statistique est défini par f (x ; θ) , où θ ∈R
max r (θ) ≤ max r (θ)
θ ∈Θ 0 θ ∈Θ1 1) Cas de deux hypothèses simples

a) Introduction :
⇒ Il rejette H0 plus souvent quand elle est
fausse que quand elle est vraie H0 : θ = θ 0 ↔ H1 : θ = θ1

f (x ; θ) = f (x1 ,..., xn ; θ) = L(θ)


f) Remarque :
• Région critique C0 : région de x telle que :
La recherche d'un test UPP est naturelle ;
malheureusement, un tel test n'existe pas P(x ∈C0 H0 )= ∫ f (x ; θ0 ) d x = α
C0
toujours
On veut maximiser :

g) Question : r (θ) = ∫ f (x ; θ1 ) d x = P(x ∈C0 H1 )


C0
f (x ; θ1 )
Comment construire des tests optimaux (s' ils = ∫ f (x ; θ0 ) d x
existent) ? C0 f (x ; θ 0 )
9 10
b) Théorème de Neyman–Pearson : d) Exemple :

S'il existe un test ayant pour région de rejet • X ~ n (µ ,σ 2 ) où µ ∈R et σ 2 connu


 f (x ; θ1 )   σ2 
C0 = x > kα  ⇒ x ~ n µ, 
 f (x ; θ0 )   n
où kα est une constante positive fonction de (x −µ)2

α = P(x ∈C0 θ = θ0 ) ,
2
e 2 σ /n
1
• gµ (x ) =
2 Π σ2
alors C0 définit le test le plus puissant pour H0
contre H1 , au niveau α n

• H0 : µ = µ 0 ↔ H1 : µ = µ1 (niveau α)
→ test uniformément le plus puissant (UPP)
• Comme µˆ = x est exhaustif (cf. chapitre 7), on peut
c) Remarque : construire C0 à partir de
(x −µ1 ) 2 (x −µ 0 )2
Si θˆ est un estimateur exhaustif de θ : gµ1 (x ) − −
=e 2σ 2 /n e 2σ 2 /n
f (x ,θ) = g (θˆ ) . h(x)
θ gµ 0 (x )
où h(x) est indépendante de θ
= e 2σ
n
2 [(x −µ 0 )2 −(x −µ1 )2 ]
⇒ C0 est défini par la condition : n
2 (2 x −µ0 −µ1 ) (µ1 −µ 0 )
f (x ; θ1 ) g θ (θˆ ) = e 2σ
= 1
> kα
f (x ; θ0 ) g ( θˆ )
θ0
11 12
⇒ C0 est définie par l'ensemble des x tel que 2) Test d'une hypothèse simple ou composite
contre une hypothèse composite
(2 x − µ 0 − µ1 ) (µ 1 − µ 0 ) > kα′

2σ 2 • H0 : θ ∈Θ 0 ↔ H1 : θ ∈Θ1
où kα′ = loge kα
n

⇒ La région C0 optimale est telle que : • Le théorème de Neyman-Pearson peut


être généralisé
1 kα′ 
(i) Si µ1 > µ 0 : x > c = µ 0 +  µ 1 − µ 0 + 
2 µ1 − µ 0 
• En général, il n'existe pas de test UPP
1 kα′ 
(ii) Si µ1 < µ 0 : x < d = µ 0 −  µ 0 − µ1 + 
2 µ0 − µ1 

où les valeurs de c et d dépendent de α c) Remarque

• Exemple :
Quand l'échantillonnage est fait à partir d'une
population dont la loi appartient à la famille
exponentielle (normale, binomiale, Poisson,...) et
que l'on se restreint aux tests sans biais, on peut
construire un test UPP

13 14
C DEMARCHE D’UN TEST D TEST DU RAPPORT DE
VRAISEMBLANCE
Problème de test : choix de H0 et H1
1) Rapport de vraisemblance

• H0 : θ ∈Θ 0 ↔ H1 : θ ∈Θ1
Statistique de test : choix et • Rapport de vraisemblance :
détermination d'une variable de
décision basée sur l'échantillon max L(θ , x )
θ∈Θ 0
λ(x ) =
max L(θ , x )
↓ θ∈Θ

Loi de la statistique de test sous H0 • Propriété :


0 ≤ λ(x ) ≤ 1

Règle de décision : Détermination de 2) Région de rejet


la région de rejet en fonction de α et
de H1 Plus λ est grand, plus H0 est vraisemblable

RH0 ou R H0 ⇒ C0 = {x λ (x ) ≤ k}

↓ où 0 ≤ k ≤ 1, et α = max r (θ)
θ∈Θ 0
Calcul éventuel de la puissance
du test r (θ) = P (RH0 )
15 16
3) Théorème E PROPRIETE RELATIVE AUX GRANDS
ECHANTILLONS
Sous H0 , si n est grand : • X ~ loi (paramètre θ )
Supposons que, sous certaines conditions,
− 2 log e λ (x ) ≈ χ 2p
[ ( )]
θˆ ≈ n θ,V θˆ
où p est la dimension de θ
Problème de test : H0 : θ = θ 0
H1 : θ ≠ θ0
? Règle de décision : θˆ − θ 0
T=
Statistique de test : V (θˆ)
RH0 si − 2 log e λ (x ) > χ 2p;1−α 0

où V0 (θˆ ) est la valeur de V(θˆ ) si θ = θ0


θˆ − θ0
T= ≈ N (0,1)
Loi sous H0 : V (θ )
ˆ
0

Règle de décision
 θˆ − θ0
 RH si T = > z1−α 2
 0
V0 (θ)
ˆ
 R H0 sinon

Remarques
• Estimation de V(θˆ ) par Vˆ (θˆ )
• Tests unilatéraux
17 18
F TEST RELATIF A LA MOYENNE Statistique de test :
x − µ0
T=
A) Test sur 1 moyenne σ/ n
1)Population Normale : X ~ n (µ ,σ 2 ) où σ 2 connu
x − µ0
Loi de T sous H0 : T= ~ n (0,1)
a) Résolution du problème de test σ n

• EAS : {x1 ,..., xn } d'effectif n : Règle de décision


1°) Première forme :
Problème de test: H0 : µ = µ 0
 RH si T = x − µ 0 ∉ − z
H1 : µ ≠ µ 0

0
σ n
( 1−α 2 , z1−α 2 )
où µ 0 est une valeur hypothétique donnée a priori

 R H0 dans le cas contraire

σ2
Loi de l’estimateur : x ~ n (µ, )
n

19 20
2°) Deuxième forme : b) Autres variables de décision
 x − µ0 1°) Écart entre x et µ 0 :
RH0 si T = > z1−α 2
 σ n
 Si T * = x − µ 0
 R H0 dans le cas contraire  RH σ
 si T * = x − µ 0 > z1 − α 2
 
0
142 43 n
L0
R H
 0 sinon

• Exercice : L0 = 0. 294 ; x − µ 0 = 0. 8 ⇒ RH0


Exemple (ELST, p. 335-336) :
• µ 0 = 15 ; n = 100 ; x = 14. 2 ; σ = 1.5
• α = 0.05 ⇒ z0.975 = 1.96
• T = -5.33
• Conclusion : RH0
2°) Moyenne de l'échantillon : (lien avec intervalle
de confiance de l’estimateur).
 RH 0 si x ∉[µ 0 − L0 , µ 0 + L0 ]

 R H0 sinon
• Intervalle de non rejet :
INR = [µ 0 − L0 ,µ 0 + L0 ]
• Exercice : INR = [14.706 ; 15.294 ] ∋/ 14. 2 : RH0
21 22
c) Relation avec le test du rapport de 3°) Règle de décision :
vraisemblance
− ∑ (xi −µ 0 )2
1
1 2i
1°) Exemple traité : e
(2π) n 2
λ(x ) = 1
• − ∑ (x i −x )
2
• X ~ n (µ ,1) 1 2i
e
(2π )n 2
• H0 : µ = µ 0 ↔ H1 : µ ≠ µ 0

⇒ Θ = R , Θ0 = {µ 0 } et Θ1 = R \ Θ0
1
2i [
− ∑ (xi −µ 0 )2 − (x i −x )2 ]
=e
n(x −µ 0 )
2

2°) Rapport de vraisemblance : =e 2

• −2 log e λ (x ) = n(x − µ 0 )
2
max L(θ)
θ∈Θ 0 L(µ 0 ) x − µ0
• λ(x ) = = ~ n (0,1) ⇒ n(x − µ 0 ) = χ12
2

max L(θ) L(µˆ ) 1 n
θ∈Θ
x − µ0
où µˆ est l'estimateur M.V. de µ ⇒ RH0 si > z1−α 2
1 n
est équivalent à
• Rappels : RH0 si n(x − µ 0 ) > χ1;1−α
2 2
1
− ∑ (x i −µ)2
• L(µ ) =
1
e
2 i • Exemple (α = 0.05) :
(2π )n 2
• Estimateur M.V. : µˆ = x z0.975 = 1.96 ; χ1;0.95
2
= 3.84 = (1. 96)2[ ]
23 24
d) Erreurs de première et deuxième espèces e) Fonctions de puissance et d'efficacité

 σ2  1°) Fonction de puissance :


• Si H0 est vraie : x ~ n  µ 0 , 
 n
r (µ ) = P (RH0 )
⇒ α = P(RH0 H0 ) = P(x ∉INR H0 )

 σ2 
• Si H0 est fausse : x ~ n  µ1 ,  , où µ1 ≠ µ 0
 n

  σ2  
⇒ β = P(R H0 H0 )= P  x ∉INR x ~ n  µ 1 ,  
  n 

• Exemple (ELST, p. 339) : 2°) Fonction d'efficacité :

H0 : µ = 15 ↔ H1 : µ ≠ 15 r (µ ) = P (R H0 )

25 26
f) Test unilatéral 2)Population Normale : X ~ n (µ ,σ 2 ) où
σ 2 inconnu
• H0 : µ = µ 0 ↔ H1 : µ > µ 0
a) Variable de décision
 RH x − µ0
0 si T = > z1−α x − µ0
 σ n Si H0 est vraie : T * = ~ tn−1
 R H0 sinon s n−1
b) Test bilatéral
H0 : µ = µ 0 ↔ H1 : µ ≠ µ 0
 x − µ0
RH0 si T * = >t
 s n − 1 n−1;1−α 2
 R H0 sinon

• H0 : µ = µ 0 ↔ H1 : µ < µ 0

 RH x − µ0
0 si T = < zα
 σ n
 R H0 sinon
c) Test unilatéral
• Autre formulation de la règle de décision H0 : µ = µ 0 ↔ H1 : µ > µ 0 (ou µ < µ 0 )
 x − µ0  x − µ0
RH0 si T = > z1−α si T * = > tn−1;1−α
 σ n 
RH0
s n−1
 R H0 sinon  R H0 sinon
27 28
3)Test relatif à la moyenne d’une loi B) Test d’égalité de deux moyennes
quelconque
• EAS{x1 ,..., x n } • X1 ~ loi (µ1 ) et X2 ~ loi (µ 2 )
• X ~ loi (moyenne µ )

σ2
Loi de l’estimateur :
x ≈ N (µ , )
n
{( ) ( )
} { (2 )
• EAS x11 ,..., xn1 et x1 ,..., xn
1 2
( 2)
}
si n est grand indépendants :
 x1 , s12 ; x2 , s22
Problème de test: H0 : µ = µ 0 : 
H1 : µ ≠ µ 0  D = x1 − x2
x − µ0
T=
Statistique de test : σ/ n Problème de test : H 0 : µ1 = µ 2
x − µ0 H1 : µ1 ≠ µ 2
T= ≈ N (0,1)
Loi de T sous H0 : σ/ n
ou si ∆ = µ1 − µ 2 : H0 : ∆ = 0
Règle de décision H1 : ∆ ≠ 0
 x − µ0
RH0 si T = > z1−α 2
 σ n
 R H0 sinon
où z1−α 2 est le quantile d'ordre 1 − α 2 de
Z ~ n (0 ,1)
(exercice : faire les tests bilatéraux)
29 30
1. Lois de X1 et X2 quelconques (nk ≥ 30 ) (
2) Lois normales: X1 ~ n µ1 , σ12 et )
Statistique de test, loi sous H0 : (
X2 ~ n µ 2 ,σ 22 ) avec µ1 = µ 2 (sous H0 )

α) Si σ12 et σ 22 sont connus : Statistique de test, loi sous H0 :

σ12 σ 22 α) Si σ12 et σ 22 sont connus :


T=D + ≈ n (0,1)
n1 n2
σ12 σ 22
T=D + ~ n (0 ,1)
β ) Si σ12 et σ 22 sont inconnus : n1 n2

s12 s22 β ) Si σ12 et σ 22 sont inconnus mais égaux :


T=D + ≈ n (0,1)
n1 − 1 n2 − 1
n1 s12 + n2 s22  1 1
*
T =D  +  ~ tn +n −2
Règle de décision : n1 + n2 − 2  n1 n2  1 2

 RH0 si T > z1−α 2 Règle de décision :



 R H0 sinon
 RH0 si T > z1−α 2
α) ⇒ 
 R H0 sinon

 RH0 si T * > tn1 +n2 −2;1−α 2


β) ⇒ 
 R H0 sinon

31 32
3) Cas d'échantillons appariés G TEST RELATIF A LA VARIANCE

A) Test sur 1 variance


( )
(1 ) ( 2 )
• xi , xi concerne le même individu i 1)Population Normale : X ~ n (µ ,σ 2 ) où µ
inconnu
• EAS :{x1,…xn}
(1)
⇒ n1 = n2 = n et d i = xi − xi( 2 ) a) Résolution du problème de test bilatéral
Problème de test: H0 : σ 2 = σ 02
1 1
• d = ∑ di ; sd2 = ∑ (di − d ) H1 : σ 2 ≠ σ02
2
ni n i
où σ02 est une valeur hypothétique donnée a priori
ns 2
• Si n est grand et sous H0 : T=
Statistique de test : σ0
n s2
 sd2  Loi de T sous H0 : T = 2 ~ χ 2n−1
d ≈ n 0,  σ0
 n − 1 Règle de décision

• Test de moyenne relatif à la différence entre 
RH0
n s2
σ0
[
si T = 2 ∉ χ 2n−1;α 2 ; χ 2n−1;1−α 2 ]
deux v.a.  R H0 sinon

33 34
b) Résolution du problème de test unilatéral 2) Test relatif à la variance d’une loi
quelconque
Problème de test: H0 : σ = σ02
2

H1 : σ 2 > σ 20 • X ~ loi (variance σ 2 )

ns 2 • EAS{x1 ,..., x n } :
T=
Statistique de test : σ0 1 n s2
s = ∑ (xi − x ) ; S =
2 2 2
n i n−1
n s2
Loi de T sous H0 : T = 2 ~ χ 2n−1 Population quelconque (n ≥ 50)
σ0
Règle de décision Problème de test : H0 : σ 2 = σ02
 n s2
H1 : σ 2 ≠ σ02
RH0 si T = 2 > χ 2n−1;1−α
 σ0
 R H0 sinon S2 − σ 20
Loi de T sous H0 : T = ≈ n (0 ,1)
µ 4 − σ 24
ii) Problème de test: H0 : σ 2 = σ02
n
H1 : σ 2 < σ 20
Règle de décision
Statistique de test + Loi sous H0 : idem
 n s2 si T > z1−α 2
RH0 si T = 2 < χ 2n−1;α  RH0
 σ0 
 R H0  R H0 sinon
sinon

35 36
B) Test d’égalité de deux variances

( )et X2 ~ loi (σ22 ,µ(42) )


• X1 ~ loi σ21 ,µ 4
(1)

x1 ,..., xn }et {x1 ,..., xn }


• EAS {
(1) (1) (2 ) ( 2)
1 2
indépendants :
s12 , m(1) ; s22 , m( 2)
 4 4
Remarques  2 n1 s1 2
2 n2 s22
a) Si µ 4 est inconnu  S1 = n − 1 ; S2 = n − 1
1 2
1
µˆ 4 = m4 = ∑ (xi − x )
4
Problème de test : H0 : σ12 = σ 22
n i
H1 : σ12 ≠ σ 22

b) Exercice : Règle de rejet pour un test unilatéral


1) Lois de X1 et X2 quelconques (nk ≥ 50 ) :

Statistique de test, loi sous H0 :

S12 − S22
• T= ≈ n (0 ,1 )
µ (41 ) − S14 µ (42 ) − S24
+
n1 n2
 RH0 si T > z1−α 2
Règle de décision : 
 R H0 sinon
37 38
2) Lois normales : G TEST D'HYPOTHÈSES POUR UNE
Statistique de test, loi sous H0 : PROPORTION

*S12 A) Test sur 1 proportion


T = 2 ~ Fn1 −1;n2 −1
S2
• Population composée de A ou A

• π A : proportion d'individus A
• EAS d'effectif n contenant nA individus A
 RH0 si T * > Fn −1;n −1;1−α 2 • πˆ A = nA n est tel que
Règle de décision :  1 2
 R H0 sinon
π (1 − π A )
Remarques E(πˆ A ) = π A ; V (πˆ A ) = A
n
• Dans le cas de lois normales, on choisit la 1) Test sur 1 proportion avec loi exacte si n
numérotation k = 1,2 de manière à avoir S12 > S22 ; est petit :
en outre, si n1 et n2 ≥ 30 : Problème de test : H0 : π A = π 0
H1 : π A ≠ π 0
1
(
log e S12 S22 ) Statistique de test : nA
T= 2 ≈ n (0 ,1)
1  1 1  Loi sous H0 : nA ~ b (n;π 0 )
 + 
2  n1 − 1 n2 − 1
39 40
2) Test sur 1 proportion avec loi asymptotique B) Test d’égalité de deux proportions
si n est grand :
Énoncé du problème :
Problème de test : H0 : π A = π 0
H1 : π A ≠ π 0 • Populations U1 et U2 composées de A ou A en
proportions π 1 et π 2
nA
− Π0

Statistique de test :
T= n
Π 0 (1 − Π 0 ) { } { (2 )
1
( 2)
• EAS x1(1) ,..., xn(1) et x1 ,..., xn
2 }
n indépendants :
nA nA1 éléments A prélevés de U1
− π0 
Loi sous H0 : T= n ≈ n (0,1) nA2 éléments A prélevés de U2
π 0 (1 − π 0 )
n n n
• ∆ˆ = D = A1 − A2 = πˆ 1 − πˆ 2
n1 n2
(théorème de Moivre-Laplace)
Problème de test : H0 : π 1 = π 2
H1 : π 1 ≠ π 2
Règle de décision

si T > z1−α 2 ou encore, en posant ∆ = π 1 − π 2 :


 RH0
 H0 : ∆ = 0
 R H0 sinon
H1 : ∆ ≠ 0
Remarques
• Test unilatéral
41 42
Statistique de test et loi sous H0 : G. TEST MULTINOMIAL

• Si n1 et n2 grands : A) Test multinomial dans 1 population


 π (1 − π 1 ) π 2 (1 − π 2 )
D ≈ n  ∆, 1 +  Situation :
 n1 n2 
• Sous H0 , on peut estimer la valeur U
commune π de π 1 et π 2 par : A1 Aj AJ
... ...
n + nA2 π1 πj πJ
πˆ = A1
n1 + n2
D
• T= ≈ n (0,1) • π j = proportion de A j dans U : ∑ π j = 1
1 1 
πˆ (1 − πˆ )  +  j
 n1 n2  • EAS {x1 ,..., xn } :
n j = nombre de A j ( j = 1,... , J )
 RH0 si T > z1−α 2
Règle de décision : 
 R H0 sinon Problème de test : H0 : π j = π j 0 ( j = 1,..., J )
H1 : au moins un π j ≠ π j 0
Remarque :
où ∑ π j0 = 1 , 0 < π j0 < 1 ( j = 1,... , J )
• On peut aussi estimer π 1 et π 2 indépendamment j
n n
πˆ 1 = A1 , πˆ 2 = A2
n1 n2

43 44
• (n1 ,...,nJ )' : loi multinomiale B) Test multinomial pour comparer 2
populations
Statistique de test et loi sous H0 :
Énoncé du problème :

T= ∑
J (n j − n π j 0 )
2
≈ χ 2J −1 U1 U2
j =1 n π j0 Aj AJ Aj AJ
A1 A1
si n ≥ 30, n π j 0 ≥ 1 (∀ j ) et au moins 80 % des ... ... ... ...
nπ j0 ≥ 5 : π 11 π j1 π J1 π 12 π j2 π J2

 RH0 si T > χ 2J −1;1−α


{ } { (2 )
• EAS x1(1) ,..., xn(1) et x1 ,..., xn
1 2
( 2)
}
Règle de décision :  indépendants :
 R H0 sinon n j1 éléments A j prélevés de U1

Remarque : Test d'ajustement n j 2 éléments A j prélevés de U2

{( )
• Ajuster une D.O.1 A j ,n j ; j = 1,..., J } Problème de test : H0 : π j1 = π j 2 ( j = 1,..., J )
par une loi (θ1 ,...θ M )
H1 : π j1 ≠ π j 2 pour au moins un j

Soit π j la valeur commune de π j1 et


π j 2 , sous H0 :
n j n j1 + n j 2
• S'il faut estimer θ1 ,...θ M pour estimer les πˆ j = = ( j = 1,..., J )
n n
π j 0 : T ≈ χ 2J−M −1
45 46
Statistique de test et loi sous H0 : H. TEST D’INDEPENDANCE

• Si n ≥ 30 , nk πˆ j ≥ 1 et au moins 80 % 1) Test basé sur le coefficient de corrélation


des nk πˆ j ≥ 5 :
Énoncé du problème
(n jk − nk πˆ j )
2

• (X ,Y ) ~ n (µ , ∑ )
2
D = ∑∑ ≈ χ 2J −1
j k nk πˆ j
 RH0 si D 2 > χ 2J −1;1−α • Indépendance :
Règle de décision :  X et Y sont indépendantes ssi ρ = 0 où ρ est le
 R H0 sinon
coefficient de corrélation entre X et Y

• EAS {(xi , yi ); i = 1,..., n} :

sxy
r=
sx s y

Problème de test : H0 : X et Y sont indépendantes


H1 : X et Y ne sont pas indépendantes
Remarque :
ou encore : H0 : ρ = 0
Si π j 0 est une valeur de π j1 et π j 2 fixée a H1 : ρ ≠ 0
2
priori :D = ∑ ∑
(
n jk − nk π j0 ) 2
≈ χ 22 ( J −1 )
j k nk π j 0

47 48
Statistique de test et loi sous H0 : 2 Test χ 2
r n−2
T= ~ tn−2 Énoncé du problème
1 − r2
• X et Y : variables nominales

• EAS {(xi , yi ); i = 1,..., n}


 RH0 si T > t n−2;1−α 2
Règle de décision : 
 R H0 sinon • Tableau de contingence :

{(x j , yk , n jk ); j = 1,..., J ; k = 1,... , K}


• Effectifs marginaux :

n j. = ∑ n jk et n.k = ∑ n jk
k j

Problème de test : H0 : X et Y sont indépendantes


H1 : le contraire
Remarque
Statistique de test : Mesure d'association :
( )
• Tables de rejets basées sur les valeurs de r 2
n jk − n *
jk
D2 = ∑ ∑
j k n*jk
n j. n.k
où n jk =
*
est appelé effectif théorique
n
49 50
Loi sous H0 : Si n ≥ 30, n*jk ≥ 1 pour tout ( j , k ) et au Chapitre 9 : Analyse de la
moins 80 % des n*jk ≥ 5 :
variance
D 2 ≈ χ(2J −1) ( K−1) A INTRODUCTION

1) Présentation du problème et approche


Règle de décision : exploratoire
U1 Uk UK
 RH0 si D 2 > χ(2J −1) ( K−1);1−α µ1 µk µK

 R H0 sinon ... ...
σ12 σ 2k σ 2K

avec Xk ~ Loi (µ k, s2k) où k = 1,..., K

Problème de test : H0 : µ1 = µ 2 = ... = µ K


H1 :au moins deux moyennes
différentes

Nombre de degrés de liberté : υ = ( J − 1) ( K − 1)

1
51
2) Exemple 9.7 (ELST, p. 364) B L’ANALYSE DE LA VARIANCE A UN
CRITERE
• Prix d'une denrée dans 3 régions
1) Présentation du problème
Prix Régions
1 2 3
1 13.5 13.2 13.4
2 14.2 13.3 13.3
3
4
14.1
13.4
13.1
13.5
14.0
14.2
• Objectif : Comparer des moyennes en
5
TOTk
13.3
65.5
13.4
66.5
14.1
69.0 204.0
identifiant les sources de variation qui peuvent
nk
xk
5 5 5 15 expliquer les différences existant entre elles
13.7 13.3 13.8 13.6
s k2 0.14 0.02 0.14 0.147

• Boîtes à moustaches : • Hypothèses : (


Xk ~ n µ k ,σ 2 ); k = 1,..., K

EAS indépendants E1 , ..., EK de tailles n1 ,...,nk

2 1 2
• sdans = ∑ sk = 0.100 • Problème de test :
Kk
H0 : µ1 = µ 2 = ... = µ K
1
∑ (xk − x ) = 0.047
2 2
• sentre =
Kk H1 : au moins un µ K
• Un critère (facteur contrôlé) différent des autres

2 3
2) Décomposition de la variance b) Somme totale des carrés des écarts

a) Présentation des données (


SCEt = ∑ ∑ xi k − x )2
i k

• xi k : ième valeur de l'échantillon Ek T2


• SCEt = ∑ ∑ xi k − n x = ∑ ∑ xi k −
2 2 2
i k i k n
(i = 1,...,nk ; k = 1,..., K ) SCEt
? variance biaisée : st2 =
n
E1 L Ek L EK SCEt
? variance non biaisée : St2 = CM t =
x11 L x1 k L x1 K n−1
M M M Décomposons cette expression en 2 éléments :
xi 1 L xi k L xi K
(
• SCEt = ∑ ∑ xi k − xk + x k − x ) 2

i k
M M M
L xnk k L
xnK K
(
= ∑ ∑ xi k − xk ) + ∑ nk (xk − x )2
2

i k k
xn1 1 L L (
+ 2 ∑ (x k − x )∑ xi k − x k )
k i 4243
1
T1 L Tk L TK T
0
x1 L xk L xK x = SCEr + SCEa

• Tk = ∑ xi k ; T = ∑ Tk ; n = ∑ nk ;
i k k
• xk = Tk nk ; x = T n
4 5
c) Somme factorielle des carrés des écarts 3) Variable et règle de décision
(entre les échantillons)
a) Variable de décision
• A : Ak définit l'appartenance à Uk
1°) Estimateur de σ 2 :
• SCEa = ∑ nk (x k − x )
2
k Sous H0 , σ 2 peut être estimé
sans biais par CMt , CM a ou CM r
2 2 Tk2 T 2
• SCEa = ∑ nk xk − n x = ∑ −
k k nk n 2°) Lois de probabilité (sous H0 ) :
SCEa SCEa SCEa SCEr SCEt
• sa2 = ; Sa2 = CM a = χ 2
χ 2 2
K K −1 • ~ K−1 ; ~ n− K ; 2 ~ χ n−1
σ 2
σ 2
σ
d) Somme résiduelle des carrés des écarts Sa2 CMa
• T= 2 = ~ FK −1,n− K
(dans les échantillons) Sr CMr

Tk2
( )
2 2
• SCEr = ∑ ∑ xi k − x k = ∑ ∑ xi k − ∑
i k i k k nk b) Règle de décision
SCEr SCEr
• sr2 = ; Sr2 = CM r = RH0 si T > FK −1 ,n− K;1−α
n n−K

e) Remarque

SCEt , SCEa ⇒ SCEr = SCEt − SCEa


SCEt , SCEr ⇒ SCEa = SCEt − SCEr
6 7
4) Tableau ANOVA 5) Modèle fixe

a) Notations a) Définitions et notations


SV : Source de variation
i = 1,..., nk
SC :
DL :
Somme des carrés
Degré de liberté
(
• xi k ~ n µ k , σ2 ) 
 k = 1,..., K
CM : Carré moyen
( )
• xi k − µ ~ n µ k − µ ,σ 2 , où
b) Tableau
1
µ = ∑ nk µ k
SV SC DL CM T nk

A SCEa K − 1 CM a • xi k − µ = xi k − µ k + µ k − µ
1424 3 123
SCEr = T= ei k αk
Rés. n − K CM r CMa
SCEt − SCEa • α k = µ k − µ : effet principal de la
CMr
population Uk (facteur contrôlé)
→ quantité non aléatoire
Total SCEt n −1 CMt
• ei k = xi k − µ k : écarts résiduels
A: Différences entre échantillons aléatoires, indépendants les uns
des autres :
Rés. : Différence entre observations
(dans les échantillons) (
ei k ~ n 0, σ2 )
8 9
b) Modèle c) Estimations
1°) Énoncé :
• µˆ = x ; µˆ k = xk ; αˆ k = x k − x (k = 1,... , K )
i = 1,..., nk
xi k = µ + α k + ei k  • E( x ) = µ , E(xk ) = µ k , E(αˆ k ) = α k
 k = 1,..., K
1
• E(CMt ) = σ 2 + ∑ nk α k
2
n−1 k
1
E(CM a ) = σ 2 + 2
∑ nk α k
K−1 k
E(CM r ) = σ2

2°) Relation entre les effets :


1 1 d) Problème de test
µ = ∑ nk µ k = ∑ nk (µ + α k )
nk nk
Deux énoncés équivalents :
1
= µ + ∑ nk α k ⇒ ∑ nk α k = 0 • H0 : µ1 = ... = µ K ↔ H1 : au moins deux µ k
nk k
différents
3°) Modèle équilibré :
• nk = nc = constante (k = 1,... , K ) • H0 : α1 = ... = α K = 0 ↔ H1 : α k ≠ 0 , pour au
moins un k
• Dans ce cas : ∑ α k = 0
k

10 11
6) Modèle aléatoire 7) Cas de 2 populations (K = 2)

a) Objectif a) Somme des carrés factorielle


Comparaison d'une (quasi-)infinité de populations
• SCEa = n1 (x1 − x ) + n2 (x2 − x )
2 2

b) Tirage à deux degrés


• Nous avons :
• Choix aléatoire de K populations
• Choix d'un échantillon dans chaque n x + n2 x2 n2 (x1 − x2 )
x1 − x = x1 − 1 1 =
population sélectionnée n1 + n2 n1 + n2

c) Modèle n x +n x n (x − x1 )
x2 − x = x2 − 1 1 2 2 = 1 2
i = 1,..., nk n1 + n2 n1 + n2
xi k = µ + ak + ei k 
 k = 1,..., K
n1 n22 (x1 − x2 ) + n2 n12 (x2 − x1 )
2 2
où nous avons posé : • SCEa =
• ak ~ N(0,s 2a) (n1 + n2 )2
(
• ei k ~ n 0, σ2 ) =
n1 n2 (x1 − x2 ) (n2 + n1 )
2

• ak et ei k sont indépendantes (n1 + n2 )2

d) Hypothèse nulle : H0 : σ 2a = 0
=
(x1 − x2 )
2

1 1
+
n1 n2
12 13
b) Somme des carrés résiduelle 8) Rapport de corrélation (coefficient de
corrélation non linéaire)
SCEr = n1 s12 + n2 s22
SCE θ
ˆ2 SCEa SCEt
c) Variable de décision •θˆ = a ⇒ =
SCEt 1 − θˆ 2 SCEt SCEt − SCEa

T=
SCEa ( K − 1)
=
(x1 − x2 ) 2
Mesure le degré de dépendance de la variable quantitative,
SCEr (n − K ) n1 s12 + n2 s22  1 1 en fonction de la caractéristique nominale (facteur).
 + 
n1 + n2 − 2  n1 n2  Pourcentage de la variation totale expliquée par le facteur.
2
  9) Comparaison des moyennes deux à deux
 x1 − x 2 
=  a) I.C. simples
n1 s12 + n2 s22  1 1 
  + 
 n1 + n2 − 2  n1 n2   1°) Rappel:

I.C. (1 − α ) pour µ k − µ k' :


d) Loi de T
1 1
T ~ F1 , n1 +n2 −2 = tn21 +n2 −2
(xk − xk' ) ± tnk +nk' −2;1−α 2 sc +
nk nk'

ou encore, si n = n1 + n2 : 2 2
2 nk sk + nk' sk'
où sc =
nk + nk' − 2
T ~ F1 ,n−2
14 15
2°) Estimateur commun de σ 2 : 10) Test de comparaison des variances
(test de Bartlett)
1 1
(xk − xk' ) ± tn− K;1−α 2 sc + a) Préliminaires
nk nk'
( )
• Xk ~ n µ k ,σ2k , k = 1,..., K

où sc2 =
SCEr
n−K
= CMr • EAS {x1(k ) ,..., xn(k)}indépendants, de variance
k
sk2 • Sk2 = nk sk2 (nk − 1 ) [k = 1,..., K]
3°) Remarque : 1
S2 = 2
∑ nk sk (où n = ∑ nk )
n−K k k
Difficulté de mesurer le degré
de confiance global • H0 : σ12 = ... = σ 2K ↔ H1 : au moins deux s k
différents
...
b) I.C. simultanés (méthode de Scheffé)
b) Variable de décision
I.C. pour chaque différence µ k − µ k' , Si n1 ,...,nK ≥ 5 , on a, sous H0 :
avec un degré de confiance global (n − K ) log e S2 − ∑ (nk − 1)log e Sk2
de (1 − α ) : T= k ≈ χ 2K−1
1  1 1 
1+ ∑ − 
(xk − xk' ) ± ( K − 1)FK −1,n− K;1−α sc
1
+
1 3( K − 1)  k nk − 1 n − K 
nk nk'
c) Règle de décision
SCEr
où sc2 = = CMr RH0 si T > χ2K −1;1−α ; R H0 sinon
n−K
16 17
11) Exemple (ESLT, p. 364-367) C L’ANALYSE DE LA VARIANCE A DEUX
CRITERES
a) Problème de test :
H 0 : µ1 = µ 2 = µ 3
1) Présentation du problème
H1 : au moins µ K différent des autres
b) Données a) Critères
Prix Régions
1 2 3
Deux critères de classification :
Voir données page 10-2
A : A1 ,..., A j ,..., AJ
TOTk 65.5 66.5 69.0 204.0
nk 5 5 5 15
xk 13.7 13.3 13.8 13.6 B : B1 ,..., Bk ,..., BK
s k2 0.14 0.02 0.14 0.147
b) Traitement
c) Test de Bartlett
S12 = 0.175 , S22 = 0. 025 , S32 = 0.175 , S2 = 0.125
( )
Couple de modalités A j , Bk = ( j ,k )

T=
(12 )(−2. 079) + 28.699
= 3. 37 < χ 22;0.15 = 5.99
c) Observations : {xi j k ; i = 1,..., n j k }
1 + 1 6 (0.750 − 0.083) d) Modèles
⇒ R H0 où H0 : σ12 = σ 22 = σ 23 • Modèle complet : n j k > 0, ∀( j , k )
d) Tableau ANOVA • Modèle à répétition :n j k > 1, ∀( j , k )
Sources de Somme des carrés Degré de liberté Carrés
variation (SCE) (DL) moyens • Modèle équilibré ou orthogonal : n j k = nc ,
(SV) (CM)
Entre (A) 0.70 2 0.350 ∀( j , k ), où nc = constante
Dans (rés.) 1.50 12 0.125
Total 2.20 14
• Modèles fixe, aléatoire ou mixte
e) Décision : R H0 car 2. 80 < F2 ,12;0.95 = 3.89
18 19
2) Modèle équilibré (orthogonal) e) Décomposition des valeurs centrées
1°) Moyennes particulières :
a) Énoncé du modèle 1 T
x = ∑ ∑ ∑ xi j k = (n = nc J K )
ni j k n
xi j k = µ + α j + β k + γ j k + ei j k
1 T. j .
i = 1,...,nc ; j = 1,..., J ; k = 1,..., K x. j . = ∑∑ x =
nc K i k i j k nc K

b) Effets 1 T..k
x. . k = ∑ ∑ xi j k =
nc J i j nc J
• α j : effet principal du niveau j de A
1 T. j k
• β k : effet principal du niveau k de B x. j k = ∑ xi j k =
nc i nc
• γ j k : effet d'interaction
2°) Décomposition de base :
xi j k − x = xi j k − x. j k (4)
c) Relations
+x. j k − x. j . − x. .k + x (3)
∑ α j = ∑ βk = ∑ γ j k = ∑ γ j k = 0
j k j k
+x. j . − x (1)
d) Suppositions de base :
+x. .k − x
( )
(2)
ei j k ~ n 0,σ 2 , ∀(i , j , k )
20 21
f) Estimation des paramètres 2°) Calculs pratiques :

µˆ = x ; αˆ j = x. j . − x ; βˆ k = x. .k − x ; T2
• SCEt = ∑ ∑ ∑ xi j k −
2
i j k n
γˆ j k = x. j k − x. j . − x. .k + x

1 T2
• SCEa = ∑ T. j . −
2
g) Décomposition de la variance nc K j n

1°) Somme de carrés d'écarts :


1 T2
• SCEb = ∑ T.. k −
2

(
SCEt = ∑ ∑ ∑ xi j k − x ) 2 nc J k n
i j k

(
= nc K ∑ x. j . − x )
2
• SCEr = ∑ ∑ ∑ xi2j k − ∑ ∑
T.2j k
j i j k j k nc

(
+nc J ∑ x.. k − x )2
k et SCEa b = SCEt − SCEa − SCEb − SCEr
(
+nc ∑ ∑ x. j k − x. j . − x.. k + x )2
j k T.2j k T. 2j .T2 T..2k
• SCEa b = ∑ ∑ −∑ −∑ +
(
+ ∑ ∑ ∑ xi j k − x. j k )2 j k nc n
j c K n
j c J n
i j k
= SCEa + SCEb + SCEa b + SCEr et SCEr = SCEt − SCEa − SCEb − SCEa b
22 23
3°) Carrés moyens : i) Variables et règles de décision
SCEa SCEb
CM a = ; CMb = ; 1°) Premier facteur :
J −1 K −1
SCEab SCEr
CM ab = ; CM r = ; • H0 : α1 = ... = α J = 0 ↔ H1 : α j ≠ 0,
( J − 1)( K − 1) (c )
n − 1 J K
pour au moins un j
SCEt
CMt =
nc J K − 1 CMa
• T= ~ FJ −1 , (n −1 ) J K
CMr c
_h) Tableau ANOVA

• RH0 si T > FJ −1 , (n −1) J K ;1−α


SV SC DL CM F c

CMa
A SCEa J −1 CM a
CMr 2°) Deuxième facteur :
CMb
B SCEb K −1 CMb
• H0 : β1 = ... = β K = 0 ↔ H1 : β k ≠ 0,
CMr
pour au moins un k
CMa b
AB SCEa b ( J − 1)( K − 1) CM a b
CMr CMb
• T= ~ FK−1, (n −1) J K
Rés. SCEr (nc − 1) J K CM r CM r c

T SCEt nc J K − 1
• RH0 si T > FK −1 , (n −1) J K ;1−α
c

24 25
3°) Interaction 3) Exemple

• H0 : γ 11 = ... = γ J K = 0 ↔ H1 : • A : 4 marques de voitures


γ j k ≠ 0, pour au moins un ( j , k ) • B : 5 conducteurs
• 2 essais pour chaque traitement

CMa b x: consommation d'essence (dcl)


• T= ~ F( J −1 ) ( K −1 ) , (n −1) J K pour parcourir 100 km
CMr c
Conducteurs (B)
Marques (A) 1 2 3 4 5 Ti j . T. j .
1 70 75 68 79 74 366 732
68 73 66 81 78 366
• Règle de décision : 2 82 87 92 90 87 438 858
78 85 88 86 83 420

RH0 si T > F( J −1) ( K −1) , (n −1 ) J K ;1−α


3 66 64 69 65 62 326 636
62 58 71 61 58 310
c 4 80 82 78 80 82 402 824
82 86 84 86 84 422
Ti . k 298 308 307 314 305
290 302 309 314 303
T. . k 588 610 616 628 608 T = 3050

j) Remarques
• nc = 2 , J = 4 , K = 5 , n = 40
• Si nc = 1 , l'équation d'analyse de
la variance devient : • µˆ = x = 76.25 ; αˆ 1 = −3.05 , αˆ 2 = 9.55 ,
αˆ 3 = −12.65 , αˆ 4 = 6.15
SCEt = SCEa + SCEb + SCEa b
• On peut envisager des modèles • βˆ 1 = −2.75 , βˆ 2 = 0 , βˆ 3 = 0.75 ,
aléatoires et mixtes
βˆ 4 = 2.25 , βˆ 5 = −0. 25
26 27
• ∑ ∑ ∑ xi2j k = 236 160
i j k
#$%&'()*!"X!,!a.0H3*!0*!
• SCEt = 3 597. 5 ; SCEa = 2 983. 5 ; )4<)*//'.6!3'64%')*!/'=&3*!
SCEb = 106 !

aB/S_b!c8dRbSc_/
• T. j k 1 2 3 4 5 !
1 138 148 134 160 152
2 160 172 180 176 170 o! g*9:!7%)'%23*/!:!*(!h!,!
3 128 122 140 126 120 !
4 162 168 162 166 166
>!h!,!7%)'%23*!Q!*:&3'A9*)V!7%)'%23*!04&*60%6(*V!
7%)'%23*!)4&.6/*V!7%)'%23*!*60.<H6*!
• SCEa b = 366 ; SCEr = 142 >!:!,!7%)'%23*!*:&3';%('7*V!7%)'%23*!'604&*60%6(*V!
7%)'%23*!*:.<H6*!
• Tableau ANOVA : !
o! e6!/9&&./*!A9*!3*!;.=&.)(*=*6(!0*!h!&*9(!y()*!
SV SCE DL CM Fcalc F0.95 *:&3'A94!&%)('*33*=*6(!&%)!;*39'!0*!:!
A 2 983.5 3 994.5 140 3.10
B 106 4 26.5 3.73 2.87 !
AB 366 12 30.5 4.30 2.28 !
Rés. 142 20 7.1
T 3 597.5 39 o! e6!/9&&./*!A9*!;*((*!)*3%('.6!*:&3';%('7*!*/(!
z3'64%')*z!
• Test de H0 : α j = 0 : RH0 !
o! D3!*:'/(*!96*!&%)('*!0*!h!A9'!6*!&*9(!y()*!*:&3'A94*!&%)!
:!! !)4/'09!
• Test de H0 : β j = 0 : RH0 !
o! L.)=%3'/%('.6!,!=.0H3*!0*!)4<)*//'.6!/'=&3*!I96*!/*93*!
• Test de H0 : γ j k = 0 : RH0 7%)'%23*!*:&3';%('7*!:J!
! "
28
(?(PG@(/ !
! eB/Pc8(@(/(b/f^Gcbf(`(`/
#.6/'04).6/!3n*:*=&3*!"XB"!IF-UqV!&B!CTiJ!
!
!
h!,!%)<*6(!0*!&.;$*!0.664!Q!0*/!%0.3*/;*6(/! M=/@"/#2:>0"/
:!,!{<*!0*/!%0.3*/;*6(/! !
! !
! !a.0H3*!*:&3'A9%6(!h!Q!&%)(')!0*!:! h!S!α!b!β!:!b!ε!
! !
e'1/,!*/('=*)!3*/!&%)%=H()*/!09!=.0H3*!Q!&%)(')!0G96! !
4;$%6('33.6!0*!(%'33*!6!,!WIh'V!:'J!f!"!S!'!S!6Z!
.[!!! h!*/(!3%!7%)'%23*!04&*60%6(*!
!
(< ! "+! "+! "O! "M! "P! "M! "+! "C! ""! ""!
:!*/(!3%!7%)'%23*!*:&3';%('7*!!
)< !
ε!*/(!3*!(*)=*!0G*))*9)V!3%!&*)(9)2%('.6!
MB"! CBM! ""BC! "XB+ ""BO TB+! PBX! TBd! CBO! CBX!
! ! %!*(!|!/.6(!3*/!&%)%=H()*/!'6;.669/!
! !
! !
yi
11 1.9)!3G*/('=%('.6!0*/!&%)%=H()*/!'6;.669/!%!*(!|V!.6!/*!
9 2%/*!/9)!96!4;$%6('33.6!,!,!WIh'V!:'J!f!"!S!'!S!6Z!&.9)!
y=6.8 3*A9*3!3*!=.0H3*!/G4;)'(!,!
5
!
3
!
1

11 x=13 16 xi
h'!S!α!b!β!:'!b!ε'!
! !
! !
H=*
! .[!ε'!*/(!3G*))*9)!;.))*/&.60%6(!Q!3%!' !.2/*)7%('.6B!
! + ! C
!
W=/(.%,1'%"/32'3/92%#"/#$1%,.,"00"/
O=/@"3/5Q*215>3"3/.0$33,&'"3/ # )M & # (M & # 8M &
# M&
!
fN/,!-'*6!3'64%')*!*6()*!h!*(!:! o! Q = % " ( E M = % " ( E ) = % " ( E " = % " (
% ( % ( % ( % (
! ! I2.66*!/&4;'@';%('.6!0*!3%!)*3%('.6J! !! $ )9 ' $ M ' $ (9 ' $ 89 ' !
!
o! 1./.6/! α = βN E β = βM !*(!
fM/,!FIε'J!S!X!! ! ! "!S!'!S!6!
! ! I*6!=.h*66*V!.6!6*!@%'(!&%/!0G*))*9)J! # M (M &
# βN &
! ? = % " " ( !!!V!!!β = % ( !
fO/,!3%!7%)'%23*!*:&3';%('7*!:!*/(!;.6/'04)4*!;.==*! % ( $ βM '
!! $ M ( 9 '
&)404(*)='64*V!*33*!*/(!/9&&./4*!'604&*60%6(*!0*!
3G*))*9)!*!I0.6;!=*/9)4*!/%6/!*))*9)J! h! a.0H3*!,!! h'!S!|X!b!|"!:'!b!*'!!!(< = ME===E9)!
!
fW/,!#.7Iε'!V!ε?J!S!X!! ! ! "!≤!'!≠!?!≤!6! ! ; = β X " + β" ! + ε = $ β + ε !
! ! I6.6!%9(.;.))43%('.6!0*/!*))*9)/J!
%7*;!}"!,!FIεJ!S! X V!.[! N = (N=== N)U V!!
!
fX/,!!R%)Iε'J!S!σ+!! ! ! "!≤!'!≤!6! *(!}C!*(!}M!'=&3'A9*!,!
! ! I$h&.($H/*!0G$.=./;40%/(';'(4J! # σO $ N &
!
! " 8 = /(""U ) = % $ ( = σOS!
% (
fg/,!}h&.($H/*!%00'('.66*33*!=.'6/!'=&.)(%6(*!,! $ N $ σO '
!!
$h&.($H/*!0*!6.)=%3'(4!0*/!*))*9)/!,!
! ! .[! S !*/(!3%!=%()';*!96'(4!0n.)0)*!6!
ε'!v\IXV!σ+J!
F6!.9()*!3G$h&.($H/*!}O!'=&3'A9*,!! ε v 7 IXV σ L J !
+

! M ! O
RB/(`bSPabSc_/ αE/β
7B/G$%$#>1%"3/:"/%+K%"33,2-/Aα βB/
! !
M=/(31,#$1,2-/:"3/*$%$#>1%"3/*$%/ !
'B!a.0H3*!,!Q,/I/α/H/β/),/H/ε,! ! (< = ME===E 9)!
0$/#+152:"/PRc/A#2,-:%"3/.$%%+3/ !
!

2%:,-$,%"3B/ !
! ''B!#)'(H)*!0*/!a#!,!!
- -
}p1eq}FUFU!5qD-DUFFU!,!}X!Q!}M!
'/-/9/0(% , " ε = " W ;/ − Iα + β !/ JZ+
+
$B/!$**"03/A.5$*,1%"/OB/ / ="
/
/ =" !
o! U4)'*!2'7%)'4*!,!{((< E )< ) \ < = ME===E 9}! ! !

e6!%!79!%9!;$%&'()*!+!A9*!3*/!7%3*9)/!A9'!='6'='/*6(!
.( ) ;*((*!A9%6('(4!/.6(!%!*(!2!0.6;!,!
h/ 1%)%=H()*//C/ / (3E )3E .(O E .O) E .( ) E - = /
.( .) !
αi/ = A E βi/ = I !
o! g).'(*!aB#B!,! ;~ / = 8 + M!/ !
!

o! #)'(H)*!0*/!=.'60)*/!;%))4/!,!

O<9 " [)< − (A + I (< )] !


O
<
.( ) .( ) . ) .)
h/ `20'1,2-/C// / I= O = =- //
.( .( .) .( .(
! ! ! ! A = )3−
− I (3!

! P ! T
'''B!1).23H=*!/.9/!@.)=*!=%()';'*33*!! E*=%)A9*/!
; = β X " + β" ! + ε = $ β + ε ! o! QUQ = " )<O !
<
!βi/N !*(!βi/M !/.6(!/.39('.6/!09!&).23H=*!A9'!;.6/'/(*!Q! # )M & # " )< &
# M $ M &
='6'='/*)! o! ?U Q = % (% " ( =% < (!
! $ (M $ (9 ' % ( % " (< )< (
!! $ )9 ' $ < '
! P(βN Eβ βM ) = " ()< − βN − βM (< )
O
# " )< &
o! β ? Q = (βN βM )%% <
< U U
!
(!
="ε /+ =εnε " (< )< (
$< '
/ !
! ! ! !!!!!!!! ! ! = β N " )< + βM " (< )< !
= (Q − ?β
β) (Q − ?β
β)!
U < <
!
# M (M & # βN + βM (M &
! = QUQ − βU ?U Q − QU ?β
β + βU ?U ?β
β! # βN &
o! ?β β =%" " (% ( = % " (!
% ( $ βM ' % (
! βU ?U Q + βU ?U ?β
= QUQ − Oβ β! !! $ M (9 ' $ βN + βM (9 '
! # β N + βM (M &
# M $ M &
!
U U
( )
! ! 1.9)!.2(*6')!βi/ = βi/N βi/M V!'3!@%9(!A9*! o! ?U ?ββ=%
$ (M $ (9 ' %
(% " (!
(
! !! $ β N + βM (9 '
# ∂ P (β )& # &
U
∂ P (β ) % ∂ βN ( # N& ! ! = % " (β N + βM (< ) " (βN + βM (< )(< ( !
=% = % (! $< < '
∂β %
∂ P ( )( $ N'
β (
β = " (βN + βM (< ) !
o! βU ?U ?β
O
$ ∂ βM ' <

! d ! i
o! GO (β ) = " (βN + βM (< ) !
FA9%('.6/!6.)=%3*/! O
! <
!
!
o! P(β) = QU Q − Oβ βU ?U Q + βU ?U ?β β!
%!&! (! %! '!&'! !(! 0 ∂ GO (β)
!! GM (β ) GO (β ) 2 ∂ β = O " (βN + βM (< )
! !! 1 N < !
! ∂ GO (β)
! 2 = O " (βN + βM (< )(<
o! GM (β ) = βN " )< + βM " (< )< ! 3 ∂ βM <
< < !
!
# " (βN + βM (< ) &
! ∂ GO (β)
0 ∂ GM (β ) ! !! = O% < (!
∂β % " (βN + βM (< )(< (
2 ∂ β = " )< $ < '
! !! 1 N < !
∂ GM (β ) !
2 = " (< )<
3 ∂ βM <
! !!
(
∂ βU ?U ? β )= O ?U ? β!
! ∂β
! !
# " )< &
∂ GM (β ) !
! !! = %% < (! ∂P
∂β " (< )< ( o! = −O ?U Q + O?U ?β
β!
$< ' ∂β
!
! !
∂P
! !!
(
∂ βU ?U Q )
= ?U Q ! ∂β
= N !!! ⇔ !!! ?U ? β = ?U Q !
∂β
! "X ! ""
F/('=%('.6!0*!β !
σB/
.B/G$%$#>1%"3/:"/-',3$-."/Aσ
# M (M & # 9 " (< & !
# M $ M & <
o! ?U ? = % (%" " (= % (! 1%)!$h&.($H/*!,!R%)Iε'J!S!σ+!! !
! "!≤!'!≤!6!
$ (M $ (9 ' % ( % " (< " (<O ( !
!! $ M (9 ' $ < < '
e6!04@'6'(!3*!)4/'09!0*!3%!'H=*!.2/*)7%('.6!;.==*!!3%!
!
0'@@4)*6;*!*6()*!3%!7%3*9)!.2/*)74*!*(!3%!7%3*9)!%?9/(4*,!!
o! E*=%)A9*!,!e6!/9&&./*!A9*!3*/! (< !6*!/.6(!&%/!(.9/!
!
4<%9:!!!! !!! .(O > N !
%/ = ;/ − ;~/ = ;/ − β~ & !/ = ;/ − Iα~ + β~ !/ J !
!
# &
O !
o! 0*(! ?U ? = 9" (<O − % " (< ( ! +
56!*/('=%(*9)!6%(9)*3!0*!σ !/*)%!0.6;!0.664!&%)!,!
< $ < ' !
O-
O *M O #M & " - +
=9 ( − = 9O .(O > N !
,9 " < $ 9 " < ' /
"
! ! (
+ < . σ~ =+
%/
U
! ! ! ? ? !*/(!'67*)/'23*! - − + / =" !
! !
M # " (<O − " (< &
( )
U −M
o! ? ? = O O %
9 .( $ − " (< 9 '
(!

!
( )−M!/.6(!/h=4()'A9*/!
o! ?U ? !*(! ?U ?
!
U
# .( ) .( ) &
( ) −M
o! βi/ = ?U ? ?U Q = % )3−
$
− O (3
.(
(!
.(O '

! "+ ! "C
-.<>7)%'/*=23%6;*!
O=/(31,#$1,2-/:"3/*$%$#>1%"3/*$%/
0$/#+152:"/P6/A#$),#'#/:"/ (@k α Eβ ) (
σ O = 02K8 @ α Eβ
β Eσ ) σO !
β Eσ
!
<%$,3"#70$-."B/ 9
= − 02K8 OΠ
9 M
Π − 02K8 σ O − O " ()< − α − β (< )
O
! O O σ <
Oσ !
}p1eq}FUFU!5qD-DUFFU!,!}X!Q!}O!0.6;!$h&.($H/*! •A9%('.6/!aBRB!
%00'('.66*33*!&.9)!;*((*!=4($.0*!0G*/('=%('.6!,! !
! ∂ @k M
}O!,!ε'!v\IXV!σ+J! = − O ( −O)" ()< − α − β (< ) = N !
∂α Oσ <
! !
!!
19'/A9*!,
∂ @k M
! /( ) ( ) = µ ) ( = α + β ( \ H ( ) ( ) = σO = − O (−O)" ()< − α − β (< ) (< = N !
!
! ∂β Oσ <
3%!3.'!0*!h!*/(!0.664*!&%)!! !
∂ @k
// (
)< j - α + β (< E σO )
!
∂σ O = −

9
O +
M
Oσ <X
O
" ()< − α − β (< ) = N !
!

!
L.6;('.6!0*!7)%'/*=23%6;*!
F/('=%(*9)/!aBRB!
( )< − α − β (< )O
9 − !
(
@ α Eβ
βE σ O
)= <∏=M MO M O 8 OσO ! .( )
o! βi/ = I = O !!!]!!! αi/ = A = )3−
(OΠσ ) .(
− I (3!
M 9 M O
o! σi/O = " ()< − A − I (< ) = .O)⋅( = .83Oi/!
O
− " ()< − α −β (< )
M O σ O <=
=M 9 <
! = 8 !
(OΠσ )
O 9O
#.6;39/'.6!,!!F/('=%(*9)/!aBRB!S!*/('=%(*9)/!aB#BeB!!
&.9)!3*/!&%)%=H()*/!0*!)4<)*//'.6!
! "M ! "O
8B/G!cG!S(b(`/8(`/ b5+2%>#"/:"/T$'334P$%l2</
!
(`bSPab(d!`/ g%6/!3%!;3%//*!0*/!*/('=%(*9)!/%6/!2'%'/!0*! βN !*(! βM !A9'!
!
/.6(! @.6;('.6/! 3'64%')*/! 0*/! )< V! 3*/! */('=%(*9)/! aB#BeB!
M=/G%2*%,+1+3/:"/βi// βi/N !*(!βi/M !/.6(!0*!7%)'%6;*!='6'=%3*!Ic-5FJ!
}p1eq}FUFU!5qD-DUFFU!,!}"!Q!}M!
!
MB/_2-/7,$,3/:"/ β~ /C/ !
Tous les

( −M
) −M
( )
estimateurs
βi/ = ?U ? ?U Q = ?U ? ?U (?β
β + ")! Estimateurs
linéaires

)− M ? U " ! = β + (? ? )
−M
! U ?U " !
(
= ?U ? )− M
? U ? β + ?U ?
%!'!'!&!'!'!(!
(
!! S
Estimateurs

g.6;! #Iβ~J= β !&9'/A9*! #IεJ=X !


des moindres carrés
(la variance est alors
la plus faible)

OB/R$0.'0/:"/0$/#$1%,."/<$%,$-."/.2<$%,$-."!,
() ( )( ) U
! H βi/ = / * βi/ − β βi/ − β - !
Estimateurs
non biaisés
!
+ . \c!,! U'! .6! %?.9(*! 3G$h&.($H/*! 0*! 6.)=%3'(4! %3.)/! 3*/!
! = (?U ?)−M ?U / (" "U)?(?U ?)−M = σO (?U ?)−M ! */('=%(*9)/!a#e!ISaRJ!/.6(!c-5F!0%6/!3%!;3%//*!0*/!
%!&! (! */('=%(*9)/!6.6!2'%'/4/B!
!! σO S !

! σ O # M (O
= O %9" <
− (3& σ # =( O
=
O
%
U
− (3&
(
+B!1).&)'4(4/!0*!σOI04=.6/()%('.6!%9!(%23*%9J!
( O !
9 .( $ − (3 M ' 9 .( $ − (3 M'
!
" - +
= N !€!
\c!,!x9*!0*7'*6(!;*((*!=%()';*!0*!;.7%)'%6;*!/'! (3= σ~ + = " %/ +
- − + / =" /*/(!96!*/('=%(*9)!/%6/!2'%'/!0*! σ !
!
! "P ! "T
!
C=/@2,3/:"3/"31,#$1"'%3/
7B/ @2,/:"/βi//
/
!
$B/b5+2%>#"/92-:$#"-1$0/
U.9/!3*/!$h&.($H/*/!}X!Q!}M!b!}O!,!ε'!v\IXV!σ+JV!.6!
( ) U
o! ' = %M E===E%' j - ' (µ E Σ )!,!
%!A9*!! ; = $ β +ε v 7I $ β Vσ LJ ! !
+
//
!
M U !
M (−− µ ) Σ −M (' − µ)
'−
> (' ) = ~
F(!%9//'V! β =β +I $n$ J $ nε ! !
O
MO8 !
' −"
( π ) (:"1 Σ )

!
! ! !q$4.)H=*!@.60%=*6(%3!0*/!3.'/!6.)=%3*/!,!
o! -.'/!=%)<'6%3*/!*(!;.60'('.66*33*/!6.)=%3*/! !
! # σO # =U( O − (3& &
o! U'!8!*/(!96*!=%()';*!*(!;!96!7*;(*9)!0*!;.6/(%6(*/V! i/
β j - %βE O % (( !
< = a ' + . !*/(!(*3!A9*!,! // $ 9 .( $ − (3 M ''
! !
! /( < ) = a µ + . ! M
o! #.==*! =U( O = " (<O = .(O + (3O !,!
{
! H (< ) = / [< − /(< )][< − /( <)]U ! } 9 <
/ /
/
[ ]
= / a (' − µ )(' − µ ) aU / = a Σ aU /
U !
i/
# O# M (3O & &
βN j - % βN E σ % + O ( ( !
b5+2%>#"/92-:$#"-1$0//A3$-3/:+#2-31%$1,2-BC/ // $ $ 9 9 .( ' '
U'!8!*/(!96*!=%()';*!(Q × ' )!0*!;.6/(%6(*/V!;!96!7*;(*9)! !
(Q × M)!0*!;.6/(%6(*/!*(! '/ j - ' (µ E Σ )!,! # σO &
i/
βM j - % βM E O ( !
(
< = a ' + . j - Q a µ + . E a Σ aU
// )!
// $ 9 .( '

! "d ! "i
;B/ @2,/:"/ σi/O / (B/S_b(!6a@@(`/8(/
!
O
Rc_JSa_R(/(b/b(`b/`d!/d_/
M 9 .83
i/O
o! σ =
9−O <
O
i/< =
" 83
9−O
i/ !
Ga!aP(b!(/
!

!
!
β N/
"=/G$%$#>1%"/β
(9 − O ) σi/O O * 9 .8O O - %J! !$**"03!I}"!Q!}OJ!
o! j χ −O , 2' j χ − O /!
σO
9−
+ σ O 9−
. βi/N − βN f(x)

! O
j E9 − O !
! M (3
! σi/ + O α /2
9 9 .(
:B/ @2,3/:+%,<+"3/ 0
tn −2 ; 1−α 2
x

!
! 2J! S=R=/(M − α )/*2'%/β
βN !
o! βi/!*(! σi/O !/.6(!'604&*60%6(/!
! i/ M (3O
βN ± E9−− O \ M−− α O σi/ + O
! 9 9 .( !
βi/N − βN σi/O βi/N − βN ;J!b"31/:"/`1':"-1!,!
o! = j E9−− O !
M (3O σO M (3O 1).23H=*!0*!(*/(!,!! }X!,!|X!S!X!
σ + O σi/ + O ! ! }"!,!|X!≠!X!
9 9 .( 9 9 .(
β~X
! N=
! U(%('/('A9*!0*!(*/(!,! " !+
+
!
- -0!+
βi/M − βM σi/O βi/M − βM
h/ O σ O = O
j E9 − O ! -.'!/.9/!}X!,!q!v!(6>+!
σ 9 .( σ 9 .(
i/
EH<3*!04;'/'.6!,!E}X!%9!6'7*%9!α•!/'!fqf!‚!(6>+]">αr+!
! +X ! +"
0J!b"31/:;$-$0Q3"/:"/0$/<$%,$-."/
β/
+=/G$%$#>1%"/β O O
,B/ " ( )< − )3) = " 83
i/<O + " ()3
i/< − )3) /
%J! !$**"03! < '!
%! &!'! <&(!
(! %! ! < '!
%! &!'!(!
U6/E$E U6/-J. U6/8('C
βi/M − βM !!
O
j E9−− O ! y
σi/ 9 .( yi
eˆi
! yˆi

y
2J! S=R=/(M − α )/*2'%/βM !
σi/
βi/M ± E9 − O \ M − α O xi x

9 .(O !
!

U6/-J. 9 .83Oi/ O
,,B/ O = O j χ9 − O /
! σ σ
;J!b"31/:"/`1':"-1!,! /
βi/M
1).23H=*!0*!(*/(!,!! RN C βM = N ↔ RM C βM ≠ N ! ,,,B/U$%.! RN /C/ O
j - (N EM)/
! //σ 9 .(
U(%('/('A9*!0*!(*/(!*(!3.'!/.9/! RN !,! βi/O " ((< − (3)O
M
βi/M / ! < j χOM /
S= j E9−− O σ O
σi/ 9 .O( !
/ = βi/M ((3
i/< − )3=
R2##"/ )3 i/< − (3)/C/
!
O
EH<3*!0*!04;'/'.6!,!! TRN !/'! S > E9−− O \ M−− α O ! U6/8( 'C " ()3
i/< − )3)
O = < O j χMO /
! σ σ
! ++ ! +C
/ CB!1%)%=H()*! σO!
U6/-J. U6/8( 'C
,<B/ /8E/ /.$9E3<97J'897A9E8./ !
σO σO %J! E%&&*3/!
/
<B/ U$%./ RN /C/ !
/
O
(9 − O ) σi/O 9 .83
U6/8( 'C O = Oi/ j χ 9O − O !
Sk = j +M E 9 − O / σ σ
U6/-J. 9 − O !
/
f(x)
/ ! TRN /3,/ Sk > +ME 9 − O \ M −α
! 1–α
! α/2
*J!(&',<$0"-."/"-1%"/0"/1"31/:"/`1':"-1/"1/0"/1"31/ α/2
:"/0;$-$0Q3"/:"/0$/<$%,$-."!
! x
+
0 χ 2n− 2 ; α/ 2 χ 2n− 2 ;1−α / 2
F:*);';*!,!a.6()*)!A9*!qƒ!S!q ! !
! !
! !
2J! DB#B!(M − α )!&.9)! σO !
!
* ( 9 − O ) σi/O (9 − O ) σi/O -
! ,χO \ O /!
χ
+ 9−O \ M−α O 9−O \ α O .
* 9 .83Oi/ O
9 .83 -
! ! =, O \ O i/
χ χ /!
+ 9− O \ M− α O 9 − O \ α O .

! +M ! +O
JB/Rc(JJSRS(_b/8(/ EH<3*!0*!04;'/'.6,!E}X!%9!6'7*%9!α•!/'!L!‚L&V6>I&b"JV">α!
8(b(!PS_abSc_/ R$3/*$%1,.'0,"%!>!)4<)*//'.6!/'=&3*!,!
! 83.)/V! 3*! (*/(! 0*! L'/$*)! )*7'*6(! %9! (*/(! 0*! 3G%6%3h/*!
O
" ()3
i/< − )3)
U6/8( 'C 0*!3%!7%)'%6;*!79!&)4;40*==*6(!
O
- = < =
" ()< − )3)
O U6/E$E F6!*@@*(V!;.==*! U6/E$E = U6/8('C + U6/-J.!,!
< !

D6(*)&)4(%('.6!,!•!0*!3%!7%)'%6;*!0*!3%!7%)'%23*! U6/-J.
.6!%!A9*! ! ! M − -O =
04&*60%6(*!*:&3'A94*!&%)!3%!04&*60%6;*!3'64%')*! U6/E$E !!
0*!h!*6!:!
! % += OF#*:& !
OF#&,&
g%6/!3*!;%/!0*!3%!)4<)*//'.6!=93('&3*!,! !
h!S!α!b!β"!:!b!β+!:!b!Yb!β&!:!b!ε!
3*!;.*@@';'*6(!0*!04(*)='6%('.6!/*)%!6.(4!E+! *(!6.9/! k U6/8( 'C - O (9 − O )
U.9/! RN !,!! S = = j +M E 9 − O !
&*)=*(()%!0*!(*/(*)!3%!7%3'0'(4!<3.2%3*!09!=.0H3*!,! U6/-J. 9 − O M − -O( )
q*/(!0*!L'/$*)!,! !
1).23H=*!0*!(*/(!,}X!,!β"!S!β+!S!Y!Sβ&!SX! !
E*=%)A9*!,!;*!)4/93(%(!*/(!4<%3*=*6(!Q!)%&&).;$*)!
}"!,!'3!*:'/(*!%9!=.'6/!"≤!?!≤!&!(*3!A9*!|?!≠X! %9!&).23H=*!&*)=*((%6(!0*!(*/(*)!3*!3'*6!3'64%')*!
)+ r " *6()*!3*/!7%)'%23*/!:!*(!h!0%6/!96*!&.&93%('.6!
U(%('/('A9*!0*!(*/(!,! + = I" − ) + J rI- − I " + "JJ ! 2'7%)'4*!6.)=%3*!, RN C ρ = N ,!
!
-.'!/.9/!}X!,!Lv!L&V6>I&b"J!

! +P ! +T
- 9−O !
O
j E9 − O
M−- ! TB/G!(8SRbSc_/
!
M=/P2Q"--"/.2-:,1,2--"00"/:"/Q/3$.5$-1/&'"/?I)N
/ µN = /() (N )/
!
o! µi/N = βi/N + βi/M (N !*/(!96!*/('=%(*9)!/%6/!2'%'/!0*! µN !
!
!
( ( (
o! H (µi/N ) = H βi/N )+ (NO H βi/M )+ O (N 6$, βi/N E βi/M )!
!
!
O# M(3O & O σ
O
σO
− (3σ
! = σ % + O ( + (N O + O (N
$ 9 9 .( ' 9 .( 9 .(O !
! !
=σ +l" + " + I! + + !X+ −+!X ! Jm
! - -0! !
!
!
! =σ ,O *M
+
((N − (3) -
O
!
9 .(O /
+9 .

! +d ! +i
!!-%!3.'!0*!3G*/('=%(*9)!0*!µX!,! O=/6$0"'%/*%+:,1"/*2'%/M/,-:,<,:'/$<"./?I)N/C/
! ;~ X /
µi/N − µN
µi/N j - (µN EH (µi/N ))! j - (NEM)! i/N = βi/N + βi/M (N
o! 1)47'/'.6!&.6;(9*33*!,! )3
M (( − (3)
O !
1./.6/!,!!
σ + N O
9 9 .( !) = I"V !X J !
//
! !
a%'/!σ!*/(!'6;.669V!0.6;!.6!9('3'/*!,! o! -%!=.h*66*!0*!3G*))*9)!0*!&)47'/'.6!*/(!,!
µi/N − µN !
j E9 − O !
M (( − (3)
O # I ;~X − ;X J = # I β~X + β~" !X − I β X + β" !X + ε X JJ !
σi/ + N O
9 9 .( !
! = # I β~ & !) − β & !) − ε X J = # I β~ & !) J − # I β & !) J − # Iε X J
o! DB#B!(M − α )!&.9)! µN !,!
! = # I β~ J !) − β !) − X = β !) − β !) = X !
& & & &

! !
M ((N − (3)
O
(βi/N + βi/M (N )± E9−O \ M−α O σi/ 9
+
9 .(O
! g.6;!*6!=.h*66*!3G*))*9)!0*!&)47'/'.6!*/(!6933*B!
!
y o! -%!7%)'%6;*!0*!3G*))*9)!0*!&)47'/'.6!*/(!,!
µˆ = βˆ 0 + βˆ 1 x !
P8% I ;~ X − ;X J = P8% I β~X + β~" !X − I βX + β" !X + ε X JJ !
!
= P8% Iβ~ X + β~" !X − ε X J = P8% Iβ~ X J + P8% Iβ~" !X J + P8% Iε X J + +;.7Iβ~X V β~" !X J
" !+ + " σ+
x x0 x = σ I + + J +σ
+
!X + σ + + !X I −I + ! JJ
+ +
! - -0 ! -0 !+ -0! !

! CX ! C"
= σ + I" +
" " " "
+ + I ! + + !X+ − + !X ! JJ = σ + I" + + + I !X − ! J + J W=// ()"#*0"/
- -0! - -0 ! ! !
F(!0.6;V!&9'/A9*!/!*/(!'6;.669V!.6!9('3'/*!/.6! o! F:*=&3*!"XB"!IF-UqV!&B!CTiJ!
*/('=%('.6V!;*!A9'!0.66*!3*!)4/93(%(!/9'7%6(!,! o! (N = Mm \ (3=
= MW !
!
)3N − )N !
o! j E9 − O !
M (( − (3)
O %J! DB#B!&.9)! µN !
σi/ M + + N O !
9 9 .(
! o! µi/N = −Mm= O + (M=[g )(Mm) = MX= Og !
o! DB#B!(M − α )!,! !
! o! DB#B!IXBiOJ!&.9)! µN !,!
M (( − (3)
O M Mn
i/N ± E9 − O \ M− α O σi/ M + + N O !
)3 MX= Og ± O=WNn + !
9 9 .( MN On
! = MX= Og ± M=og → [MO= WN E Mn= ON]!
o! D6(*)7%33*!0*!&)40';('.6!,! !
y 2J! DB#B!&.9)! )N !
!
i/N = MX= Og !
o! )3
!
o! DB#B!IXBiOJ!&.9)! )N !,!
M Mn
x MX= Og ± O=WNn M + + !
! MN On
= MX= Og ± W=NO → [MM= OW E Mm= Om]!
! C+ ! CC
/ (1$*"/MC/!+K%"33,2-/0,-+$,%"/3,#*0"/C/
fB/(?(PG@(/ !
! e6! ;$.'/'(! 3%! 7%)'%23*! A9'! ($4.)'A9*=*6(! *:&3'A9*! 3*!
e6!04/')*!4(90'*)!/9)!96!4;$%6('33.6!0*!+P!=%'/.6/V!3*!&)':!0*!7*6(*! ='*9:! 3*! &)':! 0G96*! =%'/.6! I&)%('A9*=*6(!,! 3%! 7%)'%23*!
*6!@.6;('.6!0*!;*)(%'6*/!;%)%;(4)'/('A9*/B! 3*!&39/!;.))434*!%7*;!3*!&)':JB!
! !
6$%,$70"/:+*"-:$-1"/C/ #2%%+0$1,2-3/:"3/<$%,$70"3/")*0,.$1,<"3/$<"./0$/<$%,$70"/
1ED#F!S!1)':!0*!7*6(*!0*!3%!=%'/.6!*6!='33'*)/!0*!0.33%)/V! :+*"-:$-1"/CC/
! !
! "#$%&!
6$%,$70"3/")*0,.$1,<"3/C/ ! ! !
! '(#! !)*+),-+.!
cgE! S!6.=2)*!0*!;$%=2)*/!Q!;.9;$*)V! '/0! !)*..1-1)!
L-E! S! /9&*)@';'*! (.(%3*! I;%3;934*! Q! &%)(')! 0*/! 0'=*6/'.6/! 0*! ! 23#! !"#$%&'()!
! 2"! !)*4516+-!
;$%A9*! &'H;*! *(! %9<=*6(4*! 0*! "X! •V! ;%3;934*! *6! &'*0/! 78#! !)*.+45-)!
;%))4/JV! ! 39/! !)*+11:-4!
"#$%&! !6*))))))!
L1! ! S!6.=2)*!0*!;$*='64*/V! ! #;<! !)*.-),6+!
EaU! S!6.=2)*!0*!&'H;*/V! ! </! !)*+.,4),!

Uq! ! S!@*6y()*/!(*=&y(*/!I"!/'!.9'V!X!/'6.6JV! !
-eq! S!3%)<*9)!0*!@%;%0*!I*6!&'*0/JV!
cq}! S!6.=2)*!0*!/%33*/!0*!2%'6/V!
_8E! S!(%'33*!09!<%)%<*!IX!/'!&%/!0*!<%)%<*V!"!/'!96!<%)%<*!&.9)!"!
7.'(9)*V!BBBJV!
!
IU.9);*! ,! a)B! q*))h! q%/;$! .@! -.6<>„.<%6! E*%3(hV! #$';%<.!
)*&).09;*0! '6! 8BV! U*6! %60! aB! U)'7%/(%7%V! E*<)*//'.6! %6%3h/'/B!
q$*.)hV!a*($.0V!%60!8&&3';%('.6/V!U&)'6<*)!R*)3%<!"iiXV!&B!C+J!

! CM ! CO
P2:>0"/C/G%,.",/I/$/H/p/J@!,/H/",/ / (1$*"/OC/!+K%"33,2-/0,-+$,%"/#'01,*0"C/
! !
! (=>=?@=?A!BCDECFG=H!"#$%&!
(=>=?@=?A!BCDECFG=H!"#$%&! ;=AIJ@H!3=CKA!<LMCD=K!
;=AIJ@H!3=CKA!<LMCD=K! <CN>G=H!6!1,!
<CN>G=H!6!1,! BCDECFG=! %J=OOEPE=?A! <A@*!&DDJD! AQ<ACAEKAEP! "DJF*!
BCDECFG=! %J=OOEPE=?A! <A@*! AQ<ACAEKAEP "DJF*! %! 6-*,4:,,! .*1+)5.:! 4*..,6.,! )*))1+!
&DDJD! 23#! )*)6:.:)! )*))414.! .*+4)5-,! )*))))!
23#! )*)1! )*))+! .*41! )*))! #;<! 4*5)+4:+! 6*,6.,6:! 1*+6,,+.! )*)1:1!
%! 44*51! +*.66! :*.1! )*))! '(#! Q:*,5:+++! 6*-15+1,! Q+*1):.:4! )*))),!
#QKLMCD=@! )*.+! <*&*!JO!D=RD=KKEJ? -*,5! '/0! 1*4:+.56! 1*..:-,.! )*51-4+5! )*4,,1!
2QKACAEKAEP! 1-*4.! "DJFS2QKACAEKAEPT! )*))))6-! 78#! 6*::)-,6! 6*+)+46)! 6*1,6)6-! )*11+4!
! 39/! )*1,4.11! )*64.6)5! 6*5.)++:! )*),:-!
(31,#$1,2-3/C// 2"! ,*5)5:,.! 4*)-4.-4! 1*1+)-14! )*)4-:!
! </! 6)*-6-,,! 1*4))1)4! +*:)44.1! )*)))1!
`,K-,9,.$1,<,1+/:"/0$/<$%,$70"/")*0,.$1,<"C/ #QKLMCD=@! )*5)++15! <*&*!JO!D=RD=KKEJ?! +*:6,:.,
! 2QKACAEKAEP! 1)*6)5:6! "DJFS2QKACAEKAEPT! )*))))))
q'$0,1+/:'/#2:>0"/C/ !
! P2:>0"/C/
S-1"%*%+1$1,2-/,! /
U'!L-E!%9<=*6(*!0*!"!96'(4!! /
€!1ED#F!%9<=*6(*!0*!XBX+!96'(4! (31,#$1,2-3/C//
g.6;! /'! 3%! /9&*)@';'*! (.(%3*! %9<=*6(*! 0*! "! &'*0! !
;%))4/V! %3.)/! 3*! &)':! 0*! 3%! =%'/.6! %9<=*6(*)%! 0*! !
XBX+!='33'*)/!0*!0.33%)/!IS!+X!0.33%)/JB!-.<'A9*!€€! !

! CP ! CT
`,K-,9,.$1,<,1+/:"3/<$%,$70"3/")*0,.$1,<"3C/ 6+%,9,.$1,2-/:"3/5Q*215>3"3/9$,1"3/3'%/0"/1"%#"/
! :;"%%"'%=/
! /
! fM/,!FIε'J!S!X!! ! ! "!S!'!S!6!
! ! q.9?.9)/!74)'@'4*!I;*;'!*/(!0…!Q!3%!=4($.0*!9('3'/4*J!
q'$0,1+/:'/#2:>0"/C/ !
/ fW/,!#.7Iε'!V!ε?J!S!X!! ! ! "!≤!'!≠!?!≤!6!
/ ! ! I6.6!%9(.;.))43%('.6!0*/!*))*9)/J!
/ !
!
S-1"%*%+1$1,2-/,!
!
!
!
!

! Cd ! Ci
fX/,!!R%)Iε'J!S!σ+!! !
! "!≤!'!≤!6! fg/,!}h&.($H/*!%00'('.66*33*!=.'6/!'=&.)(%6(*!,!
! ! I$h&.($H/*!0G$.=./;40%/(';'(4J! $h&.($H/*!0*!6.)=%3'(4!0*/!*))*9)/!,!
! !
! ε'!v\IXV!σ+J!
!
!
!

!
!
!
! !
! !
! !

! MX ! M"
! !
SB/_c_/!(`G(Rb/8(`/f^Gcbf(`(`// rB/qd(@qd(`/T(_(!a@S`abSc_`//
! !
-*/! $h&.($H/*/! Q! 3%! 2%/*! 09! =.0H3*! 0*! )4<)*//'.6! o! a.0H3*!0*!)4<)*//'.6!=93('&3*!!
/'=&3*!/.6(!I)%&&*3J!,! !
! o! a.0H3*!0*!)4<)*//'.6!/.9/!;.6()%'6(*/!
! !
%J! 7%)'%23*!:!=*/9)4*!/%6/!*))*9)/!]! o! a.0H3*!Q!7%)'%23*!04&*60%6(*!0';$.(.='A9*!,!
! I=.0H3*/!-.<'(!*(!1).2'(J!
2J! ?U ?!'67*)/'23*!I6.6>;.3'64%)'(4J!]! !
o! a.0H3*!Q!7%)'%23*!04&*60%6(*!0'/;)H(*!I=.0H3*!
! 0*!1.'//.6J!
;J! 3%!)*3%('.6!*6()*!:!*(!h!*/(!3'64%')*!]! !
! o! a.0H3*/!Q!7%)'%23*!04&*60%6(*!;*6/9)4*!.9!
0J! 3%!7%)'%6;*!H ( ) ( )!*/(!;.6/(%6(*!I$.=.> ().6A94*!I=.0H3*!q.2'(J!
/;40%/(';'(4J!]! !
o! a.0H3*!Q!4A9%('.6/!/'=93(%64*/!
! !
*J! 3*/!z*))*9)/z!!ε'!/.6(!6.6!;.))434*/!]! o! a.0H3*!0*!/4)'*/!;$).6.3.<'A9*/V!*(;!
! !
@J! 3%!3.'!0*/!ε'!*/(!6.)=%3*!I&.9)!3*/!DB#B*(!3*/!(*/(/J! as2'12-3/$'33,/&'"0&'"3/#+152:"3/C/
! h/ _-U!S!a.'60)*!;%))4!<464)%3'/4!
D3! @%9(! &.97.')! (*/(*)! 3%! 7%3'0'(4! 0*! ;*/! $h&.($H/*/! o! g.923*/!a#!r!a#!6.6!3'64%')*/!
.9!/n*6!04(%;$*)! o! F/('=%('.6!).29/(*!r!6.6!&%)%=4()'A9*!

! M+ ! MC

Vous aimerez peut-être aussi