P. 1
probabilités et statistiques

probabilités et statistiques

|Views: 1,442|Likes:
Publié parchristophe_yann
Outil indispensable pour consolider ses bases en probabilités et/ou statistiques.
Outil indispensable pour consolider ses bases en probabilités et/ou statistiques.

More info:

Published by: christophe_yann on Jun 27, 2009
Droits d'auteur :Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

03/14/2013

pdf

text

original

1

PRÉF ACE

Chance ? Malchance ? Hazard ? L'étude des probabilités et Statistiques, de plus en plus présente dans la formation des élèves et étudiants, tend à donner une approche pus rationnelle à ces trois notions.

Ce document de cours, divisé en deux parties et dix chapitres, traite la plupart des notions sur ce schéma qui facilite la compréhension : Exemple introductif - Approche simpliée - Généralisation - Exercice d'application. Ainsi, l'étudiant ayant suivi et compris les cours d'analyse 1&2 au niveau 1 y verra un bon complément de travail.

Le Docteur Paul TCHOUA, enseignant à l'Université de Ngaoundéré a dû user de son expérience et de la connaissance qu'il a des étudiants pour produire, au l d'un travail hargneux, ce document parfaitement adapté à l'étude des Probabilités et Statistiques. Il appartient maintenant aux étudiants d'en faire un bon usage.

KAMDOUM David, DAAWORE Jean-Jacques Etudiants en S.T.I.2

2

Table des matières
I PROBABILITÉS
1 ANALYSE COMBINATOIRE
1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.1 2.2 2.3 2.4 2.5 INTRODUCTION . . . . . . . . . . . . . CLASSIFICATION D'OBJETS . . . . . . ARRANGEMENT . . . . . . . . . . . . . PERMUTATION . . . . . . . . . . . . . . PERMUTATION AVEC RÉPÉTITION . COMBINAISON . . . . . . . . . . . . . . 1.6.1 Combinaison sans répétition . . . . 1.6.2 Combinaison avec répétition . . . . FORMULE DU BINÔME DE NEWTON 1.7.1 Énoncé . . . . . . . . . . . . . . . . 1.7.2 Conséquences . . . . . . . . . . . . ARRANGEMENTS AVEC RÉPÉTITION PERMUTATION AVEC RÉPÉTITION . INTRODUCTION . . . . . . . . . . . . . EXEMPLES INTRODUCTIFS . . . . . . NOTION D'EXPÉRIENCE ALÉATOIRE ÉVÈNEMENTS ALÉATOIRES . . . . . . OPÉRATIONS SUR LES ÉVÈNEMENTS 2.5.1 Évènements contraires . . . . . . . 2.5.2 Évènement A et B . . . . . . . . . 2.5.3 Évènement A ou B . . . . . . . . . 2.5.4 Évènement A∆B . . . . . . . . . . 2.5.5 Diérence de deux évènements . . . 2.5.6 Évènements incomparables . . . . . 2.5.7 Lois de De Morgan . . . . . . . . . NOTION DE PROBABILITÉ . . . . . . . 2.6.1 Expérience de Laplace . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7
9 9 10 11 12 13 13 14 15 15 15 15 16

9

2 ESPACES PROBABILISÉS

17
17 17 18 18 19 19 19 19 19 19 20 20 20 20

2.6

4

TABLE DES MATIÈRES

2.7 2.8 2.9 3.1 3.2

2.6.2 Probabilité relative à une expérience aléatoire 2.6.3 Axiomes de probabilité . . . . . . . . . . . . . PROBABILITÉ CONDITIONNELLE . . . . . . . . ÉVÈNEMENTS INDÉPENDANTS . . . . . . . . . . FORMULE DE BAYES . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

20 21 23 24 24

3 VARIABLES ALÉATOIRES

3.3

VALEURS ALÉATOIRES . . . . . . . . . . . . . . . . . . . . LOI DE PROBABILITÉ D'UNE V.A.R. . . . . . . . . . . . . 3.2.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . 3.2.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Espérance mathématique . . . . . . . . . . . . . . . . . 3.3.2 Densité de probabilité d'une fonction de v.a.r. . . . . . 3.3.3 Espérance mathématique d'une fonction de v.a. . . . . 3.3.4 Quantile d'ordre α , Mode , Médiane . . . . . . . . . .

27

27 27 27 30 31 31 33 34 35

4 VARIABLES ALÉATOIRES A DEUX DIMENSIONS
4.1

4.2

4.3

4.4

4.5 4.6

CAS DISCRET . . . . . . . . . . . . . . . . . . . . . . . . . . 37 4.1.1 Probabilités conditionnelles . . . . . . . . . . . . . . . 38 4.1.2 Indépendance de couple de variables aléatoires . . . . . 38 4.1.3 Covariance d'un couple de variables aléatoires . . . . . 39 4.1.4 Formule de K÷ning . . . . . . . . . . . . . . . . . . . . 39 CAS CONTINU . . . . . . . . . . . . . . . . . . . . . . . . . . 39 4.2.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . 39 4.2.2 Lois marginales . . . . . . . . . . . . . . . . . . . . . . 40 4.2.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . 40 MOMENT CENTRÉ ET MOMENT NON CENTRÉ . . . . . 41 4.3.1 Moment centré d'ordre k . . . . . . . . . . . . . . . . . 41 4.3.2 Moment non centré d'ordre k . . . . . . . . . . . . . . 41 4.3.3 Relation entre moment centré et moment non centré . 41 FONCTIONS CARACTÉRISTIQUES ET FONCTIONS GÉNÉRATRICES . . . . . . . . . . . . . . . . . . . . . . . . . . 42 4.4.1 Fonctions caractéristiques . . . . . . . . . . . . . . . . 42 4.4.2 Fonction génératrice . . . . . . . . . . . . . . . . . . . 42 COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLATISSEMENT . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 DENSITE DE PROBABILITÉ D'UNE FONCTION DE COUPLE DE V.A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

37

TABLE DES MATIÈRES

5

5 MODÈLES PROBABILISTES DISCRETS
5.1 5.2 5.3 5.4 6.1 6.2 6.3 6.4 6.5 6.6 6.7 7.1 7.2 7.3 7.4 VARIABLE DE BERNOULLI . . VARIABLE BINOMIALE . . . . LOI HYPERGÉOMÉTRIQUE . . LOI DE POISSON P (λ), (λ > 0) . . . . . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . .

47
47 48 49 50 51 52 52 53 53 54 54 55 55 57 58 58 59 59 61 61 63 63 63 65 65 66 66

6 MODÈLES PROBABILISTES CONTINUS

LOI UNIFORME SUR [a, b] . . . . . . . . . . . . . . . . . LOI GAMMA( de paramètre a) . . . . . . . . . . . . . . . LOI BÊTA( de paramètres a et b) . . . . . . . . . . . . . . LOIS NORMALES . . . . . . . . . . . . . . . . . . . . . . 6.4.1 Loi normale centrée-réduite . . . . . . . . . . . . . 6.4.2 Loi normale de paramètres (m, σ) (m ∈ R et σ > 0) LOI DE KHI-DEUX (X 2 (n), n ∈ N) . . . . . . . . . . . . LOI DE STUDENT . . . . . . . . . . . . . . . . . . . . . LOI DE FISHER-SNEDECOR (de paramètres m et n) . . INTRODUCTION . . . . . . . . . . . . . . . . . . . . PRINCIPE DES MOINDRES CARRÉ . . . . . . . . . CORRELATION D'UN COUPLE D'OBSERVATIONS QUELQUES COURBES DE CORRELATION . . . . . 7.4.1 Droite de regression de Y en X . . . . . . . . . 7.4.2 Droite de regression de X en Y . . . . . . . . . 7.4.3 Autres types de regression . . . . . . . . . . . . ETUDE DE LA LOI BINOMIALE . . . . . . . . 8.1.1 Introduction . . . . . . . . . . . . . . . . . 8.1.2 Inégalité de Bienaymé TCHEBITCHEFF . 8.1.3 Dénition de la convergence en probabilité CONVERGENCE PRESQUE SÛRE . . . . . . . CONVERGENCE EN LOI . . . . . . . . . . . . . THÉORÈME CENTRAL-LIMITE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51

7 REGRESSION ET CORRELATION

57

8 CONVERGENCE EN PROBABILITÉ
8.1

63

8.2 8.3 8.4

II STATISTIQUES
9 ESTIMATIONS
9.1

67
69

MÉTHODES DE SONDAGE . . . . . . . . . . . . . . . . . . 69 9.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 69

6

TABLE DES MATIÈRES

9.2 9.3

9.1.2 Types de sondages . . . . . . . . . . . . . 9.1.3 Méthode de sondage aléatoire . . . . . . . ESTIMATEUR DE PARAMÈTRES INCONNUS ESTIMATION PONCTUELLE . . . . . . . . . . 9.3.1 Estimateur ponctuel de la moyenne . . . . 9.3.2 Estimation ponctuelle de la variance . . . 9.3.3 Estimation par intervalle . . . . . . . . . . 9.3.4 Quelques cas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

70 70 70 73 73 75 76 76

10 TESTS STATISTIQUES

10.1 INTRODUCTION . . . . . . . . . 10.2 TEST CLASSIQUE . . . . . . . . . 10.2.1 Test relatif à une fréquence 10.2.2 Test sur la moyenne . . . . 10.3 TEST DE KOLGOMOROV . . . .

81
81 81 81 83 85

Première partie PROBABILITÉS

7

Chapitre 1 ANALYSE COMBINATOIRE
1.1 INTRODUCTION

Dans l'étude des phénomènes aléatoires, on se trouve quelques fois confronté à l'énumération des situations aussi complexes ou simples du phénomène étudié. L'étude et le développement des techniques et procédures permettant d'énumérer ces possibilités est appelé analyse combinatoire. Ces techniques iront du simple schéma (arbre, graphes) à l'établissement des formules plus complexes et à certaines situations particulières.
1.2 CLASSIFICATION D'OBJETS

férents entre eux ; ils sont alors dits lettres distinctes (a, b, c, . . .).

Dénition 1.2.1. L'ensemble d'objets à étudier peut être formé d'objets dif-

discernables. On les représente par des indiscernables

Dénition 1.2.2.

L'ensemble d'objets à étudier peut être formé d'objets identiques entre eux ; ils sont alors dits . On les représente par la même lettre (a, a, a, . . .).

Exemple 1.1. On dispose de 10 pièces de monnaies dont 3 pièces de 50F , 4 pièces de 100F et 3 pièces de 500F . On notera ces objets de la manière suivante : a, a, a, b, b, b, b, c, c, c qui est un ensemble discernable d'objets indiscernables.

Dénition 1.2.3. L'ensemble d'objets à étudier peut être formé d'objets dont
certains sont discernables et d'autres indiscernables (cas de l'exemple précédent). On obtient alors un ensemble formé de groupes discernables d'objets indiscernables.
9

10

CHAPITRE 1.

ANALYSE COMBINATOIRE

Exemple 1.2. Une urne contient n boules dont n1 sont rouges et n2 sont noires. On suppose que les boules sont indiscernables au toucher et que les boules de même couleur sont identiques. Exercice 1.1. On range p boules dans n cases.
1. Présenter toutes les situations possibles relativement au caractère discernable et indiscernable des boules et des cases. 2. Combien y a-t-il de rangements si : (a) les boules et les cases sont discernables ; chaque case ne pouvant recevoir qu'une boule ? (b) les boules et les cases sont discernables ; chaque case pouvant recevoir un nombre quelconque de boules. (c) les boules sont indiscernables et les cases sont discernables ; chaque case ne pouvant recevoir qu'une seule boule ? (d) les boules sont indiscernables et les cases sont discernables ; chaque case pouvant recevoir un nombre quelconque de boules ? de sorte qu'aucune case ne soit vide.

Dénition 1.2.4. Une disposition d'ojets sera dite si deux dispositions dièrent par la nature des objets et l'ordre d'apparition de ces objets. On représentera les dispositions ordonées par des parenthèses. Une disposition sera dite si l'ordre d'apparition des objets n'est pas pris en compte.

ordonnée

non ordonnée

Exemple 1.3.
1. On considère un course de 15 chevaux et on s'intéresse au tiercé gagnant sans ex-æquo. Ici, on a 15 objets discernables. Un résultat est une disposition ordonnée de trois chevaux. 2. Les étudiants de S.T.I.2 sont au nombre de 60 dont 20 lles. Ils décident de déléguer 5 de leurs camarades assister leur camarade Tchinddébé malade. S'il n'y a pas de précisions supplémentaires, cette délégation sera une disposition non ordonnée de 5 étudiants.
1.3 ARRANGEMENT

discernables pris p à p, toute disposition ordonnée de p de ces n objets.

Dénition 1.3.1. On appelle arrangement (sans répétition) de n objets

1.4.

PERMUTATION

11

Exemple 1.4. Considérons une urne contenant n boules numérotées de 1 à n. On suppose que les boules sont indiscernables au toucher. On tire au hasard et sans remise p boules de l'urne. On obtient ainsi une disposition ordonnée de p de ces n boules. C'est donc un arrangement p à p de ces n boules.

Théorème 1.3.1.
p est égale à :

Le nombre d'arrangements de n objets distincts pris p à

Ap = n(n − 1) . . . (n − p + 1) n p étant le nombre d'éléments d'une disposition.
Démonstration. L'ensemble fondamental comporte n objets distincts, donc E = {a1 , a2 , . . . , an }. On veut déterminer le nombre de dispositions ordonnées pris p à p de ces n éléments. On procède alors à l'idéalisation suivante :  n possibilités pour le choix du premier élément ;  (n − 1) possibilités pour le choix du deuxième élément ;
. . .  (n − p + 1) possibilités pour le choix du pime élément. On en déduit donc qu'il y a : N = n(n − 1) . . . (n − p + 1) arrangements possibles de ces n éléments pris p à p.

Remarque 1.3.1 ( ). Prenons E = {a1 , a2 , . . . , an } et les positions {1, 2, . . . , p}. On a nécessairement p ≤ n. On note que le nombre d'arrangements p à p de n objets distincts est égal au nombre d'injections d'un ensemble ni à p éléments dans un ensemble ni à n éléments. Exemple 1.5. Déterminer le nombre de tiercés gagnants sans ex-æquo dans une course de 10 chevaux. Le nombre de tiercé gagnant est N = A3 = 10 × 9 × 8 = 720 car il s'agit 10 d'arranger les chevaux 3 à 3 parmi 10.
1.4 PERMUTATION

Arrangement et applications injectives

On appelle n toute disposition ordonnée de ces n objets (arrangement n à n de ces n objets).

Dénition 1.4.1.

permutation de objets distincts

12

CHAPITRE 1.

ANALYSE COMBINATOIRE

Théorème 1.4.1.
à:

Le nombre de permutations de n objets distincts est égal

Ap = n × (n − 1) × . . . × 2 × 1 = n! n
Démonstration. Conséquence du théorème précédent avec p = n.

Convention et notation :Nous convenons de dire que 0! = 1 et compte tenu de cette convention, on a donc :
Ap = n n! (n − p)!

1.5

PERMUTATION A VEC RÉPÉTITION

On suppose qu'on dispose de n objets formés de r groupes d'objets identiques ; donc n = α1 + α2 + . . . + αr où le groupe i comporte αi éléments. Le problème consiste à déterminer le nombre de permutations de ces n objets en tenant compte des groupes d'objets identiques.

Exemple 1.6. Déterminons tous les nombres de 5 chires qu'on peut former avec le nombre 22211. Solution : La liste exhaustive des permutations est la suivante :
22211 22121 21221 21212 21122 22112 12212 12122 11222 12221

On vient donc d'écrire toutes les permutations avec répétition des chires du nombre 22211.

Dénition 1.5.1.

Une permutation de n objets distincts dont certains sont identiques est appelé .

permutation avec répétition

On suppose qu'on dispose de n objets distincts composés de r groupes d'objets identiques. Le groupe i comporte αi élélments tels que n = α1 + α2 + . . . + αr . Le nombre de permutations avec répétition de ces n objets est égal à :

Théorème 1.5.1.

n! α1 !.α2 !. . . . .αr !

1.6.

COMBINAISON

13

Exercice 1.2.
1. Etablir le théorème pour r = 2. Indications : Utiliser des raisonnements analogues à ceux utilisés pour les arrangements et les permutations sans répétition. 2. On dispose de cinq livres sur une étagère, de combien de façons diérentes peut-on les disposer ? 3. On dispose de six boules dont trois blanches, deux noires et une grise. De combien de façons peut-on les disposer les unes à la suite des autres ?

Remarque 1.5.1. Le terme anagramme est souvent utilisé pour des permutations avec répétition des objets d'un mot donné.

1.6

COMBINAISON

1.6.1 Combinaison sans répétition
Exemple 1.7 (Introductif ). Une urne contient n boules distinctes. On tire k boules de l'urne les unes après les autres sans remise, sans tenir compte de l'ordre de tirage des boules. On choisit donc un sous-ensemble de k boules de l'urne appelé combinaison de n boules k à k.

Dénition 1.6.1.
On appelle éléments de E .

combinaison de p éléments de E, tout sous-ensemble à p

Soit E un ensemble ni ;

Problème
De combien de façon diérentes peut-on tirer k boules de l'urne sans remise en ne tenant pas compte de l'ordre des tirages ?

Résolution
Le problème peut se ramener à celui d'une permutation avec répétition. Numérotons les boules a1 , a2 , . . . , an . On dénit la fonction Z : E −→ {0, 1}. Pour toute partie A à p éléments de E , on a :

ZA (x) =

  1 si x ∈ A  0 sinon

(Fonction caractéristique de la partie A de E )

14

CHAPITRE 1.

ANALYSE COMBINATOIRE

On dénit ainsi une correspondance biunivoque (bijective) entre l'ensemble des combinaisons p à p d'éléments de E et l'ensemble des Z(A) de la forme (0, 0, 1, . . . , 1, 0).
n positions

Pour toute autre autre partie B de E à p éléments, Z(A) et Z(B) dièrent par les positions des 0 et des 1 qui apparaîssent dans le n-uplets. On peut noter clairement que à toute combinaison p à p d'éléments de E , correspond une et une seule permutation avec répétition des objets 0 et 1 ; et réciproquement, à toute permutation avec répétition d'objets 0 et 1, il correspond une et une seule combinaison d'éléments de E . On établi ainsi une bijection entre les permutations avec répétition d'éléments 0 et 1 et les combinaisons p à p d'éléments de E . On en déduit que le nombre de combinaisons p à p est égal au nombre de permutations avec répétition d'objets 0 et 1.

Théorème 1.6.1. Le nombre de combinaisons p à p de n objets distincts est
égal à :

Cp = n

n! p!.(n − p)!

Notation : Le nombre de combinaisons p à p de n objets distincts d'un ensemble à n éléments est noté :
Cp n
ou

p n

Propriétés 1.
1. C0 = 1 et Cn = 1 ; n n 2. C1 = n ; n 3. Cn−p = Cp , (0 ≤ p ≤ n) ; n n 4. Cp + Cp+1 = Cp+1 . n+1 n n Exercice 1.3. Etablir les résultats de la propriété.

1.6.2 Combinaison avec répétition
On dispose de n boules distinctes, on tire successivement p boules avec remise sans tenir compte de l'ordre des tirages. On obtient une disposition non ordonnée de p objets, éventuellement avec répétition. On établit comme au théorème 1.6.1 que le nombre de combinaisons de n objets p à p avec répétition est égal à : Cp n+p , n, p ∈ N

1.7.

FORMULE DU BINÔME DE NEWTON

15

Remarque 1.6.1. Les formules de combinaison et permutation apparaissent dans les développements de la forme (a1 + a2 + . . . + an )s comme coecients des monômes correspondants. 6! C'est ainsi que les coecients de a2 .b3 .c dans (a + b + c)6 est 2!.3!.1! .
1.7 FORMULE DU BINÔME DE NEWTON

1.7.1 Énoncé
n

(a + b)n =
i=0

i Cn ai .bn−i

1.7.2 Conséquences
n

1.
p=0 n

p Cn = 2n ;

2.
p=0

p Cn (−1)p = 0

Exercice 1.4.
1. Etablir la formule du binôme de Newton par récurrence sur n. 2. Etablir ses conséquences.
1.8 ARRANGEMENTS A VEC RÉPÉTITION

Exemple 1.8 (introductif ). Une urne contient n boules distinctes ; on tire successivement avec remise k de ces n boules. on note à chaque fois le numéro obtenu. On obtient ainsi une suite ordonnée de k boules, avec répétition éventuellement. Les tirages étant faits avec remise, on a à chaque tirage n possibilités de tirer une boule donnée. On dénit ainsi des arrangements avec répétition de ces n boules.

Dénition 1.8.1.

On appelle p p n toute disposition ordonnée de p de ces n objets, avec répétition éventuellement.

objets

arrangement avec répétition à de

16

CHAPITRE 1.

ANALYSE COMBINATOIRE

k à k est :

Théorème 1.8.1. le nombre d'arrangements avec répétition de n objets pris
nk k, n ∈ N∗

Exercice 1.5. Etablir ce théoème. Remarque 1.8.1.
1. Considérons l'ensemble I à k éléments et l'ensemble J à n éléments. Le nombre d'applications possibles de I dans J est nk . 2. En utilisant le raisonnement appliqué sur les arrangements avec répétition, on démontre que le cardinal du produit cartésien de p ensembles nis est égal au produit des cardinaux des ensembles correspondants.
1.9 PERMUTATION A VEC RÉPÉTITION

Dénition 1.9.1. Une permutation avec répétition n'est autre chose qu'un arrangement n à n de n objets avec répétition.

Chapitre 2 ESPACES PROBABILISÉS
2.1 INTRODUCTION

La notion de probabilité est facilement appréhendable par la notion de degré de vraissemblanse (chance) qu'on rencontre dans la vie de tous les jours. On introduit pour se faire un ensemble fondamental E des résultats possibles relatifs à une expérience aléatoire donnée.
2.2 EXEMPLES INTRODUCTIFS

Exemple 2.1. On jette un dé équilibré dont les faces sont numérotées de 1 à 6. On observe le numéro porté par la face supérieure du dé immobilisé. On dénit ainsi une expérience aléatoire dont les résultats possibles sont contenus dans l'ensemble fondamental Ω = {1, 2, 3, 4, 5, 6}. Le terme "dé équilibré" nous fait savoir que toutes les faces ont la même "chance" d'apparaître. Pour quantier cette notion de même "chance", on dira que chaque face a la probabilité 1 d'apparaître. 6 Exemple 2.2. On jette deux dés équilibrés identiques dont les faces sont numérotées de 1 à 6 ; un résultat d'une telle expérience aléatoire est un couple (a, b) tel que : a ∈ {1, 2, 3, 4, 5, 6} = Ω1

b ∈ {1, 2, 3, 4, 5, 6} = Ω2
L'ensemble fondamental est Ω = Ω1 × Ω2 . Card(Ω) = 36. Le degré de vraisemblance d'apparition d'un couple est la probabilité d'obtenir un couple et 1 vaut 36 .

Exemple 2.3. On tire p boules distinctes d'une urne qui en contient n.
17

18

CHAPITRE 2.

ESPACES PROBABILISÉS

1. successivement avec remise ; 2. successivement sans remise ; 3. simultanément. On dénit dans chacun de ces cas des expériences aléatoires pour lesquelles on peut dénir des ensembles fondamentaux et même des notions de probabilité.
2.3 NOTION D'EXPÉRIENCE ALÉATOIRE

Dénition 2.3.1.

Une expérience est dite aléatoire si et seulement si :

1. elle peut être répétée dans les mêmes conditions ; 2. il existe un nombre ni ou inni d'états que peut prendre la réalisation de l'expérience aléatoire à chaque occurence ; 3. le réalisation de chaque évènement est aléatoire (on ne peut à priori prévoir le résultat) ; 4. il se produit à chaque fois un seul évènement.
2.4 ÉVÈNEMENTS ALÉATOIRES

Dénition 2.4.1. Etant donnée une expérience aléatoire E , chaque résultat possible est appelé et l'ensemble de tous les résultats possibles de l'expérience aléatoire constitue l' ou .

évènement aléatoire univers des possibles

ensemble fondamental

Exemple 2.4.
1. Le jet d'une pièce de monnaie :

Ω = {P ile, F ace} ;
2. Le tirage de p boules succesivement sans remise dans une urne qui en contient n. Dans ce dernier cas, Ω est l'ensemble de tous les arrangements p à p de n boules. CardΩ = Ap n

On appelle partie de l'univers des possibles.

Dénition 2.4.2.

évènement d'une expérience aléatoire, toute 1. Les évènements singletons sont appelés évènements élémentaires ; 2. L'ensemble vide est appelé évènement impossible ;

2.5.

OPÉRATIONS SUR LES ÉVÈNEMENTS

19

3. L'univers lui-même est appelé

évènement certain.

Exemple 2.5. Prenons Ω = {1, 2, 3, 4, 5, 6} ; A = {1, 2} est un évènement de l'expérience aléatoire ; B = {3} est un évènement élémentaire ; C = ∅ est l'évènement impossible ; E = Ω est l'évènement certain.

lors de l'occurence de l'expérience aléatoire si le résultat apporté appartient à A. Dans le cas contraire, il est dit .

Dénition 2.4.3. Un évènement A d'une expérience aléatoire est dit réalisé

non réalisé

2.5

OPÉRATIONS SUR LES ÉVÈNEMENTS

2.5.1 Évènements contraires
Soit A un évènement de l'expérience aléatoire E d'univers des possibles ¯ Ω ; l'évènement A = A est appelé évènement contraire de A. Il est réalisé Ω si et seulement si A n'est pas réalisé.

2.5.2 Évènement A et B
L'évènement A ∩ B est appelé évènement A seulement si A et B sont réaliés simultanément.

et

B et est réalisé si et

2.5.3 Évènement A ou B
L'évènement A ∪ B est appelé évènement A ou B et est réalisé si et seulement si A est réalié ou B est réalisé ou les deux le sont simultanément.

2.5.4 Évènement A∆B
L'évènement A∆B est réalisé si et seulement si A est réalisé ou B est réalisé, mais pas les deux simultanément.

A∆B = (A

B) ∪ (B

A) = (A ∪ B)

(B ∩ A)

2.5.5 Diérence de deux évènements
Soient A et B deux évènements, on note A B l'évènement qui est réalisé si et seulement si A est réalisé et B non réalisé.

20

CHAPITRE 2.

ESPACES PROBABILISÉS

Propriétés 2.

P1 : A A = ∅ ; ¯ P2 : Ω A = A ; ¯ = A. P3 : A

2.5.6 Évènements incomparables
Deux évènements A et B sont dits incomparables si et seulement si :

A∩B =∅

2.5.7 Lois de De Morgan
¯ ¯ A∪B = A∩B ¯ ¯ A∩B = A∪B
2.6 NOTION DE PROBABILITÉ

2.6.1 Expérience de Laplace
Dénition 2.6.1.
Une expérience aléatoire pour laquelle l'ensemble fondamental Ω est ni et telle que tous les évènements élémentaires aient la même chance d'occurence est appelée .

expérience de Laplace

Exemple 2.6.  Jet d'une pièce équilibrée ;  Tirage au hazard des boules dans une urne.

2.6.2 Probabilité relative à une expérience aléatoire
Considérons une expérience de Laplace E d'ensemble fondamental Ω avec Ω = {w1 , w2 , . . . , wn }. Nous allons quantier le degré de vraisemblance de chaque évènement. Tous les évènements élémentaires ayant le même degré de vraisemblance, on pose que la probabilité de chaque évènement élémentaire 1 1 est égale à CardΩ = n . Ce nombre est appelé probabilité de l'évènement {wi }. Nous allons poser :

P (A) =

CardA , CardΩ

A ⊆ Ω où

2.6.

NOTION DE PROBABILITÉ

21

P : P(Ω) −→ R vériant les propriétés : (i) (ii) (iii) (iv) P (A) 0; 0 P (A) 1; P (Ω) = 1; Soient A, B/A ∩ B = ∅, alors P (A ∪ B) = P (A) + P (B).

2.6.3 Axiomes de probabilité
Etant donné une expérience aléatoire E d'univers des possibles Ω, soit β une famille de parties de Ω vériant :

(i) β = ∅; (ii) β est stable pour la réunion nie ; (iii) β est stable pour la diérence ; β est appelé anneau des parties de Ω. Si de plus, β est stable pour la réunion dénombrable, alors β est appelé σ -anneau des parties de Ω. Un anneau des parties de Ω contenant Ω est appelé algèbre. Un σ -anneau des parties de Ω contenant Ω est appelé σ -algèbre ou tribu.
Exemple 2.7. On considère l'expérience aléatoire d'ensemble fondamental Ω. Alors, β = P(Ω) est une tribu (σ -algèbre).

Dénition 2.6.2.
ment si :

Dénition 2.6.3. Le triplet (Ω, β, P ) est un espace probabilisé si et seule1. (Ω, β) est un espace probabilisable ; 2. P est une application dénit de β dans R vériant les propriétés suivantes : (a) ∀A ∈ β, 0 (b) P (Ω) = 1 ; (c) Soient A, B/A ∩ B = ∅, alors P (A ∪ B) = P (A) + P (B). L'application P est appelée β , P (A) est appelée

(Ω, β) est un est une tribu des parties de Ω.

espace probabilisable si et seulement si β

P (A)

1;

probabilité sur β et pour tout A appartenant à probabilité de l'évènement A.

22

CHAPITRE 2.

ESPACES PROBABILISÉS

Exemple 2.8 (Loi uniforme ou probabilité de Laplace). Considérons une expérience aléatoire de Laplace ayant pour ensemble fondamental Ω = {w1 , w2 , . . . , wn } ; prenons comme tribu β = P(Ω). Considérons l'application

P : β −→ R CardA A −→ CardΩ Le triplet (Ω, β, P ) est un espace probabilisé ni car Ω est

Propriétés 3.
1. 2. 3. 4. 5. 

ni.

Considérons (Ω, β, P ) un espace probabilisé, on a :

P (∅) = 0 ; ¯ P (A) = 1 − P (A) ; P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ; Si A ⊆ B , alors P (A) P (B) ; Si Ω est ni avec Ω = {w1 , w2 , . . . , wn }; n si on pose Pi = P ({wi }), alors i=1 Pi = 1 ; 6. Si (Ω, β, P ) est un espace probabilisé ni, alors ∀A ∈ β, P (A) =
.
w∈A

P ({w})

Démonstration. 1.

∅∩∅=∅ ∅∪∅=∅
2.

⇒ P (∅ ∪ ∅) = P (∅) + P (∅) = P (∅) ⇒ P (∅) = 0

¯ A∩A=∅ ¯ A∪A=Ω
3.

¯ ¯ ⇒ P (A ∪ A) = P (A) + P (A) = P (Ω) = 1 ¯ ⇒ P (A) = 1 − P (A)

A ∪ (B A ∩ (B

A) = A ∪ B A) = ∅

⇒ P (A ∪ B) = P (A) + P (B ⇒ P (B) = P (B

A)

B = (B A) ∪ (A ∩ B) ∅ = (B A) ∩ (A ∩ B)

A) + P (A ∩ B)

d'où P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

2.7.

PROBABILITÉ CONDITIONNELLE

23

2.7

PROBABILITÉ CONDITIONNELLE

Exemple 2.9 (introductif ). Une urne contient trois boules blanches et trois boules noires. on tire au hazard et l'une après l'autre deux boules.
1. Construire l'espace probabilisé associé à cette expérience aléatoire. On précisera l'ensemble fondamental, la tribu utilisée et on donnera de façon explicite la probabilité. 2. Quelle est la probabilité d'avoir une boule blanche au deuxième tirage ?

Solution.
1. L'ensemble fondamental Ω est l'ensemble des couples de boules. On a donc : Card(Ω) = A2 = 6 × 5 = 30 6

β = P(Ω)
Le tirage étant fait au hazard, tous les couples ont la même probabilité d'apparaître, on dit ici que tous les évènements élémentaires sont équiprobables. CardA P (A) = CardΩ On construit ainsi l'espace probabilisé (Ω, β, P ). 2. La probabilité cherchée dépend du premier tirage.

Soit (Ω, β, P ) un espace probabilisé, soit A un évènement tel que P (A) = 0, soit B un évènement quelconque, on note PA (B) ou P B A (lire B A), le réel :

Dénition 2.7.1.

probabilité de sachant

PA (B) =

P (A ∩ B) P (A)

Propriétés 4.
1. Si P (A) = 0, alors P (A ∩ B) = PA (B).P (A). 2. De façon générale,

P (A ∩ B ∩ C) = P (A).PA (B).PA∩B (C)
Exercice 2.1. On jette deux dés équilibrés identiques et on s'interresse à la somme des numéros apportés. Quelle est la probabilité d'obtenir la somme 8 sachant que les numéros apportés sont pairs ?

24

CHAPITRE 2.

ESPACES PROBABILISÉS

Exercice 2.2. Dans une urne se trouve six boules dont quatre blanches et deux noires. On tire successivement sans remise deux boules de l'urne. Quelle est la probabilité d'obtenir des boules blanches dans tous les cas ?
2.8 ÉVÈNEMENTS INDÉPENDANTS

seulement si :

Dénition 2.8.1.

Deux évènements A et B sont dits

indépendants si et

P (A ∩ B) = P (A).P (B)

Conséquence
Si A et B sont indépendants, alors :

PA (B) = P (B) et PB (A) = P (A)
La notion d'indépendance est symétrique et on peut la dénir pour un nombre quelconque d'évènements ; on parlera alors d'évènements mutuellement indépendants (2 à 2 indépendants).

tivement exhaustive
1. 2.

Dénition 2.8.2.

Une suite d'évènements A1 , A2 , . . . , An est dite si et seulement si dans (Ω, P(Ω)) ,
n

collec-

Ω=
i=1

Ai

Ai ∩ Aj = ∅; i = j
2.9 FORMULE DE BAYES

Exemple 2.10 (introductif ). On considère trois urnes U1 , U2 , et U3 contenant respectivement les boules blanches et les boules noires dans les proportions suivantes : (2, 1), (2, 2), (1, 2) Problème : On tire une urne au hazard et on tire de l'urne choisie une boule.
1. Quelle est la probabilité de tirer une boule noire ? 2. Quelle est la probabilité pour que la boule tirée vienne de l'urne U1 ?

2.9.

FORMULE DE BAYES

25

Solution. Soit A l'évènement : " Tirer une boule noire" et Ui l'évènement : " Tirer l'urne Ui ". La deuxième question peut être reformulée comme suit : Quelle est la probabilité de tirer une boule de l'urne U1 sachant que cette boule

est noire ?

Toutes les urnes ont la même chance d'être tirée, on a donc :

P (U1 ) = P (U2 ) = P (U3 ) =
On a également :

1 3

PU1 (A) =

1 2 1 , PU2 (A) = , PU1 (A) = 3 2 3 A = (A ∩ U1 ) ∪ (A ∩ U2 ) ∪ (A ∩ U3 ) P (A ∩ Ui ) PUi (A) = ⇒ P (A ∩ Ui ) = PUi (A).P (Ui ) P (Ui ) d'où
3

P (A) =
i=1

PUi (A).P (Ui )

On en déduit que :

PA (U1 ) =

PU1 (A).P (U1 ) 3 i=1 PUi (A).P (Ui )

,

Formule de Bayes

Exemple 2.11 (de généralisation). On suppose qu'on dispose de n urnes U1 , U2 , . . . , Un comportant des boules blanches et des boules noires. On suppose que l'urne Ui a la probabilité πi d'être tirée et on note P (Ui ) = πi . On suppose également que l'urne Ui a une proportion de pi boules blanches et de qi boules noires. On a donc : n

pi + qi = 1 , ∀i et
i=1

πi = 1

Soit A l'évènement : " Tirer une boule noire" et Uj l'évènement : " Tirer l'urne Uj ". La formule généralisée de Bayes est la probabilité de Uj sachant A et elle vaut :

PA (Uj ) =

PUj (A).P (Uj ) 3 i=1 PUi (A).P (Ui )

26

CHAPITRE 2.

ESPACES PROBABILISÉS

Exercice 2.3. Dans une usine de production des boucles d'oreilles, se trouve quatres machines M1 , M2 , M3 et M4 . Les proportions de production de ces machines sont respectivement 10%, 20%, 30% et 40%. Les proportions de pièces défectueuses sont respectivement 2%,1%,4% et 2%.
1. Quelle est la probabilité pour qu'une pièce tirée soit défectueuse ? 2. On tire une pièce et on constate qu'elle est défectueuse, quelle est la probabilité qu'elle provienne de la machine M1 .

Chapitre 3 VARIABLES ALÉATOIRES
3.1 V ALEURS ALÉATOIRES

Exemple 3.1.
1. Jet d'un dé équilibré dont les faces sont numérotées de 1 à 6. Les valeurs 1, 2, 3, 4, 5 et 6 sont appelées valeurs aléatoires (résultats d'une variables aléatoire).

Dénition 3.1.1. On appelle variable aléatoire réelle (v.a.r.) sur Ω, toute
application

2. L'erreur commise lors de la lecture d'une valeur donnée sur un appareil de mesure.

X : Ω −→ R w −→ X(w)
Si X(Ω) = {X(w), w ∈ Ω} est ni ou inni dénombrable, la variable aléatoire (v.a.) X est dite . Une variable aléatoire (v.a.) X est dite si X(Ω) contient au moins un intervalle ouvert non vide.

discrète

continue

3.2

LOI DE PROBABILITÉ D'UNE V.A.R.

3.2.1 Cas discret
Soit (Ω, β, P ) un espace probabilisé et soit X une variable aléatoire réelle (v.a.r.) telle que X(Ω) = {x1 , x2 , . . . , xn , . . . }. X(Ω) est au plus inni dénombrable. Supposons X(Ω) ordonné, c'est-à-dire x1 < x2 < . . . < xn < ... 27

28 On a :

CHAPITRE 3.

V ARIABLES ALÉATOIRES

X −1 (R) = {w ∈ Ω / X(w) ∈ R} = Ω
Notation 1.

− {X = x} = {w ∈ Ω / X(w) = x} − {X < x} = {w ∈ Ω / X(w) < x} − {a < X < b} = {w ∈ Ω / a < X(w) < b}

Distribution de la loi de X
Notons Pi , la probabilité P (X = xi ) ;

Propriétés 5.
1. 0 2. ou
∞ i=1

Pi
n i=1

1.

Pi = 1 (Pour X nie) Pi = 1 (Pour X innie dénombrable)
x∈A

3. PX (A) =

Px .
est appelée

de probabilité de X .
Exemple 3.2.
1.

Dénition 3.2.1. PX

loi de probabilité de X ou distribution

Soit X(Ω) = {0, 1, 2, . . . , n}, n ∈ N∗

P (X = i) = Ci .pi .(1 − p)n−i n
2.

X(Ω) = N, soit λ > 0 P (X = i) = e−λ . λi i!

Exercice 3.1. Montrer que dans les deux cas de l'exemple précédent, PX est une loi de probabilité de X .

3.2.

LOI DE PROBABILITÉ D'UNE V.A.R.

29

Diagramme en bâton
Soit X une variable aléatoire réelle (v.a.r.) discrète telle que X(Ω) = {x1 , x2 , . . . , xn , . . . }. Posons P (X = xi ) = Pi , on a le diagramme en bâton suivant :

Fonction de repartition d'une v.a. discrète Dénition 3.2.2. Soit X une variable aléatoire
semble ω ; on appelle

fonction de répartition

réelle (v.a.r.) sur un ende X , l'application :

F : R −→ R x −→ P (X < x)
Soit donc X(Ω) = {x1 , x2 , . . . , xn } ; n ∈ N∗ supposons x1 < x2 < . . . < xn ;

∗ x x1 ⇒ F (x) = P (X < x) = 0; ∗ x ∈]x1 , x2 ] ⇒ F (x) = P (X < x) = p1 ; ∗ x ∈]x2 , x3 ] ⇒ F (x) = P (X < x) = p1 + p2 ; . . .
i

∗ x ∈]xi , xi+1 ] ⇒ F (x) = P (X < x) =
j=1

pj ; i = 1, 2, . . . , n

∗ x > xn ⇒ F (x) = 1.

30

CHAPITRE 3.

V ARIABLES ALÉATOIRES

Propriétés 6.
x→−∞ x→x− 1

lim F (x) = 0 ;

x→+∞

lim F (x) = 1
x→x2

lim F (x) = 0 = F (x1 ) ; lim− F (x) = p1 = F (x2 )

F est croissante et discontinue, mais continue à gauche.

Propriétés 7.
1. Toute fonction de répartition F est croissante ; 2. Toute fonction de répartition F est continue à gauche :

∀a ∈ R,
3. 0 4. P (a

x→a−

lim F (x) = F (a)

F (x) X

1; b) = F (b) − F (a).

3.2.2 Cas continu
nue X , une fonction f : R −→ R satisfaisant : 1. f (x) 2. P (a 3.
+∞ −∞

Distribution des probabilités d'une v.a. continue Dénition 3.2.3. On appelle distribution de probabilité d'une v.a. conti0, ∀x ∈ R ; X b) =
b a

f (x)dx ;

f (x)dx = 1.

f est appelée

densité de probabilité de X .
  1 + x si x ∈ [−1, 0] 1 − x si x ∈ [0, 1] f (x) =  0 sinon

Exemple 3.3. Prenons

Montrons que f est la densité de probabilité d'une v.a. X .

∗ f (x)
+∞

0, ∀x ∈ R
−1 0 1 +∞


−∞

f (x)dx =
−∞ 0

f (x)dx + (1 + x)dx +
−1 0

f (x)dx +
−1 1 0

f (x)dx +
1

f (x)dx

=

(1 − x)dx = 1

3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R.

31

Exercice 3.2. Soit

f (x) =

e−x si x 0 sinon

0

1. Montrer que f est la densité de probabilité d'une v.a. continueX . 2. Dénir alors la probabilité relative à un intervalle [a, b].

Fonction de répartition d'une v.a. continue Dénition 3.2.4. On appelle fonction de répartition
densité f , la fonction

de la v.a. X de

F : R −→ R x −→ P (X < x) =

x

f (t)dt
−∞

Exercice 3.3. Déterminer les fonctions de répartition des variables aléatoires de densité de probabilité f dans chacun des cas :   1 + x si x ∈ [−1, 0] e−x si x 0 1 − x si x ∈ [0, 1] f (x) = et f (x) = 0 sinon  0 sinon
3.3 CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R.

3.3.1 Espérance mathématique
On appelle d'une v.a.r. discrète X par rapport à X(Ω) = {x1 , x2 , . . . , xN , . . .} tel que P (X = xi ) = Pi , le réel
N

Cas discret Dénition 3.3.1.

espérance mathématique

E(X) =
i=1

xi .Pi où (N ∈ N ou N = +∞)

Exemple 3.4.
1. P (X = xi ) =
1 6

, i = 1, 2, . . . , 6. 1 1 1 1 1 1 21 +2× +3× +4× +5× +6× = 6 6 6 6 6 6 6

E(X) = 1 ×

32

CHAPITRE 3.

V ARIABLES ALÉATOIRES

2. Loi de Poisson X suit la loi de probabilité P(λ), λ > 0 ; X(Ω) = N.
+∞

E(X) =
i=0 +∞

i.pi i.e
i=0 +∞ −λ −λ

= = e

λi . i!

. . .

= λ.e = λ.e = λ.e = λ

i=1 +∞ −λ i=1 +∞ −λ

λi i. i! λi−1 (i − 1)! λj j!

j=0 −λ

.eλ

Cas continu Dénition 3.3.2. On appelle espérance mathématique de X , le réel , s'il
existe :
+∞

Soit X une v.a. continue de densité f .

E(X) =
−∞

xf (x)dx

Exemple 3.5. Soit la densité de probabilité d'une v.a. X suivante :

f (x) =
On a : E(X) =
+∞ −∞

e−x si x > 0 0 sinon
+∞ 0

xf (x)dx =

xe−x dx = 1
+∞

Exercice 3.4. Soit la fonction :

Γ(x) =
0

tx−1 e−t dt

Établir que : 1. Γ converge pour x > 0 ;

3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R.

33

Propriétés 8.

2. Γ(x + 1) = xΓ(x) ; 3. ∀n ∈ N, Γ(n + 1) = n!

1. L'espérance mathématique d'une v.a. constante est égale à cette même variable aléatoire : E(a) = a, si X = a 2. Si X et Y sont deux variables aléatoires réelles, soient α, β ∈ R ; alors :

E(αX + βY ) = αE(X) + βE(Y )

3.3.2 Densité de probabilité d'une fonction de v.a.r.
Soit ϕ une application :

ϕ : R −→ R x −→ ϕ(x)
Soit X une v.a.r. (discrète ou continue) de densité f ; on pose Y = ϕ(X). Y est une nouvelle v.a.r. et on se propose de déterminer la densité de Y .

Fonction de répartition de Y
G(y) = P (Y < y) = P (ϕ(X) < y)
Supposons sans nuire à la généralité que ϕ est bijective ; Alors, d'où,

G(y) = P (X < ϕ−1 (y)) G(y) = FX (ϕ−1 (y))

Supposons que FX (la fonction de répartition de X ) est dérivable presque partout dans R. Sachant que

dFX (x) dx on en déduit la fonction de répartition de Y : f (x) = g(y) = FX (ϕ−1 (y)).(ϕ−1 ) (y) 1 1 = f (ϕ−1 (y)). car (ϕ−1 ) (y) = −1 (y) ϕ ◦ϕ ϕ ◦ ϕ−1 (y) et puisque g(y) est positive, on a : 1 g(y) = f (ϕ−1 (y)). −1 (y))| |ϕ (ϕ

34

CHAPITRE 3.

V ARIABLES ALÉATOIRES

Exemple 3.6 (d'application). Soit la v.a. X de densité de probabilité :

f (x) =
On donne

e−x xi x > 0 0 sinon

Y = 3X + 9 = ϕ(X)
Déterminons la densité de probabilité de Y On a : Y −9 Y = 3X + 9 = ϕ(X) ⇒ ϕ−1 (Y ) = 3 Donc 1 −( y−9 ) e 3 si y − 9 > 0 c'est-à-dire y > 9 3 0 sinon

Exercice 3.5. Considérons la v.a. X de densité de probabilité :

f (x) =
On donne

e−x xi x > 0 0 sinon

Y = X 2 = ϕ(X)

Déterminer la densité de probabilité de Y

Remarque 3.3.1. Les formules de g(Y ) obtenues sous les hypothèses ϕ bijectif et dérivable et FX dérivable restent valablent si la fonction ϕ est bijective par intervalle.

3.3.3 Espérance mathématique d'une fonction de v.a.
Soit X une v.a.r. continue ou discrète, soit ϕ : R −→ R une application continue par morceau telle que :

ϕ : R −→ R x −→ ϕ(x)
On pose

Y = ϕ(X)

Dénition 3.3.3.

On a :
+∞

E(ϕ(X)) =
−∞ N

ϕ(x)f (x)dx ϕ(xi )Pi
i=1

(cas continu) (cas discret)

E(ϕ(X)) =

3.3. CARACTÉRISTIQUES DE TENDENCE CENTRALE D'UNE V.A.R.

35

Cas particulier
¯ Soit X une v.a. de moyenne (espérance mathématique) X = E(X) ; po2 ¯ sons ϕ(X) = (X − X) . On a :
+∞

E(ϕ(X)) =
−∞

¯ (x − X)2 f (x)dx

(cas continu)

Dénition 3.3.4.

On appelle

variance de la v.a. X , le réel, s'il existe :
¯ (x − X)2 f (x)dx
(cas continu) (cas discret)

+∞

V ar(X) =
−∞ N

V ar(X) =
i=1

¯ (xi − X)2 Pi

Propriétés 9 (de la variance).
2

Soit X et Y deux v.a.r., soient α, β ∈ R

1. V ar(αX) = α V ar(X) ; 2. Si X et Y sont indépendantes, alors :

V ar(αX + βY ) = α2 V ar(X) + β 2 V ar(Y )

3.3.4 Quantile d'ordre α , Mode , Médiane

quantile d'ordre α, la modalité u F (u ) = α. Si α = , le quantile est appelé médiane.
Dénition 3.3.5.
α 1 2

Soit X une v.a.r. de fonction de répartition F , soit α ∈ [0, 1] ;

On appelle

α

telle que

Quelques quantiles particuliers
On appelle  quartile

d'ordre k, le quantile dénit par :
k avec k = 0, 1, 2 ou 3. 4 k, le quantile dénit par : F (uk ) = k 10
avec . . . 

décile d'ordre

F (uk ) =

k = 0, 1, 2, . . . , 9.

36 

CHAPITRE 3.

V ARIABLES ALÉATOIRES

centile d'ordre k, le quantile dénit par :
F (uk ) = k 100
avec

k = 0, 1, 2, . . . , 100.

Chapitre 4 VARIABLES ALÉATOIRES A DEUX DIMENSIONS
4.1 CAS DISCRET

Soient X et Y deux variables aléatoires dénies sur le même univers Ω telles que :

X(Ω) = {x1 , x2 , . . . , xn } ; x1 < x2 < . . . < xn Y (Ω) = {y1 , y2 , . . . , yn } ; y1 < y2 < . . . < yn et P (X = xi et Y = yi ) = Pij

Dénition 4.1.1.

toires

Le couple (X, Y ) est appelé de loi conjointe Pij avec i = 1, 2, . . . , n et j = 1, 2, . . . , m (dénie comme si haut).

couple de variables aléa-

Loi conjointe
XY x1 x2 . . . xi . . . xn Loi marginale de Y y1 P11 P21 . . . Pi1 . . . Pn1 P.1 y2 P12 P22 . . . Pi2 . . . Pn2 P.2
. . . yj . . . . . . P1j . . . . . . P2j . . . . . . . . . Pij . . . . . .

ym P1m P2m . . . Pim . . . Pnm P.m

Loi marginale de X P1. P2. . . .

. . . Pnj . . . . . . P.j . . .
37

Pi. . . . Pn.

38

CHAPITRE 4.

V ARIABLES ALÉATOIRES A DEUX DIMENSIONS

On a :
m n

Pi. =
j=1

Pij et P.j =
i=1

Pij

Pi. = P (X = xi ) indépendament de Y P.j = P (Y = yi ) indépendament de X

Propriétés 10.
1. 0 2. 3.

Pij
n i=1 n i=1

1; Pij = 1 ; Pi. = 1 et m P.j = 1. j=1
m j=1

4.1.1 Probabilités conditionnelles
Probabilité de Y sachant xi
On va noter Z = Y /xi la variable aléatoire de Y sachant xi et on aura :

P (Z = yj ) = P (Y = yi /X=xi ) =

Pij Pi.

Probabilité de X sachant yj
On va noter W = X/Yj la variable aléatoire de X sachant yj et, de même que précédemment, on aura :

P (W = xi ) = P (X = xi /Y =yj ) =

Pij P.j

4.1.2 Indépendance de couple de variables aléatoires
si et seulement si :

Dénition 4.1.2. Les variables aléatoires X et Y
P (X/Y ) = P (X)
et

sont dites

indépendantes

P (Y /X ) = P (Y )

Conséquence

Si X et Y sont deux variables indépendantes, alors :

Pij = Pi. × P.j
Remarque 4.1.1.

Pij = Pi. × Pj/i

4.2.

CAS CONTINU

39

4.1.3 Covariance d'un couple de variables aléatoires
Dénition 4.1.3. Soient (X, Y ) un couple de variables aléatoires de loi conjointe pij . On appelle (X, Y ), le nombre :

covariance du couple
n m

¯ ¯ cov(X, Y ) = E[(X − X).(Y − Y )]
ce qui donne :

cov(X, Y ) =
i=1 j=1

¯ ¯ (xi − X).(yj − Y ).Pij

4.1.4 Formule de K÷ning
On a
n m

E(X, Y ) =
i=1 j=1

xi .yj .Pij

d'où on déduit la formule de K÷ning :

cov(X, Y ) = E(X.Y ) − E(X).E(Y )

Conséquence
1. Si X et Y sont indépendantes, alors

E(X.Y ) = E(X).E(Y )
2. Si X et Y sont indépendantes, alors Cov(X, Y ) = 0. Mais la réciproque n'est pas vraie ; 3. V ar(X) = Cov(X, X) = E(X 2 ) − (E(X))2 .
4.2 CAS CONTINU

4.2.1 Loi conjointe
Soient X et Y deux variables aléatoires continues sur le même univers Ω.

P (x < X < x + dx , y < Y < y + dy) = f (x, y)dxdy

40

CHAPITRE 4.

V ARIABLES ALÉATOIRES A DEUX DIMENSIONS

1. La fonction f est Riemann intégrable ; 2. f (x, y) 3.
R2

0;

f (x, y)dxdy = 1.

f (x, y) est appelée

densité conjointe du couple (X, Y ).

4.2.2 Lois marginales
Loi marginale de X Dénition 4.2.1.
fX (x) =
−∞ +∞

f (x, y)dy

Loi marginale de Y Dénition 4.2.2.
fY (y) =

+∞

f (x, y)dx
−∞

4.2.3 Lois conditionnelles
Loi de X sachant Y
fX/Y (x) =   
f (x,y) fY (y)

si fY (y) = 0

0 sinon

Loi de Y sachant X
fY /X (y) =   
f (x,y) fX (x)

si fX (x) = 0

0 sinon

Propriétés 11 (générales de la variance).
1. V ar(X) = 3.
+∞ (x −∞

Soient X et Y deux variables aléatoires réelles, α, β ∈ R ;

¯ − X)2 f (x)dx ;
2 2

2. V ar(αX + βY ) = α2 V ar(X) + β 2 V ar(Y ) + 2αβCov(X, Y ) ;

Formule de K÷ning : V ar(X) = E(X ) − [E(X)] .

4.3.

MOMENT CENTRÉ ET MOMENT NON CENTRÉ

41

4.3

MOMENT CENTRÉ ET MOMENT NON CENTRÉ

d'ordre k de X noté M , le nombre s'il existe :
k

Dénition 4.3.1. Soit X une variable aléatoire ; on appelle moment centré
¯ Mk = E[(X − X)k ] , k ∈ N

4.3.1 Moment centré d'ordre k

Propriétés 12.
1. M1 = 0 ; 2. M2 = V ar(X).

4.3.2 Moment non centré d'ordre k
Dénition 4.3.2.

centré d'ordre

Soit X une variable aléatoire ; on appelle k de X noté µk , le nombre :

moment non

µk = E(X k ) , k ∈ N

4.3.3 Relation entre moment centré et moment non centré
¯ Mk = E[(X − X)k ] , k ∈ N
k

= E[
p=0 k

¯ Cp .(−1)p .X p .X k−p ] k ¯ Cp .(−1)p .X p .E[X k−p ] k
d'où

=
p=0 k

Mk =
p=0

¯ Cp .(−1)p .X p .µk−p k

42
4.4

CHAPITRE 4.

V ARIABLES ALÉATOIRES A DEUX DIMENSIONS

FONCTIONS CARACTÉRISTIQUES ET FONCTIONS GÉNÉRATRICES

Dénition 4.4.1. On appelle fonction caractéristique de la variable aléatoire réelle ou constante X , la fonction :

4.4.1 Fonctions caractéristiques

g : R −→ R t −→ E(etX )

Cas où X est continue de densité f
+∞

g(t) =
−∞

f (x)etx dx

Cas où X est discret de loi de probabilité P
N

g(t) =
i=0

etxi Pi

(N ni ou inni)

Propriétés 13.
1. g(0) = 1 ; 2. g (t)|t=0 = 3. g (t)|t=0 =
+∞ −∞ +∞ −∞

xf (x)dx = E(X) ; x2 f (x)dx = E(X 2 ) d'où dk g(X) = E(X k ) dX

4.4.2 Fonction génératrice
réelle ou constante X , la fonction :

Dénition 4.4.2. On appelle fonction génératrice de la variable aléatoire
φ : R −→ R u −→ E(eiuX )

4.5. COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLATISSEMENT

43

Remarque 4.4.1. On dénit la fonction génératrice par φX (u) = E(uX ), u > 0. En eet :

uX = = φ(u) = = =

eX ln(u) evX en posant v = ln(u) donc E(euiX ) E[(eiu )]X E(v X ) en posant v = eiu

Exercice 4.1. On considère la variable aléatoire X suivant la loi de Gauss de densité : x2 1 f (x) = √ e− 2 , x ∈ R 2π
1. Déterminer les fonctions caractéristique et génératrice de X ; 2. En déduire tous les moments centrés et non centrés de X .

Exercice 4.2. Mêmes questions que prédémment pour les variables aléatoires Y et Z ayant respectivement les densités :  −x si x > 0  e 1. f (x) =  0 sinon
2. P (X = n) = e−λ . λ , n!
4.5
n

n ∈ N (Loi de poisson)

COEFFICIENT D'ASSYMÉTRIE ET COEFFICIENT D'APLATISSEMENT

Dénition 4.5.1. On appelle coecient d'assymétrie d'une variable aléatoire X admettant une moyenne nie E(X) et un écart-type ni σX = var(X), le réel :

γ1 =

Dénition 4.5.2.

On appelle d'une variable aléatoire X admettant une moyenne nie E(X) et un écart-type ni σX , le réel :

coecient d'aplatissement

E[(X − E(X))3 ] 3 σX

γ2 =

E[(X − E(X))4 ] −3 4 σX

44

CHAPITRE 4.

V ARIABLES ALÉATOIRES A DEUX DIMENSIONS

Les coecients d'assymétrie et d'aplatissement permettent d'évaluer les degrés de symétrie et d'aplatissement d'une distribution. D'autres coecients dénissent le degré d'élement.

Propriétés 14.
1. γ1 = 0 si X est symétrique par rapport à la normale. Mais, la réciproque n'est pas vraie. 2. Si γ1 > 0, la distribution est plus étalée vers la droite. Si γ1 < 0, la distribution est plus étalée vers la gauche. 3. γ2 = 0 si la distribution est normale (La condition γ2 = 0 est une condition nécessaire mais pas susante de normalité, car on peut avoir γ2 = 0 pour une distribution qui n'est pas normale.)
4.6 DENSITE DE PROBABILITÉ D'UNE FONCTION DE COUPLE DE V.A.

Soit (X, Y ) un couple de variables aléatoires réelles de densité conjointe f (x, y). On pose : Z1 = φ1 (X, Y )

Z2 = φ2 (X, Y )
On a la transformation réciproque suivante :

X = ψ1 (Z1 , Z2 ) Y = ψ2 (Z1 , Z2 )
La densité conjointe de (Z1 , Z2 ) est donnée par :

g(z1 , z2 )dz1 dz2 = f (x, y)|dx.dy|
γx γz1 γx γz2

= f (x, y)
γy γz1 γy γz2

dz1 .dz2

d'où on déduit :
γx γz1 γx γz2

g(z1 , z2 ) = f (ψ1 (z1 , z2 ), ψ2 (z1 , z2 ))
γy γz1 γy γz2

dz1 .dz2

Les lois de Z1 et Z2 sont obtenues comme lois marginales de (Z1 , Z2 ).

4.6. DENSITE DE PROBABILITÉ D'UNE FONCTION DE COUPLE DE V.A.

45

Application
On dénit la densité d'un couple de variable aléatoire (X, Y ) par :   (y − x)e−(y−x) pour 0 x 1 et x y f (x, y) =  0 sinon Déterminons la densité g de la variable aléatoire Z1 = X + Y . Etant donné qu'on a qu'une seule fonction, il faut donc la compléter par une fonction qui soit bijective pour obtenir un couple de variable aléatoire. Prenons par exemple Z2 = Y . On a :
γx γz1 γy γz1 γx γz2

=
γy γz2

1 J

où J est le jacobien

On a également :

Y = Z2 = ψ2 (Z1 , Z2 )

et

X = Z1 − Z2 = ψ1 (Z1 , Z2 )

g(Z1 , Z2 ) = f (Z1 − Z2 , Z2 )
+∞

gZ1 (x) =
−∞

g(Z1 , Z2 )dZ2

46

CHAPITRE 4.

V ARIABLES ALÉATOIRES A DEUX DIMENSIONS

Chapitre 5 MODÈLES PROBABILISTES DISCRETS
5.1 V ARIABLE DE BERNOULLI

Dénition 5.1.1.
Exemple 5.1.

Une variable aléatoire dont l'ensemble des valeurs est réduite à deux éventualités est appelée .

variable de Bernoulli

1. Jet d'une pièce de monnaie : Ω = {P ile, F ace} ; 2. Considérons ξ , une expérience aléatoire quelconque d'espace probabilisé associé (Ω, β, P ) ; Soit A un évènement, on construit la variable aléatoire X de la façon suivante : 1 si A esr réalisé X(w) = 0 sinon

X(Ω) = {0, 1} est une variable de Bernoulli

Formalisation d'une variable de Bernoulli
La variable de Bernoulli sera assimilée à la variable X qui prend la valeur 1 avec un p et la valeur 0 avec un q . On notera que X suit la probabilité P . X = 1 est appelé succès et X = 0 est appelé échec. √ E(X) = p, V ar(X) = E(X 2 ) − [E(X)]2 = pq et σX = pq . 47

48
5.2

CHAPITRE 5.

MODÈLES PROBABILISTES DISCRETS

V ARIABLE BINOMIALE

Soit E une expérience aléatoire, soient (Ω, β, P ) l'espace probabilisé associé et A un évènement de probabilité p. On répète n fois l'épreuve E dans les mêmes conditions ; on note X la variable aléatoire qui associe le nombre de réalisation de A.

Valeur de X(Ω)
X(Ω) = {0, 1, . . . , n}

Loi de X
Notons P (X = i), la probabilité de i réalisations de A ;  X = 0 ⇒ A n'est pas réalisé ; P (X = 0) = (1 − p)n = q n  X = 1 ⇒ A est réalisé une fois ; P (X = 1) = np(1 − p)n−1  X = i ⇒ A est réalisé i fois ; P (X = i) = Ci pi .q n−i n On dira que X suit la loi binomiale de paramètres n et p (B(n, p)).

Exercice 5.1.
1. Démontrer que la probabilité qu'il y ait i succès est Ci pi .q n−i pour n n épreuves ; 2. Tracer le diagramme en bâton de la loi binomiale pour :  n = 6 et p = 0, 1 ;  n = 6 et p = 0, 5 ;  n = 6 et p = 0, 7 ;  n = 6 et p = 0, 9 ; Evaluer pour chaque cas, les coecients d'asymétrie et d'aplatissement.

Propriétés 15.

On suppose que X paramètres n et p).

B(n, p) (X suit la loi binomiale de

1. L'espérance mathématique de la loi binomiale est : E(X) = np ; √ 2. V ar(X) = npq et σX = npq ; 3. Mode de X

5.3.

LOI HYPERGÉOMÉTRIQUE

49

Supposons que le mode de X est égal à x ; alors :

Px = P (X = x) = Cx px .q n−x n Px+1 n−x p = . <1 Px x+1 q Px n−x+1 p et = . >1 Px−1 x q
En résolvant ces deux inégalités, on a :

np − q < x < np + p 
Si np − q et np + p ne sont pas des entiers, alors le mode est l'unique entier entre np − q et np + p.  Si np − q est entier, alors np + p est entier et, np − q et np + p sont les deux valeurs modales de la distribution binomiale. 4.

gX (u) = (q + peu )n (Fonction génératrice) φX (u) = (q + peiu )n (Fonction caractéristique)
Exercice 5.2. Etablir ces résultats.
5.3 LOI HYPERGÉOMÉTRIQUE

La loi binomiale correspond à un tirage avec remise (on travaille dans les mêmes conditions). Le cas de tirage sans remise correspond à une variable appelée variable hypergéométrique.

Construction d'une variable hypergéométrique
On considère une urne contenant M boules blanches et (N − M ) boules noires. On tire successivement n boules de l'urne sans remise. Soit X la variable aléatoire qui associe le nombre de boules blanches parmi les n tirées. Proportion de boules blanches : p = M . N On note X B(N, M, n) et on lit X suit la loi hypergéométrique de paramètres N, M et n.

X(Ω) = {0, 1, . . . , n}

50

CHAPITRE 5.

MODÈLES PROBABILISTES DISCRETS

Théorème 5.3.1 (Loi de X ).
n−x Cx .CN −M M P (X = x) = Cn N

Propriétés 16.
1. Moyenne : E(X) = np = n. M ; N 2. Variance : V ar(X) =
N −n .npq . N −1

Exercice 5.3. Etudier le mode de cette distribution.
5.4 LOI DE POISSON

P (λ), (λ > 0)
λi i!

Dénition 5.4.1.
Elle a pour loi :

C'est une variable aléatoire caractérisée par X(Ω) = N.

P (X = i) = eλ .

Propriétés 17.
1. Moyenne : E(X) = λ ; 2. Variance : V ar(X) = λ. Exercice 5.4.
1. Calculer les coecients d'assymétrie et d'aplatissement de la loi de Poisson ; 2. En utilisant la technique des quotients, déterminer les modes de la loi de Poisson.

Chapitre 6 MODÈLES PROBABILISTES CONTINUS
6.1 LOI UNIFORME SUR

[a, b]

Dénition 6.1.1. On appelle loi uniforme sur [a, b], a < b, la loi de densité
de probabilité f dénie par :

f (x) =

  

1 b−a

si x ∈ [a, b]

0 sinon

Propriétés 18.
1. E(X) =
b x .dx a b−a

=

a+b 2

;
(a−b)2 12

2. V ar(X) = E(X 2 ) − [E(X)]2 = 3. Fonction de répartition :

;

F (x) = 0
x

F (x) =
a

F (x) = 1

a; 1 x−a dt = b−a b−a si x b .
51

si

x

si

x ∈ [b, a] ;

52
6.2

CHAPITRE 6.

MODÈLES PROBABILISTES CONTINUS

LOI GAMMA( de paramètre

Dénition 6.2.1.

On appelle de paramètre a (a < 0), la loi de densité de probabilité f dénie par :  1 x a−1 si x > 0  Γ(a) .e .x fa (x) =  0 sinon

loi gamma

a)

Rappels 
Γ(a) = 0 xa−1 .e−x dx ;  Γ(a + 1) = a.Γ(a) ;  Γ(n + 1) = n! si n ∈ N.
+∞

Propriétés 19.
1. E(X) = Exercice 6.1.
1. Evaluer les moments d'ordre r de Γ ; 2. Déterminer les fonctions caractéristiques et génératrices de la loi Γ.
6.3 LOI BÊTA( de paramètres
+∞ 1 . 0 Γ(a)

xa .e−x dx =

Γ(a+1) Γ(a)

= a;

2. V ar(X) = E(X 2 ) − [E(X)]2 = a ;

a

et

b)

a et b (X dénie par :

Dénition 6.3.1.

Une variable aléatoire X suit la loi Bêta de paramètres β(a, b)) si elle admet pour densité de probabilité la fonction f

fa (x) =

  

1 .xa−1 .(1 β(a,b)

− x)b−1 ,

si x ∈ [0, 1]

0 sinon

Rappels
1

β(a, b) =
0

xa−1 .(1 − x)b−1 dx

Propriétés 20.
1. E(X) =
a a+b

;

6.4.

LOIS NORMALES

53
a.b (a+b)2 .(a+b+1)

2. V ar(X) = E(X 2 ) − [E(X)]2 = Exercice 6.2. Montrer que :

;

β(a, b) =

Γ(a).Γ(b) Γ(a + b)

6.4

LOIS NORMALES

6.4.1 Loi normale centrée-réduite
Rappel
On dit qu'une variable aléatoire est centrée si et seulement si E(X) = 0. Elle sera dite réduite si et seulement si V ar(X) = 1.

On appelle riable X de densité f dénie par :

Dénition 6.4.1.

variable aléatoire centrée-réduite, la vax∈R

x2 1 f (x) = √ .e− 2 , 2π

Notation
On note X N (0, 1) pour signier que X suit la loi normale centréeréduite aussi appelée loi de Laplace-Gauss.

réduite.

Représentation de la distribution de probabilité Propriétés 21. Soit Π, la fonction de répartition de la loi normale centrée1. Π(0) = 0, 5 ; 2. Π(−∞) = 0 et Π(+∞) = 1 ; 3. Π(−x) = 1 − Π(x) ; 4. P (|X| < u) = P (−u < X < u) = Π(u) − Π(−u) = 2.Π(u) − 1 ; 5. E(X) = 0 et V ar(X) = 1 ; 6. Fonction caractéristique :

ϕ(t) = e− 2

t2

54

CHAPITRE 6.

MODÈLES PROBABILISTES CONTINUS

6.4.2 Loi normale de paramètres (m, σ) (m ∈ R et σ > 0)
Elle est dénie par :

f (x) = √

2 1 (x−m) 1 .e[− 2 . σ ] , 2π.σ

x∈R

Propriétés 22.
1. Si U

N(0, 1), ∀a, b ∈ R , X = aU + b N (b, |a|)

2.

Y = σU + m

N (m, σ)

6.5

LOI DE KHI-DEUX

(X 2(n), n ∈ N)

Dénition 6.5.1.

Soient n variables aléatoires normales centrées-réduites 2 2 2 indépendantes deux à deux, la variable Z = X1 + X2 + . . . + Xn suit la loi de Khi-deux à n degrés de liberté (Z X 2 (n)). En utilisant la théorie générale des variables aléatoires à plusieurs dimensions, on trouve que la loi du Khi-deux est donnée par la fonction f dénie par :  n−1 x  n 1 n .x 2 .e− 2 si x > 0  2 2 .Γ( ) 2 fX 2 (n) (x) =   0 sinon

Formes de distributions de la loi du X 2 (n) Propriétés 23.
1. E(X 2 (n)) = n ; 2. V ar(X 2 (n)) = 2n. Remarque 6.5.1. n désigne en général le nombre d'observations indépendantes eectuées (degrés de liberté). Exercice 6.3. Retrouver les formules de la moyenne et de la variance d'une variable aléatoire X suivant la loi du Khi-deux à n degrés de liberté.

6.6.

LOI DE STUDENT

55

6.6

LOI DE STUDENT

Soient U une variable aléatoire suivant la loi normale centrée-réduite et X une variable aléatoire suivant la loi du Khi-deux à n degrés de liberté telles U que U et X soient indépendantes. Alors, la variable T = X 2 (n) suit la loi de

Student à n degrés de liberté (T
6.7

t(n)).

n

LOI DE FISHER-SNEDECOR (de paramètres

m

et

n)

Soient X et Y deux variables aléatoires suivant la loi du Khi-deux respectivement à n et à m degrés de liberté telles que X et Y soient indépendantes ; alors la variable

F =
suit la

loi de Fisher-Snedecor à n − m degrés de libertés (F

X n Y m

F(m, n)).

Exercice 6.4 (Travaux pratiques). Photocopier les tables de Gauss, de Student, de Fisher et apprendre à lire.

56

CHAPITRE 6.

MODÈLES PROBABILISTES CONTINUS

Chapitre 7 REGRESSION ET CORRELATION
7.1 INTRODUCTION

On considère un couple de variables aléatoires (X, Y ). On suppose que les valeurs x et y ont été mesurées sur un échantillon (des observations concrètes). On se propose de déterminer un modéle fonctionel permettant de prédire les valeurs de y sachant celles de x. On cherche alors une relation de la forme Y = φ(X) : on parle de liaison fonctionnelle. Le problème consiste à choisir φ de façon optimale suivant un certain nombre de critères. La méthode utilisée (que nous utiliserons) est la méthode des moindres carrés qui consiste à choisir φ de sorte que l'erreur quadratique soit minimale.

Exemple 7.1. On a relevé les données suivantes sur une population donnée par le couple de variables aléatoires (X, Y ) (pouvant être le poids et la taille par exemple).

Erreur quadratique E
e1 = |y1 − φ(x1 )| e2 = |y2 − φ(x2 )| ei = |yi − φ(xi )| en = |yn − φ(xn )|
57

: : : :

Ecart Ecart Ecart Ecart

58

CHAPITRE 7.

REGRESSION ET CORRELATION

on en déduit l'erreur quadratique suivante :
n

E=
i=1

(yi − φ(xi ))2 =

e2 + e2 + . . . + e2 2 1 n

7.2

PRINCIPE DES MOINDRES CARRÉ

On considère une série d'observations (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) pour laquelle on cherche la liaison fonctionnelle Y = φ(X). Le principe des moindres n 2 carrés consiste à choisir φ de sorte que l'erreur quadratique E = i=1 (yi − φ(xi )) soit minimale. L'analyse est faite en utilisant la théorie d'optimisation des fonctions de plusieurs variables.

Rappel
Soit S = S(x1 , x2 , . . . , xn ) une fonction susamment régulière sur un domaine D. S est minimale en un point critique qui est tel que :

dS =0, dxi
7.3

i = 1, 2, . . . , n

CORRELATION D'UN COUPLE D'OBSER ATIONS V

Soient (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ) n observations indépendantes d'un couple de variables aléatoires. Variables X Y Valeurs ... ... Moyennes 1 ¯ X = n . n xi i=1 1 ¯ Y = n . n yi i=1

x1 y1

x2 y2

xi yi

. . . xn . . . yn

Le coecient de correlation mesure le degré de correlation (liaison) qui existe entre les variables X et Y . Ce coecient est compris entre −1 et 1.  Si |r| est proche de 1, il y a forte correlation ;  Si |r| est proche de 0, il y a faible correlation.

7.4.

QUELQUES COURBES DE CORRELATION

59

Covariance empirique
1 = . n−1
n

δXY

¯ ¯ (xi − X)(yi − Y )
i=1

Variances empiriques
1 . = n−1
n

2 δX

¯ (xi − X)2
i=1

2 δY

1 = . n−1

n

¯ (yi − Y )2
i=1

N.B. : On en déduit les écart-types empiriques :
δX =
2 δX

et

δY =

2 δY

Coecient de correlation empirique
r= δXY δX .δY

7.4

QUELQUES COURBES DE CORRELATION

7.4.1 Droite de regression de Y en X
On a relevé (x1 , y1 ), (x2 , y2 ), . . . , (xn , yn ), n observations. On cherche une relation fonctionnelle de la forme : Y = aX + b = φ(X) de sorte que l'erreur quadratique E 2 = n (yi − a.xi − b)2 soit minimale. i=1

60

CHAPITRE 7.

REGRESSION ET CORRELATION

Détermination des coecients a et b
Les coecients a et b sont déterminés grâce aux critères d'optimisation dénis plus haut.

dE 2 = 0 ⇔ −2. da dE 2 = 0 ⇔ −2. db 1 (1) ⇒ a. . n 1 (2) ⇒ a. . n
et on a le système :

n

xi (yi − a.xi − b) = 0
i=1 n

(1) (2)
n

(yi − a.xi − b) = 0
i=1 n

x2 i
i=1 n

1 + b. . n

n

i=1

1 xi = . n
n

xi .yi
i=1

i=1

1 1 xi + n. .b = . n n

yi
i=1

  a.E(X 2 ) + b.E(X) = E(X, Y )  a.E(X) + b = E(Y )

⇒ a(E(X 2 ) − (E(X))2 ) = E(X, Y ) − E(X).E(Y )
V ar(X) Cov(X,Y )

⇒ a=
et on en déduit b = E(Y ) − a.E(X)

Cov(X, Y ) V ar(X)

Remarque 7.4.1.

a =

Cov(X, Y ) V ar(X) Cov(X, Y ) σY = . V ar(X) σy σY = .r σX a= σY .r σX

Donc

d'où la relation fonctionnelle : σY σY Y = .r.X + E(Y ) − .r.E(X) σX σX

7.4.

QUELQUES COURBES DE CORRELATION

61

7.4.2 Droite de regression de X en Y
Soit à déterminer la relation fonctionnelle X = α.Y + β . On peut rechercher les coecients α et β comme précédemment. Mais une méthode plus rapide est la suivante :

X = α.Y + β ⇒ ⇒ X = α.Y + β ⇒ ⇒ En soustrayant (1) à (2), on en déduit : α= Cov(X, Y ) V ar(Y )

¯ ¯ X = α.Y + β ¯ ¯ ¯ ¯ X.Y = α.Y 2 + β Y X.Y = α.Y + β.Y E(X.Y ) = α.E(Y 2 ) + β.E(Y )
2

(1) (2)

¯ ¯ et β = X − α.Y

et on obtient comme précédemment la relation suivante :

α=

σX .r σY

7.4.3 Autres types de regression
Approximation pôlygonale
On suppose qu'on a fait n observations sur un couple de variables aléatoires (X, Y ). Des analyses à priori ont préssenti une relation fonctionnelle de la forme : Y = a.X 2 + b.X + c Il est donc question de déterminer les coecients a, b, c à l'aide de la méthode des moindres carrés ( ou en suivant la méthode précédente).

Approximation par un pôlynome de degré n
On utilise les mêmes formalismes que précédemment.

Relation de la forme Y

= α.X β (x > 0, α > 0)

Pour ce cas, on transforme la relation non linéaire en une relation linéaire et on applique les techniques des droites de regression. La transformation se fait de la manière suivante :

Y = α.X β ⇒ ln(Y ) = ln(α) + β ln(X)

62

CHAPITRE 7.

REGRESSION ET CORRELATION

Posons Y = ln(Y ), a = ln(α), b = β et X = ln(X). On obtient la relation :

Y = a + b.X
En appliquant la technique de la droite de regression, on détermine a et b et on en déduit α et β .

Relation de la forme Y

= α.β X (X > 0, Y > 0, α > 0)

On utilise les mêmes transformations et le même formalisme que précédemment.

Chapitre 8 CONVERGENCE EN PROBABILITÉ
8.1 ETUDE DE LA LOI BINOMIALE

8.1.1 Introduction
Soit E une épreuve dont les éventualités constituent l'ensemble fondamental Ω. Soit A un évènement dont la probabilité de réalisation est p. Soit (En ), l'épreuve consistant en la réalisation successive de l'épreuve E n fois de façon indépendante. L'ensemble fondamental dans ce cas est E = Ωn . Associons les n variables aléatoires qui ont conduit à la réalisation de (En ). Posons : 1 Zn = B(n, p). n qui représente la moyenne de réalisation de l'évènement A au cour de n épreuves. On a : E(Zn ) = p pq V ar(Zn ) = n

8.1.2 Inégalité de Bienaymé TCHEBITCHEFF
Soit g une fonction dénie sur l'ensemble X à valeurs dans R+ , soit X une variable aléatoire sur X telle que E[(g(X))k ], k ∈ N existe.

Lemme 8.1.1.
∀t > 0 , P (g(X) > t)
63

E[(g(X))k ] tk

64

CHAPITRE 8.

CONVERGENCE EN PROBABILITÉ

¯ Pour g(x) = |x − X| et k = 2, on a : ¯ P (|X − X| > t) ¯ E[|X − X|2 ] V ar(X) = 2 t t2

Démonstration. Soit f , la densité de probabilité de X , soit k ∈ N.

E[(g(X))k ] =
X

(g(x))k .f (x)dx

posons donc : X1 = {x ∈ X /g(x) t} X2 = {x ∈ X /g(x) > t}

E[(g(X))k ] =
X1

(g(x))k .f (x)dx +
X2

(g(x))k .f (x)dx

tk .
X2

f (x)dx = tk .P (g(X) > t)

d'où

P (g(X) > t)

E[(g(X))k ] tk

Corollaire 8.1.2.
P (g(X) t) 1− E[(g(X))k ] tk
Inégalité de Bienaymé TCHEBITCHEFF

Corollaire 8.1.3.

¯ Posons g(x) = |x − X| ¯ P (|x − X| t) 1− ¯ E[|x − X|k ] tk

Corollaire 8.1.4.

Si V ar(X) = σ 2 et E(X) = m, alors

P (m − 2σ < X

m + 2σ)

3 4

Corollaire 8.1.5.

Soit a ∈ R ;

P (|X − a| > t)

E[(X − a)2 ] σ 2 + (m − a)2 = t2 t2

8.2.

CONVERGENCE PRESQUE SÛRE

65

Application
Le théorème ci-dessus et ses corrolaires permettent d'estimer à priori les probabilités des phénomènes dont on dispose seulement d'informations sur la moyenne et l'écart-type. Supposons que X N (m, σ) ; on a :

P (|X − E(X)| > 2σ)

0, 0456

4, 6%

8.1.3 Dénition de la convergence en probabilité
Dénition 8.1.1. Soit (Zn )n∈N , une suite de variables aléatoires dénies sur le même ensemble Ω. On dit que la suite (Zn )n∈N vers le réel p si et seulement si :
∀ε > 0, lim P (|Zn − p| > ε) = O
n→+∞

converge en probabilité

Condition susante de convergence en probabilité
Soit (Xn )n∈N , une suite de variables aléatoires telle que E(Xn ) = a + Un où Un tend vers 0 lorsque n tend vers +∞ et V ar(Xn ) = Vn où Vn tend vers 0 lorsque n tend vers +∞. Alors, Xn converge vers a. En eet :

P (|Xn −a| > ε)

E[(Xn − a)2 ] U2 + U2 = n 2 a ε2 ε

tend vers 0 pour n tendant vers +∞

8.2

CONVERGENCE PRESQUE SÛRE

Dénition 8.2.1.
(Xn )n∈N ment si :

converge presque sûrement

Soit (Xn )n∈N , une suite de variables aléatoires. vers une variable a si et seule-

∀ε > 0 , ∀η > 0 , ∀n ∈ N ,

∃N1 ∈ N/ n N1 ⇒ P (|Xn − a| > ε, |Xn+1 − a| > ε, |Xn+p − a| > ε) < η

Remarque 8.2.1. La convergence en probabilité implique la convergence presque sûre, mais la réciproque n'est pas vraie.

66
8.3

CHAPITRE 8.

CONVERGENCE EN PROBABILITÉ

CONVERGENCE EN LOI

Dénition 8.3.1. Soit (Xn )n∈N , une suite de variables aléatoires de fonction de répartition Fn . Soit X une variable aléatoire réelle de fonction de répartition F . On dit que (Xn )n∈N vers une variable X si et seulement si Fn converge simplement vers F .

converge en loi

Remarque 8.3.1. La convergence en probabilité implique la convergence en loi, mais la réciproque n'est pas vraie.
8.4 THÉORÈME CENTRAL-LIMITE

Soit (Xn )n∈N , une suite de variables aléatoires indépendantes deux à deux, communes de même moyenne m et d'écart-type σ > 0, alors :
Sn n

−m
σ √ n

1 1 .Sn = . n n

n

¯ Xi = Xn
i=1

converge en loi vers la loi normale centrée-réduite quelque soit la suite de variables (Xn )n∈N .

Deuxième partie STATISTIQUES

67

Chapitre 9 ESTIMATIONS
9.1 MÉTHODES DE SONDAGE

9.1.1 Introduction
La collecte d'informations relatives à une population peut être faite de façon exhaustive (on a l'information sur chaque individu), on parle alors de recensement ou sur une partie seulement de la population, on parle de sondage et la partie de la population considérée est appelée échantillon. Lorsque la taille de la population est très grande, le recensement devient très couteux en temps comme en moyens matériels et nanciers. C'est le cas du recensement général de la population.

ments pris en compte par un problème statistique donné. Chaque élément de la population est appelé . Les informations sur une population sont généralement obtenues par sondage. Ceci se fait par des enquêtes sur une fraction seulement de la population. n Le rapport N où n est la taille de l'échantillon et N la taille de la population est appelé .

Dénition 9.1.1. Le terme population désigne un groupe d'objets ou d'élé-

individu

taux de sondage

Les enquêtes par sondage possèdent les avantages suivants :  faible coût ;  rapidité ;  souplesse. L'un des désavantages de l'échantillonage est la diculté à obtenir des échantillons signicatifs réalisés avec une précision susante. 69

70

CHAPITRE 9.

ESTIMATIONS

9.1.2 Types de sondages
On distingue deux grandes catégories de sondages :  Les sondages par choix raisonnés ;  Les sondages purement aléatoires. Les sondages par choix raisonnés sont fait en tenant compte des informations à priori obtenues sur la population. Pour les sondages aléatoires (tirage aléatoire), on suppose que les individus sont tirés au hazard (sans aucun à priori) et chaque individu a une probabilité non nulle d'être tiré. Les valeurs observées sur les échantillons sont des variables aléatoires. A partir de ces observations, il est possible d'estimer des grandeurs relatives à toute la population et d'évaluer des erreurs éventuellement commises : on parle en statistique d'induction statistique.

9.1.3 Méthode de sondage aléatoire
Dénition 9.1.2. La méthode de sondage aléatoire est caractérisée par le fait
que chaque individu de la population a une probabilité non nulle d'être tiré. En général, la même probabilité est aectée à chaque individu et le principe devient celui du tirage des boules dans une urne ; les tirages pouvant être :  avec remise : ;  sans remise : .

tirage bernoullien tirage exhaustif

Pour résoudre des problèmes statistiques, on part d'observations indépendantes d'une variable aléatoire réelle, on eectue n expériences aléatoires et la suite (x1 , x2 , . . . , xn ) des valeurs observées, de variable aléatoire X , s'appelle échantillon de la variable X . Du point de vu de la théorie des probabilités, cette suite est une suite de variables aléatoires indépendantes de même fonction de répartition (en général inconnu) : on parle alors de problème statistique. La loi de l'échantillon est basée sur la loi des grands nombres et le théorème central-limite.

9.2

ESTIMATEUR DE PARAMÈTRES INCONNUS

Dénition 9.2.1.

Un estimateur θ d'un paramètre d'une loi inconnue est une fonction dénie dans l'espace des échantillons.
n i=1

1 ¯ Exemple 9.1. Xn = n .

Xi est un estimateur de la moyenne.

9.2.

ESTIMATEUR DE PARAMÈTRES INCONNUS

71

Qualité d'un estimateur
ˆ ˆ L'estimateur θ = θ(x1 , x2 , . . . , xn ) est une variable aléatoire dont on ˆ peut dénir la moyenne et la variance. Si θ est un estimateur du paramètre ˆ sera dit sans biais si et seulement si : θ, l'estimateur θ ˆ E(θ) = θ , ∀ θ ∈ Θ
où Θ est l'ensemble des paramètres. Dans la classe des estimateurs sans biais, il est intuitif d'admettre que le meilleur estimateur est celui qui minimize la variance V (θ) dénie par :

ˆ V (θ) = E (θ − θ)2
Soit P (x, θ), la densité de probabilité en fonction du paramètre inconnu θ. Supposons P (x, θ) dérivable par rapport à θ et

d . dθ
Posons
Γ

P (x, θ) dx =
Γ Γ

d P (x, θ) . dx dθ

d ln P (x, θ) . dθ

2

dx

θ ∈ Θ,

I(θ) s'appelle quantité d'information sur θ contenue dans l'échantillon. Sous certaines conditions de régularité, on a : ˆ ˆ σ 2 (θ) = E (θ − θ)2 1 (Inégalité de Cramer-Rao) n.σ(θ)

où n est la taille de l'échantillon. Un bon estimateur est caractérisé par son absence de biais et sa faible ˆ dispersion. Le réel E(θ) − θ est appelé biais de l'estimateur. La variabilité de l'estimateur est mesurée par sa variance

ˆ V (θ) = E (θ − θ)2
Sur deux estimateurs, le plus écace est celui avec la plus petite variance.

Principaux estimateurs
Soit P une population de N individus qu'on note US , repéré par leurs numéros S (1 S N ). Les individus de l'échantillon sont repérés par l'indice i.

72

CHAPITRE 9.

ESTIMATIONS

Soit X une variable aléatoire dans la population ; on désigne par XS , la valeur de X prise par l'individu US . On note

1 ¯ Xn = n
De même :

n

Xi , un estimateur de la moyenne sur l'échantillon.
i=1 n

2 Sn

1 = n

¯ Xi − Xn
i=1 n

2

est un estimateur de la variance sur l'échantillon.

S

2 n

=

1 n−1

¯ Xi − Xn
i=1

2

est un autre estimateur de la variance sur l'échantillon. ¯ La moyenne inconnue m de la population peut être estimée par Xn . On ¯ n est un estimateur sans biais (E(Xn ) = m. ¯ note que X On a : σ2 ¯ V ar(Xn ) = n où σ 2 est la variance de la population inconnue (cas indépendant) et

N − n σ2 ¯ . V ar(Xn ) = N −1 n où σ 2 est la variance de la population inconnue (cas exhaustif) .

Estimateur de la variance
2 Sn =

Nous avons deux estimateurs :

1 n

n

¯ Xi − Xn
i=1 n

2

ˆ2 Sn =

1 n−1

¯ Xi − Xn
i=1

2

de la variance inconnue de la population. Soit m, la moyenne inconnue de la ¯ population ; nous savons que Xn est un estimateur sans biais et susamment écace de la moyenne pour n susamment grand. On a la relation suivante :
2 Sn =

1 n 1 n

n

¯ (Xi − m)2 − Xn − m
i=1 n

2

2 E(Sn ) =

¯ E (Xi − m)2 − E Xn − m
i=1 2

2

=

σ2 n−1 2 nσ − = σ n n n

9.3.

ESTIMATION PONCTUELLE

73

Donc
2 E(Sn ) =

Le biais de cet estimateur est :
2 B(Sn ) =

n−1 2 σ n

n−1 2 σ2 σ − σ2 = n n

Estimateur sans biais de la variance σ2
ˆ2 Sn = n 1 2 Sn = n−1 n−1
n

¯ Xi − Xn
i=1

2

ˆ2 est un estimateur sans biais de la variance σ 2 car E(Sn ) = σ 2 . Ces calculs peuvent être fait dans le cas d'un échantillon exhaustif.
9.3 ESTIMATION PONCTUELLE

9.3.1 Estimateur ponctuel de la moyenne
Soit P une population donnée étudiée sous un critère x ; x1 , x2 , ... , xn un échantillon indépendant, f (x, θ) la densité de probabilité de X , θ étant le paramètre moyenne inconnu. Un estimateur sans biais et écace de θ (la moyenne inconnue) est

1 ¯ Xn = n

n

Xi
i=1

Démonstration. Par dénition de l'échantillon, chaque Xi suit la loi de X .

E(X) = θ V ar(Xi ) = σ 2 ¯ E(Xn ) = 1 n
n

E(Xi ) =
i=1

nθ =θ n

¯ Donc Xn est un estimateur sans biais de la moyenne θ. ¯ Propriétés 24. Xn est un estimateur consistant et écace de la moyenne. En eet : ¯ V ar(Xn ) = σ2 −→ 0 n
pour pour

n −→ ∞ écacité ε −→ 0 consistence

de la moyenne. En eet : ¯ P Xn − θ ε −→ 1

74

CHAPITRE 9.

ESTIMATIONS

Méthode de maximum de vraisemblance (méthode générale pour tout autre paramètre d'une loi Dénition 9.3.1. Soit X une variable aléatoire dont la distribution f (x, θ) dépend d'un paramètre θ. On considère un échantillon de n observations indépendantes x1 , x2 , . . . , xn . La fonction
n

L=
i=1

f (xi , θ) = L(x1 , . . . , xn , θ)

est appelée

fonction de vraisemblance.

Pour chaque valeur θ, cette fonction peut être diérente. Le principe du maximum de vraisemblance consiste à choisir comme estimateur de θ, la ˆ valeur particulière θ de θ qui rend maximum la fonction L(x1 , . . . , xn , θ). Comme on l'a précisé plus tôt, L est la quantité d'information contenue dans l'échantillon. ˆ L'estimation θ du paramètre θ inconnu sera la valeur de θ qui donne à l'échantillon obtenu la plus grande probabilité (vraisemblance) à priori d'être obtenue. La détermination d'un estimateur ponctuel par la méthode du maximum de vraisemblance utilise les propriétés diérentielles de la fonction L de vraisemblance. On suppose que L est susamment régulière par rapport à θ et ˆ que θ est un point singulier de L qui vérie donc la relation :

d L(x1 , . . . , xn , θ) = 0 dθ ˆ En résolvant cette équation, on trouve les estimateurs θ. Quelques fois, la forme de la fonction f (x, θ) est compliquée et on utilise plutôt G = ln L(x1 , . . . , xn , θ) en notant que G et L ont les mêmes points réguliers. On résout alors l'équation : dG ˆ = 0 pour déterminer θ dθ
Exemple 9.2. On considère une variable aléatoire X normale de variance σ 2 connue. On se propose d'estimer la moyenne m en utilisant la méthode du maximum de vraisemblance.

9.3.

ESTIMATION PONCTUELLE

75

Pour un échantillon (x1 , x2 , . . . , xn ), on a :

f (x, θ) = L(x1 , . . . , xn , θ) =


n

1 (xi − θ)2 .exp − 2σ 2 2πσ f (xi , θ)

i=1 n

ln L(x1 , . . . , xn , θ) =
i=1 n

ln f (xi , θ) ln √
i=1 n

=
n

1 (x − θ)2 − 2σ 2 2πσ

G = (ln L) =
i=1

−2(x − θ) =0 ⇔ 2σ 2

(xi − θ) = 0
i=1 n

ˆ ⇔ n.θ =
i=1

xi

ˆ 1 Soit θ = n

n

xi
i=1

Remarque 9.3.1. Un estimateur du maximum de vraisemblance possède une propriété de vraisemblance. Si G est un estimateur du maximum de vraisemblance pour le paramètre θ et si h(θ) est une fonction possédant un inverse, ˆ alors h(θ) est un estimateur du maximum de vraisemblance pour le paramètre h(θ). Exercice 9.1. En utilisant la méthode du maximum de vraisemblance, déterminer un estimateur ponctuel de la variance d'une population Gaussienne (c'est-à-dire que la population suit la loi normale). Remarque 9.3.2. La méthode des moments est une alternative à la méthode du maximum de vraisemblance. Elle consiste essentiellement à égaler les moments d'échantillonnage aux moments de la distribution inconnues et à résoudre le système d'équation ainsi obtenu pour avoir les paramètres recherchés. Les estimations des diérents paramètres sont obtenues comme solutions du système d'équation en nombre susant, exprimant l'égalité des moments de l'échantillonnage.

9.3.2 Estimation ponctuelle de la variance
Soit P une population étudiée suivant un caractère X ; x1 , x2 , . . . , xn un n-échantillon indépendant de cette population.

76

CHAPITRE 9.

ESTIMATIONS

Proposition 9.3.1.
2

On suppose que X a pour moment m et pour variance σ inconnue ; les estimateurs
2 Sn =

1 n

n

¯ (xi − Xn )2
i=1 n

ˆ2 Sn =

1 n−1

¯ (xi − Xn )2
i=1

ˆ2 sont deux estimateurs de la variance ; Sn étant un estimateur sans biais.

9.3.3 Estimation par intervalle
L'estimation ponctuelle est souvent mal adaptée au problème de l'estimation d'un paramètre par suite du fait qu'elle peut diérer notablement de la vraie valeur. Un autre type de l'estimation consistera à former un intervalle aléatoire entourant l'estimation ponctuelle. Ces intervalles, fonctions des observations, sont aléatoires et possèdent les propriétés de toute expérience aléatoire. On peut donc donner la probabilité pour que la vraie valeur appartienne à un intervalle. Ainsi, si θ est le paramètre à estimer, un intervalle de conance [a, b] est tel qu'il y ait une probabilité à priori donnée (1 − α) pour pour que a θ b. a et b sont les limites de conance de θ à 100(1 − α)% et l'intervalle lui-même est appelé intervalle de conance à 100(1 − α)%. On dit aussi quelques fois intervalle aux risques de (1 − α)%.

9.3.4 Quelques cas
Intervalle de conance de la moyenne d'une distribution normale dont on connaît l'écart-type
Soit X une variable aléatoire normale de moyenne inconnue µ et de variance σ 2 . ¯ On note Xn la moyenne d'un échantillon de taille n tiré de cette loi. Alors :

¯ Xn − µ √ n

N (0, 1)

Soit t α le fractile d'ordre 100 α % de la loi normale. 2 2 Alors, ¯ Xn − µ P −t α tα = 1 − α σ 2 2
√ n

9.3.

ESTIMATION PONCTUELLE

77

nous donne un intervalle de conance à 100(1 − α)%

−t α 2

¯ Xn − µ
σ √ n

tα 2

σ ¯ −t α √ + Xn 2 n

µ

σ ¯ t α √ + Xn 2 n

On trouve l'intervalle de conance de µ suivant :

σ ¯ σ ¯ Xn − t α √ , Xn + t α √ 2 2 n n
à 100 α %. 2 σ La longueur de cet intervalle est 2t α √n , qui tend vers 0 lorsque n tend 2 vers +∞.

Remarque 9.3.3. Il existe une relation entre la théorie de l'intervalle de conance et la théorie de tests. Si nous voulons tester l'hypothèse µ = µ0 contre l'alternative µ = µ0 , la procédure que l'on verra au paragraphe suivant reviendra à admettre l'hypothèse µ = µ0 si µ appartient à l'intervalle de conance de µ et à rejetter dans le cas contraire.

Intervalle de conance de la moyenne d'une distribution normale dont l'écart-type est inconnu
Soit X une variable aléatoire suivant la loi normale de moyenne µ et d'écart-type σ inconnu. Un échantillon de taille n nous donne des estimateurs ponctuels de la ¯ moyenne Xn et de l'écart-type

1 ˆ2 Sn = n

n

¯ (Xi − Xn )2
i=1

Proposition 9.3.2. Soit X une variable aléatoire suivant la loi normale de paramètres m et σ , σ étant inconnu, (x1 , x2 , . . . , xn ) un n-échantillon indépendant ; Alors : ¯ Xn − m t(n − 1) ˆ
S √n n

Intervalle de conance pour la moyenne d'une population gaussienne, σ inconnu
P −t α 2 ¯ Xn − µ
σ √ n

tα 2

=1−α

78

CHAPITRE 9.

ESTIMATIONS

nous donne cet intervalle de conance. t α est déni par la loi de Student à 2 (n − 1) degrés de liberté. De même, on aura :

ˆ S2 ¯ √n + Xn −t n
α 2

m

ˆ S2 ¯ √n + Xn t n
α 2

Intervalle de conance de l'écart-type d'une distribution normale
Soit X une variable aléatoire normale de moyenne inconnue µ et d'écarttype σ .

Proposition 9.3.3.

La variable :

Z = n.

ˆ2 Sn σ2

X 2 (n − 1)

P

a ≤ n.

ˆ2 Sn ≤b σ2

=1−α

Puisque X 2 n'est pas symétrique, on va prendre :

P X 2 (n − 1) < a =
et lire a et b sur la table.

α 2

et

P X 2 (n − 1) ≥ b =

α 2

a ≤ n.

ˆ2 Sn ≤b σ2

n.

ˆ2 ˆ Sn S2 ≤ σ 2 ≤ n. n b a

est un intervalle de conance à 100(1 − α)% de la variance. d'où

n ˆ .S n ≤ σ ≤ b

n ˆ .Sn a

est un intervalle de conance à 100(1 − α)% de l'écart-type.

Intervalle de conance de la diérence des moyennes de deux lois normales
Soient deux variables aléatoires X N (µX , σX ) et Y eectue nX observations de X et nY observations de Y .

N (µY , σY ) ; on

9.3.

ESTIMATION PONCTUELLE

79 

Cas où σX et σY sont connus
On sait dans ce cas que :

¯ ¯ XnX − YnY − (µX − µY )
2 σX nX

+

2 σY nY

N (0, 1)

Par des procédés identiques aux précédents, on détermine alors un intervalle de conance pour (µX − µY ) qui aura pour bornes :

¯ XnX − YnY ± t α . 2 

2 σX σ2 + Y nX nY

Cas où σX et σY sont inconnus, mais σX = σY
On démontre alors que :

¯ ¯ XnX − YnY − (µX − µY )
1 nX

+

1 nY

.

2 2 nX .SX +nY .SY nX +nY −2

t(nX + nY − 2)

et on a donc l'intervalle de conance ayant pour bornes :

¯ ¯ XnX − YnY ± t α . 2
à 100(1 − α)%.

1 1 + . nX nY

2 2 nX .SX + nY .SY nX + nY − 2

Intervalle de conance du rapport d'écart-types de deux lois normales
Soient :

X Y
et
2 2 SX = SnX =

N (µX , σX ) N (µY , σY ) 1 . nX
n

¯ (xi − Xnx )2
i=1 n

2 SY

=

2 SnY

1 = . nY

¯ (yi − Yny )2
i=1

80

CHAPITRE 9.

ESTIMATIONS

Proposition 9.3.4.
F =
2 SX 2 σX 2 SY 2 σY

F(nX − 1, nY − 1)
σX σY

On peut déterminer un intervalle de conance du rapport demment. P (a ≤ F ≤) = 1 − α donc,
2 SX 2 σX 2 SY 2 σY

comme précé-

a≤

≤ b ⇒ a.

2 σ2 S2 SY ≤ Y ≤ b. Y 2 2 2 SX σX SX

et on détermine les bornes à l'aide de la table de Fisher-Snedecor :

F = F(nX − 1, nY − 1)
Remarque 9.3.4.
1. Nous avons considéré dans tout ce qui précède, des intervalles bilatéraux. On pourrait aussi chercher des intervalles de la forme [a, +∞[, ] − ∞, b] ou [a, b] non symétriques en appliquant la même logique. 2. Dans tout ce qui précède, nous n'avons considéré que des populations gaussiennes, mais ces résultats restent valablent pour des échantillons de taille susamment grande, quelque soit la loi considérée. Mais, pour des échantillons de petite taille et des lois quelconques, c'est du cas particulier qu'il faut faire.

Chapitre 10 TESTS STATISTIQUES
10.1 INTRODUCTION

La statistique a en général pour objet le problème de la décision dans le cas de l'incertain. La décision devra en général être prise sur la vue des résultats d'un échantillonage ; L'incertitude se traduisant par le fait qu'un échantillonage répété donnerait des résultats diérents. Il est aussi important de noter que l'objet de la statistique est la résolution des problémes où l'incertain est un élément essentiel. La statistique est en général utilisée dans la théorie de contrôle de qualité, de gestion, de sondage de points de vue aussi bien dans le domaine économique, politique, que tout autre. Les décisions sont prises à l'aide des tests statistiques. En général, on dispose de deux hypothèses :  L' hypothèse nulle H0 ;  L' hypothèse alternative H1 .
10.2 TEST CLASSIQUE

10.2.1 Test relatif à une fréquence
Soit une population composée d'individus dont certains possèdent le caractère A. Soit un échantillon de taille n prélévé dans cette population, on a observé une fréquence f d'individus possédant ce caractère. La proportion P d'individus ayant le caractère A dans la population est inconnue et la proportion f mesurée sur l'échantillon peut diérer grandement de la vraie valeur P en raison des uctuations d'échantillonage. Sur la base de la valeur f observée sur l'échantillon, on se propose de tester si la vraie proportion f peut être considérée ou non comme égale à une valeur P0 xée à priori. 81

82

CHAPITRE 10.

TESTS STATISTIQUES

On dénit ainsi trois types de tests : -

Type 1 : Type 2 : Type 3 :

Hypothèse Hypothèse Hypothèse Hypothèse Hypothèse Hypothèse

H0 H1 H0 H1 H0 H1

: : : : : :

P P P P P P

= P0 ; > P0 ; = P0 ; < P0 ; = P0 ; = P0 .

La fréquence f , selon le mode de tirage de l'échantillon, suit une loi binomiale ou hypergéométrique ayant pour paramètre P = P0 en supposant que l'hypothèse H0 est exacte. Sous certaines conditions, (n très grand ou le taux de sondage petit) la loi de la fréquence f normalisée suit la loi normale centrée-réduite.

T =

f − P0
P0 (1−P0 ) n

N (0, 1)

Etant donné le seuil de signication α, on est en mesure de déterminer la région critique correspondant à chacun de ces trois cas.

Type 1 : La région critique est de la forme R : {f > l}
P (f > l/P =P0 ) = α et P (T > tα ) = α
On trouve :

l = P0 + tα .

P0 (1 − P0 ) n

Décision : 

Si la fréquence observée est supérieure à l, on rejette l'hypothèse H0 , c'est-à-dire l'hypothèse H1 est retenue.  Si la fréquence observée est inférieure à l, on retient l'hypothèse H0 .

Type 2 : La région critique est de la forme R : {f < l}
Analogue au Type 1 en inversant les décisions.

10.2.

TEST CLASSIQUE

83

Type 3 : La région d'acceptation est de la forme R : {l1 < f < l2 }
On a :

P (l1 < f < l2 ) = 1 − α

Décision : On a
l1 = P0 − tα . P0 (1 − P0 ) n
et l2 = P0 + tα .

P0 (1 − P0 ) n

Si la valeur observée appartient à R, on prend la décision H0 , sinon on prend la décision H1 .

Exemple 10.1. On se propose de contrôler par sondage l'exactitude de l'inventaire d'un stock commercial comprenant une dizaine de milliers d'articles. Un échantillon de 500 articles a été tiré dans ce but et on admet qu'une proportion d'erreur dans l'inventaire inférieure ou égale à 3% est acceptable à un seuil de 5% . Solution : Puisque n est très grand (n = 500) et P0 = 0, 03, posons comme hypothèses :  Hypothèse nulle : H0 : P = P0 ;  Hypothèse alternative : H1 : P > P0 ; Région critique : R = {f > l}

l = P0 + tα .

P0 (1 − P0 ) n P (T > tα ) = α = 0, 05 ⇒ α = 1, 65 ⇒ l = 0, 043

On rejettera donc l'hyporthèse H0 et on supposera que la proportion d'erreur commise dans l'inventaire est supérieure ou égale à 4, 3% si le pourcentage d'erreur rélevé sur l'échantillon est supérieur ou égal à 3%.

10.2.2 Test sur la moyenne
¯ Sur un échantillon de taille N , on a observé la valeur moyenne Xn relative à la variable statistique X . La véritable valeur m de la moyenne pour ¯ l'ensemble de la population est inconnue et Xn peut en diérer en raison des ¯ uctuations aléatoires. Sur la base de la valeur Xn observée, on se propose de tester si la moyenne m peut être considérée ou non comme égale à la valeur m0 xée à priori. En fonction du problème posé on peut choisir l'un des trois tests suivants :

84 -

CHAPITRE 10.

TESTS STATISTIQUES

Type 1 : Type 2 : Type 3 :

Hypothèse Hypothèse Hypothèse Hypothèse Hypothèse Hypothèse

H0 H1 H0 H1 H0 H1

: : : : : :

m = m0 ; m > m0 ; m = m0 ; m < m0 ; m = m0 ; m = m0 .

Si la population d'origine est normalement distribuée (population gaussienne) ¯ ou si l'échantillon est susamment grand, Xn suit approximativement la loi σ de Laplace-Gauss de paramètres (m, √n ) où m est la moyenne inconnue et σ l'écart-type de la variable X dans l'ensemble de la population. On peut noter que sous l'hypothèse H0 , on ne peut entièrement déterminer la loi de ¯ Xn parce que σ est en général inconnu. Deux cas se présentent alors :  L'écart-type σ est connu Dépendant donc du type de test considéré, on détermine la région critique R en notant que :

m0 ¯ T = Xn − σ
√ n

N (0, 1)

Ceci nous permet de déterminer les bornes de la région critique.  L'écart-type σ est inconnu (cas le plus fréquent) On ignore en même temps la moyenne et l'écart-type. Mais nous savons qu'un estimateur sans biais et écace de la variance est donné par :
2 Sn =

1 . n−1

n

¯ (xi − Xn )2
i=1

Si l'éectif de l'échantillon est grand (n ≥ 30), on admet que :

¯ T = Xn −

m0
§n √ n

N (0, 1)

Ceci nous permet de déterminer la région critique. Par contre, si n est petit (n < 30) la variable T ne suit plus la loi normale centrée-réduite mais plutôt la loi de Student-Fisher à (n − 1) degrés de liberté. La région d'acceptation est donc déterminée en utilisant la loi de Student-Fisher.

Exercice 10.1. Une machine fabrique des pièces mécaniques en série. Elle a été réglée pour que le diamètre de celle-ci soit égale à 12, 60mm. Il est tout à fait normal qu'une certaine variabilité est admise. Sur un échantillon de 100 ¯ pièces, on a observé pour ce diamètre une valeur moyenne Xn = 12, 65mm et une variance δ 2 = 0, 1584mm.

10.3.

TEST DE KOLGOMOROV

85

Le réglage de la machine peut-il être considéré comme exacte au seuil de 5% ? ¯ Exercice 10.2. On suppose que dans l'exemple précédant, la moyenne Xn = 2 12, 65mm et la variance δ = 0, 1584mm ont été observées sur un échantillon de 10 pièces seulement. Quelle est la décision au seuil de 5% pour ce cas ?

Remarque 10.2.1. En utilisant les propriétés des lois que nous avons vu dans la première partie de ce cours, on peut traiter le cas des tests de comparaison de fréquence, de moyenne et des tests relatifs au quotient des fréquences.
10.3 TEST DE KOLGOMOROV

Il s'agit d'un test de conformité. A partir des observations faites, on voudrait tester si la loi de la population inconnue suit la loi théorique donnée. Le cas le plus fréquent est la loi normale. A partir des observations faites sur l'échantillon, peut-on admettre que la loi de la population est normale ? En général, la loi du Khi-deux est utilisée.

You're Reading a Free Preview

Télécharger
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->