Vous êtes sur la page 1sur 100

UNIVERSITE HASSAN II

FACULTE DES SCIENCES AIN CHOK

MASTERS EMGBR & GVG1 & IISPHE

POLYCOPIE
PROBABILITE STATISTQUES ET
ANALYSE DES DONNEES

Pr. Berrada Faouzi


faouzi.berrada@gmail.com

Edition : Mars 2021

1
SOMMAIRE

PARTIE COURS ET EXEMPLES D’APPLICATIONS........................................................ 9

INTRODUCTION GENERALE .............................................................................................. 10

AVANT PROPOS CRITIQUE DES DONNÉES ET CLASSIFICATION DES ERREURS .. 12

1. Erreurs systématiques ....................................................................................... 12


2. Erreurs accidentelles ......................................................................................... 12

CHAPITRE 1 NOTIONS FONDAMENTALES EN STATISTIQUE DESCRIPTIVE ...................... 13

1. STATIQUE INFERENTIELLE OU INDUCTIVE..................................................... 13


2. VOCABULAIRE DE BASE .................................................................................... 13

CHAPITRE 2 PRESENTATIONS GRAPHIQUES DES DISTRIBUTIONS DES FREQUENCES .. 16

I. DONNEES QUALITATIVES OU QUANTITATIVES DISCRETES ........................... 16


I.1. Cas de données qualitatives ................................................................................. 16
1. Dépouillement et distribution des fréquences .................................................... 16
2. Diagramme en barres (ou en bâtons) ................................................................ 16
3. Diagramme en secteur (camembert) ................................................................. 17
I.2. Cas de données quantitatives discrètes ............................................................... 17
1. Dépouillement et distribution des fréquences .................................................... 17
2. Diagramme en barres (ou en bâtons) ................................................................ 17
3. Courbes cumulées croissantes et décroissantes .............................................. 18
II. DONNEES QUANTITATIVES CONTINUES......................................................... 18
II.1. Dépouillement et distribution des fréquences ....................................................... 18
1. Nombre de classes ............................................................................................ 18
2. Amplitude ou largeur des classes ...................................................................... 18
3. Limite des classes ............................................................................................. 19
4. Histogramme ..................................................................................................... 19
5. Courbes cumulées croissantes et décroissantes ou ogives .............................. 20
III. TABULATIONS CROISEE ET NUAGE DE POINTS ............................................ 20

CHAPITRE 3 PRESENTATIONS NUMERIQUES DES DONNEES STATISTIQUES TENDANCES


CENTRALES, DE DISPERSION ET DE FORME .................................................................... 21

2
I. TENDANCE CENTRALE ......................................................................................... 21
I.1. Moyenne ou moyenne arithmétique d’un échantillon ............................................ 21
I.2. Moment d’ordre k .................................................................................................. 21
I.3. Médiane d’un échantillon ...................................................................................... 21
I.4. Les percentiles d’un échantillon ............................................................................ 22
I.5. Mode d’un échantillon ........................................................................................... 23
II. TENDANCE DE DISPERSION ............................................................................. 23
II.1. Etendue ................................................................................................................ 23
II.2. Ecart interquartile et écart interquartile relatif ....................................................... 23
II.3. Variance d’une population – Variance d’un échantillon ........................................ 23
II.4. Ecart type d’une population – Ecart type d’un échantillon .................................... 23
II.5. Coefficient de variation ......................................................................................... 24
III. CARACTERISTIQUES DE FORME : ASYMETRIE ET APLATISSEMENT .......... 24
III.1. Coefficient d’asymétrie ...................................................................................... 24
III.2. Coefficient d’aplatissement ................................................................................ 24
IV. THEOREME DE CHEBYSHEV ............................................................................ 25
V. CARACTERISTIQUES DES VARIABLES QUALITATIVES ................................. 25
V.1. Richesse............................................................................................................ 25
V.2. Diversité d’une variable qualitative .................................................................... 26
V.3. Régularité ou équitabilité ................................................................................... 26

CHAPITRE 4 SERIES STATISTIQUES DOUBLES OU MULTIPLES ET REGRESSION LINEAIRE


SIMPLE OU MULTIPLE ....................................................................................................... 27

I. SERIES STATISTIQUES DOUBLES ET LEURS CARACTERISTIQUES ............... 27


II. REGRESSION LINEAIRE SIMPLE – EQUATION DE REGRESSION LINEAIRE 28
III. LES SERIES STATISTIQUES MULTIPLES ET LEURS CARACTERISTIQUES . 29
IV. ANALYSE EN COMPOSANTES PRINCIPALES : ACP ....................................... 31
IV.1. Principe de l’ACP............................................................................................... 31
IV.2. Procédé de détermination des composantes principales .................................. 31

CHAPITRE 5 INTRODUCTION A LA THEORIE PROBABILISTE RELATIONS PROBABILISTES


........................................................................................................................................... 33

3
I. APPROCHE INTUITIVE DES PROBABILITES ....................................................... 33
II. UNIVERS – EVENEMENT – PROBABILITE D’UN EVENEMENT ....................... 33
II.1. Univers Ω ou ensemble d’éventualités.................................................................. 33
II.2. Ensemble d’éventualités ....................................................................................... 33
II.3. Evènement ........................................................................................................... 33
II.4. Probabilité ............................................................................................................. 33
III. OPERATIONS EN PROBABILITE ........................................................................ 34
III.1. Loi de l’addition en probabilité ........................................................................... 34
1. Evènement non exclusif ou non incompatible ................................................... 34
2. Evènement mutuellement exclusifs ou incompatible ........................................ 34
3. Evènements mutuellement exclusifs et exhaustifs ........................................... 34
III.2. Loi de la multiplication ....................................................................................... 34
1. Evènements dépendants ................................................................................... 34
2. Evènements indépendants ................................................................................ 35
3. Probabilité d’évènements indépendants ............................................................ 35
4. Probabilité d’évènements dépendants : PROBABILITE CONDITIONNELLE .... 35
5. Théorème de Bayes .......................................................................................... 35

CHAPITRE 6 DISTRIBUTIONS DE PROBABILITE DISCRETES ............................................. 36

I. INTRODUCTION : STATISTIQUE/PROBABILITE ................................................... 36


II. VARIABLE ALEATOIRE ....................................................................................... 36
III. DISTRIBUTION DE PROBABILITE DISCRETE ................................................... 36
IV. CARACTERISTIQUES D’UNE VARIABLE ALEATOIRE DISCRETE .................. 37
IV.1. Espérance mathématique .................................................................................. 37
IV.2. Variance ............................................................................................................ 37
V. LOI BINOMIALE ................................................................................................... 37
V.1. Expérience binomiale ........................................................................................ 37
V.2. Fonction de probabilité binomiale ...................................................................... 38
V.3. Distribution de probabilité de la loi binomiale .................................................... 38
V.4. Espérance mathématique et variance d’une distribution binomiale ................... 39
VI. LOI HYPERGEOMETRIQUE ................................................................................ 39
4
VI.1. Fonction de probabilité de la loi hypergéométrique ........................................... 39
VI.2. Distribution de probabilité de la loi hypergéométrique ....................................... 39
VI.3. Espérance mathématique et variance d’une loi hypergéométrique ................... 39
VII. LOI MULTINOMIALE ............................................................................................ 40
VIII. LOI DE PASCAL OU LOI BINOMIALE NEGATIVE ........................................... 40
IX. LOI DE POISSON................................................................................................. 41
IX.1. Propriétés d’une expérience de Poisson ........................................................... 41
IX.2. Fonction de probabilité de Poisson ................................................................... 41
IX.3. Espérance mathématique et variance d’une loi de Poisson .............................. 41

CHAPITRE 7 DISTRIBUTIONS DE PROBABILITE CONTINUES ............................................ 43

I. INTRODUCTION : VARIABLE ALEATOIRE CONTINUE ........................................ 43


I.1. Définition ............................................................................................................... 43
I.2. Densité de probabilité ........................................................................................... 43
I.3. Fonction de répartition .......................................................................................... 43
I.4. Espérance mathématique et variance d’une variable aléatoire continue : ............ 44
I.5. Moment centré et moment non centré d’une variable aléatoire continue :............ 44
II. LOI UNIFORME .................................................................................................... 44
II.1. Densité de probabilité de la loi uniforme ............................................................... 44
II.2. Fonction de répartition d’une loi uniforme ............................................................. 44
II.3. Espérance mathématique et variance d’une loi uniforme ..................................... 44
III. LOI EXPONENTIELLE ......................................................................................... 45
IV. LOI NORMALE ..................................................................................................... 46
IV.1. Conditions d’application d’une loi normale ........................................................ 46
IV.2. Densité de probabilité d’une loi normale............................................................ 46
IV.3. Espérance et variance mathématique de la loi normale .................................... 47
IV.4. Loi normale centrée réduite ............................................................................... 47
IV.5. Approximation d’une loi binomiale par la loi normale......................................... 47
V. LOI DE KHI CARRE ............................................................................................. 48
V.1. Définition ........................................................................................................... 48
VI. LOI DE FISHER-SNEDECOR .............................................................................. 49
5
VII. LOI DE STUDENT ................................................................................................ 49

CHAPITRE 8 ESTIMATION PONCTUELLE ET DISTRIBUTIONS D’ECHANTILLONNAGE D’UNE


MOYENNE ET D’UNE PROPORTION ................................................................................... 50

I. PRINCIPE GENERAL DE L’ESTIMATION .............................................................. 50


I.1. Echantillonnage simple ......................................................................................... 50
1. Echantillonnage simple à partir d’une population finie ....................................... 50
2. Echantillonnage simple à partir d’une population infinie .................................... 50
I.2. Estimation ponctuelle et distribution d’échantillonnage ......................................... 50
1. Distribution d’échantillonnage ............................................................................ 50
2. Estimation ponctuelle ........................................................................................ 51
I.3. Propriétés des estimateurs ................................................................................... 51
1. Estimateur non biaisé ........................................................................................ 51
2. Estimateur efficace ............................................................................................ 51
3. Estimateur convergent....................................................................................... 51
II. DISTRIBUTION D’ECHANTILLONNAGE D’UNE MOYENNE .............................. 51
II.1. Caractéristiques de la distribution d’échantillonnage de la moyenne.................... 51
II.2. Forme de la distribution d’échantillonnage de la moyenne : théorème central
limite : ............................................................................................................................. 52
III. DISTRIBUTION D’ECHANTILLONNAGE D’UNE PROPORTION ........................ 52
III.1. Caractéristiques de la distribution d’échantillonnage de la proportion ............... 52
III.2. Forme de la distribution d’échantillonnage de la proportion .............................. 53

CHAPITRE 9 ESTIMATION PAR INTERVALLE DE CONFIANCE ET TAILLE D’UN


ECHANTILLON ................................................................................................................... 54

I. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA MOYENNE D’UNE


POPULATION.................................................................................................................. 54
I.1. Cas où l’écart type σ est connu ............................................................................ 54
I.2. Cas où l’écart type σ est inconnu.......................................................................... 54
I.3. Détermination de la taille d’un échantillon ............................................................ 55
II. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA PROPORTION D’UNE
POPULATION ................................................................................................................ 55
II.1. Estimation par intervalle de la proportion.............................................................. 55

6
II.2. Détermination de la taille d’un échantillon ............................................................ 56
III. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA MEDIANE ................ 56
IV. ................................................................................................................................... 56
V. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA VARIANCE .............. 56

CHAPITRE 10 TESTS D’HYPOTHESES ............................................................................... 57

I. PRINCIPE D’UN TEST D’HYPOTHESE .................................................................. 57


II. COMMENT FORMULER LES DEUX HYPOTHESES H0 ET H1........................... 57
III. ERREURS DE PREMIERE ET DE DEUXIEME ESPECE .................................... 58
III.1. Mise en évidence des deux types d’erreurs dans un test statistique ................. 58
III.2. Schématisation des deux risques d’erreurs ....................................................... 58
IV. DEMARCHE A SUIVRE DANS L’ELABORATION D’UN TEST ............................ 59
V. TESTS DE COMPARAISON ET REGLE DE DECISION ..................................... 59
V.1. Test sur la moyenne, cas où l’écart type σ est connu ....................................... 59
V.2. Test sur la moyenne, cas où l’écart type σ est inconnu ..................................... 59
V.3. Test sur la proportion......................................................................................... 60
V.4. Test sur la variance d’une population normale .................................................. 61
VI. COMPARAISON DE DEUX MOYENNES D’ECHANTILLONS NON APPARIES . 61
VI.1. Cas où les deux écarts-type σ1 et σ2 sont connus ............................................. 61
VI.2. Cas où les deux écarts-type σ1 et ou σ2 sont inconnus ..................................... 62
VII. COMPARAISON DE DEUX MOYENNES D’ECHANTILLONS APPARIES .......... 63
VIII. COMPARAISON DE DEUX PROPORTIONS ................................................... 64
IX. TEST D’EGALITE DE DEUX VARIANCES .......................................................... 64

CHAPITRE 11 TEST D’AJUSTEMENT ET TABLEAU DE CONTIGENCE ...................... 65

I. TEST DE CONFORMITE ENTRE DEUX DISTRIBUTIONS : TEST D’AJUSTEMENT


65
II. TEST D’INDEPENDANCE DANS UN TABLEAU DE CONTIGENCE................... 66

CHAPITRE 12 INFERENCES EN REGRESSIONS ................................................................. 68

I. TEST SUR LE COEFFICIENT DE CORRELATION LINEAIRE ............................... 68


I.1. Distribution d’échantillonnage du coefficient de corrélation linéaire ...................... 68

7
II. INFERENCE EN REGRESSION LINEAIRE SIMPLE ........................................... 69
II.1. Estimation des coefficients de la régression linéaire simple ................................. 69
II.2. Résidu et mesure de dispersion ........................................................................... 69
II.3. Distribution d’échantillonnage du second coefficient de régression b1 ................. 70
II.4. Inférence sur le paramètre β0 ............................................................................... 70
II.5. Estimation de la covariance de b0 et b1 ................................................................ 70
II.6. Inférence sur la valeur de Y connaissant X : E(Yh) – Intervalle d’estimation ........ 70
II.7. Prévision de Y pour une nouvelle valeur de X : intervalle de prévision................. 71
II.8. Analyse de la variance dans la régression linéaire simple .................................... 71
II.9. Test de signification de la régression linéaire simple : Test de Fisher .................. 72
III. INFERENCE EN REGRESSION MULTIPLE ........................................................ 73
III.1. Estimation des coefficients de la régression linéaire multiples .......................... 73
III.2. Résidu et mesure de dispersion ........................................................................ 74
III.3. Distribution d’échantillonnage des coefficients de régression b j ........................ 74
III.4. Analyse de la variance dans la régression linéaire multiple .............................. 74
III.5. Analyse de la variance conditionnelle dans la régression linéaire multiple ........ 74
III.6. Estimation de E(Yh) par intervalle de confiance................................................ 75
III.7. Prévision de Y pour une nouvelle valeur de X : intervalle de prévision ............. 75

PARTIE EXERCICES ........................................................................................................ 76

SERIE 1 STATISTIQUES DESCRIPTIVES ....................................................................... 77

SERIE 2 NOTIONS DE PROBABILITE ............................................................................. 79

SERIE 3 LOIS DES PROBABILITES DISCRETES ET CONTINUES ................................ 81

SERIE 4 ESTIMATION PONCTUELLE – ESTIMATION PAR INTERVALLE TEST


STATISTIQUE ................................................................................................................... 83

PARTIE TRAVAUX PRATIQUES ..................................................................................... 86

TRAVAUX A EFFECTUER SUR MATLAB ........................................................................ 87

TP1 : Programmer une régression simple ...................................................................... 87


TP2 : Les fonctions dans Matlab .................................................................................... 88
TP3 : Analyse en composantes principales.................................................................... 88

8
TRAVAIL A PRODUIRE..................................................................................................... 89

CONSEILS......................................................................................................................... 90

ANNEXES 1 ...................................................................................................................... 91

Table : Distribution normale centrée réduite ...................................................................... 91

ANNEXES 2 DISTRIBUTIONS DU t DE STUDENT .......................................................... 92

ANNEXE 3 LOI DU KHI2(  ) ............................................................................................. 93

ANNEXES 4 DISTRIBUTIONS DE FISHER-SNEDECOR α = 0,1 .................................... 94

PARTIE
COURS ET EXEMPLES
D’APPLICATIONS

9
INTRODUCTION GENERALE

Ce cours est conçu pour les étudiants des masters, spécialité, chimie, physique, biologie ou
géologie, qui n’ont jamais, ou peu reçu un enseignement en statistique et probabilité. Au fait, il
concerne tous ceux qui sont amenés, dans le cadre de leurs travaux, à faire soit des enquêtes, soit
des campagnes de mesure. Que représente l’échantillon choisi ? Que représente la mesure
effectivement prise ? Quelles sont les erreurs que l’on commet lors de son évaluation et quelle
incertitude devrions lui attribuer ? Comment visualiser un ensemble d’observations préalablement
mesurées ? Comment établir des règles appropriées afin de prendre des décisions ? Voici des
questions que tout scientifique doit se poser dans ses études.
Dans ce document, on se bornera à montrer comment calculer par calculatrice, par Excel ou par
utilisation du logiciel Matlab les différents paramètres statistiques et de probabilité qu’on rencontre.
Mais si l’étudiant n’assiste pas au cours, il perdra l’essentiel de cet enseignement qui est la
compréhension parfaite et la signification pratique et réel de chacun d’eux.
Avant d’aborder ces notions, il m’a néanmoins paru opportun de faire un aperçu des différents types
d’erreurs que l’on rencontre dans une série d’observation. A cet effet, il est important de savoir
qu’une modélisation aussi parfaite qu’elle soit ne peut être que caduque si elle n’est pas
accompagnée, grâce à des techniques statistiques et probabilistes, d’une validation de données. De
ce fait, je tiens à conseiller les personnes qui vont effectuer des prélèvements ou des mesure en site
réel de se prémunir d’un bloc note dans lequel doit figurer tout ce qui peut concerner de près ou de
loin ces mesures : date, heure précise, climat (température, précipitation, ensoleillement, humidité,
vent…), lieu…, parfois même l’état de nervosité et de fatigue dans laquelle se trouve le
manipulateur. C’est parfois dans ces notions qu’on pourrait expliquer la valeur de ces mesures !
Ce polycopié est ainsi partagé en trois parties :
La première partie comprend trois chapitres
Le premier chapitre, assez long, permet à l’étudiant de connaître les différentes techniques adoptés
pour décrire au mieux, d’abords les séries simples de données puis les séries doubles et enfin les
séries statistiques multiples. Ces descriptions sont effectuées en distinguant les différents types de
caractères : qualitatifs, quantitatifs discrets et quantitatifs continus. Elles utiliseront des tableaux
(tableaux de distribution des fréquences et des fréquences cumulées), des graphes et courbes mais
aussi des paramètres statistiques afin de mieux visualiser les ensembles nombreux des données et
des observations obtenues lors de la campagne de mesure :
Les paramètres de tendance centrale : moyenne, médiane, mode, momentsnon centré…
Les paramètres de dispersion : étendue, écart interquartile, variance et écart type, richesse,
régularité, coefficients de variation…
Les paramètres de forme : coefficient d’asymétrie, coefficient d’aplatissement.

10
Le second chapitre traitera une composante particulière et importante de la modélisation : La
régression simple et multiple. Dans ce dernier cas, les étudiants auront à manipuler le logiciel
Matlab afin de déterminer les différents paramètres rencontrés dans la régression : coefficients de
corrélation, coefficients de régression, coefficients de détermination et d’amélioration.
Le troisième chapitre est relatif à l’analyse en composantes principales (ACP) qui permet grâce à
une rotation appropriée des axes à mieux visualiser les observations contenant plusieurs caractères.
Compte tenu du nombre de calculs à effectuer, ce chapitre sera suivi d’un travail pratique (TP) et
portera sur la programmation sur Matlab d’une ACP.
La seconde partie comprend deux chapitres
Le premier comprend les propriétés et définitions les plus importantes en théorie des probabilités.
On définira ici les notions de variable aléatoire, de probabilité, de densité de probabilité et la notion
de fonction de répartition. Puis on définira les paramètres associés aux variables aléatoires :
espérance mathématiques, variances…
Le second traite les lois de probabilité associées aux variables tout d’abord discrètes : loi Binomiale,
loi hypergéométrique, loi de Poisson… puis enfin continues : Loi de normale ou de Gauss, loi
exponentielle, Loi de Khi2, Loi de Fisher et loi de Student.
La troisième partie concerne la théorie d’estimation et d’inférence statistique, elle comprend quatre
chapitres :
Le premier est relatif aux intervalles de confiances associés aux différents paramètres statistiques.
On y définira le théorème central limite
Le second concerne les tests statistiques, essentiels pour définir les règles de décision à prendre en
considération dans tout problème nécessitant une enquête ou une campagne de mesures sur un
échantillon
Le troisième concerne les tableaux de contingence

11
AVANT PROPOS
CRITIQUE DES DONNÉES ET CLASSIFICATION DES ERREURS

Avant d’aborder toute étude, il est essentiel d’analyser et de critiquer les séries des données. Ces
données sont malheureusement, dans bien des cas entachées d’erreurs plus ou moins significatives,
incomplètes ou inconsistantes. Les causes les plus probables des erreurs de mesure peuvent être
réparties en deux classes distinctes (Ragot et al, 1990).

1. Erreurs systématiques
Ce sont des erreurs qu’on considère non aléatoires et qui introduisent une différence entre la valeur
« vraie » et la valeur mesurée. Une erreur systématique peut être constante (biais de mesure) ou à
variation lente, fonction du temps (dérive). Ces erreurs peuvent apparaître en raison de plusieurs
phénomènes. Citons par exemple un dysfonctionnement d’un appareil de mesure ou à une
adéquation du modèle, issue d’une localisation géographique non représentative de cet appareil.
Une mauvaise calibration des courbes peut conduire à une estimation très erronée de ces grandeurs.
On inclut aussi dans la classe des erreurs systématiques, celles dues à la variabilité des conditions
de mesure dans le temps : Par exemple, les problèmes de vent ou de perturbation sur les capteurs.

2. Erreurs accidentelles
Ce sont des erreurs purement aléatoires qui existent malgré l’utilisation d’appareils sophistiqués.
Les principales causes de ces erreurs sont souvent liées à la fidélité des instruments de mesure. La
qualité des instruments dépend essentiellement de leur réponse à des sollicitations extérieures telles
la vitesse des vents, la température et l’humidité. Remarquons néanmoins que ces erreurs peuvent
être considérées systématiques lorsque ces conditions restent stables pendant une longue période.
On peut aussi rajouter à ces différents types d’erreurs, celles absurdes, donnant des valeurs
complètement fausses pour une raison fortuite comme celle d’une mauvaise transcription des
données.
En général, toutes ces erreurs ne sont pas discernables et apparaissent mélangées dans des
problèmes et conduisent ainsi à des données incomplètes, non cohérentes et inconsistantes.

12
CHAPITRE 1
NOTIONS FONDAMENTALES EN STATISTIQUE DESCRIPTIVE

On peut définir la statistique descriptive comme étant la méthode qui vise à la description des
ensembles nombreux.
C’est donc une technique qui permet de rendre plus intelligible une série d’observations et de
dégager les caractéristiques essentielles qui sont dissimulées dans une masse de données.
Les observations ou les données sont prélevées à partir des enquêtes effectuées auprès d’un
échantillon pris aléatoirement de la population concernée.
Pour cela, la statistique descriptive se donne comme moyen de résumer ces nombreuses données en
utilisant :
 des tableaux : Tableaux de distributions des fréquences, des fréquences relatives, des fréquences
cumulées croissantes et décroissantes…
 des courbes : histogrammes, diagrammes en barres, en secteurs…
 des nombres : proportion, fréquence, moyenne, mode, médiane, quartile, variance…

1. STATIQUE INFERENTIELLE OU INDUCTIVE


Elle permet de porter un jugement sur la population selon une approche logique faisant appel
aux lois de probabilité appliquées aux résultats obtenus de l’échantillon

POPULATION
ECHANTILLON Echantillonnage
Induction
aléatoire
Déduction ou
ECHANTILLON
inférence
Caractéristiques
de l’échantillon
Lois de probabilité
Statistiques
Inférences statistiques
2. VOCABULAIRE DE BASE
Données : Renseignements collectés
Ensemble de données : Tous les renseignements collectés
Eléments, individus ou unités statistiques : Entité où sont collectés les données. On peut utiliser
ici un système ramifié d’unités primaire, secondaire tertiaire…L’individu est toujours, la personne,
l’insecte, l’animale, la plante, l’échantillon d’une eau, la journée, le magasin… bref, tous ceux à qui
ont pose la question et dont la réponse (variable) diffère d’un individu à l’autre.
Exemple : Etude de larves de moustique peut se faire par prélèvement d’une louche calibrée d’eau
dans plusieurs mares. On peut aussi bien mesurer le nombre de larve par louche ou la largeur des capsules
céphalique. Ici, l’unité primaire serait la mare, la secondaire, la louche et la tertiaire les larves.
13
Population : Ensemble statistique regroupant tous les individus
Echantillon : Partie ou sous ensemble de la population
Echantillon aléatoire : Echantillon dont chaque individu a une chance égale d’être choisie. C’est
un échantillon dont les résultats statistiques peuvent être étendus à la population. D’où la notion
d’inférence statistique
Caractère ou variable statistique : Particularité de l’individu. Le (ou les) caractère(s) se situe(nt)
systématiquement dans la (ou les) question(s) que l’on pose à l’individu. Ce dernier peut alors
posséder un ou plusieurs caractères.
Exemple :
Population = Ensemble des étudiants de l’établissement scolaire X.
Individus = Etudiants de X
Caractère = taille ou poids ou nature de leur licence ou profession du père…

Caractère qualitatif
Echelle nominale : noir, jaune…
Echelle ordonale : grand, petit, moyen…
Caractère
Caractère quantitatif
Discret : Echelle de ratio ou rapport ; 1, 2 , 34, 67…
Continu : Echelle cardinale ou d’intervalle : ]15-20] ; ]20-25]…

Données en coupe transversale: Données relatives à une collecte effectuée au même moment.
Données temporelles: Données relatives à une collecte effectuée au fil du temps.
Modalités : C’est le regroupement des caractères. Ses propriétés fondamentales sont :
Les modalités doivent être incompatibles : Leur intersection deux à deux doit être vide afin qu’un
individu ne soit pas compter plus d’une fois lors du dépouillement
Les modalités doivent être exhaustives: Leur réunion doit représenter tous les individus de
l’échantillon afin qu’un individu ne puisse pas être oublié lors du dépouillement.
Lorsqu’on a affaire à un caractère quantitatif continu, les modalités sont des intervalles semi ouverts
qu’on appelle aussi classe.
Recensement : Enquête faite sur une population pour y collecter des données
Enquête d’échantillonnage: Enquête faite sur un échantillon pour y collecter des données
Paramètre : Nombre résultant de la manipulation des données tirées d’une population : Moyenne,
mode, écart type… de la population
Statistique : Nombre résultant de la manipulation des données tirées d’un échantillon: Moyenne,
mode…de l’échantillon
14
Remarque : Il est très rare de connaitre exactement un paramètre, par contre on peut l’estimer
grâce à son « estimateur » qui est une statistique.
Fréquence : Nombre de fois qu’une donnée se rencontre dans l’échantillon. Ou bien nombre
d’individus dont le caractère est le même.
Fréquence relative : Rapport entre la fréquence d’une donnée et le nombre total des données
Fréquence en pourcentage : Pourcentage de fois qu’une donnée se rencontre dans l’échantillon
Remarque :
Dans les exercices de statistique, il est important d’identifier tous les éléments du
problème, par exemple, pour reconnaitre ce qu’est :

 Un individu : Dans un exercice, c’est toujours, la personne, la chose, l’espace, le


jour… à qui on pose la question sujet de notre enquête.

 L’échantillon est le groupe d’individus à qui on pose la question. Sa taille est ègale
au nombre de réponses que l’on trouve dans l’enquête

 La variable statistique est notée généralement par X ou Y. Elle se situe


systématiquement dans la question que l’on pose à l’individu.

 La fréquence est le nombre d’individu qui ont donné la même réponse c'est-à-dire
qui ont le même X.
 Fréquence cumulées croissante est nombre d’individus dont la variable quantitative est
inférieure ou égale à :
o la variable X qui lui est associée s’il s’agit d’une variable discrète
o la borne supérieure Xmax de l’intervalle qui lui est associée s’il s’agit d’une variable
continue traitée par intervalles.

 Fréquence cumulées décroissante est nombre d’individus dont la variable quantitative est
strictement supérieure à :
o la variable X qui lui est associée s’il s’agit d’une variable discrète
o la borne supérieure Xmax de l’intervalle qui lui est associée s’il s’agit d’une variable
continue traitée par intervalles.
En statistique, nous nous intéressons uniquement au comportement de la variable X. Les fréquences
ne nous intéressent absolument pas mais sont essentielles vues qu’elles représentent les indicateurs
du comportement de la variable X statistique.

15
CHAPITRE 2
PRESENTATIONS GRAPHIQUES
DES DISTRIBUTIONS DES FREQUENCES

On appelle distribution des fréquences, la représentation sous forme de tableaux des données et
de leurs fréquences

I. DONNEES QUALITATIVES OU QUANTITATIVES DISCRETES

I.1. Cas de données qualitatives


Exemple 1 : Répartition par espèce de 30 poissons pêchés au hasard
ROUGET ROUGET MERLAN SAULE MERLAN ROUGET SAULE
SARDINE MERLAN SAULE ROUGET SARDINE SAULE PAGEOT
MERLAN SARDINE SAULE ROUGET PAGEOT ROUGET SAULE
PAGEOT MERLAN SAULE SARDINE SARDINE MERLAN SAULE
ROUGET SAULE

1. Dépouillement et distribution des fréquences


Le dépouillement des observations peut se présenter comme suit :
Donné Dépouillement Fréquence Fréquence relative Fréquence en %
ROUGET IIII II 7 0,23 23,3
MERLAN IIII I 6 ………. ……….
SAULE IIII IIII 9 ………. ……….
SARDINE IIII 5 ………. ……….
PAGEOT III 3 ………. ……….
TOTAL 30 1 ……….
Questions : Que représentent, l’échantillon, la population, l’individu, la variable ?
Quel type de variable s’agit-il, quelle est son échelle ?
Peut-on calculer la moyenne ? Le mode ? la médiane ?

2. Diagramme en barres (ou en bâtons)

16
3. Diagramme en secteur (camembert)

I.2. Cas de données quantitatives discrètes


Exemple 2 : Nombre d’œufs pondus par semaine pour 35 poules d’un poulailler
8 7 6 7 6 8 5 7 8 6 7 6 8 5 4 6 7 6
5 8 4 6 6 7 4 7 6 5 6 7 6 5 4 8 7

1. Dépouillement et distribution des fréquences


Le dépouillement des observations peut se présenter comme suit :
Donnée X Fréq. Fréq.rel. Fréq en % Fréq cumul.↑ <= Fréq. Cumul. ↓ >
3 0 0 0 0 35
4 4 0,11 11,4 4 31
5 5 …… …… 9 26
6 11 …… …… 20 15
7 9 …… …… 29 6
8 6 …… …… 35 0
Total 35 1 …… XXXX XXXX
Questions : Que représentent, l’échantillon, la population, l’individu, la variable ?
Quel type de variable s’agit-il, quelle est son échelle ?
Que représente la fréquence ?
Peut-on calculer la moyenne ? Le mode ? La médiane ?
Peut- on lire la troisième ligne de ce tableau ?

2. Diagramme en barres (ou en bâtons)


Diagramme en barre de la distribution des fréquences relatives
au nombre d'oeufs pondus par semaine

12
fréquence=Nombre de poules

10

0
3 4 5 6 7 8 9
Nombre d'oeufs pondus/semaine

17
3. Courbes cumulées croissantes et décroissantes
Courbes cumulées croissantes et décroissantes : Cas d'une
variable quantitative discrète

Nombre de poules
30

20

10

0
3 4 5 6 7 8 9
Nombre d'oeufs

fréq cumulée↑ fréq cumulée↓

Les courbes des fréquences cumulées croissantes et décroissantes des variables quantitatives
discrètes sont des courbes en escalier.

II. DONNEES QUANTITATIVES CONTINUES


Exemple 3 : Prélèvement de 30 échantillons d’une unité d’un bassin de traitement des eaux usées :
Les mesures de la DBO5 en mg/l ont données le tableau suivant :
312 332 360 352 356 240 300 352 368 304
292 292 245 268 336 280 376 388 368 320
308 296 308 336 372 312 260 224 284 336
La variable statistique X serait le nombre de …………………... L’échantillon est représenté par les
N = nombre d’ ……........ qui ont subit des ……… La fréquence représenterait le nombre de …….

II.1.Dépouillement et distribution des fréquences

1. Nombre de classes
Ici, X est une variable quantitative continue. Sa représentation se fera par intervalles ou classes dont
le nombre k dépendra du nombre d’observation. Le choix du nombre k de classes sera dicté par un
souci de clarté dans la représentation. On utilise pour cela une des deux règles suivantes :
Règle de Sturges : k  1  3,3 log10 ( N) Ici, k = 5,87

Règle de Yule : k  2,54 N Ici, k = 5,85

2. Amplitude ou largeur des classes


Pour réduire le risque de mal interpréter la distribution des fréquences, on utilise une amplitude A
constante des classes. Cette largeur des classes dépendra de l’éparpillement des observations. Elle
se calcule comme suit :
On détermine l’étendue E qui est la différence des valeurs extrêmes des observations :
E  X max  X min Ici, E = ……. – ……..= ….

On déduit alors une amplitude A’ approximative des classes comme suit :


E
A'  Ici A’ = ………… jours
k

18
L’amplitude A utilisée serait alors une valeur arrondie de A’, soit par excès, soit par défaut, selon la
personne qui effectue la distribution des fréquences. Ici : A = ……..
Remarque : Une distribution de fréquence n’est pas nécessairement la même d’un utilisateur à
l’autre. Par ailleurs, aucune distribution de fréquence n’est meilleure qu’une autre.

3. Limite des classes


Les limites des classes sont fixées une fois fixées les limites, inférieure et supérieure respectivement
de la première et de la dernière classe. Ces deux limites n’appartiennent pas nécessairement aux
valeurs observées. Elles sont choisies, ici aussi, selon l’utilisateur et selon son souci de présenter le
plus clairement sa distribution de fréquence.
Comme la largeur des classes est de 30 et que Xmin = 224, il serait plus claire de choisir une limite
inférieure de la première classe égale à 220. Cela conduit alors à une distribution de classe suivante :
Donnée X Fréq. Fréq.rel. Fréq en % Fréq cumul.↑ <= Fréq. Cumul. ↓ <
190 < X  220 0 …… …… 0 30
…. < X  …. 3 …… …… 3 27
…. < X  …. 3 …… …… 6 24
…. < X  …. 8 …… …… 14 16
…. < X  …. 7 …… …… 21 9
…. < X  …. 6 …… …… 27 3
…. < X  …. 3 …… …… 30 0
Total …… 1 …… XXXX XXXX

Questions : Peut-on calculer la moyenne ? Le mode ? La médiane ?

4. Histogramme

Polygone des
fréquences
Histogramme

205 235 265 295 325 355 385 405


5
Mode

19
5. Courbes cumulées croissantes et décroissantes ou ogives

III. TABULATIONS CROISEE ET NUAGE DE POINTS


Lorsque les données expriment des relations entre deux ou plusieurs variables, on a affaire alors à ce
qu’on appelle des séries statistiques doubles ou multiples. Leurs représentations simplifiées, se font
soit sous forme de tableaux croisés où les lignes et les colonnes représentent respectivement deux
variables d’intérêt pris parmi les variables existantes, soit sous forme de graphes représentant un
nuage de points de coordonnées ces deux variables.

20
CHAPITRE 3
PRESENTATIONS NUMERIQUES DES DONNEES STATISTIQUES
TENDANCES CENTRALES, DE DISPERSION ET DE FORME

I. TENDANCE CENTRALE

I.1. Moyenne ou moyenne arithmétique d’un échantillon

x fx i i
X X  n   fi
i i
ou bien avec
n n i

Remarques :
Si le dépouillement se fait par intervalles, les xi sont les milieux des intervalles.
La moyenne de la population est notée par μ et est calculée sur le nombre N de l’ensemble des

observations de la population : 
 xi
N
Exercice : Calculer la moyenne des exemples des cas discrets et continus précédents

I.2. Moment d’ordre k


On appelle moment d’ordre k, la moyenne arithmétiques des valeurs à la puissance k des
1
observations : m k (X)   x ik
n i
On peut ainsi remarquer que le moment d’ordre k=1 est une moyenne arithmétique.
On verra aussi que ce moment permet plus facilement de déterminer la variance
Exercice : Calculez le moment d’ordre deux de l’exercice du contrôle des ampoules en panne de la
page 10 et de l’exemple 3 de la durée des audits de la page 12

I.3. Médiane d’un échantillon


C’est la valeur qui se situe au centre des observations lorsqu’elles sont classées par ordre croissant
ou décroissant. C’est donc la valeur qui partage l’effectif en deux par égales laissant de part et
d’autres toutes les observations dont les valeurs lui sont, soit supérieures, soit inférieures.
Si le nombre des observations est pair, la médiane est alors la moyenne arithmétique des deux
valeurs de ces observations.
Exemple 1 : Trouver la médiane de « 23 54 67 54 12 4 7 89 32»
Résultat : Par ordre croissant les observations sont : 4 7 12 23 32 54 54 67 89 »
Donc la médiane est 32
Exemple 2 : Trouver la médiane de « 23 54 67 54 12 4 7 89 32 46»
Résultat : Par ordre croissant les observations sont : 4 7 12 23 32 46 54
54 67 89 »
21
Donc la médiane est 39
Remarques :
Lorsque l’histogramme ou le diagramme en barres est trop asymétrique, la médiane est plus
appréciée que la moyenne pour représenter la tendance centrale des observations
L’abscisse du point d’intersection des courbes cumulées croissantes et décroissantes d’une série
statistique représente la médiane
Dans le cas où les observations font l’objet d’un dépouillement par intervalle, on calcule la médiane
par interpolation linéaire entre deux effectifs cumulés croissants (ou décroissants) avoisinant la
moitié de l’effectif n/2. La médiane est alors :

L inf Lsup M é  L inf n / 2  f infcum 
On a : 
L sup  L inf cum 
f sup  f infcum 
n / 2  f infcum 
f cum  n/2 f cum  Donc : M é  L inf  L sup  L inf  cum 
inf sup
f sup  f infcum 
Exercice : Calculez le médiane des exemples précédents

I.4. Les percentiles d’un échantillon


Ce sont des facteurs de position. Le pième percentile ( 0 < p < 100) représente la position p sur une
échelle de 100 lorsqu’on range les observations par ordre croissant. Ainsi, p% des observations ont
des valeurs supérieures au p percentile et donc, (100 – p)% des observations ont des valeurs lui sont
inférieures.
La détermination du p percentile se fait en rangeant les observations par ordre croissant, le p
percentile est sur la position p% de ces observations
Géométriquement à partir de la courbe des fréquences cumulées relatives croissantes. C’est
l’antécédent de p.
Numériquement, par interpolation linéaire, comme pour le calcul de la médiane pour des variables
statistiques continues et classées par intervalles.
Les facteurs de position les plus usités sont :
 Les quartiles : Q1, Q2 = Médiane et Q3
 Les déciles : d1, d2 …, d9
 Les percentiles : p1, p2,… , p10 = d1, … , P25=Q1, … , p50 = Médiane, … , P75=Q3, …, p99.
On calcule pk comme suit :
(1) On ordonne les N données par ordre croissant : X1 X2 …XN.
(2) On situe d’abord la donnée, pour cela on calcule la valeur 1+k(N-1) qui comprend une partie
entière (qu’on pose e) et une partie fractionnaire (qu’on pose q).
(3) on calcule alors pk comme suit : pk = Xe+q.(Xe+1 – Xe), où Xe représente la eème donnée selon
l’ordre croissant des observations.
Exercice: Calculez les percentiles Q1, Q2, d2, d8 et p67 des exemples précédents:

22
I.5. Mode d’un échantillon
C’est la valeur de l’observation la plus fréquente.
Dans le cas où la variable statistique est continue et qu’elle est présentée sous forme d’intervalle,
elle est estimée à partir de la relation suivante :

Mo  L inf 
d1
L sup  L inf 
d1  d 2
où : Linf= limite inférieure de la classe modale
Lsup= limite supérieure de la classe modale
d1 = différence de la fréquence modale et de celle qui la précède
d2 = différence de la fréquence modale et de celle qui la suit
Exercice: Calculez le mode des exemples précédents.

II. TENDANCE DE DISPERSION

II.1.Etendue
C’est la différence des valeurs extrêmes d’une série d’observations.

II.2.Ecart interquartile et écart interquartile relatif

C’est l’étendue de la moitié centrale des observations : EIQ  Q 3  Q1


Pour comparer des séries statistiques entre elles, on préfère utiliser un paramètre statistique
Q  Q1
adimensionnel appelé écart interquartile relatif défini par : EIQ relatif  3
Mediane
Exercice: Calculez l’écart interquartile et l’écart interquartile relatif des exemples précédents.

II.3.Variance d’une population – Variance d’un échantillon


La variance V d’une population est la moyenne des carrés des écarts par rapport à la moyenne
V(X)   x i   
1 2
arithmétique :
N i
La variance d’un échantillon s2 est la définie par : s 2 (X) 
1
 x i  X 2
n 1 i
Question : Comparez les deux écritures
Remarque : On peut calculer plus facilement ces deux variances àpartir du moment d’ordre deux
m2(X) des observations. On montre ainsi qu’on a :

Pour la population : V(X)  m 2 (X)  X 2

Pour l’échantillon : s 2 ( X) 
n
n 1

m 2 ( X)  X 2 
Exercice: Calculez la variance des exemples précédents

II.4.Ecart type d’une population – Ecart type d’un échantillon


Dans les deux cas, c’est la racine carrée de la variance :
23
 x i   
1
( X )  V ( X ) 
2
Pour la population, elle est notée σ (ou σn):
N i

Pour l’échantillon, elle est notée s (ouσn-1) : s(X)  s 2 (X) 


1
 x i  X 2
n 1 i
Question : Que signifie un faible écart type ?
Exercice: Calculez l’écart type des exemples précédents.

II.5.Coefficient de variation
Pour comparer des séries statistiques entre elles et pour apprécier quantitativement l’homogénéité
des observations par rapport à la moyenne arithmétique, on utilise très souvent un autre paramètre
adimensionnel appelé coefficient de variation. Celui-ci mesure l’écart type relatif à la moyenne. Il
Ecart type
se formule donc comme suit : Cv  x100
Moyenne
Question : Que signifie un faible coefficient de variation ?

III. CARACTERISTIQUES DE FORME : ASYMETRIE ET APLATISSEMENT

III.1. Coefficient d’asymétrie


Lorsqu’une distribution est également dispersée de part et d’autre d’une valeur centrale, elle est dite
symétrique. Pour caractériser cette forme, on utilise le coefficient d’asymétrie qu’on peut formuler
de deux façons différentes :
3( X  Me)
Soit une asymétrie par rapport à la médiane : S3 
s
X  Mo
Soit une asymétrie par rapport au mode : S3 
s
Question : Pour ces distributions, quel signe doit-on donner à S3 et dire laquelle des caractéristiques
est généralement la plus grande, la Médiane, la Moyenne ou le Mode ?
S3 # 0
S3 > 0 S3 < 0

Si S3 > 0, la distribution est plus étalée à DROITE si S3 > 0, la distribution est plus étalée à
GAUCHE et si S3 # 0, la distribution est

III.2. Coefficient d’aplatissement


L’aplatissement d’une distribution renseigne si les valeurs des observations sont voisines ou non
des caractéristiques centrales. Pour caractériser cette forme, on utilise le coefficient d’aplatissement
1  (x i  X)
4
suivant : S4 
n 1 s4
Ainsi, lorsque les observations sont :
Voisines des caractéristiques centrales, la distribution est aigue et cette valeur est : S4 > 3.

24
Lointaines des caractéristiques centrales, la distribution est aplatie et cette valeur est S4 < 3.
« Normalement » éloignées des caractéristiques centrales, la distribution est « normale » et S4 # 3
Remarque très importante : Variable centrée réduite
Dans beaucoup de formulation statistiques et d’inférence statistique, au lieu d’utiliser la variable
statistique X réelle, on la remplace par une autre variable Z, équivalente et dont l’intérêt est qu’elle
est sans dimension. Il s’agit de la variable centrée réduite dont l’expression est :
X  X
Pour la population : Z
X
XX
Pour l’échantillon : Z
sX
1
Dans ces conditions, le coefficient d’aplatissement s’exprime comme suit :
n 1

S4 Z i4
Exercice: Calculez ces deux coefficients de forme des exemples précédents puis conclure

IV. THEOREME DE CHEBYSHEV


On démontre mathématiquement que dans un intervalle de k (k > 1) fois l’écart type autour de la
 1 
moyenne, il y a vraisemblablement au moins 1  2 % observations :
 k 
1
P(   k ( X )  X    k ( X ))  1  2
k
Si la distribution est continue, symétrique et unimodale, l’inégalité de CAMP-MEIDEL est plus
1
précise : P(   k ( X )  X    k ( X ))  1 
2,25k 2
Remarque :
Si X est inconnue, l’inégalité de Tchebychev est intéressante
Si X est une variable aléatoire de distribution connue, les tables de cette distribution sont plus
précises que ces deux inégalités.
Exercices : Dans un échantillon de 3224 individus, il existe au minimum combien d’observations
  
dans l’intervalle (a) X  2s; X  2s ? (b) X  4s; X  4s 
La durée de vie moyenne d’une certaine race de chiens est de 15ans et son coefficient de variation
est de 15%. Dans 90% de cas, les chiens de cette race vivent jusqu’à quel âge ?

V. CARACTERISTIQUES DES VARIABLES QUALITATIVES


Le caractère de tendance centrale pour une variable qualitative est le mode. Si par exemple on
répertorie le nombre d’espèces d’oiseaux dans une forêt, le mode est alors l’espèce la plus fréquente.
Les paramètres de dispersion des variables qualitatives sont représentés par :

V.1. Richesse
C’est le nombre d’espèces répertoriés dans une population. C’est en quelque sorte l’équivalent de
l’étendue d’une variable quantitative.
25
On peut facilement comprendre que la richesse d’un échantillon sous estime celle de la population,
quel est alors un bon estimateur de cette dernière ? HURLBERT (1971) montre qu’un bon
estimateur de la richesse obéit à la formule suivante :
rich Cnn' f k n!
E (richn ' )  1  avec : C nn '  n = effectif de l’échantillon
k 1 C n'
n n'!(n  n' )!
f k = fréquence de l’espèce k qui se trouve dans l’échantillon de taille n
n’ = effectif donné a priori de l’échantillon pour lequel on veut estimer richn’
rich = richesse de l’échantillon de taille n

V.2. Diversité d’une variable qualitative


Paramètre qui permet de voir la façon dont sont réparties les espèces. C’est en quelque sorte
l’équivalent de la variance d’une variable quantitative.

Distribution étalée = grande diversité Distribution concentrée = petite diversité


rich
fk
Diversité de Shannon (1948) : D'   pk log 2 ( pk ); avec : pk 
k 1 n
Cette définition est à comparer avec :
'
Dmax  log 2 (rich) , c'est-à-dire que toutes les espèces ont la même fréquence

est la distribution minimale qui se calcule en supposant que toutes les espèces ont une
fréquence égale à 1 sauf une espèce qui présente une fréquence égale à n – (rich – 1)
Le problème dans l’estimation de la diversité de Shanon est qu’elle est biaisée, on lui propose alors
celle non biaisée de Simpson.
Diversité de Simpson (1949) : ;
= effectif de l’espèce k

V.3. Régularité ou équitabilité


Il permet de comparer l’étalement de deux distributions, C’est en quelque sorte l’équivalent du
D'
coefficient de variation d’une variable quantitative : R  '
Dmax
'
Dmin
Il est évident que : 0  Rmin  R  Rmax  1 avec : Rmin  ' et D max  log 2 (rich )
Dmax
Exercice : Voici le relevé du nombre de territoires de passereaux (nombre de couples) dans une
forêt de 40 hectares. Calculez tous les paramètres précédents
Espèce 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
Fréquence 42 27 27 6 3 3 3 3 3 3 3 3 3 3 3 3 3 3

26
CHAPITRE 4
SERIES STATISTIQUES DOUBLES OU MULTIPLES
ET REGRESSION LINEAIRE SIMPLE OU MULTIPLE

I. SERIES STATISTIQUES DOUBLES ET LEURS CARACTERISTIQUES


Exemple : Capacité de reproduction en fonction de différentes mesures de cocons et de l’insecte
adulte. Les mesures sont X = longueur en mm du cocon et Y = nombre d’oocytes.
Y↓ X→ 7,6 8 8,4 8,8 9,2 fY
40 2 5 1 2 1 11
50 0 4 3 3 0 10
60 0 0 6 3 3 12
70 0 1 2 5 3 11
80 0 0 3 0 3 6
90 0 0 2 3 5 10
fX 2 10 17 16 15 60
Questions : De quels types de variables s’agit-il ?
Que signifie la dernière ligne et que représente-t-elle ?
Que signifie la dernière colonne et que représente-t-elle?
Remarque :
Souvent les couples des valeurs (X,Y) ne sont observés qu’une seule fois, dans ce cas, le tableau
précédent deviendra
Y↓ X→ 7,6 8 8,4 8,8 9,2
40 1 0 0 0 0
50 0 1 0 0 0
60 0 0 1 0 0
70 0 0 0 1 0
80 0 0 0 0 1

Et par conséquent sera mieux représenté par le tableau suivant :


X 7.6 8 8.4 8.8 9.2
Y 40 50 60 70 80
Dans tous les cas, les caractéristiques statistiques de ces variables sont :
Mode(X,Y) = (Mode(X),Mode(Y))
Médiane(X,Y) = (Médiane (X), Médiane (Y))
Moyenne(X,Y) = (Moyenne (X), Moyenne (Y))

 f x   X  yi  Y 
1
La covariance σXY d’une population est définie par :  XY  ij i
N i j

27
1
La covariance s XY d’un échantillon est la définie par : s XY   f ij ( X i  X )(YJ  Y )
n 1 i j
n f ij X iYJ   f iX X i  f jY YJ
s XY 
i j i j
Ou encore :
n(n  1)
Questions
Placez 8 points sur la figure 1 afin que la relation entre X et Y soit de type linéaire positif. Quel
signe a alors la covariance et comment interpréter cette représentation ?
Placez 8 points sur la figure 2 afin que la relation entre X et Y soit de type linéaire négatif. Quel
signe a alors la covariance et comment interpréter cette représentation ?
Placez 8 points sur la figure 3 afin que la relation entre X et Y ne soit pas de type linéaire. Comment
interpréter cette représentation ?
Figure 1 Figure 2 Figure 3

Y Y Y

X X X

Le coefficient de corrélation d’une population ρxy est défini par :  XY  XY
YY
s XY
Le coefficient de corrélation d’un échantillon rXY est la défini par : rXY 
s X sY
Question : Autour de quelles valeurs les coefficients de corrélation des trois figures précédentes
sont ils situés ?

II. REGRESSION LINEAIRE SIMPLE – EQUATION DE REGRESSION LINEAIRE


Exprimer une relation mathématique reliant des variables statistiques, c’est faire de la régression.
Voir si l’équation de régression répond bien à la liaison, c’est faire de la corrélation.
Lorsque le coefficient de corrélation approche la valeur de 1, on dit que cette corrélation est de type
linéaire positif et le nuage statistique a la forme d’une « frite » droite et inclinée vers le haut.
Lorsque le coefficient de corrélation approche la valeur de -1, on dit que cette corrélation est de
type linéaire négatif et le nuage statistique a la forme d’une « frite » droite et inclinée vers le bas.
Lorsque le coefficient de corrélation approche la valeur de O, négativement ou positivement, on dit
que cette corrélation n’est pas de type linéaire et le nuage statistique a une forme arrondie
Lorsque la corrélation est de type linéaire, positif ou négatif, l’équation de régression est alors
l’équation d’une droite qui s’écrit différemment selon le choix de la variable que l’on veut
expliquer. Si X et Y sont les variables statistiques tel que r2(X,Y) approche 1, alors :
Si Y est la variable expliquée et X la variable explicative, on démontre que l’équation de la droite
de régression DY(X) s’écrit : Y  aX  b
où a et b sont les coefficients de régression obtenus par les relations suivantes :

28
 ( X  X )(Y  Y ) s( X , Y )
i i n   f ij X i Yj   f i X i  f j Yj
a i
 ou bien a
i j i j et b  Y  aX
(X  X ) s (X ) 2 2
 
2

n  f i X i2    f i X i 
i
i
i  i 
Si X est la variable expliquée et Y la variable explicative, on démontre que l’équation de la droite
de régression DY(X) s’écrit : X  a ' Y  b'
où a’ et b’ sont les coefficients de régression obtenus par les relations suivantes :
 ( X  X )(Y  Y ) s( X , Y )
i i n f ij X i Yj  fX f Y
i i j j
a'  i
 ou bien a' 
i j i j et
 (Y  Y ) s (Y ) 2 2
 
2

n  f i Yi2    f i Yi 
i
i
i  i 
b  Y  aX
Remarque : On montre aussi que le coefficient de corrélation vérifie : r 2  aa '
Pour l’exemple sur la capacité de reproduction à partir des mesures des cocons des insectes, on peut
établir sur Excel le tableau suivant qui pourrait conduire aux calculs de ces différents paramètres :
Y↓ X→ 7,6 8 8,4 8,8 9,2 fy Yfy Y2fy fxyXY
2 5 1 2 1 11 440 17600
40
608 1600 336 704 368 3616
0 4 3 3 0 10 500 25000
50
0 1600 1260 1320 0 4180
0 0 6 3 3 12 720 43200
60
0 0 3024 1584 1656 6264
0 1 2 5 3 11 770 53900
70
0 560 1176 3080 1932 6748
0 0 3 0 3 6 480 38400
80
0 0 2016 0 2208 4224
0 0 2 3 5 10 900 81000
90
0 0 1512 2376 4140 8028
fx 2 10 17 16 15 60 3810 259100 33060
Xfx 15,2 80 142,8 140,8 138 516,8
X2fx 115,52 640 1199,52 1239,04 1269,6 4463,68
fxyXY 608 3760 9324 9064 10304 33060
60  33060  3810  516.8 60  33060  3810  516.8 r  0.53
a   19.757 a'   0.014
60  4463.68  516.8 2 60  259100  3810 2
b  106.677 b'  7.714 r 2  0.28

III. LES SERIES STATISTIQUES MULTIPLES ET LEURS CARACTERISTIQUES


Exemple : Estimation du potentiel reproducteur du grand corégone (espèce de poisson d'eau douce
qui vit exclusivement dans les lacs alpins). :
Longueur totale : X1 (mm) Poids total : X2 (g) Poids gonades : X3 (g) Age : X4 Nombre d’œufs : X5
420 785 74,1 12 10676
397 655 49,6 9 8328
424 840 79,5 8 13697
472 1035 80,3 13 14606
434 840 106,6 9 13279
420 790 82,4 11 12571
410 835 101,9 10 14778
467 1000 110,7 12 16571
430 845 99,7 9 16207
432 855 74,4 10 15807
Question : Interprétez ce tableau qu’on notera par la matrice A !
29
Réponse : De ce tableau, on peut extraire les caractéristiques suivantes :
Moyenne(A) = 430,6 848 85,92 10.3 13652
Ecart-type(A) = 23,272 106,98 18,749 1,6364 2590,2
Coefficient de variation de A = 5.4% 12.6% 21.8% 15.9% 19.0%
Covariance(A) Corrélation
 541,6 2371,9 201,26 23,244 38262   1 0,95266 0,46126 0,63475 
0,61037
   
 2371,9 11446 1136,7 100,11 2,10580   0,95266 1 0,5667 0,57184 0,75991 
  0,0733 0,73145 
201,26 1136,7 351,52 2.2489 35522  
0,46126 0,5667 1

 
 23,244 100,11 2.2489 2.6778 524,33   0,61037 0,57184 0,0733 1 0,12371 
  1 
 38262 210580 35522 524.33 6709100   0,63475 0,75991 0,73145 0,12371

AJUSTEMENT DES FONCTIONS PAR LA METHODE DES MOINDRES CARRES


Soient n mesures expérimentales et indépendantes : X
  1 Modèle
Yexp  (Y1 ; Y2 ....Yn ) reliées à « n » entrées X  ( X 1 ; X 2 .... X n ) .
Régression Y
Supposons aussi que la fonction qui les relie possède k X2
Multiple
paramètres (a1 ; a2 ....ak ) : y  y(a1 ; a2 ....ak , x1 ; x2 ....xn ) les XK
x1 ; x2 ....xn sont des variables certaines alors que les k paramètres a1 ; a2 ....ak sont incertaines à cause
de l’aspect aléatoire de y
Problème : Quelles estimations pouvons-nous réaliser aux coefficients a1 ; a2 ....ak et quelles
corrélations pourraient-ils avoir entre eux ?
Réponse : Ce problème est très complexe tel qu’il est posé mais pourrait être résolu si on suppose
que la fonction y est une fonction linéaire des coefficients a1 ; a2 ....ak .Par exemple :
y  y (a1 ; a 2 ....a k , x1 ; x 2 ....x n )   ai f i ( x)
i

Si f i ( x)  x , les (a1 ; a2 ....ak ) deviennent les coefficients du développement de Mac Laurain


i

Si f i ( x)  sin(2ix) ou f i ( x)  cos( 2ix) les (a1 ; a2 ....ak ) deviennent les coefficients de Fourier.

Déterminons les coefficients (a1 ; a2 ....ak ) par la méthode des moindres carrés.
L’objectif de la méthode découle directement de la méthode du risque minimal, il consiste à
N
y exp
 y(a 1 ; a 2 ....a k , x i )  2

minimiser la quantité R (a 1 ; a 2 ....a k )  1


i

 i2
σi étant la variance du résidu

 i  y iexp  y(a 1 ; a 2 ....a k , x i ) :  i2  E( i2 )


Ce critère permet alors de montrer deux résultats importants :
 Les paramètres (a1; a2 ....ak ) sont obtenus à partir de la relation suivante :
 f1 ( x1 ) f 2 ( x1 ) f k ( x1 )   y1exp 
 ...     a1 
 
(a1 ; a 2 ....a k )  A  F Ftr

1 tr
F Y avec :


1
f1 ( x 2 )
1
f 2 ( x2 )
1 
f k ( x2 ) 


1 
y 2exp 
et
 
a 
A 2 
F   2  Y  
...
 2 2  2  ...
 
 ... ... ... ...   ...  a 
 K
 f1 ( xn ) f1 ( xn )
...
f k ( xn )   y nexp 
 n n  n   
  n 
 La matrice de covariance de ces paramètres (a1; a2 ....ak ) est obtenue à partir de la relation
suivante : ID A  J tr J  Ftr F avec J  Jacobien  F tr F F tr
1 1

30
Exercice Trouvez les coefficients ai et leur matrice de covariance pour les cas suivants :
(1)Y = a1 (2) y = a1+a2x

IV. ANALYSE EN COMPOSANTES PRINCIPALES : ACP

IV.1. Principe de l’ACP


L’analyse en composantes principales est une technique qui permet de décrire graphiquement un
maximum d’informations contenues dans un tableau de données. C’est donc une technique
purement descriptive, mais dont les résultats peuvent aussi être utilisés dans la modélisation.
En effet, comme généralement les variables statistiques initiales Xi (au nombre p par exemple) sont
dépendantes les unes avec les autres, toute information extraite d’une des variables n’est pas
exclusivement issue de cette même variable. Les observations dans cet espace de variable ne
peuvent donc pas être visibles à cause de ces interdépendances entre elles. La technique utilisée ici
permet de transformer les variables initiales Xi par d’autres variables indépendantes Vi les unes des
autres. Ceci se fait par rotation des axes Xi initiaux en des axes Vi orthogonaux. Les observations
faites dans ce nouvel espace sont dès lors non biaisées par l’existence des autres nouvelles variables.
L’ACP permet de voir aussi que généralement certaines de ces dernières variables Vi présentent une
variance trop faible pour expliquer la variabilité de l’ensemble des caractères statistiques. Par
conséquent cette analyse permet de réduire le nombre den de variables en un nombre q (q < p) plus
réduit. Cette indépendance et ce nombre plus réduit de variables trouvent aussi leur intérêt dans la
modélisation. En effet, la variable à expliquer peut être exprimée à partir d’un plus nombre plus
faible de variables explicative et surtout totalement indépendantes les unes des autres.
Ainsi lorsqu’on a un tableau de données comportant p variable quantitatives (chacune contenant n
mesures), il y a difficulté de faire des observations dans cet espace. L’ACP est alors nécessaire de
trouver un autre espace plus réduit contenant q variables (q < p) afin de faciliter la visualisation.
Dans la pratique, l’ACP serait intéressante si l’espace est réduit à deux ou au plus, à trois variables.

IV.2. Procédé de détermination des composantes principales X1 X 2 ... X k


Soit le tableau M des données quantitatives suivantes :  x11 x21 ... xk1 
Les colonnes représentent les k variables statistiques et les lignes, les x x22 ... xk 2 
M   12
« n » mesures de chacune des variables.  ... ... ... ... 
ère
1 étape : On détermine la matrice de corrélation de dimension  
(k,k) ci-contre et dont la commande sous Matlab est : corrcoef(M)  x1n x2 n ... xkn 
2ème étape : On calcule les valeurs propres U et les vecteurs propres V et dont la commande sous
Matlab est : [V,U]= eig(R)
3ème étape : On ordonne les valeurs propres par ordre décroissant. L’interprétation étant :
la ième valeur propre λi est la variance de la ième composante principale.
La contribution de la composante principale i à la variation totale des observations est donnée par : λi/k.
L’axe principal qui explique le mieux l’ensemble des observations est celui dont la contribution ou
la valeur propre est la plus grande.
4ème étape : On représente graphiquement l’ensemble des observations dans le plan principal
d’inertie, c'est-à-dire le plan formé par les deux axes dont les valeurs propres sont les deux plus

31
grandes. Cette représentation ne peut avoir de signification que si la contribution de ces deux axes
dépasse les 65% ou mieux, les à 70% de la variabilité totale des observations.

32
CHAPITRE 5
INTRODUCTION A LA THEORIE PROBABILISTE
RELATIONS PROBABILISTES

I. APPROCHE INTUITIVE DES PROBABILITES


Répondre aux questions suivantes :
Vous tirez une carte d’un jeu de 52 cartes
Si c’est une carte de cœur, vous gagnez 2dh, sinon vous perdez 1dh, joueriez-vous ?
Si c’est un J, Q, K ou as, vous gagnez 1dh, sinon vous perdez 1dh joueriez-vous ?
L’objet de la probabilité est donc d’étudier d’un point de vu théorique les phénomènes aléatoires.
Questions :
 On lance trois fois une pièce, quelle probabilité a-t-on pour avoir une fois pile ?
Indication : Représentez toutes les éventualités en utilisant le diagramme arborescent
 On lance simultanément deux dés, quelle probabilité a-t-on pour que la somme soit 5 ?
Indication : Représentez, par un tableau cartésien toutes les éventualités

II. UNIVERS – EVENEMENT – PROBABILITE D’UN EVENEMENT

II.1.Univers Ω ou ensemble d’éventualités


C’est l’ensemble des éventualités susceptibles d’exister dans une épreuve
Exemples : Lancer un dé : Ω={ }
Lancer une pièce : Ω={ }

II.2.Ensemble d’éventualités
L’ensemble des parties de l’univers Ω constituent tous les sous-ensembles qu’on peut constituer
avec Ω. Il est noté P(Ω). Pour le lancer de la pièce, P(Ω)= {ø, {P,F},{P},{F}}
Propriété :
Le cardinale de P(Ω) représente le nombre total des parties de l’univers Ω : Card (P(Ω)) = 2Card(Ω)

II.3.Evènement
C’est un sous ensemble de l’univers (Ω). C’est donc un élément A de P(Ω)
Exemples : A = {1,6} est l’évènement avoir un 1 ou un 6 au lancer d’un dé
Cas particuliers d’évènements:
 L’évènement A = Ω est appelé évènement certain.
 L’évènement A = ø est appelé évènement impossible

II.4.Probabilité
Une probabilité P est une application de P(Ω) vers l’intervalle [0 ; 1] telle que :
P : P(Ω) [0 ; 1]
Card (A)
A P( A ) 
Card () 33
Donc, si l’évènement A comporte k éléments appelés nombre de cas favorable et si l’univers Ω
admet n éléments appelés nombre de cas possibles, on a :
k Nombre de cas favorables
P( A)  
n Nombre de cas possibles
Propriétés de la probabilité
 0  P(A)  1 quelque soit l’évènement A
 P(Ω) = 1 ; La probabilité de l’évènement certain (est certaine) est égale à 1
 P(ø) = 0; La probabilité de l’évènement impossible est nulle.

III. OPERATIONS EN PROBABILITE

III.1. Loi de l’addition en probabilité

1. Evènement non exclusif ou non incompatible


Si A et B sont deux évènements de P(Ω), on a :
P(A ou B)  P(A  B)  P(A)  P(B)  P(A et B)  P(A)  P(B)  P(A  B)
A B
En effet ; Card(A  B)  Card(A)  Card(B)  Card(A  B)

Exemple : Quelle est la probabilité de tirer d’un jeu de 52 cartes un Roi ou un Cœur

2. Evènement mutuellement exclusifs ou incompatible


Si A et B sont deux évènements tel que : A  B  ø , on a :

A B P(A ou B)  P(A  B)  P(A)  P(B)


En effet ; Card(A  B)  Card(A)  Card(B) si A  B  ø
Exemples :
 Quelle est la probabilité de tirer d’un jeu de 52 cartes un As de Pique ou un Cœur ?
 Quelle est la probabilité d’avoir au moins une somme égale à 9 au lancement de 2 dés ?

3. Evènements mutuellement exclusifs et exhaustifs


Soit A et B sont deux évènements de P(Ω). Si A et B sont à la fois mutuellement exclusifs (
A  B  ø ) et exhaustifs ( A  B   ), alors: P(A)  1  P(B)

Exemple : Quelle est la probabilité d’avoir au moins une somme égale à 5 au lancement de 2 dés ?

III.2. Loi de la multiplication


1. Evènements dépendants
A et B sont dits dépendants si la réalisation de l’un affecte celle de l’autre. On parle alors
d’échantillonnage sans remise, c'est-à-dire que A et B sont tirés successivement mais pas dans les
mêmes conditions puisque le premier tirage n’a pas été remis.
Exemple : Deux cartes sont tirées successivement et sans remise d’un jeu de 52 cartes.
L’évènement A = « la première est un Cœur » est-il indépendant de
L’évènement B = « la seconde est un Cœur » ? OUI NON
L’évènement B = « la seconde est un Pique » ? OUI NON
34
2. Evènements indépendants
A et B sont dits indépendants si la réalisation de l’un n’affecte pas celle de l’autre et vice versa. On
parle alors d’échantillonnage avec remise, c'est-à-dire que A et B sont tirés successivement et dans
les mêmes conditions puisque le premier tirage a été remis.
Exemple : On lance deux fois un dé, « le première lancer est un 4 » est-il indépendant de
 L’évènement B = « le second lancer est un 6 » ? OUI NON
 L’évènement B = « le second lancer est un 4 » ? OUI NON

3. Probabilité d’évènements indépendants


Si A et B sont deux évènements indépendants, la probabilité pour qu’il se produise simultanément
est : P(A et B)  P(A  B)  P(A)  P(B)

Exemple : Déterminez la probabilité des évènements indépendants précédents !

4. Probabilité d’évènements dépendants : PROBABILITE CONDITIONNELLE


Si A et B sont deux évènements dépendants, le tirage de B est conditionné par celui de A, la
probabilité pour les deux évènements se produise simultanément est alors définie par :
P(A et B)  P(A  B)  P(A)  P(B / A)

P(B / A) est une probabilité conditionnelle car la réalisation de l’évènement B est conditionnée par
la réalisation de l’évènement A. Usuellement P(B / A) est dit probabilité de B sachant A, c'est-à-
dire la probabilité pour que B soit réalisé sachant que A a été déjà réalisé :
P(A  B) et P(A  B)
P(A / B)  P( B / A ) 
P(B) P(A )

Si évènements A et B indépendants, alors : P(A / B)  P(A) et P(B / A)  P(B)


Exemple : Déterminez la probabilité conditionnelle des évènements dépendants précédents, puis en
déduire la probabilité de réalisation simultanée des deux évènements A et B.

5. Théorème de Bayes
P( A  M ) P( M  A ) P( B  M ) P(M  B)
P( A / M )   ou P(B / M)  
P( M ) P(A  M)  (B  M) P( M ) P(A  M)  (B  M)

Donc: P(A / M)  P(A )P( M / A ) ou P(B / M)  P(B)P(M / B)


P(A)P(M / A)  P(B)P(M / B) P(A)P(M / A)  P(B)P(M / B)

35
CHAPITRE 6
DISTRIBUTIONS DE PROBABILITE DISCRETES

I. INTRODUCTION : STATISTIQUE/PROBABILITE
Notions statistiques Notions probabilistes
Concept pratique Concept théorique
Caractérisent des échantillons réels à partir Caractérisent une population hypothétiquement
d’une population réelle infinie
Variable statistique Variable aléatoire
Fréquence relative d’une variable Probabilité d’une variable aléatoire
discrète Discrète : Probabilité d’un évènement
continue par intervalle Continue : Densité de probabilité
Fréquence relative cumulée croissante Fonction de répartition
Distribution statistique (histogramme…) Lois de probabilité (Binomiale, normale…)
Moyenne arithmétique Espérance mathématique μ
Ecart type d’un échantillon : s Ecart type : σ
La loi des grands nombres précise que la fréquence relative d’un événement tend vers la
probabilité lorsque le nombre d’individu d’un échantillon croit indéfiniment

II. VARIABLE ALEATOIRE


Si à chaque évènement élémentaire d’une expérience aléatoire on fait correspondre une valeur
numérique non certaine, on a alors affaire à une variable aléatoire.
Une variable aléatoire est donc une description numérique du résultat d’une expérience
Expérience X = Variable aléatoire Valeurs de X Variable
Contacter cinq clients Nombre d’acheteurs 0, 1, 2, 3, 4, 5 Discrète
Vendre une voiture Sexe 0 si ♂ ; x = 1 si♀ Discrète
Temps écoulé (en s) entre 2 clients
Gérer un guichet de banque X≥0 Continue
consécutifs

III. DISTRIBUTION DE PROBABILITE DISCRETE


Exemple : Un licencié d’un établissement universitaire doit passer trois entretiens pour une
inscription éventuelle en trois masters différents. Quelle loi de probabilité peut-on associer aux
résultats de ces entretiens ? Comment est distribuée cette loi si on sait que cet étudiant a 20% de
chance d’être accepté à la suite d’un entretien
Réponse
1ère étape : Enumérer les résultats possibles de ces entretiens:
Si A = étudiant accepté et R = étudiant refusé, les différents résultats sont :
(AAA); (AAR); (ARA); (ARR); (RRR); (RRA); (RAR); (RAA)
2ème étape : Définir une variable aléatoire représentant le nombre d’offre et lui associer une variable
36
Soit X le nombre d’offre issue de cet entretien, X peut prendre les valeurs 0, 1, 2, 3 :
X = 0 (RRR) X = 2 (AAR); (ARA); (RAA)
X = 1 (ARR); (RRA); (RAR) X = 3 (AAA)
3ème étape : Calculer la probabilité qu’a cet étudiant d’avoir ce type de résultat :
P(X  0)  P(R )P(R )P(R )  P(R )  = 0,512
3

P( X  1)  3P( A) P( R) P( R)  3P( A)P( R)  = 0,384


2

P( X  2)  3P( A) P( A) P( R)  3P( A)  P( R) = 0,096


2

P( X  3)  P( A) P( A) P( A)  P( A)  = 0,008
3

Donc sa représentation graphique est le diagramme en bâtons ci-haut.

IV. CARACTERISTIQUES D’UNE VARIABLE ALEATOIRE DISCRETE

IV.1. Espérance mathématique


Elle est définie par la relation suivante : E (X )     x i P(X  x i )
i

Exemple : Calculez l’espérance mathématique de la variable de l’exemple précédent ;


x P(x) xP(x)
0 0,512 0
Cela veut dire qu’à la suite de trois entretiens, un licencié
1 0,384 0,384 a « en moyenne » 0,6 inscription en master. En d’autres
2 0,096 0,192 termes, si 10 licenciés passent chacun trois entretiens, en
3 0,008 0,024 moyenne 6 inscriptions en master leur seront offerts.
μ 0,6

IV.2. Variance
La variance d’une variable aléatoire discrète est : Var (X)     x i    P(X  x i )
2 2

Un calcul plus simplifié de la variance peut se faire aussi à partir de la formule suivante :
 
Var (X)   2    x i2 P(X  x i )    2
 i 
Exemple : Calculez l’espérance mathématique de la variable de l’exemple précédent ;
X P(x) xP(x) x2P(x)
0 0,512 0 0
Donc la variance est :
1 0,384 0,384 0,384
2 0,096 0,192 0,384
Var(X) =σ2 = 0,84 – 0,62 ;
3 0,008 0,024 0,072 soit : σ2 = 0,48
Somme 1 0,6 0,84

V. LOI BINOMIALE

V.1. Expérience binomiale


 Les tirages donnent uniquement deux possibilités : SUCCES OU ECHEC ;
 Les tirages sont identiques ;
 Les tirages sont effectués avec remise
37
 Les tirages sont indépendants.
Remarques importantes:
Si on note par p, la probabilité d’avoir un succès S : P(S) = p, et par q la probabilité d’avoir un
échec E : P(E) = q, alors ces deux probabilités sont exclusifs : q  1  p ;

Pour n tirages dont x succès alors (n – x) tirages sont des échecs ;


La variable aléatoire X associée à la loi binomiale représente, non le succès S, mais le nombre x de
succès qu’on peut avoir sur n tirages de l’expérience binomiale.
Les valeurs x de la variable aléatoire binomiale X varient entre 0 (réussite en n tirages) et n
(réussites en n tirage. X est donc un variable aléatoire discrète et finie.
n n!
Le nombre de possibilités d’effectuer x tirages réussis en n tirages est :   
 x  x!(n  x )!

V.2. Fonction de probabilité binomiale


C’est la fonction f(x) telle que :
n n!
f ( x )  P(X  x succès en n tirages)   p x q ( n  x )  p x (1  p) ( n  x )
x x!(n  x )!
avec : P(Succès)  p et P(Echec)  q  1  p
Sur Excel, pour avoir :

 la probabilité, taper loi.binomiale et entrer les quatre caractéristiques : x, n, p,


faux

 la fonction de répartition, taper loi.binomiale et entrer les quatre caractéristiques :


x, n, p, vrai

V.3. Distribution de probabilité de la loi binomiale


n = 5 et p = 0,2
X f(x)
0 0,1160
1 0,3124
2 0,3364
3 0,1811
4 0,0488
5 0,0053
n = 9 et p = 0,25
X f(x)
0 0,0751
1 0,2253
2 0,3003
3 0,2336
4 0,1168
5 0,0389
6 0,0087
7 0,0012
8 0,0001
9 0,0000
38
Comme on peut le voir la loi binomiale tend à se
comporter comme une loi normale (courbe en
cloche) et ce d’autant que n est grand et p est
proche de 0,5

V.4. Espérance mathématique et variance d’une distribution binomiale


On montre « assez facilement » que l’espérance mathématique E(X)= μ et la variance σ2 d’une
distribution binomiale, de paramètres n = nombre de tirages et p = probabilité du succès, s’écrivent :
E(X)    np et V(X)   2  npq  np(p  1)

VI. LOI HYPERGEOMETRIQUE


La loi hypergéométrique remplace la loi Binomiale lorsque, dans l’expérience de la loi binomiale, le
tirage des évènements ne se fait pas avec remise. Les évènements deviennent alors dépendants

VI.1. Fonction de probabilité de la loi hypergéométrique


 r  N  r 
  
C’est la fonction f(x) telle que :  x  n  x 
f ( x )  P(X  x succès en n tirages sans remise) 
 N
 
n
N est le nombre d’éléments dans la population et n est le nombre de tirage
r est le nombre de « réussite » qui se trouve dans la population
x est le nombre de réussite sur les n tirage sans remise : 0 ≤ x ≤ r ≤ n ≤ N
Remarque :
La variable aléatoire x de la loi hypergéométrique peut prendre toute valeur entière telle que :
x  0 si N  r  n
 et x  r . C’est donc une variable aléatoire discrète finie
 x  r  n  N si N  r  n
Sur Excel, pour avoir la probabilité, taper loi.hypergéométrique et entrer les quatre
caractéristiques : x, n, r, N.

VI.2. Distribution de probabilité de la loi hypergéométrique


x f(x)
0 0,0030
1 0,0599
2 0,2797
3 0,4196
4 0,2098
5 0,0280

VI.3. Espérance mathématique et variance d’une loi hypergéométrique


On montre que l’espérance mathématique E(X) et la variance σ2 d’une loi hypergéométrique de
paramètres r, n et N sont respectivement :
r r Nr Nn
E ( X)    n et V( X)   2  n
N N N N
39
Exercice : Une entreprise expédie par lot de 50, ses microprocesseurs à un fabricant. Ce dernier
utilise le plan de contrôle suivant : Prélever 3 microprocesseurs du lot : Si aucun n’est défectueux,
le lot est accepté, sinon, le lot entier est contrôlé. Quelle est la probabilité d’accepter le lot s’il
contient 2 défectuosités. Réponse : 0,88245

VII. LOI MULTINOMIALE


C’est une généralisation de la loi Binomiale à k évènements complémentaires :
n!
f ( x)  P( X 1  x1 ; X 2  x2 ;...; X k  xk )  p1x1 p2x2 ... pkxk
x1! x2 !...xk !
n est le nombre de tirage dont : x1 succès de X1, x2 succès de X2…, xk succès de Xk.
k
Avec : P( X i  xi )  pi et telle que : p
i 1
i 1

Cas particulier : Si k = 2, la loi devient binomiale


Exercice : Soit le croisement de 2 types de pois donnant naissance à 4 types : jaunes ronds
(p1=0,56), verts ronds (p2 = 0,19), jaunes et ridés (p3 = 0,19), verts et ridés (p4=0,06). On tire 16
pois d’une urne contenant une très grande quantité de pois. Quelle est la probabilité de tirer 9 jaunes
ronds pois, 3 pois verts ronds, 3 pois jaunes et ridés et 1 pois verts et ridés Réponse : 0,0245

VIII. LOI DE PASCAL OU LOI BINOMIALE NEGATIVE


Question 1: Quelle est la loi de probabilité à utiliser pour avoir x succès au cours de n épreuves
identiques et indépendante, sachant que P( succès)  p . Réponse : LOI BINOMIALE

Question 2: Quelle est la loi de probabilité que c’est sur x épreuves identiques et indépendantes
qu’on pourrait avoir r succès P( succès)  p . Réponse : LOI BINOMIALE NEGATIVE

La fonction de probabilité de la loi binomiale négative est définie par :


( x  1)!  x - 1 r ( x  r )
f ( x )  P(X  x )  p r q x  r   p q
(r  1)!( x  r )!  r -1 
 r est le nombre de succès, r est entier strictement positif : r  1 ,
 x est le nombre d’épreuves à réaliser pour avoir exactement r succès : x  r
 P( succès)  p et P( séchec)  1  p

Dans la pratique, la loi binomiale négative s’applique très bien dans des phénomènes liés à la
contagion.
Exercice : La probabilité de capturer une souris sylvestre pleine est de 0,2. Quelle est la probabilité
de capturer 8 souris sylvestres afin d’en obtenir deux pleines ?
Réponse : Sur Excel, pour avoir cette probabilité, taper loi.binomiale.neg (nombre d’échecs,
nombre de succès, probabilité de succès). Ici, on écrit pour 8 captures : loi.binomiale.neg(6,2 ; 0,2)
et on trouve : 0,0734.
La distribution de probabilité de la loi binomiale négative et sa fonction de répartition est :

40
Les propriétés de la loi de Pascal sont : E ( X )    r et V ( X )   2  r (r 2 p)
p p
Question : Peut-on utiliser la loi Binomiale négative si on cherche à connaitre la probabilité de
réaliser x épreuve pour n’avoir aucun succès (r = 0). Réponse : NON

IX. LOI DE POISSON


La distribution de Poisson est souvent utilisée pour modéliser :
 Les taux d’arrivée dans des situations de file d’attente.
 Les évènements qui apparaissent soit dans un intervalle donné, de temps ou d’espace.
Equivalente à la loi binomiale, la loi de Poisson s’applique aux phénomènes accidentels où la
probabilité p de réussir est très faibles. Dans la pratique, pour n  20 , p  0,1 et np  5 , la loi
Binomiale est équivalente à la loi de Poisson.

IX.1. Propriétés d’une expérience de Poisson

 Dans 2 intervalles identiques, la probabilité d’apparition d’un évènement est la même;


 Les apparitions ou les non apparitions des évènements sont indépendantes d’un intervalle à l’autre ;

IX.2. Fonction de probabilité de Poisson


La probabilité, pour qu’un évènement apparaisse x fois dans un intervalle de temps dans lequel
apparaît en moyenne μ (> 0) fois cet évènement, est définie par la fonction de probabilité de Poisson
 x exp()
suivante : f (x) 
x!
Remarque :
La variable aléatoire x de la loi de Poisson peut prendre toute valeur entière. C’est donc une
variable aléatoire discrète infinie
Sur Excel, pour avoir
 la probabilité, taper loi.poisson et entrer les quatre caractéristiques : x ; µ ; faux
 la fonction de répartition, taper loi.poisson et entrer quatre caractéristiques x ; µ ; vrai

IX.3. Espérance mathématique et variance d’une loi de Poisson


On montre que l’espérance mathématique E(X) et la variance σ2 d’une loi de Poisson de paramètres
μ sont égales à ce même paramètre μ : E(X)   et V(X)   2  
41
Exercice : Une entreprise de forage de puits a effectué un sondage les deux dernières années et a
trouvé qu’il réussissait en moyenne trois forages par semaine
Réponse : La Distribution de probabilité associé à cet exercice est celle de la loi de Poisson à μ = 3 ;

X f(x)
0 0,0498
1 0,1494
2 0,2240
3 0,2240
4 0,1680
5 0,1008
6 0,0504
7 0,0216

Sa fonction de répartition est :

Comme on peut le voir sur la figure suivante,


la loi de Poisson tend à se comporter comme
une loi normale (courbe en cloche) et ce
d’autant vraie que la moyenne μ est grande

Exercice : Il y a 5 chances sur 100 qu’un client arrive au guichet dans un intervalle de 15’’. Quelle
est la loi de probabilité qui régit le nombre de clients arrivant par heure ?
Réponse : Si μ15’’ = 0,05client en 15’’ alors : μ1h = μ240x15’’ = 0,05x240 = 12clients en une heure.
12 x exp(12)
D’où : f ( x) 
x!

42
CHAPITRE 7
DISTRIBUTIONS DE PROBABILITE CONTINUES

I. INTRODUCTION : VARIABLE ALEATOIRE CONTINUE

I.1. Définition
Toute variable non certaine pouvant prendre des valeurs appartenant à l’ensemble des réels peut être
considérée comme variable aléatoire continue
Exemples : Mesures de : DBO5; DCO ; température, Oxygène dissout, longueur …

I.2. Densité de probabilité


A l’opposé d’une variable discrète où on définit la probabilité pour que la variable aléatoire prenne
une valeur bien particulière, on définit pour la variable continue, la densité de probabilité qui est en
quelque sorte, la probabilité pour que la variable aléatoire continue prenne une valeur située au
voisinage immédiat d’une valeur particulière :
f ( x 0 )  lim proba ( x 0  X  x 0  )
 0

Propriété importante de la densité de probabilité :


 La densité de probabilité étant une probabilité donc : x; 0  f ( x )  1

 L’aire comprise entre la courbe f(x) et l’axe des abscisses vaut 1 : Pr oba (  X     f ( x )dx  1

Exercice : Déterminez les valeurs de A et B des densités de probabilités schématisées ci-dessous:
f(x) f(x)

A
B

x x
3 7 0 10

I.3. Fonction de répartition


Dans le cas d’une variable statistique, il est intéressant de définir la fréquence relative cumulée
croissante qui représente le pourcentage d’individus dont la valeur de la variable est inférieure ou
égale à une valeur x0 bien déterminée.
Dans le cas d’une variable aléatoire, on définit ainsi la fonction de répartition. Elle représente la
probabilité pour qu’une variable aléatoire prenne une valeur inférieure (ou inférieure ou égale) à
une valeur x0 bien déterminée : F(x 0 )  Pr oba( x  x 0 )

Lorsque la variable est continue, cette fonction représente l’aire comprise entre l’axe des abscisses,
la courbe représentant la densité de probabilité f ( x ) et les axes x   et x  x 0 :
x0
F( x 0 )  Pr oba ( x  x 0 )   f ( x )dx


43
I.4. Espérance mathématique et variance d’une variable aléatoire continue :

L’Espérance mathématique est définie par l’intégrale suivante :  ( X )   xf ( x)dx


La Variance d’une variable aléatoire continue est définie par l’intégrale suivante :
 2 ( X )   ( x   ( X )) 2 f ( x)dx    x 2 f ( x)dx    ( X ) 2
 

   

I.5. Moment centré et moment non centré d’une variable aléatoire continue :
Le moment centré d’ordre k d’une variable aléatoire continue est définie par l’intégrale suivante :

mk ( X )  E[( X   ( X )]k )   [ x   ( X )]k f ( x)dx


Si k = 2, le moment centré d’ordre 2 représente la variance


Le moment non centré d’ordre k d’une variable aléatoire continue est définie par l’intégrale

suivante : mk' ( X )  E ( X k )   x k f ( x)dx


Si k = 1, le moment non centré d’ordre 1 représente l’espérance mathématique.


On montre aussi la relation suivante :  2 (X)  m '2 (X)  (m1' (X)) 2  m 2 (X)   2 (X)

II. LOI UNIFORME

II.1.Densité de probabilité de la loi uniforme


Lorsqu’une variable aléatoire peut prendre toute valeur de l’intervalle [a ; b] (a et b deux nombres
réels quelconques) et si la probabilité pour que cette variable se situe à l’intérieur de tout
intervalle, d’amplitude Δx fixée, contenue dans [a ;b] (Δx < b – a) est la même, cette variable suit
alors la loi uniforme. Sa densité de probabilité est définie alors comme suit :
 1
si a  x  b
f (x)   b  a
 0 sinon

II.2.Fonction de répartition d’une loi uniforme


f(x)
C’est la fonction F(x) telle que :
1
x  a
ba  b  a si a  x  b

xa F( x )  P(X  x )   0 si x  a
 1 si x  b
ba 
x 
a x b
II.3.Espérance mathématique et variance d’une loi uniforme
On montre après intégration, que l’espérance mathématique et la variance d’une loi uniforme
sont respectivement :
b b x ab
E(X)   xf ( x )dx   dx donc : E ( X) 
a a ba 2
(a  b ) (b  a ) 2
2
b b x2
V (X )   ( x  E(X )) 2 f ( x )dx   dx  donc : V(X) 
a a ba 4 12

44
Exemple : Soit X la durée moyenne de gestation d’un mammifère marin. On évalue cette durée
entre 200 et 230 jours. On considère qu’une gestation normale doit durer en moins de 225 jours.
Comment modéliser cette durée de gestation ? Quelle est la probabilité qu’un mammifère marin
présente une durée de gestation anormale ? Quelle est la probabilité qu’un mammifère marin
présente une durée de gestation supérieure de 5 jours par rapport à la gestation normale ? Quelle est
la durée de gestation moyenne et quelle est son écart type ? f(x)
Réponse : Si on suppose qu’il n’y a pas une durées de gestation

plus particulière qu’une autre durée entre 200 et 230 jours, on
peut alors affirmer que cette durée est aléatoire et varie de façon
uniforme dans l’intervalle [200; 230]. Si le jour est l’unité de
temps, la représentation de la densité de probabilité de cette
variable uniforme est : 200 x 230 x

III. LOI EXPONENTIELLE


A l’inverse de la loi de Poisson qui s’intéresse au nombre d’évènements apparaissant, soit dans
un intervalle de temps, soit dans un intervalle d’espace, la loi exponentielle s’intéresse plutôt à
l’intervalle de temps ou d’espace T dans lequel apparaissent deux évènements successifs. La loi
exponentielle est donc une variable continue dont :
t
1
 La densité de probabilité est définie par : Pour tout t  0; f ( t )  e

t

 La fonction de répartition est : Pour tout t  0; F( t )  P(T  t )  1  e 


 L’espérance mathématique est : E(T) = μ
 L’écart type est : σ = μ
Remarque : Dans Excel, on utilise l’instruction LOI.EXPONENTIELLE. Sinon on utilise soit les
tables données dans le livre, soit une simple calculatrice
Exemple : Supposons qu’en moyenne, on voit arriver 12 météorites en une heure,
Si on s’intéresse à la distribution de probabilité du
nombre de météorites X qui arrive au cours d’une
heure, on utilise la loi de Poisson en posant :
1H  12 météorites/h et donc :

12 x exp(12)
P( X  x )  ; x = 0, 1, 2…
x!
Si on s’intéresse à la distribution de probabilité de la
durée t, en heure, séparant l’arrivée successive de
deux météorites, on utilise la loi exponentielle en
1
posant : 1météorite  heures/météorite. Donc :
12

45
1
1  t
f (t)  e (1/12 ) ; où t est une durée en heure ;
(1 / 12)
t

t > 0, Et F( t )  P(T  t )  1  e (1 / 12 )

Si on s’intéresse à la distribution de probabilité de la durée


t, en minute, séparant l’arrivée successive de deux
météorites, on commence à chercher la durée moyenne
séparant l’arrivée successive de deux météorites
1météorite  5 mn/météorite puis on utilise la loi
t
1
exponentielle : f ( t )  5 e 5 ; où t est une durée en minutes; t  0

IV. LOI NORMALE

IV.1. Conditions d’application d’une loi normale


Un phénomène ou une variable aléatoire obéit approximativement à une loi normale quand les
quatre conditions sont rencontrées :
 Le phénomène dépend de nombreux facteurs
 Les différents facteurs sont indépendants entre eux
 Les effets aléatoires de ces facteurs sont cumulatifs
 Les variations de ces facteurs sont faibles et leurs effets sur la variation du phénomène sont faibles
La loi normale est donc ainsi utilisée dans de nombreuses applications pratiques telles que, par
exemple la taille des hommes et des femmes (confection des vêtements…), leurs poids, les mesures
scientifiques… Mais son application réside essentiellement sur l’inférence statistique qui permet
d’avoir une idée concrète sur le comportement de la population à partir des statistiques effectuées
sur un échantillon aléatoire prélevé de cette même population.

IV.2. Densité de probabilité d’une loi normale


La densité de probabilité d’une loi normale est entièrement définie à partir de deux paramètres μ et
σ qui s’avère être respectivement l’espérance mathématique et l’écart type de la loi normale.
Elle est définie comme suit : LOI NORMALE CENTREE REDUITE
E(X) = 15 et V(X) = 4
2
1  x  
1    0,2
2  
f (x)  e 0,15

 2
f(x)

0,1

0,05

Les représentations graphiques pour μ = 15 et σ = 2 de sa 0


7 9 11 13 15 17 19 21 23

densité de probabilité f(x) et de sa fonction de répartition x

F(x) sont données ci-contre. Fonction de répartition


E(X) = 15 et V(X) = 4

1
Remarques : 0,8

f(x) est symétrique et Mode = médiane = E(X) = μ


0,6
F(x)

0,4

Lorsque σ croît, la courbe s’aplatit


0,2

0
7 9 11 13 15 17 19 21 23
x

46
x0
F( x 0 )  Pr oba ( x  x 0 )   f ( x )dx  surface hachurée


Pour calculer Pr oba ( x  x 0 ) , on utilise Excel

(LOI.NORMALE), soit la table de la loi normale centrée réduite à la suite d’un changement de
variable approprié (voir paragraphe suivant).

IV.3. Espérance et variance mathématique de la loi normale


On démontre mathématiquement le résultat suivant qui sera accepté dans ce cours :

E ( X)   V(X)   2

IV.4. Loi normale centrée réduite


x 
En posant : z  , on obtient une autre variable

aléatoire qui suit aussi une loi normale mais qui est cette
fois-ci, centrée (E(Z) = 0) et réduite (V(Z) = 1) et dont la
1
1  2 z 2
densité de probabilité s’écrit : f (z)  e
2
Les représentations graphiques de la densité de
probabilité f(z) et de sa fonction de répartition F(z) sont
données ci-contre.
Remarques :
Pour calculer Pr oba ( Z  z) , on utilise soit Excel
(LOI.NORMALE.STANDARD), soit la table de la loi
normale centrée réduite (tableau 1).
Pour calculer Pr oba (X  x ) d’une variable aléatoire X, normale de paramètres μ et σ, on écrit :
X x 
P ( X  x )  P  
   

Donc : P(X  x )  PZ  z  , valeur déterminée à partir de la table de la loi normale centrée réduite.

Dans beaucoup de problèmes, on cherche à savoir dans p% de cas, une variable aléatoire normale
X, de paramètres μ et σ, est inférieure ou égale à quelle valeur x ?
Pour répondre à ce type de problème, on utilise soit Excel (LOI.NORMALE.INVERSE), soit la
table de la loi normale centrée réduite. Dans ce cas on raisonne comme suit :
On cherche z, dans la table telle que : PZ  z   p / 100 .
x 
Donc la valeur x recherchée vérifie : z  . Par conséquent : x    z

IV.5. Approximation d’une loi binomiale par la loi normale


Lorsque le nombre de tirages (avec remise) est trop important, les calculs de probabilité par la loi
binomiale deviennent fastidieux.
47
Pour éviter ces calculs, on utilise le résultat important suivant : Une loi binomiale tend à devenir
une loi normale lorsque le nombre de tirage est infini.
Dans la pratique, pour approximer la loi binomiale par la loi normale, il suffit que les deux
conditions suivantes soient vérifiées : np  5 ET n (1  p)  5

Dans ce cas, la loi normale sera définie par ses deux caractéristiques :

E(X)    np et V(X)   2  np(1  p) si np  5 et n (1  p)  5

V. LOI DE KHI CARRE

V.1. Définition
Elle est définie comme suit :
ν=1
Si Z1, Z2,…. Zν sont k variables aléatoires
ν=2 ν=3
indépendantes qui suivent toutes des lois
normales centrées réduites, alors la somme de
ν=6
leur carré est une variable aléatoire qui suit la ν =
distribution de Khi2 à ν degrés de libertés : 10
Si Z1, Z2,…, Zν  N(0,1) indépendantes alors :

 2 ( )  Z12  Z12  ...  Z2  loi de  2 à  dgrés de liberté

La représentation graphique de la densité de probabilité f (  2 ( )) est donnée ci-haut.

Si α est la surface située à droite de l’axe  2 verticale entre la courbe et l’axe des abscisses, α est
calculée à partir de la table 2 ou par Excel: LOI.KHIDEUX(x=khi2,ν)

Pour calculer l’abscisse 2 de la loi de khi2, on utilise la table 2 ou Excel :


KHIDEUX.INVERSE(α, ν). α étant la surface située droite de l’axe F verticale entre la courbe et
l’axe des abscisses.
Propriétés
Si 12 ,  22 ,...,  N2 sont des variables indépendantes qui suivent des loi de khi2 à respectivement
 1 , 2 ... n degrés de liberté, alors :  2 ( )  12   22  ...   N2  loi de  2 à   1   2  ... n degrés
de liberté.

Réciproquement, si 12 ,  22 ,...,  N2 suivent des loi de khi2 à respectivement 1 , 2 ... n degrés de
liberté, et  2 ( )  12   22  ...   N2  loi de  2 à   1   2  ... n degrés de liberté alors
12 ,  22 ,...,  N2 sont indépendantes.
Soient X1, X2, … XN des lois normales indépendantes toutes d’espérance mathématiques identiques
X n n 2

µ et d’écart type identique σ, alors :  (n)    i


2
   Z i  loi de  n degrés de liberté
2 2

i 1    i 1

48
 L’espérance mathématique de la loi khi2 est : E (  2 )  
 La variance de la loi khi2 est :  2 (  2 )  2
 Le mode de la loi khi2 est : Mode(  2 )    2, si   2

VI. LOI DE FISHER-SNEDECOR

Soient  12 et  22 , 2 variables indépendantes qui suivent des lois khi2 à respectivement 1 et  2 degrés
12 /  1
de liberté. Alors : F  suit une distribution de Fischer F ( 1 , 2 ) à  1 et  2 degrés de liberté.
 22 /  2
Si α est la surface située à droite de l’axe F verticale entre la courbe et l’axe des abscisses, α est
calculée à partir de la table 3 ou grâce à Excel : LOI.F(x=F,ν1, ν2)
Pour calculer l’abscisse F de la loi de Fisher, on utilise la table 3 ou Excel : INVERSE.LOI.F(α; ν1,
ν2). α étant la surface située droite de l’axe F verticale entre la courbe et l’axe des abscisses.
2
L’espérance mathématique de la loi de Fischer est : E ( F ( 1 , 2 ))  et ν2 > 2
2  2
2 22 ( 1   2  2)
La variance de la loi khi2 est :  2 ( F ( 1 , 2 ))  et ν2 > 4
 1 ( 2  2) 2 ( 2  4)
Si on note par Fα,ν1,ν2 l’abscisse de la loi de Fisher à partir de la table 3, on pourrait utiliser la
1
relation suivante : F1 , 2 ,1 
F ,1 , 2

VII. LOI DE STUDENT

Soit  2  une loi khi2 à 1 degrés de liberté et soit Z une variable aléatoire normale centrée réduite,
alors :
Z
t suit la loi de Student à ν degrés de liberté.
 2 /

 L’espérance mathématique de la loi de Student est : E (t )  0

 La variance de la loi de Student est :  2 (t )   (  2)

 La médiane et le mode de la loi de Student sont tous les deux nuls car la loi est symétrique.
Si α est la surface située à droite de l’axe t verticale entre la courbe et l’axe des abscisses, α est
calculée à partir de la table 4 ou grâce à Excel : LOI.STUDENT(t, ν, uni ou bilatéral)
Pour calculer l’abscisse t de la loi de Student, on utilise la table 4 ou Excel :
LOI.STUDENT.INVERSE (α, ν). Ici α est la surface située à droite de l’axe +t verticale entre la
courbe et l’axe des abscisses ainsi qu’à la gauche de l’axe -t verticale entre la courbe et l’axe des
abscisses.

49
CHAPITRE 8
ESTIMATION PONCTUELLE ET DISTRIBUTIONS
D’ECHANTILLONNAGE D’UNE MOYENNE ET D’UNE PROPORTION

I. PRINCIPE GENERAL DE L’ESTIMATION


Comment choisir un échantillon aléatoire ?
A partir de cet échantillon aléatoire, comment estimer un paramètre θ d’une population et que doit
vérifier l’estimateur ˆ de ce paramètre ?

I.1. Echantillonnage simple

1. Echantillonnage simple à partir d’une population finie


Un échantillon aléatoire simple de taille n, issu d’une population finie de taille N est un échantillon
sélectionné de manière à ce que chaque échantillon possible de taille n ait la même probabilité
d’être choisi.
Remarque : Le nombre d’échantillon aléatoire simples de taille n à partir d’une population de taille
N est :  N   N!
n n!( N  n )!
 
Généralement, on utilise un tableau pour générer un échantillon aléatoire de taille n à partir d’une
population de taille N

2. Echantillonnage simple à partir d’une population infinie


Un échantillon aléatoire simple de taille n, issu d’une population infinie est un échantillon
sélectionné de manière à ce que chaque individu sélectionné ait la même probabilité d’être choisi.
Cela suppose donc que :
Chaque individu sélectionné provient de la même population
La sélection d’un individu est effectuée indépendamment des autres sélections

I.2. Estimation ponctuelle et distribution d’échantillonnage

1. Distribution d’échantillonnage
La distribution d’échantillonnage d’une population de paramètre θ comme la moyenne µ, la
médiane, le mode, la variance  2 , on peut extraire une infinité d’échantillon d’une population
infinie ou k  N! échantillons de taille n d’une population finie N. Chaque échantillon est lui-
n!( N  n)!
même caractérisé par sa statistique qui est soit sa moyenne X , soit sa médiane, soit son mode, soit
sa variance s 2 … On pourrait donc avoir accès à une infinité ou à k moyennes, une infinité ou à k
médianes, une infinité ou à k modes, une infinité ou à k variances… Ces valeurs représentent alors
des variables aléatoires. La distribution de probabilité de chacune de ces variable est ainsi appelée
distribution d’échantillonnage, de la moyenne X , la médiane, le mode, la variance s 2 …

50
2. Estimation ponctuelle
En principe, on possède un seul échantillon de n résultats ou d’une campagne de n mesures : X1,
X2, …, Xn. Chacune de ces mesures est une variable aléatoire et le paramètre ˆ qu’on veut extraire
de cet échantillon est fonction de ces n mesures : ˆ  f ( X 1 , X 2 ,..., X n ) est donc un estimateur du
paramètre θ de la population. Par exemple : ˆ  X 1  X 2  ...  X n
n

I.3. Propriétés des estimateurs

1. Estimateur non biaisé


ˆ est sans biais si : E (ˆ)  
Le biais d’un estimateur est : Biais  E (ˆ)  

 X  X  sont des estimateurs, non


n n
Question : Montrez que ̂  X  1  X i et ˆ 2  s 2  1 2

n 1
i
n i 1 i 1

biaisés, de la moyenne µ et de la variance  respectivement 2

2. Estimateur efficace
Question : Il peut exister plusieurs estimateurs non biaisés, lequel est le meilleur ?
Réponse : C’est celui dont la variance est la plus faible.

3. Estimateur convergent
Un estimateur est dit convergent sa variance diminue à mesure que la taille n de l’échantillon
augmente.
n
Exemple : Pour des mesures Xi indépendantes, de moyenne µ et d’écart type σ, ̂  X  1  X i est
n i 1

un estimateur convergent.
En effet : Var ( ˆ )  Var ( X )  Var 1  X i   12
n n
1 n
.
n i 1  n
Var ( X
i 1
i )
n2
 i 1
2

n
 2
1 n

 Var ( ˆ )  lim
Donc : lim   0 . ̂  X   X i est donc un estimateur convergent.
n  n  n n i 1

Un estimateur sans biais et convergent est un estimateur absolument correct.

II. DISTRIBUTION D’ECHANTILLONNAGE D’UNE MOYENNE

II.1.Caractéristiques de la distribution d’échantillonnage de la moyenne


Pour une population d’espérance mathématique μ et d’écart type σ on démontre que les
caractéristiques de la distribution d’échantillonnage de l’estimateur de la moyenne d’un échantillon
n

X i
de taille n : X i 1 sont :
n
 Espérance mathématique de l’estimateur est : E( X )   = moyenne de la population. C'est-à-dire
que cet estimateur de la moyenne de la population est sans biais.
 L’écart type de l’estimateur est selon les cas :
51
n
o Si la population est infinie ou si la population est de taille N telle que  0,05  5%
N
 Population 
alors : ( X )  
n n
N  n  Population Nn 
o Si la population est finie de taille N, alors : ( X )  
N 1 n N 1 n

II.2.Forme de la distribution d’échantillonnage de la moyenne : théorème central limite :


Si la population a une distribution normale, alors la distribution d’échantillonnage, quelque soit la
taille de l’échantillon est aussi normale.
Théorème central limite : Si la population suit une distribution quelconque, la distribution
d’échantillonnage de la moyenne X d’un échantillon de taille n est aussi normale à condition que n
soit grand. En pratique, ce théorème peut être supposé vrai pour une taille n des échantillons
supérieure ou égale à 30 : n  30
Conséquence
La distribution d’échantillonnage de la moyenne permet de connaitre selon un seuil de confiance
approprié l’écart entre les moyennes, de l’échantillon X et μ de la population.
Remarques :
 Dans le cas où la population suit une loi normale et pour quelque soit la taille n de l’échantillon,

X suit alors une loi normale d’espérance mathématique μ et d’écart type n , où σ est l’écart

type de la population.
 Dans le cas où la population suit une distribution de probabilité quelconque et pour n grand,
dans la pratique, n  30 , X suit alors une loi normale d’espérance mathématique μ et d’écart
type  , où σ est l’écart type de la population.
n

 Dans le cas où la population suit une loi quelconque, mais symétrique, et pour une taille n telle
que, dans la pratique, n  15 , et quelque soit la distribution de probabilité de la population, X

suit alors une loi normale d’espérance mathématique μ, de la population et d’écart type n , où

σ est l’écart type de la population.

III. DISTRIBUTION D’ECHANTILLONNAGE D’UNE PROPORTION

III.1. Caractéristiques de la distribution d’échantillonnage de la proportion


Pour une population dont la proportion d’un certain caractère est donnée par p, on démontre que les
caractéristiques de la distribution d’échantillonnage de l’estimateur de la proportion d’un
x
échantillon de taille n tel que défini comme suit : p  n sont :

Espérance mathématique de l’estimateur est : E( p)  p = proportion de la population. C'est-à-dire


que cet estimateur de la proportion de la population est sans biais.
L’écart type de l’estimateur est selon les cas :
52
 Si la population est infinie ou si elle est de taille N telle que n  5% alors : ( p )  p(1  p)
N n
 Si la population est finie de taille N, alors : N  n p(1  p)
( p ) 
N 1 n

III.2. Forme de la distribution d’échantillonnage de la proportion


Si la taille de l’échantillon est assez grande de façon à ce que np  5 et n (1  p)  5 , alors la
distribution d’échantillonnage de la proportion p est normale.

Conséquence
La distribution d’échantillonnage de la proportion permet de connaitre selon un seuil de confiance
approprié l’écart entre les proportions, de l’échantillon p et p de la population.

Remarque :
Dans le cas où np  5 et n (1  p)  5 , p suit alors une loi normale d’espérance mathématique p, de
p p
la population et d’écart type ( p )  p(1  p) . Donc : Z  suit la loi normale centrée
n p(1  p)
n
réduite.

53
CHAPITRE 9
ESTIMATION PAR INTERVALLE DE CONFIANCE ET TAILLE D’UN
ECHANTILLON

I. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA MOYENNE D’UNE


POPULATION
Soit une population de moyenne μ inconnue et de variance σ connu
Question : Comment estimer cette moyenne μ de la population ?
Réponse : A partir d’un échantillon aléatoire pris de cette population, on peut estimer cette moyenne μ
selon la taille n de l’échantillon et selon la forme de la distribution de la population. Mais dans tous
les cas, cette estimation serait plus précise selon qu’on connaisse ou non l’écart type de la population.

I.1. Cas où l’écart type σ est connu


Si la population est normale ou si la taille de l’échantillon n est assez grande, on démontre que
l’intervalle de confiance, au seuil de confiance 1 – α, de la moyenne μ de la population est obtenu à
partir de son estimation ponctuelle X et de la loi normale centrée réduite :
  
  X  Z / 2 ou encore : X  Z / 2    X  Z / 2
n n n
 / 2 est l’aire dans la queue supérieure de la distribution de la loi normale centré réduite
Dans la pratique, cette estimation, par intervalle, de la moyenne de la population est exacte lorsque
la population suit une loi normale et quelques soit la taille n de l’échantillon
Cette estimation reste approximative mais a priori satisfaisante si la population n’est pas normale
mais à peu près symétrique, à condition de prendre une taille n de l’échantillon supérieure ou égale
à 15 : n  15
Cette estimation reste aussi valable pour n de l’échantillon assez élevée, dans la pratique supérieure
ou égale à 30 : n  30 .

I.2. Cas où l’écart type σ est inconnu


Si la population est normale ou si la taille de l’échantillon n est assez grande, on démontre que
l’intervalle de confiance, au seuil de confiance 1 – α, de la moyenne μ de la population est obtenu
à partir de son estimation ponctuelle X et du t de Student :
s s s
  X  t n1; / 2 ou encore : X  t n 1; / 2    X  t n 1; / 2
n n n

s étant l’écart type de l’échantillon de taille n dont la variance est : s 2 


1 n
 X i  X 2
n  1 i 1
n
X est la moyenne de l’échantillon : X  1  X i
n i 1

t n 1; / 2 est la valeur donnée par la table du t de Student à n-1 degré de liberté.
 / 2 est l’aire dans la queue supérieure de la distribution de Student.

54
Dans la pratique, cette estimation, par intervalle, de la moyenne de la population est exacte lorsque
la population suit une loi normale et quelques soit la taille n de l’échantillon.
Cette estimation reste approximative et a priori satisfaisante si la population n’est pas normale mais
à peu près symétrique, à condition d’avoir une taille n de l’échantillon supérieure ou égale à 15 : n  15
Cette estimation reste aussi valable pour une taille n de l’échantillon assez élevée, dans la
pratique supérieure ou égale à 30 : n  30 . Mais si la population est fortement asymétrique, il est
recommandé de prendre un échantillon n  50 . Il est aussi fréquent dans ce cas de considérer que la
s
moyenne de la population suive une loi normale de moyenne µ et d’écart type où s est l’écart
n
type de l’échantillon défini ci-haut. L’intervalle de confiance au seuil de confiance 1 – α, de la
moyenne μ de la population est alors obtenu à partir de son estimation ponctuelle X et de la loi
s  s
normale centrée réduite :   X  Z  / 2 ou encore : X  Z / 2    X  Z / 2
n n n

I.3. Détermination de la taille d’un échantillon


Dans beaucoup d’enquêtes statistiques, on cherche à estimer la moyenne d’une certaine population.
On sait aussi que son estimation par intervalle de confiance est intimement liée à la taille de
l’échantillon pris en compte.
Question : Quelle taille doit-on donner à l’échantillon aléatoire qu’on doit prélever de la population
afin que la marge d’erreur, au seuil de confiance 1 – α, de son estimation ne soit pas trop grande?

Réponse : On utilise la formulation précédente (chapitre 8) de la marge d’erreur : E  Z  / 2
.
n
Donc, pour estimer la moyenne par intervalle d’une population, avec une marge d’erreur de E,
connue, et au seuil de confiance 1 – α, connu, il suffit de prendre un échantillon n de taille :
(Z ) 2  2
n  /2 2 , valeur à arrondir systématiquement à l’entier supérieur.
E
Cette formule suppose que l’écart type σ de la population soit préalablement connu, or dans la
plupart des cas, il est inconnu. Pour remédier à ce problème, on peut utiliser soit
 une estimation de l’écart type issue d’une étude antérieure réalisée sur la même population
 une estimation de l’écart type issue d’un échantillon sélectionné préliminairement
 une estimation intuitive de l’écart type. Par exemple prendre un écart type de l’ordre du quart
de l’étendue de la population issue d’un échantillon sélectionné préliminairement

II. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA PROPORTION D’UNE


POPULATION

II.1.Estimation par intervalle de la proportion


On a vu au chapitre 8 précédent que si la taille de l’échantillon est assez grande de façon à ce que
np  5 et n (1  p)  5 , alors la distribution d’échantillonnage de la proportion p est normale de
p(1  p)
moyenne la proportion p de la population et d’écart type, ( p )  .
n

55
Par conséquent, on démontre que l’intervalle de confiance au seuil de confiance 1 – α, de la
proportion p de la population est obtenu à partir de son estimation ponctuelle p et de la loi normale
centrée réduite :
p (1  p ) p (1  p ) p (1  p )
p  p  Z / 2 ou encore : p  Z  / 2  p  p  Z / 2
n n n
 / 2 est l’aire dans la queue supérieure de la distribution de la loi normale centré réduite

II.2.Détermination de la taille d’un échantillon

p (1  p )
Comme la marge d’erreur d’une proportion est : E  Z / 2
n
Alors, pour estimer la proportion par intervalle, d’une population, avec une marge d’erreur de E,
connue, et au seuil de confiance 1 – α, connu, il suffit de prendre un échantillon n de taille :
( Z  / 2 ) 2 p * (1  p*)
n , valeur à arrondir systématiquement à l’entier supérieur.
E2
p* étant une valeur donnée a priori à la proportion p

Cette formule suppose que la proportion p* soit préalablement connu, or dans la plupart des cas,
elle est inconnue. Pour remédier à ce problème, on peut utiliser soit :
Une estimation de la proportion à partir d’une étude antérieure réalisée sur une population similaire.
Une estimation de la proportion issue d’un échantillon sélectionné préliminairement
Une estimation intuitive de p* et q*.
A défaut de toutes ces estimations, on peut prendre pour p*, la valeur : p* = 0 ,5

III. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA MEDIANE


Très rarement utilisé, on montre néanmoins que si la taille de l’échantillon est grande, n  60 et si la
population est approximativement normale, l’intervalle de confiance, au seuil de confiance 1 – α, de
la médiane Mepop de la population est obtenu par la relation suivante :
  
Me pop  Me éch  Z / 2 s ou encore : Me éch  Z / 2 s  Me pop  Me éch  Z / 2 s
2n 2n 2n
 / 2 est l’aire dans la queue supérieure de la distribution de la loi normale centré réduite Z.

IV. ESTIMATION PAR INTERVALLE DE CONFIANCE DE LA VARIANCE


Si on extrait d’une population normale N(µ,σ) un échantillon de taille n et si µ est inconnue, on
montre alors que l’intervalle de confiance, au seuil de confiance 1 – α, de la variance σ2 de la
(n  1) s 2 (n  1) s 2
population est : 2 
 2 / 2;  n 1  12 / 2;  n 1

56
CHAPITRE 10
TESTS D’HYPOTHESES

I. PRINCIPE D’UN TEST D’HYPOTHESE


Supposons qu’un paramètre statistique d’une population, une moyenne, une proportion, une variance,
un mode… soit inconnu. Supposons aussi qu’une hypothèse (basée sur une théorie donnée ou sur
une vision pratique et expérimentée ou sur un pressentiment…) soit formulée concernant ce paramètre.
Question : Comment vérifier quant à la « véracité » de cette hypothèse ?
Réponse : On formule l’hypothèse « pressentie » H0 appelée ainsi hypothèse nulle.
On formule ensuite l’hypothèse contraire à la précédente, notée H1 appelée ainsi hypothèse
alternative ou encore contre hypothèse.
C’est l’hypothèse nulle H0 qui est soumise au test et toute la démarche du test est effectuée en
supposant H0 vraie. Si par la suite, l’échantillon expérimental vérifie cette hypothèse, on pourra
alors la considérer comme vraisemblable, sinon, c’est l’hypothèse alternative H1 qui sera considérée
comme vraisemblable.
Question : Quel critère doit-on utiliser pour décider ou non du rejet ou de l’acceptation de
l’hypothèse nulle ?
Réponse : Le critère utilisé a un caractère probabiliste et donc la décision qui sera prise comportera
automatiquement un risque, noté α, qu’elle soit fausse. Ce risque est donné par le seuil de
signification du test 1 – α et s’énonce en probabilité comme suit :
α = P(rejeter H0/H0 est vraie) = P(accepter H1 /H0 est vraie)

II. COMMENT FORMULER LES DEUX HYPOTHESES H0 ET H1


La formulation des hypothèses est parfois complexe et demande de la pratique.
En règle générale, il peut exister trois types de formulation
Soit on cherche à tester qu’un nouveau processus, une nouvelle technique, une recherche, a
conduit à l’amélioration d’un paramètre, dans tel cas, l’hypothèse nulle H0 sera celle qui prouve
qu’aucune amélioration n’a été enregistrée par cette nouvelle technique et on essaiera de montrer
que l’échantillon expérimental choisi aléatoirement ne vérifie pas, au risque α de se tromper, cette
hypothèse et donc c’est l’hypothèse alternative H1 qui serait acceptée, c'est-à-dire celle qui conduit
à dire que cette nouvelle technique a provoqué une certaine amélioration de ce paramètre. Si
l’échantillon conduit à accepter l’hypothèse nulle, on affirmera alors que cette nouvelle technique
n’a provoqué aucune amélioration de ce paramètre.
Soit on cherche à tester si une affirmation est toujours valide. Dans tel cas, l’hypothèse nulle H0
sera celle qui approuvera cette affirmation, on donne pour cela le bénéfice du doute à cette
assertion. Si les données de l’échantillon, au risque α de se tromper rejette cette hypothèse, on peut
alors conclure que cette affirmation est fausse
Soit dans la prise de décision. En général, cette formulation est rencontrée lorsqu’on ne cherche pas
à prouver la validité ou non d’un nouveau procédé ou la validité d’une affirmation, mais plutôt

57
lorsqu’on cherche à comparer pour choisir entre deux situations différentes. Voir par exemple si un
paramètre de la population suit une certaine norme, comparer deux mêmes paramètres issus de deux
populations différentes. En général, ce test confirme ou ne confirme pas, au risque α de se tromper,
l’hypothèse nulle qui consiste à supposer que ces paramètres sont identiques.
Pour toutes ces formulations, il existe trois formes d’hypothèses :
Test unilatéral inférieur ou « côté gauche » Test unilatéral supérieur ou « côté droit » Test bilatéral
H0 :   0 H0 :   0 H0 :   0
H :   0 H :   0 H :   0

III. ERREURS DE PREMIERE ET DE DEUXIEME ESPECE

III.1. Mise en évidence des deux types d’erreurs dans un test statistique
Ces deux types d’erreurs sont dus essentiellement aux erreurs d’échantillonnage.
L’erreur de première espèce est évaluée par α. C’est l’erreur qu’on commet lorsque les résultats de
l’échantillon rejettent l’hypothèse nulle alors que dans la réalité, elle est vraie : L’échantillon
prélevé au hasard fait partie des rares échantillons « à risque α ». Dans le cadre du contrôle de la
qualité, c’est une erreur qui incombe le producteur car il est sensé arrêter les machines de
production alors qu’elles sont en bon état de fonctionnement.
L’erreur de deuxième espèce est évaluée par un autre risque, noté β. C’est l’erreur qu’on commet
lorsque les résultats de l’échantillon acceptent l’hypothèse nulle alors que dans la réalité, elle est
fausse : L’échantillon prélevé au hasard fait partie des rares échantillons « à risque β». Dans le
cadre du contrôle de la qualité, c’est une erreur qui incombe le consommateur à court terme mais
peut engendrer beaucoup de problème au producteur. En effet il est sensé arrêter les machines qui
ne fonctionnent plus, au lieu de cela, il continue sa production non conforme.

III.2. Schématisation des deux risques d’erreurs


Prenez comme exemple un test bilatéral sur une moyenne qui suivrait une distribution
d’échantillonnage normale de moyenne µ0 afin de schématiser les propriétés suivantes :
 Pour un même risque α et une même taille, si 1  0 ; alors :  
 Une diminution du risque de 1er espèce α élargi la zone de non rejet de H0, mais fait augmenter
le risque de 2ème espèce : Si  ; alors :   et vice versa.
  (X) . Donc, α fixé, la zone de non rejet de H0est plus petite. Ceci engendre
Si n  alors :  ( X )  
n
une diminution de β : Le test est alors plus puissant.
Remarque : Le calcul de β est intimement lié au seuil α fixé et à µ 1. Plus µ1 s’écarte de µ0 plus β↓
et donc (1- β)↑ : L’évolution de β en fonction de µ1traduit l’efficacité du test. L’évolution de (1 – β)
en fonction de µ1 traduit la puissance du test.
Les risques associés aux tests d’hypothèses se résument comme sui :
SITUATION VRAIE
H0 est effectivement VRAIE H1 est effectivement VRAIE
Probabilité de Probabilité de
DECISION DECISION
décision décision
CONCLUSION ACCEPTER H0 BONNE 1–α FAUSSE Β
DU TEST REJETER H0 FAUSSE Α BONNE 1–β

58
IV. DEMARCHE A SUIVRE DANS L’ELABORATION D’UN TEST
1. Formuler les hypothèses H0 et H1
2. Fixer d’avance un seuil α de signification
3. Préciser les conditions d’application du test : Taille de l’échantillon, grande ou non – Forme
de la population, normale ou non, symétrique ou non – Variance, connue ou non…
4. Spécifier la statistique qui convient : X pour la moyenne µ qui serait généralement une loi
normale ou un t de Student, p̂ pour la proportion p qui pourrait être une loi normale et s 2
pour la variance  2 qui pourrait être une loi liée à khi2. Pour le rapport de deux variances,
la statistique qui convient est celle de Fisher
5. Adopter une règle de décision qui conduira ou non au rejet de H0
6. Calculer les écarts réduits
7. Décider et conclure selon les résultats de 6. Et selon la règle adoptée en 5.

V. TESTS DE COMPARAISON ET REGLE DE DECISION


Ce tests changent selon si l’écart type σ est connu ou non, selon la distribution de la population et
selon le paramètre que l’on veut tester. Ci-dessous, nous représentons sous forme de tableaux
certains tests de comparaison les plus souvent rencontrés

V.1. Test sur la moyenne, cas où l’écart type σ est connu


X  0
La statistique du test relatif à la moyenne d’une population pour un écart type σ connu est : Z
/ n

Au chapitre précédent, on a montré que si la population est normale ou si la taille de l’échantillon


n est assez grande ( n  15 et population non normale mais à peu près symétrique ou n  30
pour une population non trop asymétrique), cette variable statistique Z suit une loi normale
centrée réduite. Par conséquent, selon un seuil de confiance 1 - α et selon la forme du test
élaboré, on rejette ou on accepte l’hypothèse nulle. Ainsi :
FORMULATION DU TEST FORMULATION DU TEST FORMULATION DU TEST
Si test unilatéral inférieur Si test unilatéral supérieur Si test bilatéral
H0 :   0 H0 :   0 H0 :   0
H :   0 H :   0 H :   0
STATISTIQUE DU TEST STATISTIQUE DU TEST STATISTIQUE DU TEST
X   0 ≈ loi standard X   0 ≈ loi standard X   0 ≈ loi standard
Z Z Z
/ n / n / n
SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α
DECISION DECISION DECISION
On accepte H0 si Z   Z  On accepte H0 si Z   Z  On accepte H0 si  Z  / 2  Z   Z  / 2
On rejette H0 si Z   Z / 2 ou Z  Z  / 2
On rejette H0 si Z  Z On rejette H0 si Z  Z
X  0 X  0
X  0
Ou bien si : p  P( Z  ) Ou bien si : p  P( Z  ) Ou bien si : p  2xP( Z  )
/ n / n / n
On accepte H0 si p   On accepte H0 si p   On accepte H0 si p  
On rejette H0 si p   On rejette H0 si p   On rejette H0 si p  

V.2. Test sur la moyenne, cas où l’écart type σ est inconnu


X  0
La statistique du test de la moyenne d’une population pour un écart type σ inconnu est : t
s/ n

59
 X  X
n
s étant l’écart type de l’échantillon de taille n dont la variance est : s 2  1 2

n  1 i 1
i

Au chapitre précédent, on a montré que si la population est normale ou si la taille de l’échantillon


n est assez grande ( n  15 ) si la population n’est pas normale mais à peu près symétrique ou,
n  30 pour une population non trop asymétrique), cette variable statistique t suit une loi de
Student à n – 1 degrés de liberté. Par conséquent, selon un seuil de confiance 1 - α et selon la
forme du test élaboré, on rejette ou on accepte l’hypothèse nulle. Ainsi :
FORMULATION DU TEST FORMULATION DU TEST FORMULATION DU TEST
Si test unilatéral inférieur Si test unilatéral supérieur Si test bilatéral
H0 :   0 H0 :   0 H0 :   0
H :   0 H :   0 H :   0
STATISTIQUE DU TEST STATISTIQUE DU TEST STATISTIQUE DU TEST
X  0 X   0 ≈ loi Student X   0 ≈ loi Student
t ≈ loi Student t t
s/ n s/ n s/ n
SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α
DECISION DECISION DECISION
On accepte H0 si t  t  On accepte H0 si t  t  On accepte H0 si  t  / 2  t   t  / 2
On rejette H0 si t  t  On rejette H0 si t  t  On rejette H0 si t   t  / 2 ou t   t  / 2
Ou bien selon Student à n-1 degré de Ou bien selon Student à n-1 degré Ou bien selon Student à n-1 degré de
X  0
liberté Si : p  P( t n 1  X   0 ) de liberté si : p  P( t  X   0 ) liberté si: p  2xP( t n 1  )
n 1 s/ n
s/ n s/ n
On accepte H0 si p   On accepte H0 si p   On accepte H0 si p  
On rejette H0 si p   On rejette H0 si p   On rejette H0 si p  

V.3. Test sur la proportion


p _ p0
La statistique du test relative à la proportion p d’une population, si est : Z 
p 0 (1  p 0 )
n
On a déjà montré que si la taille de l’échantillon n est assez grande telle que np  5 et n (1  p)  5
cette statistique Z suit une loi normale centrée réduite. Par conséquent, selon un seuil de
confiance 1 - α et selon la forme du test élaboré, on rejette ou on accepte l’hypothèse nulle. Ainsi :
FORMULATION DU TEST FORMULATION DU TEST FORMULATION DU TEST
Si test unilatéral inférieur Si test unilatéral supérieur Si test bilatéral
H0 : p  p0 H0 : p  p0 H0 : p  p0
H : p  p0 H : p  p0 H : p  p0
STATISTIQUE DU TEST STATISTIQUE DU TEST STATISTIQUE DU TEST
p _ p0 est une loi standard p _ p0 est une loi standard p _ p0 est une loi standard
Z Z Z
p 0 (1  p 0 ) p 0 (1  p 0 ) p 0 (1  p 0 )
n n n
SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α
DECISION DECISION DECISION
On accepte H0 si Z  Z  On accepte H0 si Z  Z On accepte H0 si  Z  / 2  Z   Z  / 2

On rejette H0 si Z  Z On rejette H0 si Z  Z On rejette H0 si Z   Z / 2 ou Z  Z  / 2


p _ p0
Ou bien si : p  P( Z  p _ p0 Ou bien si : p  P( Z  p _ p0
) Ou bien si : p  P( Z  )
) p 0 (1  p 0 )
p 0 (1  p 0 ) p 0 (1  p 0 )
n n n
On accepte H0 si p   On accepte H0 si p   On accepte H0 si p  
On rejette H0 si p   On rejette H0 si p   On rejette H0 si p  

60
V.4. Test sur la variance d’une population normale
Au chapitre précédent, on a montré que si la taille de l’échantillon n est prélevée au hasard d’une
population normale, La statistique du test relatif à la variance de cette population, si est :
(n  1) s 2
 2
 2
0

Par conséquent, selon un seuil de confiance 1 - α et selon la forme du test élaboré, on rejette ou on
accepte l’hypothèse nulle. Ainsi :
FORMULATION DU TEST FORMULATION DU TEST FORMULATION DU TEST
Si test unilatéral inférieur Si test unilatéral supérieur Si test bilatéral
H 0 :  2   02 H 0 :  2   02 H 0 :  2   02
H  :  2   02 H  :  2   02 H  :  2   02
STATISTIQUE DU TEST STATISTIQUE DU TEST STATISTIQUE DU TEST
(n  1) s 2
(n  1) s 2
(n  1) s 2
2  est un khi2 2  est un khi2 2  est un khi2
 02  02  02
SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α SEUIL DE CONFIANCE 1 – α
DECISION DECISION DECISION
On accepte H0 si On accepte H0 si On accepte H0 si
  2 2
1 ; n 1     ;n 1
2 2
 2
1 ; n 1      ;n 1
2 2

On rejette H0 si On rejette H0 si On rejette H0 si


 
2 2
1 ; n 1     ;n 1
2 2
    / 2;n 1 ou   
2 2 2 2
1 / 2; n 1
OU BIEN Si : OU BIEN Si : OU BIEN Si :
 (n  1) s 2   (n  1) s 2   (n  1) s 2 
p  P  2  
 p  P  2   p  P  2  
  02    02    02 
On accepte H0 si p   On accepte H0 si p   On accepte H0 si p  
On rejette H0 si p   On rejette H0 si p   On rejette H0 si p  

VI. COMPARAISON DE DEUX MOYENNES D’ECHANTILLONS NON APPARIES

Soient deux moyennes x 1 et x 2 de deux échantillons de tailles respective n1 et n2 et prélevés de


deux populations respectivement de moyennes μ1 et μ2 et d’écarts types σ1 et σ2, on montre que leur
différence x 1  x 2 est une variable aléatoire dont la forme varie selon que les écarts types de leurs
populations respectives soient connus ou non

VI.1. Cas où les deux écarts-type σ1 et σ2 sont connus

Espérance mathématique de x 1  x 2 : E( x 1  x 2 )   x1  x 2  1   2 (généralement = 0)


12  22
Variance de x1  x 2 : V( x 1  x 2 )   2x1  x 2  
n1 n 2
( x 1  x 2 )  (1   2 )
La forme est telle que : Z  suit loi normale centrée réduite si l’une des
12  22

n1 n 2
conditions suivantes est satisfaite:
Les deux populations suivent des loi normales

61
Les deux populations sont symétriques et si n1 > 15 et n2 > 15
Les deux échantillons sont de grandes tailles si n1 > 30 et n2 > 30
Donc, l’estimation par intervalle de x 1  x 2 au seuil de confiance 1 – α est :
12  22
x 1  x 2  (1   2 )  Z  / 2 
n1 n 2

VI.2. Cas où les deux écarts-type σ1 et ou σ2 sont inconnus

Espérance mathématique de x 1  x 2 : E( x 1  x 2 )   x1  x 2  1   2

s12 s 22
Variance de x1  x 2 : V( x 1  x 2 )   2x1  x 2  
n1 n 2
Si l’une des conditions suivantes est satisfaite:
Les deux populations suivent des lois normales
Les deux populations sont symétriques et si n1 > 15 et n2 > 15
Les deux échantillons sont de grandes tailles si n1 > 30 et n2 > 30

( x 1  x 2 )  (1   2 )
La forme est telle que : t  suit alors la loi de Student dont le nombre exact de
s12 s 22

n1 n 2
2
 s12 s 22 
  
degré de liberté est donné par la formule suivante : ddl   n1 n 2 
2 2
1  s12  1  s 22 
    
n1  1  n1  n 2  1  n 2 
Donc, l’estimation par intervalle de x 1  x 2 au seuil de confiance 1 – α est :

s12 s 22
x 1  x 2  (1   2 )  t  / 2  ’
n1 n 2

Remarque :
Lorsque les échantillons sont issus de deux populations à écarts-types égaux, on remplace les deux
écarts types des deux échantillons s1 et s2 par un seul d’expression :

(n 1  1)s12  (n 2  1)s 22
sp 
n1  n 2  2
x 1  x 2  (1   2 )
La statistique du test devient alors : t  distribuée selon la distribution de
1 1
sp 
n1 n 2
Student à n1+n2 –2 degrés de liberté

62
VII. COMPARAISON DE DEUX MOYENNES D’ECHANTILLONS APPARIES
Dans le cas d’échantillons appariés, les deux observations sont faites à partir de mêmes individus :
Un produit est réalisé par un même travailleur par deux méthodes différentes, le comportement
d’une même personne le lendemain d’une nuit de sommeil profond et d’une nuit de sommeil
agité…
Pour tester la différence des deux comportements, on l’effectue non sur la différence des moyennes
des échantillons, mais plutôt sur la moyenne des différences entre les observations des échantillons.
Pour deux échantillons de taille n, il y a n différences de moyenne d et d’écart type sd. Dans le cas
H0 : d  d
d’un test bilatéral, on aura :
H : d  d

d  d
La statistique du test est alors : t  qui suit une distribution de Student à n – 1 degrés de
sd / n
liberté.
Exercice : Deux théories A et B ont donné lieux à des écarts avec les valeurs mesurées comme
décrit au tableau ci-dessous. Analyser la différence de ces deux théories.
Mesures n° Théorie A Théorie B Différence
1 1,29 0,38 0,91
2 2,01 2,31 -0,3
3 2,59 3,43 -0,84
4 1,6 1,78 -0,18
5 1,84 2,18 -0,34
6 2,72 2,19 0,53
7 1,51 1,71 -0,2
8 2,28 2,18 0,1
9 0,77 1,55 -0,78
10 1,81 1,74 0,07
Moyenne 1,84 1,94 -0,10
Ecart type 0,59 0,76 0,54
Comme seul l’écart type de l’échantillon est connu, la statistique du test est alors:
d  d  0,10  0
t   0,56
sd / n 0,54 / 9
Le test doit être bilatéral alors : p  2P(t9  0,56)  p  0,589
Comme p >> 0,05, alors on accepte H0, les différences entre les deux théories ne sont pas
significatives
Au seuil de confiance à 95%, la marge d’erreur de l’estimation des écarts des deux moyennes est
de : E = E  t 9;0, 025 s d / n  2,262x 0,54x 10  0,39 C’est une marge d’erreur trop grande au regard
de l’erreur qui est d’environ 0,1. Pour réduire cette marge et avoir une meilleure précision sur
l’intervalle de confiance, il suffirait d’augmenter le nombre n de mesures

63
VIII. COMPARAISON DE DEUX PROPORTIONS

Soient deux proportions p̂1 et p̂ 2 de deux échantillons de tailles respective n1 et n2 et prélevés de


deux populations respectivement de proportions p1 et p2.
Si n1 p1  5 et n2 p2  5 et n1 (1  p1 )  5 et n2 (1  p2 )  5 on montre que leur différence pˆ 1  pˆ 2 est
une variable aléatoire telles que :
pˆ 1  pˆ 2 suit une loi normale

Espérance mathématique de p1  p 2 : E( p1  p 2 )   p1  p2  p1  p 2
p1 (1  p1 ) p2 (1  p2 )
Variance de p1  p 2 : s 2 ( p1  p2 )  s 2p1  p2  
n1 n2
Le test d’égalité de deux proportions est alors :
H0 : p1  p2  0
Comme les proportions p1 et p2 sont inconnues mais supposées égales à une proportion p, cette
(n p̂  n 2 p̂ 2 )
dernière est estimée par : p̂  1 1 .
n1  n 2
( pˆ 1  pˆ 2 )
Par conséquent la forme : Z  suit loi normale centrée réduite. Ainsi pour un
1 1
pˆ (1  pˆ )  
 n1 n2 
seuil de signification α, on a :
H1 : p1  p2 ; Rejeter H0 si Z  Z / 2 ou Z  Z / 2

H1 : p1  p 2 ; Rejeter H0 si Z  Z

H1 : p1  p 2 ; Rejeter H0 si Z  Z

IX. TEST D’EGALITE DE DEUX VARIANCES


Soient deux échantillons de taille respectivement n1, n2 prélevés au hasard de deux populations
normales de variances  12 et  22 inconnues. Le test d’égalité de deux variances est alors :

H0 :  12   22 ou  12 /  22  1

En supposant que H0 est vraie et selon les conditions mentionnées, la quantité obtenue du rapport
s12 /  12 s12
des variances d’échantillon s12 et s 22 , soit : F   est distribuée selon la loi de Fisher à
s 22 /  22 s 22
(n1 – 1) et (n2 – 1) degrés de liberté. Ainsi pour un seuil de signification α, on a :

H1 :  12   22 ; Rejeter H0 si F  F / 2; n1 1; n 2 1 ou F  F1 / 2; n1 1; n 2 1

H1 :  12   22 ; Rejeter H0 si F  F ; n1 1; n 2 1

H1 :  12   22 ; Rejeter H0 si F  F1 ; n1 1; n 2 1

64
CHAPITRE 11
TEST D’AJUSTEMENT ET TABLEAU DE CONTIGENCE

I. TEST DE CONFORMITE ENTRE DEUX DISTRIBUTIONS : TEST D’AJUSTEMENT


Il est souvent utile, notamment dans le domaine de la prévision, de tester si une distribution
théorique (loi de probabilité) est oui ou non bien ajustée à une distribution expérimentale. Pour le
savoir, on utilise généralement le test de Pearson, communément appelé test du Khi2. Le test se
formule globalement comme suit :
Conditions d’application :
 Echantillon aléatoire
 Une taille d’échantillon suffisamment importante de sorte que chaque classe (variable ou
intervalle d’observation) présente une fréquence au moins égale à 5.
Formulation du test :
 H0 : Le phénomène observé suit la distribution théorique spécifiée.
 H1 : Les observations ne suivent pas la distribution théorique spécifiée.
k
f obi  f thi 2 ;
 La statistique utilisée est celle du Khi2 : 2  
i 1 f thi
ème
fobi et fthi sont les fréquences de la i valeur, respectivement observée et calculée
 Seuil de confiance : 100(1 – α)%.
 Règle de décision : rejeter H0 si :  2   2 ; ;
ν est le nombre de degré de liberté :k ν = k – 1 – r, « k » est le nombre de classes envisagées,
« 1 » à cause de la restriction :  f i  1 et r est le nombre de paramètres utilisés par la
1

distribution théorique et estimées à partir des observations.


Exemple 1 :
Nbre d’arrivées par intervalle de 2 minutes 0 1 2 3 4 5 6 et plus
fobi 9 15 18 11 6 1 0

Question : Est-ce que ce relevé permet de supporter, au seuil de 0,01 l’hypothèse selon laquelle le
nombre d’arrivées par intervalle de 2mn se comporte selon une loi de poisson ?
Solution : On calcule le paramètre de Poisson : λ = 113/60 = 1,88 arrivées
On dresse ensuite le tableau suivant :
Nbre arrivées Répartition observées Répartition théorique Calcul de χ2
fobi Proba Pi fthi fobi – fthi (fobi – fthi)2/ fthi
0 9 0,1526 9,156 – 0,156 0,0027
1 15 0,2869 17,214 – 2,214 0,2848
2 18 0,2697 16,182 1,818 0,2042
3 11 0,1690 10,140 0,860 0,0729
4 et plus 7 0,1219 7,314 – 0,314 0,0135
60 fthi = 60Pi somme 0,5781
ν = 5 – 1 – 1 = 3. Donc :  2  0,5781   2;  11,3449 . On ne peut rejeter H0
65
Exemple 2 :
Durée de vie d’un
2250- 2320 2320-2390 2390- 2460 2460- 2530 2530- 2600 2600- 2670 2670- 2740
animale en semaine
fobi 2 4 12 24 10 6 2
Question : Est-ce que ce relevé permet de supporter, au seuil de 0,05 l’hypothèse selon laquelle la
durée de vie de cette espèce d’animale est distribuée selon une loi normale de moyenne μ = 2500
semaines et d’écart type σ = 90 semaines ?
Solution : On dresse ensuite le tableau suivant :
Nbre Répartition Calcul de
Répartition théorique
arrivées observées χ2
(fobi –fthi)2/
fobi Proba Pi fthi fobi – fthi
fthi
<= 2390 6 P(X<=2390)=0,1108 60x0,1108=6,648 -0,648 0,0632
2390- 2460 12 P(2390<=X<2460)=0,2175 60x0,2175=13,05 -1,05 0,084
2460- 2530 24 P(2460<=X<2530)=0,3022 60x0,3022 =18,132 5,868 1,899
2530- 2600 10 P(2530<=X<2600)=0,2362 60x0,2362 =14,172 -4,172 1,228
> 2600 8 P(X>2600)=1-P(X<2600)=0,1333 60x0,1333 =7,998 0,002 0
60 fthi = 60Pi somme 3,274
ν = 5 – 1 – 0 = 4. Donc :  2  3,274  2 ;  9,4877 C/C : On ne peut rejeter H0

II. TEST D’INDEPENDANCE DANS UN TABLEAU DE CONTIGENCE


Pour tester l’indépendance de deux variables, on sélectionne un échantillon et on utilise les
tabulations croisées pour résumer les données de cet échantillon.
Y ↓ X→ X1 X2 …… Xj …… Xm TOTAL
m

Y1 f11 f12 …… f1j …… f1m f Y1   f1k


k 1
m

Y2 f21 f22 …… f2j …… f2m f Y2   f 2 k


k 1

…… …… …… …… …… …… …… ……
m
Yi fi1 fij …… fij …… fim f YI   f ik
k 1

…… …… …… …… …… …… …… ……
m

Yn fn1 fn2 …… fnj …… Fnm f YN   f nk


k 1
n n n n n m

TOTAL f X1   f k1 f X2   f k 2 …… f X j   f kj …… f X m   f km f T   f ij
k 1 k 1 k 1 k 1 i 1 j1

On établit ensuite la tabulation croisée prévue en écrivant que les fréquences prévues sont celles
données par les fréquences marginales :
Y ↓ X→ X1 X2 …… Xj …… Xm TOTAL
f X1 f Y1 f X 2 f Y1 f Xi f Y1 m

f
f X m f Y1
Y1 e11  e12  …… e1 j  …… e1m  1k
fT fT fT fT k 1

…… …… …… …… …… …… …… ……
f X1 f Yi f X 2 f Yi f X j f Yi f X m f Yi m
Yi e i1 
fT
ei2 
fT
…… e ij 
fT
…… e im 
fT
f
k 1
ik

…… …… …… …… …… …… …… ……
f X1 f Yn f X 2 f Yn f X j f Yn f X m f Yn m
Yn e n1 
fT
en2 
fT
…… e nj 
fT
…… e nm 
fT f
k 1
nk

n n n n n m

TOTAL f k1 f k2 …… f kj …… f km f T   f ij
k 1 k 1 k 1 k 1 i 1 j1

66
On établit ensuite la tabulation croisée des carrés des écarts relatifs entre les fréquences prévues eij
(f ij  e ij ) 2
et les fréquences issues de l’échantillon fij :  ij  :
e ij

Y↓ X→ X1 X2 … Xj … Xm TOTAL
(f11  e11 ) 2
(f 12  e 12 ) 2
(f 1 j  e 1 j ) 2 (f 1m  e 1m ) 2 m
Y1 11 
e11
 12 
e 12
… 1 j 
e1 j
…  1m 
e 1m 
k 1
1k

(f 21  e 21 ) 2 (f 2 j  e 2 j ) 2
 21  (f  e 22 ) 2 (f 2 m  e 2 m ) 2 m
2j 
Y2 e 21  22  22
e 22
… e2j …  2m 
e 2m 
k 1
2k

…… …… …… … …… … …… ……
(f  e i1 ) 2 (f i 2  e i 2 ) 2
(f ij  e ij ) 2 (f im  e im ) 2 m
Yi  i1  i1
e i1
 i2 
e i2
…  ij 
e ij
…  im 
e im

k 1
ik

…… …… …… … …… … …… ……
( f  e n1 ) 2
 n 1  n1 (f n 2  e n 2 ) 2
(f nj  e nj ) 2
(f nm  e nm ) 2 m
Yn e n1  n2 
e n2
…  nj 
e nj
…  nm 
e nm

k 1
nk

n n n n m

  k1 
n
TOTAL  k2
k 1
… kj … 
k 1
km  2    ij
i 1 j1
k 1 k 1

LA STATISTIQUE DE TEST POUR L’INDEPENDANCE DE DEUX VARIABLES EST :


n m n m  (f ij  e ij ) 2 
 2    ij     qui suit une distribution de khi2 à (n  1)(m  1) degrés de liberté

j1  e ij 
i 1 j1 i 1 

67
CHAPITRE 12
INFERENCES EN REGRESSIONS

I. TEST SUR LE COEFFICIENT DE CORRELATION LINEAIRE


On rappelle que le coefficient de corrélation linéaire est estimé, sans biais à partir du rapport suivant :
n

 (X i  X )(Yi  Y )
s(X, Y) , n est le nombre de couples d’observations (Xi ; Yi)
r  1

n n s 2 (Y)
 (X1
i  X) 2  (Y
1
i  Y) 2

I.1. Distribution d’échantillonnage du coefficient de corrélation linéaire


On montre que la distribution d’échantillonnage de r est
symétrique uniquement lorsque le coefficient de corrélation
réel   E(r) est nul :   0 . Par contre dans le cas où   0
, la distribution du coefficent r est asymétrique comme le
montre la figure ci-contre. r
-1 - 0,8 -0,5 0 +1
 Lorsque la distribution est symétrique :   E(r )  0 , on estime l’écart type de cette
1  r2
distribution par : s( r )  et on montre ainsi que la variable aléatoire :
n2
r n2
t   r suit une loi de Sudent à « n – 2 » degré de liberté.
s( r ) 1  r2

Par conséquent, au seuil de confiance « 1 – α », tous les coefficients de corrélation vérifiant :


t  / 2; n  2
 rc  r  rc , tel que : rc  sont considérés significativement nuls.
(n  2)  t 2 / 2; n  2

 Lorsque la distribution n’est pas symétrique :   E(r )  0 , on montre que la variable


aléatoire Z'  1 ln 1  r  est distribuée approximativement suivant une loi normale de
2 1  r 

moyenne : E( Z' )  1 ln 1    et d’écart type : ( Z' )  1 .


2 1    n  3)
Par conséquent, l’intervalle où se situerait, au seuil de confiance « 1 – α », la variable Z’ est :
1 1 Z étant la variable qui suit la loi normale centrée réduite.
Z' Z  / 2  E( Z' )  Z' Z  / 2
n3 n3
C'est-à-dire, que l’intervalle au seuil de confiance « 1 – α », où se situerait le coefficient de
L1 (1  r )  (1  r ) L (1  r )  (1  r ) .
corrélation « réel » serait :    2 Avec :
L1 (1  r )  (1  r ) L 2 (1  r )  (1  r )
 1  et  1 
L1  exp  2 Z  / 2 
 L 2  exp  2Z  / 2 

 n  3   n  3 
68
II. INFERENCE EN REGRESSION LINEAIRE SIMPLE
Dans le processus de modélisation, il arrive fréquemment qu’il existe une relation fonctionnelle
entre deux variables.
Lorsque la relation fonctionnelle entre X et Y est linéaire d’ordre 1, elle s’écrit comme suit :
Yi = β0 + β1Xi + εi ; i = 1, n
Yi est la variable aléatoire dite expliquée. Xi est une composante non aléatoire, dite composante
explicative et εi est une fluctuation aléatoire, dite résiduelle. β0 et β1 sont les coefficients de cette
régression linéaire simple. Pour les calculer et ainsi établir cette régression, on s’appuie sur les
hypothèses suivantes :
 Nuage statistique reliant les Xi et les Yi aligné.
 Les εi suivent une loi normale telles que : E(εi) = 0 et Var(εi) = σ2 = constante
 Chaque variable aléatoire Yi (pour une valeur Xi) est distribuée selon une loi normale telles que :
E(Yi) = β0 + β1Xi et Var(Yi) = σ2 = Var(εi) car les Xi sont certains
 Les variables Yi ne sont pas corrélées entre eux (indépendantes) : Cov(Yi,Yj)=0 si i ≠ j

II.1.Estimation des coefficients de la régression linéaire simple


Les estimations des coefficients de régression β0 et β1, notées respectivement par : b0 et b1 sont
effectuées par la méthode des moindres carrées décrites au paragraphe V du quatrième chapitre :
 1 x1   y1exp 
    b 
1 1 x 2  1  y exp
2  B   0 
Si on pose : F  Y  et
 ... ...    ...   b1 
   y exp 
1 x n   n 

  y iexp  x i2   x i  x i y iexp 
 
 n  x i2   x i  
2
 b0 
Alors :

1
   B  F tr F F tr Y    
 n x i yi   yi  x i
exp exp
 b1  
 n  x i2   x i  
2
 

Ces estimations sont sans biais et vérifient donc : E(b0) = β0 et E(b1) = β1


La matrice de covariance des paramètres (b 0 ; b1 ) est obtenue à partir de la relation suivante :
  avec J  Jacobien  F tr F F tr soit :
1 1
ID A  J tr J  F tr F
 2 X 2 2  2 X   2 
     X 2 2 (b )  X 2 (b1 ) 
  2 (b 0 ) Cov(b 0 .b1 )   n  x i  X   
 i 2    n

2 2
b  x X 1

Cov 0   Cov(B)     
 b1   Cov(b 0 .b1 )  2 (b1 )    2 X  
   X (b1 )
2 2 
2 
  x  X 2
 i  x i  X   
2
 x i  X  

II.2.Résidu et mesure de dispersion



Le ième résidu, noté ei est l’écart entre la ième observation Yi et la valeur estimée yi  b0  b1Xi :

ei  Yi  Yi
L’estimation sans biais de σ2 = Var(Yi) = Var(εi) s’obtient des résidus par la formule suivante :

 Y  Y 
2

s 2

n2
i i

n 1
n2

Var Yi  Yi 

69
II.3.Distribution d’échantillonnage du second coefficient de régression b1
La distribution d’échantillonnage de l’estimateur « b1 » sui une loi normale de moyenne E(b1) = β1
et de variance : 2 où : σ2 = Var(Yi) = Var(εi)
Var (b1 ) 
 x  X
2
i

Cette variance est généralement inconnue du fait que la variance des résidus σ2 est inconnue. On
l’estime par conséquent à partir de l’estimateur s2 de σ2 comme suit :

s2 s2
 Y  Y 
2

s 2 ( b1 ) 
 x i  X
2

(n  1)Var (X)
avec : s 2

n2
i i

n 1
n2

Var Yi  Yi 
Par conséquent, on peut affirmer que :
b  1
 Les fluctuations de l’écart réduit 1 suivent la loi de Student à ν = n ‒ 2 degré de liberté.
s ( b1 )
 L’intervalle de confiance du coefficient β1 au seuil 100(1 ‒ α)% est :
b1  t  / 2 ; n  2 s ( b1 )   1  b1  s( b1 ) t  / 2 ; n  2

II.4.Inférence sur le paramètre β0


La distribution d’échantillonnage de l’estimateur « b0 » une loi normale de moyenne E(b0) = β0 et
1 X2  2
de variance : Var (b 0 )   2    où : σ = Var(Yi) = Var(εi)
n
 x i  X  
2
 
Cette variance est généralement inconnue du fait que la variance des résidus σ2 est inconnue. On
1 X2 
l’estime par conséquent à partir de l’estimateur s2 de σ2 : s 2 (b 0 )  s 2   

 x  X 
2 
n
 i

Par conséquent, on peut affirmer que :


b0  0
 Les fluctuations de l’écart réduit suivent la loi de Student à ν = n ‒ 2 degré de liberté.
s( b 0 )
 L’intervalle de confiance du coefficient β0 au seuil 100(1 ‒ α)% est :
b 0  t  / 2; n  2 s( b 0 )   0  b 0  s( b 0 ) t  / 2 ; n  2

II.5.Estimation de la covariance de b0 et b1

La covariance de b0 et b1 est estimée par la formule suivante :  s2X


Cov(b 0 ; b1 )    Xs 2 (b1)
 x  X
2
i

Si X  0 , Cov(b0 ;b1) est négative, les valeurs de b0 et b1 sont alors soit conjointement trop élevées,
soit trop faibles.
Si X  0 , Cov(b0 ;b1) est positive, ce qui indique que b1 surestime β1 et b0 sous-estime β0
Si X  0 , Cov(b0 ;b1) est nulle, ce qui permet de conclure que b0 et b1 sont indépendants. Dans ce
cas : b0  Y et b 
 x i y iexp
x
1 2
i

II.6.Inférence sur la valeur de Y connaissant X : E(Yh) – Intervalle d’estimation

La distribution d’échantillonnage de qui correspond aux diverses valeurs possibles de qu’on


obtiendrait si des échantillons identiques de Xh sont utilisés est une distribution normale de moyenne :
E(Ŷh )  E(Y)  E(b 0  b1X h )   0  1X h et de variance :

70
1
Var (Ŷh )  2 (Ŷh )  2  
X  X 
h
2   2
   
 X h  X  2 (b1 ) 
2

n  x  X 
2
  n 
 i 

Cette variance est généralement inconnue du fait que la variance des résidus σ2 est inconnue. On
l’estime par conséquent à partir de l’estimateur s2 de σ2. Par conséquent :
1
s 2 (Ŷh )  s 2  
X  X 
h
2   s2
    X  X 2 s 2 (b ) 
n  x  X 
2
  n h 1 

 i 
Remarques :

Si X h  0 , alors : s 2 (Ŷh )  s 2 (b 0 )
 2
Si X h  X , alors : s 2 (Ŷh )  s
n

L’intervalle de confiance au seuil 100(1 ‒ α)% de la vraie valeur de E(Yh) est :
Ŷh  t  / 2;n  2 s(Ŷh )  E (Yh )  Ŷh  s(Ŷh ) t  / 2;n  2

II.7.Prévision de Y pour une nouvelle valeur de X : intervalle de prévision


La prévision d’une valeur Y, notée Yh(p) pour une nouvelle observation Xh est : Yh ( P )  b 0  b1X h

Cette valeur s’écarte de la valeur mesurée Yh vu que cette dernière n’a pas été utilisée pour établir la
droite de régression. L’erreur de prévision est donc : d h  Yh  Yh ( P )  Yh  Ŷh

Sa variance est alors :  2 (d h )   2 (Yh )   2 (Ŷh )   2   2 (Ŷh ) . Elle possède deux types de
variation : les fluctuations d’échantillonnage :  2 (Ŷh ) et la variance de Y :  2 .

La variance de l’erreur de prévision se formule explicitement comme suit :


 1

 ( d h )   1 
2 
2

X h  X
2 

n
 x i  X  
2
  

Cette variance est généralement inconnue du fait que la variance des résidus σ2 est inconnue. On
l’estime par conséquent à partir de l’estimateur s2 de σ2 comme suit :
 1
s 2 ( d h )  s 2 1   
X h  X 2  
 n
 x i  X   
2
 

L’intervalle de prévision au seuil de confiance 100(1 ‒ α)% de la vraie valeur de Y est :


Ŷh  t  / 2;n  2 s(d h )  E(Yh )  Ŷh  s(d h ) t  / 2;n  2

II.8.Analyse de la variance dans la régression linéaire simple


En réalité cette analyse se fait pour tout modèle régressif, linéaire ou non. L’analyse consiste à faire
ressortir trois valeurs pour chaque observation :
 Une valeur estimée par le modèle régressif : (  axi  b si le modèle est linéaire).

 La moyenne Y
 La valeur mesurée :
On démontre que si les erreurs du modèle sont indépendantes des observations X i , on a :

71
Variation totale = Variation expliquée par le modèle Variation résiduelle

Ainsi, l’indice de la qualité de l’ajustement du modèle régressif aux valeurs expérimentales


mesurées peut se faire à partir du coefficient de détermination défini par :

SCR= = Somme des Carrés expliqués par la Régression

SCT   ( y i  Y ) 2 = Somme des Carrés relative à la variation Totale


i

SC Re s   ( ŷ i  Y ) 2 = Somme des Carrés résiduelle


i

Remarque :
Un coefficient de détermination qui s’approche de la valeur 1 prouverait alors que le modèle choisi
est adéquat.
 Le terme : représente la variation non
expliquée par le modèle.
 On démontre que pour le modèle régressif linéaire, les coefficients de détermination et de
corrélation sont identiques.
Il est d’usage de présenter lors d’une modélisation un récapitulatif de ces variations sous forme du
tableau suivant :

II.9.Test de signification de la régression linéaire simple : Test de Fisher


Pour vérifier si une régression linéaire simple est significative, il est nécessaire de tester la non
nullité du coefficient b1 de la régression. Pour cela, on utilise le résultat important suivant :
CMR
Le rapport F  , appelé « F partiel » lorsque β1 = 0, suit la loi de Fisher avec ν1 = 1 et
CM Re s
ν2 = n – 2 degrés de liberté. L’exécution de ce test se fait comme suit :
 H0 : β1 = 0 (ou bien : E(CMR) = E(CMRes)
 H1 : β1 ≠ 0 (ou bien : E(CMR) > E(CMRes)
 On a donc un test unilatéral.
 Seuil de signification : α
CMR
 Règle de décision : Si F   F ;1;n 2 , il n’y a pas de raison de rejeter H0
CM Re s
CMR
 Si F   F ;1;n 2 , H0 est rejetée, la régression entre Y et X est alors significative
CM Re s

72
Il est d’usage de présenter lors d’une modélisation un récapitulatif de ces variations sous forme du
tableau suivant :
Degré de Espérance des carrés F
Variations Somme des carrés Carré moyen F partiel
liberté moyens (Fisher)
 2  1  x i  X 
2
Expliquée par SCR
SCR= 1 CMR 
la régression 1
CMR
SCRe s F 
Résiduelle n–2 CM Re s   2 CM Re s F;1; n  2
n2

Totale SCT   ( y i  Y ) 2 n–1


i

III. INFERENCE EN REGRESSION MULTIPLE


Dans le processus de modélisation, il arrive fréquemment qu’il existe une relation fonctionnelle
entre une variable Y et m variables Xi, i variant de 1 à m.
Lorsque la relation fonctionnelle entre ces variables est linéaire d’ordre 1, elle s’écrit comme suit :
m
Yi  0  X
j 1
j ji  i ; i = 1, n

Yi est la variable aléatoire dite expliquée. Xji est une composante non aléatoire, dite composante
explicative et εi est une fluctuation aléatoire, dite résiduelle. Les m coefficients βj (j = 1 ; m) sont
les coefficients de cette régression multiples. Pour les calculer et ainsi établir cette régression, on
s’appuie sur les hypothèses suivantes :
 Les εi suivent une loi normale telles que : E(εi) = 0 et Var(εi) = σ2 = constante
 Chaque variable aléatoire Yi (pour un vecteur de valeurs (X1i , X2i ,…, Xji, …, Xmi) est distribuée
m
selon une loi normale telles que : E(Yi )  0  X
j 1
j ji et Var(Yi) = σ2 = cste = Var(εi)

 Les variables Yji ne sont pas corrélées entre eux (indépendantes) : Cov(Yi,Yk)=0 si i ≠ k

III.1. Estimation des coefficients de la régression linéaire multiples


Les estimations des coefficients de régression β0 et βj, notées respectivement par : b0 et bj (j variant
de 1 à m) sont effectuées par la méthode des moindres carrées décrites au paragraphe V du
quatrième chapitre :
 1 x11 ... x m1   y1exp   b0   b0 
   exp     
Si on pose : F  1  1 x12
 ... ...
... x m 2 
... ... 
Y 
1 y2 
  ... 
et B   b1 
 ...   ... 
 
Alors :  b1   B  Ftr F 1 Ftr Y
   exp     
 1 x1n ... x mn   y n  b m  b m 

Avec  2  Var(Yi )  Var( i )


Ces estimations sont sans biais et vérifient donc : E(bj) = βj (j variant de 1 à m)

73
La matrice de covariance des paramètres B  b 0 b1 ... b m  est obtenue à partir de la relation
 var( b 0 ) cov( b 0 , b1 ) ... cov( b 0 , b m )
cov( b , b ) var( b ) ... cov( b1 , b m )  .
suivante :  
Cov(B)  F tr F  
1


1

...
0 1

... ... ... 


 
cov( b m , b 0 ) cov( b m , b1 ) ... var( b m ) 

Tous ces calculs peuvent se faire aisément sur des logiciels appropriés (Matlab, Excel, …)

III.2. Résidu et mesure de dispersion


Le ième résidu, noté ei est l’écart entre la ième observation Yi et la valeur estimée :
et
L’estimation sans biais de σ2 = Var(Yi) = Var(εi) s’obtient par la formule suivante :

III.3. Distribution d’échantillonnage des coefficients de régression bj


La distribution d’échantillonnage de l’estimateur « bj » est une loi normale de moyenne E(bj) = βj et
de variance : Var(b j )
Cette variance est généralement inconnue du fait que la variance des résidus σ2 est inconnue. On
l’estime par conséquent à partir de l’estimateur s2
Par conséquent, l’intervalle de confiance des coefficients βj au seuil de signification α est obtenu
grâce à la loi de Student à n – (m+1) degrés de liberté : b j  t  / 2; n  ( m 1)s(b j )   j  b j  s(b j )t  / 2; n  ( m 1)

III.4. Analyse de la variance dans la régression linéaire multiple


Comme pour la régression simple, on établit le tableau d’analyse de la variance afin de juger quant
à la qualité ou la validité du modèle de régression choisi. Ce tableau se présente comme suit :
Variations Somme des carrés Degré de liberté Carré moyen
Expliquée par la SCR
SCR= m CMR 
régression m

SC Re s   ( y i  y i ) 2
SCRe s
Résiduelle I n – (m+1) CM Re s 
n  (m  1)

Totale SCT   ( y i  Y ) 2 n–1 CMT 


SCT
i n 1
CMR
F partiel = F  F (Fisher) = F;m;n( m1)
CM Re s

III.5. Analyse de la variance conditionnelle dans la régression linéaire multiple


L’analyse de la variance précédente se fait aussi lorsqu’on cherche à trouver le modèle de
régression linéaire multiple le plus approprié.
En effet supposons qu’un modèle à « k – 1 » paramètre ait été validé par le test unilatéral du F
partiel et qu’on cherche à savoir si on peut l’améliorer par la contribution d’une « k » autre variable
Xk. Dans ce cas, on établit le tableau suivant :
Variations Somme des carrés Degré de liberté F partiel Fischer

74
Régression à k–1
SCRk–1 = SCR(X1,X2,…, Xk–1) k–1
variables SCR k / k 1
Régression à k
SCRk = SCR(X1,X2,…, Xk–1, Xk) k 1
variables
SC Re s;k
F;1; n  ( k 1)
Régression
SCRk/k–1 = SCRk –SCRk–1 1 n  (k  1)
conditionnelle
Résiduelle SCRes;k n–(k+1)

Si F;1; n  ( k 1)  Fpartiel , la kème variable ne contribue pas à l’amélioration du modèle à k–1 paramètres
au seuil de signification α.

III.6. Estimation de E(Yh) par intervalle de confiance


 
La distribution d’échantillonnage de Yh qui correspond aux diverses valeurs possibles de Y qu’on
obtiendrait si des échantillons identiques (X1h ; X2h ; …; Xmh ) sont utilisés est une distribution normale
de moyenne : E(Ŷh )  E(Y)  E(BX h )  X h et de variance :
Var (Ŷh )  s 2 (Ŷh )  X h Cov(B)X htr où Xh est le vecteur ligne : Xh = (1 ; X1h ; X2h ; …; Xmh ). Soit :
 1   var( b 0 ) cov( b 0 , b1 ) ... cov( b 0 , b m )  1 
X  cov( b , b ) ... cov( b1 , b m )   X1h 
 
s 2 (Ŷh )  1; X1h ;...; X mh  F tr F  1h   1; X1h ;...; X mh 
1

 ...  
1

...
0 var( b1 )
... ... ...   ... 
    
X mh   cov( b m , b 0 ) cov( b m , b1 ) ... var( b m )  X mh 

Remarques :

Si X h  [1;0;...;0] , alors : s 2 (Ŷh )  s 2 (b 0 )
 2
Si X h  [1; X1h ;...; X mh ] , alors : s 2 (Ŷh )  s
n

L’intervalle de confiance au seuil de confiance 100(1 – α)% de la vraie valeur de E(Yh) est :
Ŷh  t  / 2;n ( m 1) s(Ŷh )  E (Yh )  Ŷh  s(Ŷh ) t  / 2;n ( m 1)

III.7. Prévision de Y pour une nouvelle valeur de X : intervalle de prévision


La prévision d’une valeur Y, notée Yh(p) pour une nouvelle observation Xh est : Yh ( P )  BXh

Cette valeur s’écarte de la valeur mesurée Yh vu que cette dernière n’a pas été utilisée pour établir la
droite de régression. L’erreur de prévision est donc : d h  Yh  Yh ( P )  Yh  Ŷh

Sa variance est alors :  2 (d h )   2 (Yh )   2 (Ŷh )   2   2 (Ŷh ) . Elle possède deux types de
variation : les fluctuations d’échantillonnage :  2 (Ŷh ) et la variance de Y :  2 .

Cette variance est généralement inconnue du fait que la variance des résidus σ2 est inconnue. On
l’estime par conséquent à partir de l’estimateur s2 de σ2 comme suit :
s 2 (d h )  s 2  s 2 (Ŷh )
L’intervalle de prévision au seuil de confiance 100(1 –α)% de la vraie valeur de Y est :
Ŷh  t  / 2;n ( m 1) s(d h )  E (Yh )  Ŷh  s(d h ) t  / 2;n ( m 1)

75
PARTIE EXERCICES

76
SERIE 1
STATISTIQUES DESCRIPTIVES

Exercice 1
Le nombre d’œufs d’Helminth par échantillon de 1 litre d’eau prélevée d’une unité d’un bassin de
traitement des eaux usées a donné le tableau suivant :
Nombre d'œufs d’Helminth par litre
4 4 3 5 3 3 5 5 4 5 6 6 3 3
4 4 6 3 5 4 5 6 3 4 5 5 4 5
1. Quel est l’échantillon ? la population ? Quel type de variable s’agit-il ? Que représente la
fréquence ?
2. Effectuez le dépouillement de ce sondage, puis représentez le tableau de distribution de
fréquences, des fréquences cumulées, croissantes et décroissantes.
3. Ecrivez une phrase exprimant la 3ème ligne de ce tableau ;
4. Quelles graphes, vous parait-il nécessaire à produire dans ce problème ? Les représenter !
5. Quels sont les différentes statistiques intéressantes à présenter dans ce problème ? Les calculer
et les interpréter
6. Déterminer, à partir du tableau ou de graphe, la médiane, le premier et le troisième quartile.
Exprimer par une phrase ce que signifient ces nombres ?
7. Calculer les caractéristiques d’asymétrie et de forme de cette distribution. Conclure !
1049 1333 1069 772 1019
Exercice 2
1190 908 1030 1142 1103
Durant 20 ans, on a observé chaque année, à un endroit donné, 685 923 916 928 851
sur une rivière, les débits de pointes printanières Q suivants: 1066 937 1090 1064 866
1. Effectuez le dépouillement de ce sondage, puis représentez le tableau de distribution de
fréquences, des fréquences cumulées, croissantes et décroissantes.
2. Ecrivez une phrase exprimant la 3ème ligne de ce tableau ;
3. Quelles graphes, vous parait-il nécessaires à produire dans ce problème ? Les représenter !
4. Quels sont les différentes statistiques intéressantes à présenter dans ce problème ? Les calculer
et les interpréter !
5. Déterminer, à partir du tableau ou des graphes, la médiane, le premier et le troisième quartile.
Exprimer par une phrase ce que signifient ces nombres ?
6. Calculer les caractéristiques d’asymétrie et de forme de cette distribution. Conclure !

77
Exercice 3
Voici le relevé du nombre de territoires de passereaux (nombre de couples) dans une forêt de 40 hectares.

Espèce 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
Fréquence 42 27 27 6 3 3 3 3 3 3 3 3 3 3 3 3 3 3

Combien d’espèces de passereaux aurions-nous trouvé si au lieu de faire un sondage du nombre


d’espèce sur 144 passereaux on l’avait effectué sur un nombre de passereau égal à :

n’ 10pasr 20pasr 30pasr 40pasr 50pasr 60pasr 70pasr 80pasr 90pasr


E(rich) …….. …….. …….. …….. …….. …….. …….. …….. ……..

1. En complétant le tableau, faire une représentation graphique de E(rich) en fonction de n, puis


commenter le résultat.
2. Représenter graphiquement le premier tableau
3. Estimer la diversité selon Shannon et selon Simpson. Laquelle de ces deux estimations est la
plus fiable ?
4. En déduire la régularité de Shannon et de Simpson. Laquelle de ces deux estimations est la plus
fiable ?

EXERCICE 4
Plusieurs facteurs abiotiques influencent la survie des œufs d’insectes. L’étude du taux de survie
des œufs de la coccinelle à sept points en fonction de l’humidité relative ambiante a donné les
résultats suivants :
Humidité relative (%) : X 0 20 40 60 80 100
Pourcentage d’éclosion : Y 45,5 46,9 49,7 61,4 81,7 88,6

1. Représenter dans un repère R le nuage statistique relatif à ces données


2. Calculer le coefficient de corrélation linéaire entre l’humidité relative et le pourcentage
d’éclosion des œufs de ce type de coccinelle puis en déduire s’il y a bien une corrélation de type
linéaire entre ces deux données.
3. Déterminer puis tracer dans le même repère R, l’équation de la droite de régression de y en x :
Y  aX  b . En déduire le pourcentage d’éclosion d’œufs de coccinelle qu’on pourrait avoir si
le taux d’humidité est de 70% ?

78
SERIE 2
NOTIONS DE PROBABILITE

Exercice 1
Une urne contient 6 boules blanches, 8 boules noires et 4 boules rouges. On tire 4 boules.
1. Quelle est la probabilité qu’elles soient toutes noires
2. Quelle est la probabilité qu’elles soient toutes blanches ?
3. Quelle est la probabilité qu’elles soient deux noires et 2 rouges ?
4. Quelle est la probabilité qu’elles soient deux blanches, 1 rouge et 1 noire ?

Exercice 2
Deux systèmes de contrôle opèrent indépendamment et sont sujets à un certain nombre de panne
par jour. Les lois de probabilité régissant le nombre de pannes par jour pour chaque système se
présentent comme suit :
Nombre de pannes 0 1 2 3 4
Système 1 0,07 0,35 0,34 0,18 0,06
Système 2 0,10 0,20 0,50 0,17 0,03
Quelle est la probabilité pour que le système1 possède le même nombre de pannes que le système2 ?

Exercice 3
Dans une usine, on dispose de quatre machines M1, M2, M3 et M4 fabricant des composantes
informatiques d’un type déterminé. La machine M1 assure 17% de la production, la machine M2 en
assure 25%, la machine M3 en assure 30% et la machine M4 en assure 28%. 2,0% des pièces
fabriquées par M1 sont défectueuses alors Que les machines M2, M3 et M4 présentent
respectivement un pourcentage de pièces défectueuses de 1,2%, 1,3% et 0,8%. Un lot est constitué
de pièces fabriquées par les quatre machines dans les proportions mentionnées.
On tire une pièce du lot, quelle est la probabilité qu’elle soit :
1. (a) défectueuse ? (b) non défectueuse et qu’elle provienne de M1 ?
2. Si une pièce défectueuse est tirée du lot, quelle est la probabilité qu’elle ait été fabriquée
(a) par la machine M1 ? (b) par la machine M2 ?

Exercice 4
Un batardeau temporaire a été construit pour protéger un chantier sur une durée de 5 ans. Ce
batardeau doit résister à une crue de 200m3/s. Quelle est la probabilité que ce batardeau soit
submergé
1. au moins une fois en 5ans ? 2. au cours d’une année quelconque ?
3. au cours de la troisième année seulement ? 4. aucune fois durant les 5 ans ?

Exercice 5
79
Une méthode de détection automatique de panne dans un réseau d’assainissement a été inventée.
Pour la tester, on l’a implantée dans 80 zones différentes. On a alors créé, dans 20 de ces zones, des
pannes sensées être détectées par cette nouvelle technique.
L’alarme de détection de pannes a été alors déclenchée 28 fois : 15 fois dans les zones
effectivement détériorées et 13 fois dans des zones non défectueuses. Quelle est la probabilité pour :
1. que la détection automatique soit bonne ?
2. qu’une zone soit effectivement défectueuse sachant que la détection automatique est bonne ?

Exercice 6
Après avoir administré un remède à un certain nombre de personnes atteintes d’une même infection
virale, on a remarqué que leur taux (pourcentage de personnes restantes infectées) baisse dans le
temps x (compté en nombre de jours) selon la densité de probabilité suivante :

f ( x )  k (30  x ) ; 0  x  30

f ( x )  0 ; ailleurs

1. Déterminer la valeur de k.
2. Déterminez la fonction de répartition
3. La moitié des malades sont guéris au bout de combien de jours ?
4. Combien de personnes restent malades après 24 jours si l’effectif initial était de 150 malades ?

80
SERIE 3
LOIS DES PROBABILITES DISCRETES ET CONTINUES

Exercice 1
On doit mettre en boîte 5 sardines. Lorsque la taille d’une sardine dépasse un certain calibre, la
sardine est alors considérée comme grosse, sinon, elle est considérée petite ou normale. Si la pêche
a procuré 30% de grosses sardines et 70% petites ou normales.
1. Quelle est la distribution de probabilité relative au nombre de grosses sardines qu’on pourrait
trouver dans une boîte puis tracer sa représentation graphique.
2. Si on achète 2000 boîtes de sardines, combien allons-nous trouver de boîtes qui ne contiennent
que des petites sardines ? que des grosses sardines ?

Exercice 2
Une entreprise expédie par lot de 50, ses microprocesseurs à un fabricant. Ce dernier utilise le plan
de contrôle suivant : Prélever 3 microprocesseurs du lot : Si aucun n’est défectueux, le lot est
accepté, sinon, le lot entier est contrôlé. Quelle est la probabilité d’accepter le lot s’il contient 2
défectuosités.

Exercice 3
Soit le croisement de 2 types de pois donnant naissance à 4 types : jaunes ronds (p1 = 0,56), verts
ronds (p2 = 0,19), jaunes et ridés (p3 = 0,19), verts et ridés (p4 = 0,06)
On tire 16 pois d’une urne contenant une très grande quantité de pois. Quelle est la probabilité de
tirer 9 jaunes ronds pois, 3 pois verts ronds, 3 pois jaunes et ridés et 1 pois verts et ridés

Exercice 4
La probabilité de capturer une souris sylvestre pleine est de 0,2. Quelle est la probabilité de capturer
8 souris sylvestres afin d’en obtenir deux pleines ?

Exercice 5
Il y a 5 chances sur 100 qu’un client arrive au guichet dans un intervalle de 15’’. Quelle est la loi de
probabilité qui régit le nombre de clients arrivant par heure ?

81
Exercice 6 :
Au service d’urgence d’un centre hospitalier, on a relevé en moyenne qu’il arrivait 2,7 personnes,
répertoriées comme sujets demandant une intervention majeure, par heure.
1. Quelle est la probabilité pour qu’il arrive moins de 2 de ces personnes en 15 minutes ?
2. Répondez à la même question en supposant que le processus est Gaussien.
Si θ de la loi exponentielle représente le taux moyen de cas urgents.
3. Exprimez θ en nombre de ces personnes par minute;
4. Quelle est la probabilité pour qu’une de ces personnes arrive en moins de 10 minutes
5. Dans 50% de cas, de combien est la durée moyenne séparant deux personnes exigeant une
intervention majeure ?

Exercice 7
En vous repérant aux réponses de l’exercice 2 de la série 1, répondez aux questions suivante :
1. En supposant que la distribution de l’échantillon de l’exercice 2, série 1, n’est pas trop éloignée
de celle de l’ensemble des débits de pointe dans cette région, Calculez à partir du tableau trouvé
en 1
(a) la probabilité que le débit de pointe dépasse 1200 m3/s ?
(b) le débit de pointe de période de retour 10 ans
2. En supposant que l’ensemble des débits de pointe suit une loi Normale de moyenne et d’écart
type identique à ceux trouvés en 1,
(a) quel peut être dans ce cas le débit de pointe de période de retour 10 ans ? Le comparer avec
celui trouvé en 2b
(b) Quel pourrait être le risque d’avoir trois inondations décanales ?

82
SERIE 4
ESTIMATION PONCTUELLE – ESTIMATION PAR INTERVALLE
TEST STATISTIQUE

Exercice 1
Voici les résultats des statistiques descriptives relatives à deux lots de poules faisanes élevées en
captivité Le premier lot est prélevé d’un groupe de poules auxquelles on a administré, par voie
orale, des capsules de gélatine d’acétate de phényl-mercure. Le second lot est prélevé d’un groupe
témoin non traité.
Volume des œufs (ml)
1. Calculer les intervalles de confiance du volume moyen des œufs Poules Poules non
de poules traitées et non traitées (   0,05 ); traitées traitées
n 17 40
2. Calculer les intervalles de confiance de la variance du volume
X 26,0 25,3
des œufs de poules traitées et non traitées (   0,05 ); s 1,4 0,8
3. Au seuil de signification   0,05 , les deux moyennes sont-elles égales?

4. Au seuil de signification   0,05 , la variance s12 est-elle supérieure ou égale à s22 ?

Exercice 2
Au début Après 2 mois
On a mesuré la consommation maximale d’oxygène a un
1 2,4 2,6
groupe de personne subissant un effort identique. Ces mesures
2 2,5 2,8
ont été effectuées au début et, après deux mois de
3 2,6 2,9
conditionnement physique. Une augmentation de la
4 2,7 2,9
consommation d’oxygène indique une amélioration de la
5 2,4 2,7
condition cardio-vasculaire. Les résultats pour chaque 6 2,5 2,6
personne sont représentés au tableau ci-contre. 7 2,5 2,7
Peut-on conclure au seuil   0,05 à l’amélioration de la condition cardio-vasculaire après deux
mois de conditionnement physique?

83
Exercice 3
Les bassins côtiers situés entre Rabat et Azemmour, couvrent une superficie d’environ 10470 km2.
Ils s’étendent à la plaine de la Chaouia, aux bassins versant des oueds Elmaleh, Nfifikh et des oueds
issus du plateau des phosphates. Ces bassins sont limités par le bassin versant de l'oued l'Oum
Errbia, le plateau des phosphates, le bassin du Bouregreg et l'océan atlantique.
Un échantillon de 10 stations pluviométriques a relevé une moyenne annuelle de précipitation
d’environ 400mm et un écart type de 40mm.
Si on suppose que les précipitations annuelles dans ces régions suivent une loi normale, dans quel
intervalle de confiance, au seuil de 95%, se situerait la moyenne réelle des précipitations ?
Cette estimation n’étant pas assez précise pour une meilleure gestion des eaux précipitées, de
combien doit-on augmenter le nombre de stations de mesure de pluviométrie dans cette région afin
que l’estimation de la moyenne des précipitations annuelles soit à la fois sûre, à 95% et précise,
avec une marge d’erreur de seulement 20 mm.
Déduire alors des conséquences de cette précision en termes de volume d’eau précipité qu’on
pourrait gérer dans ces régions.

Exercice 4
Un chercheur A a voulu comparer les résultats qu’il a obtenus grâce à sa théorie avec ceux d’une
publication faite par un autre chercheur B utilisant une autre approche théorique. La comparaison
faite sur 20 valeurs est décrite sur le tableau suivant
Chercheur A Chercheur B
Écart moyen par rapport à l’expérience 1,2 -0,7
Variance 0,3 0,1
1. Peut-on affirmer au risque de se tromper de α = 5% que le chercheur B s’approche plus de
l’expérience que ne l’a fait le chercheur A ? On supposera que les écarts suivent une loi
normale.
2. Peut-on affirmer que les écarts types des deux chercheurs sont les mêmes.

Exercice 5
Lors des anciennes mesures, on a relevé que l’écart type de la DBO d’un bassin de traitement des
eaux usées est de l’ordre de 35 mg/l. Entre temps, un dispositif de traitement est mis en place afin
de mieux épurer ces eaux. Mais avant de l’adopter définitivement, on veut analyser un échantillon
de ces eaux afin d’estimer la fiabilité de ce dispositif. En supposant que l’écart type ne changera pas
de beaucoup avec ce nouveau procédé, combien d’échantillons doit-on prélever du bassin pour
estimer avec un niveau de confiance de 95% la moyenne de la DBO de sorte que la marge d’erreur
dans l’estimation ne dépasse pas 15 mg ?

84
Exercice 6
Sur les 10000 enfants nés de 1968 à 1973 dans une clinique, on a compté 53% de filles. La
proportion de filles observée est-elle compatible avec l'hypothèse d'équiprobabilité de naissance
d'une fille et d'un garçon, au risque de 1% de se tromper ?
X Xi fi
Exercice 7 19 <X  21 20 1
Les statistiques sur le nombre X de jours de traitement d’un échantillon 21 < X  23
22 2
23 < X  25 24 4
de 25 personnes décédées à cause d’un virus ont été compilées et ont
25 < X  27 26 9
donné le tableau suivant :
27 < X  29 28 7
1. Déterminez, la moyenne X et l’écart type s X de cet échantillon 29 < X  31 30 2

2. Quel est l’intervalle de confiance, au seuil de 95%, dans lequel se situerait la moyenne μ des
nombres de jours de traitement de tous ceux qui ne guérissent pas (qu’on supposera suivre une
loi normale de moyenne μX et d’écart type σX)
3. Quel est l’intervalle de confiance, au seuil de 95%, dans lequel se situerait l’écart type σ des
nombres de jours de traitement de tous ceux qui ne guérissent pas.

4. Si on suppose que  X  s X et  X  X , quelle est la probabilité pour qu’un patient qui ne guérit
pas, meurt avant 20 jours de traitement ?
5. Au fait, il existe deux remèdes, le premier R1 a donné sur un échantillon de 36 personnes
atteintes un taux de mortalité de 0,5% et un écart type de 0,1%. Le second remède R2 a donné
su un échantillon de 25 malades un taux de mortalité de 0,4% et un écart type de 0,12%. Peut-on
affirmer, au seuil de 95% que les deux remèdes sont équivalents ?

85
PARTIE TRAVAUX PRATIQUES

86
TRAVAUX A EFFECTUER SUR MATLAB

Objectif 1 : Opération sur les matrices dans Matlab


Introduire une matrice a quelconque
Introduire une matrice b quelconque
Calculez a+b, axb en faisant attention aux formats des deux matrices
Calculez la transposée de a
Introduire une matrice carrée c
Calculez le déterminant de c
Calculez la trace de c
Calculez l’inverse de c

Objectif 2 : Extraction de valeurs, de vecteurs ou de sous-matrice d’une matrice


Introduire une matrice d de 8 lignes et 5 colonnes
Extraire de cette matrice d toutes les lignes de la 2ème à la 4ème colonne
Extraire de cette matrice d toutes les colonnes de la 4ème à la 7ème ligne
Extraire de cette matrice d de la 3ème à la 8ème ligne et de la 3ème à la 5ème colonne

Objectif 3 : Paramètres statistiques dans Matlab


Introduire une matrice m de 10 lignes et 5 colonnes ;
Calculez la moyenne de chaque colonne de m : mean
Calculez l’écart type de chaque colonne de m : std
En déduire le coefficient de variation de chaque colonne de m : std./mean.
Interprétez ce dernier résultat
Comment faire pour calculez les 3 derniers paramètres de chaque ligne de m
Calculez la matrice de covariance de la matrice m
Calculez la matrice de corrélation R de la matrice m
Interprétez cette dernière matrice R

Objectif 4 : Vecteurs et valeurs propre


Calculez les vecteurs propres et les valeurs propres de R puis vérifiez si la somme des valeurs propres est
bien égale au nombre de colonne de m et dites pourquoi ?.
Comment interpréter ces valeurs et vecteurs propres ?

Objectif 5 : Visualiser un bruit blanc


Introduire grâce à la fonction randn de Matlab, une matrice aa de dimension 1000 lignes et 8 colonnes
contenant des valeurs aléatoire qui suivent une loi normale centrée réduite.
Vérifiez si les colonnes de aa sont bien chacune, de moyennes nulles et d’écart type 1 puis vérifiez si les
valeurs des colonnes sont ou ne sont pas indépendantes
Tracez uniquement sur une figure de Matlab les variations des valeurs de la première colonne : plot

TP1 : Programmer une régression simple


Introduire une matrice x de 20lignes et 4 colonnes et dont la quatrième colonne s’exprime comme suit :
x4  12,6  3x1  2 x2  7,3x3  2,6 x4   et ε est un vecteur constitué de 20valeurs aléatoires qui
suivent une loi normale de moyenne 0 et d’écart type 2,3
En vous reportant au cours sur la régression linéaire multiple, trouvez les coefficients de régression reliant la
variable x 4 des variables x1 ; x2 ; .x3 et .x4

87
TP2 : Les fonctions dans Matlab
Créez une fonction dans Matlab permettant de transformer un vecteur par un autre vecteur dont les
valeurs sont ordonnées par ordre croissant.
Créez une fonction dans Matlab permettant de transformer un vecteur par un autre vecteur dont les
valeurs sont ordonnées par ordre décroissant.
Créez une fonction dans Matlab qui permettrait de déterminer les coefficients dune régression
linéaire multiple, puis l’utiliser pour répondre aux questions 27 et 28

TP3 : Analyse en composantes principales


Les consommations de viande sont réparties selon les catégories socioprofessionnelles comme suit :
Consommation Volaille Poisson blanc Crustacé céphalopodes Poisson congelé
Exploitant rural côtier 13,786 1,696 0 0 0,285
Exploitant rural interne 11,243 0,221 0,1800 0 0
Exploitant urbain côtier 9,78 0 0 0 0
Exploitant rural interne 13,04 0,545 0 0 0
Ouvrier non agricole rural côtier 10,633 1,6 0 0 0
Ouvrier non agricole rural interne 10,583 0,581 0,1670 0 0
Ouvrier non agricole urbain côtier 8,4 6,083 0 0 0
Ouvrier non agricole urbain interne 13,58 4,02 0 0 0
Commerçant ind. rural côtier 10,283 3,086 0,0480 0 0
Commerçant ind. rural interne 11,197 1,161 0 0 0
Commerçant ind. urbain côtier 9,132 3,3 0,2160 0,103 0
Commerçant ind. urbain interne 8,543 2,465 0 0 0
Employer rural côtier 17,092 5,868 0,7070 0,272 0
Employer rural interne 11,59 2,353 1,0870 0,543 0
Employer urbain côtier 13,163 5,659 1,9050 0,613 0,043
Employer urbain interne 12,59 3,953 0,4510 0,136 0,263
Cadre moyen rural interne 13,04 4,35 0,5500 0,54 0
Cadre moyen urbain côtier 14,847 10,32 3,7570 2,173 1,993
Cadre moyen urbain interne 13,421 6,628 0,7270 0,123 0,607
Cadre supérieur rural côtier 19,55 6,52 0 0 0
Cadre supérieur rural interne 22,81 6,945 1,3600 0 1,63
Cadre supérieur urbain côtier 19,917 13,327 1,7980 0,6780 4,2580
Cadre supérieur urbain interne 16,95 11,083 1,4650 1,6300 3,2600
Autres rural côtier 14,4 3,858 0,0840 0 0
Autres rural interne 12,674 1,996 0,0530 0,1090 0,1090
Autres urbain côtier 9,678 4,46 0,1410 0,0840 0
Autres urbain interne 16,872 3,641 0,3480 0 0,1280

 En utilisant les programmes délivrés et imprimés en annexe, effectuez les travaux suivants
 Faire une analyse en composantes principales de ces données ;
 Faire une régression multiple entre la consommation du poisson blanc et les autres types de
viande.
 En supposant que les données dont les valeurs sont écrites en gras sont manquantes, pourriez-
vous les reconstituer.
 Trouver les deux premiers axes principaux d’inertie des données relatives à la consommation
des volailles, de crustacés, des céphalopodes et du poisson congelé et faire une régression entre
la consommation du poisson blanc et ces deux composantes.

88
TRAVAIL A PRODUIRE

1- Récupérer des données soit en provenance d'une campagne de mesures que vous
effectuerez lors de votre stage ou de données qu'on vous a remises pour votre rapport ou
à défaut, des données que je vous livrerai.
2- Voir s'il y a possibilité ou non de faire une A.C.P. là-dessus. Si oui, la réaliser.
3- Voir s'il y a possibilité de réaliser une régression multiple expliquant une des données
en fonction de certaines autres données. Essayez de présenter le modèle le plus
parcimonieux en présentant et interprétant le tableau qui analyserait la variance de votre
régression multiple. Avant de réaliser ce travail, récupérez des données 2 ou 3 valeurs et
ne travaillez que sur le reste des données.
4- Grâce à votre modèle, essayez de reconstituer les deux ou trois données que vous
avez initialement extraites en donnant leurs intervalles de confiance, puis les comparer
avec celles, réelles
5- Rédigez un rapport en donnant un titre à ce projet (titre dans lequel on ne doit pas
faire apparaitre les mots : ACP, régression, Matlab), une introduction liée à l'objectif de
cette étude, à la manière avec laquelle vous avez récupéré vos mesures, à la description
des mesures et pourquoi ont-elles un intérêt dans votre étude. Interprétez tous les
résultats que vous obtenez et surtout donnez vos impressions quant à la fiabilité des
méthodes utilisées puis enfin conclure.

89
CONSEILS

Interprétez les coefficients de variation et l’écart interquartile relatif

Représentez la boîte à pattes

Regardez l’homogénéité des variables

Interprétez la matrice de corrélation

Interpréter cette matrice et voir éventuellement s’il peut exister des corrélations entre les
variables colonnes.

1er Plans principaux

Interpréter les projections sur le plan principal et voir les variables colonnes les mieux
expliquées par ce plan. Voir aussi les groupements de variables éventuellement

2ème et 3ème Plan principal

Interpréter les projections sur le second puis le troisième plan principal et voir les variables
colonnes les mieux expliquées respectivement par ces plans. Vérifiez si les groupements
de variables trouvés sur le plan principal d’inertie sont confirmés par ces deux plans.

Axes d’inerties : Voir seulement les projections

Regardez les variables colonnes les mieux expliquées par d’abords le premier axe
d’inertie puis ensuite par le second et enfin par le troisième.

Les composantes principales

Regardez les variables lignes les mieux expliquées par d’abords le premier axe d’inertie
puis ensuite par le second. Essayez ensuite de voir les correspondances entre variables
ligne et variables colonnes

90
ANNEXES 1

Table : Distribution normale centrée réduite

Les chiffres de la table correspondent à la


valeur de l’aire située sous la courbe, c’est
donc la probabilité pour avoir Z compris entre 0
et 1,52 : P(0 < Z <= 1,52)=0,43574

Z 0 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09


0 0,00000 0,00399 0,00798 0,01197 0,01595 0,01994 0,02392 0,02790 0,03188 0,03586
0,1 0,03983 0,04380 0,04776 0,05172 0,05567 0,05962 0,06356 0,06749 0,07142 0,07535
0,2 0,07926 0,08317 0,08706 0,09095 0,09483 0,09871 0,10257 0,10642 0,11026 0,11409
0,3 0,11791 0,12172 0,12552 0,12930 0,13307 0,13683 0,14058 0,14431 0,14803 0,15173
0,4 0,15542 0,15910 0,16276 0,16640 0,17003 0,17364 0,17724 0,18082 0,18439 0,18793
0,5 0,19146 0,19497 0,19847 0,20194 0,20540 0,20884 0,21226 0,21566 0,21904 0,22240
0,6 0,22575 0,22907 0,23237 0,23565 0,23891 0,24215 0,24537 0,24857 0,25175 0,25490
0,7 0,25804 0,26115 0,26424 0,26730 0,27035 0,27337 0,27637 0,27935 0,28230 0,28524
0,8 0,28814 0,29103 0,29389 0,29673 0,29955 0,30234 0,30511 0,30785 0,31057 0,31327
0,9 0,31594 0,31859 0,32121 0,32381 0,32639 0,32894 0,33147 0,33398 0,33646 0,33891
1 0,34134 0,34375 0,34614 0,34849 0,35083 0,35314 0,35543 0,35769 0,35993 0,36214
1,1 0,36433 0,36650 0,36864 0,37076 0,37286 0,37493 0,37698 0,37900 0,38100 0,38298
1,2 0,38493 0,38686 0,38877 0,39065 0,39251 0,39435 0,39617 0,39796 0,39973 0,40147
1,3 0,40320 0,40490 0,40658 0,40824 0,40988 0,41149 0,41309 0,41466 0,41621 0,41774
1,4 0,41924 0,42073 0,42220 0,42364 0,42507 0,42647 0,42785 0,42922 0,43056 0,43189
1,5 0,43319 0,43448 0,43574 0,43699 0,43822 0,43943 0,44062 0,44179 0,44295 0,44408
1,6 0,44520 0,44630 0,44738 0,44845 0,44950 0,45053 0,45154 0,45254 0,45352 0,45449
1,7 0,45543 0,45637 0,45728 0,45818 0,45907 0,45994 0,46080 0,46164 0,46246 0,46327
1,8 0,46407 0,46485 0,46562 0,46638 0,46712 0,46784 0,46856 0,46926 0,46995 0,47062
1,9 0,47128 0,47193 0,47257 0,47320 0,47381 0,47441 0,47500 0,47558 0,47615 0,47670
2 0,47725 0,47778 0,47831 0,47882 0,47932 0,47982 0,48030 0,48077 0,48124 0,48169
2,1 0,48214 0,48257 0,48300 0,48341 0,48382 0,48422 0,48461 0,48500 0,48537 0,48574
2,2 0,48610 0,48645 0,48679 0,48713 0,48745 0,48778 0,48809 0,48840 0,48870 0,48899
2,3 0,48928 0,48956 0,48983 0,49010 0,49036 0,49061 0,49086 0,49111 0,49134 0,49158
2,4 0,49180 0,49202 0,49224 0,49245 0,49266 0,49286 0,49305 0,49324 0,49343 0,49361
2,5 0,49379 0,49396 0,49413 0,49430 0,49446 0,49461 0,49477 0,49492 0,49506 0,49520
2,6 0,49534 0,49547 0,49560 0,49573 0,49585 0,49598 0,49609 0,49621 0,49632 0,49643
2,7 0,49653 0,49664 0,49674 0,49683 0,49693 0,49702 0,49711 0,49720 0,49728 0,49736
2,8 0,49744 0,49752 0,49760 0,49767 0,49774 0,49781 0,49788 0,49795 0,49801 0,49807
2,9 0,49813 0,49819 0,49825 0,49831 0,49836 0,49841 0,49846 0,49851 0,49856 0,49861
3 0,49865 0,49869 0,49874 0,49878 0,49882 0,49886 0,49889 0,49893 0,49896 0,49900

91
ANNEXES 2
DISTRIBUTIONS DU t DE STUDENT
Pour une distribution de Student à ddl degrés de liberté et pour une
proportion α (.05, .01 ou .001), la table indique t tel que P( |T| > t) = α
Exemple: Pour ddl = 5, on a : P(|T| > 2.571) = .05.

Table des valeurs critiques bilatérales usuelles


Degrés de liberté α = 0,1. α/2 = 0,05 α = 0,05. α/2 = 0,025 α = 0,01 ; α/2 = 0,005 α = 0,001 ; α/2 = 0,0005
1 6,314 12,706 63,657 636,619
2 2,920 4,303 9,925 31,599
3 2,353 3,182 5,841 12,924
4 2,132 2,776 4,604 8,610
5 2,015 2,571 4,032 6,869
6 1,943 2,447 3,707 5,959
7 1,895 2,365 3,499 5,408
8 1,860 2,306 3,355 5,041
9 1,833 2,262 3,250 4,781
10 1,812 2,228 3,169 4,587
11 1,796 2,201 3,106 4,437
12 1,782 2,179 3,055 4,318
13 1,771 2,160 3,012 4,221
14 1,761 2,145 2,977 4,140
15 1,753 2,131 2,947 4,073
16 1,746 2,120 2,921 4,015
17 1,740 2,110 2,898 3,965
18 1,734 2,101 2,878 3,922
19 1,729 2,093 2,861 3,883
20 1,725 2,086 2,845 3,850
21 1,721 2,080 2,831 3,819
22 1,717 2,074 2,819 3,792
23 1,714 2,069 2,807 3,768
24 1,711 2,064 2,797 3,745
25 1,708 2,060 2,787 3,725
26 1,706 2,056 2,779 3,707
27 1,703 2,052 2,771 3,690
28 1,701 2,048 2,763 3,674
29 1,699 2,045 2,756 3,659
30 1,697 2,042 2,750 3,646
40 1,684 2,021 2,704 3,551
60 1,671 2,000 2,660 3,460
120 1,658 1,980 2,617 3,373
30000 1,645 1,960 2,576 3,291

92
ANNEXE 3
LOI DU KHI2(  )
Cette table donne les fractiles FP de la loi de khi-deux
à  degrés de liberté : P = Probabilité (²  FP )

P = 1–α 0,005 0,01 0,025 0,05 0,1 0,25 0,5 0,75 0,9 0,95 0,975 0,99 0,995
Ν α 0,995 0,99 0,975 0,95 0,9 0,75 0,5 0,25 0,1 0,05 0,025 0,01 0,005
1 0 0,0002 0,001 0,0039 0,0158 0,102 0,455 1,32 2,71 3,84 5,02 6,63 7,88
2 0,01 0,0201 0,0506 0,103 0,211 0,575 1,39 2,77 4,61 5,99 7,38 9,21 10,6
3 0,0717 0,115 0,216 0,352 0,584 1,21 2,37 4,11 6,25 7,81 9,35 11,3 12,8
4 0,207 0,297 0,484 0,711 1,06 1,92 3,36 5,39 7,78 9,49 11,1 13,3 14,9
5 0,412 0,554 0,831 1,15 1,61 2,67 4,35 6,63 9,24 11,1 12,8 15,1 16,7
6 0,676 0,872 1,24 1,64 2,2 3,45 5,35 7,84 10,6 12,6 14,4 16,8 18,5
7 0,989 1,24 1,69 2,17 2,83 4,25 6,35 9,04 12 14,1 16 18,5 20,3
8 1,34 1,65 2,18 2,73 3,49 5,07 7,34 10,2 13,4 15,5 17,5 20,1 22
9 1,73 2,09 2,7 3,33 4,17 5,9 8,34 11,4 14,7 16,9 19 21,7 23,6
10 2,16 2,56 3,25 3,94 4,87 6,74 9,34 12,5 16 18,3 20,5 23,2 25,2
11 2,6 3,05 3,82 4,57 5,58 7,58 10,3 13,7 17,3 19,7 21,9 24,7 26,8
12 3,07 3,57 4,4 5,23 6,3 8,44 11,3 14,8 18,5 21 23,3 26,2 28,3
13 3,57 4,11 5,01 5,89 7,04 9,3 12,3 16 19,8 22,4 24,7 27,7 29,8
14 4,07 4,66 5,63 6,57 7,79 10,2 13,3 17,1 21,1 23,7 26,1 29,1 31,3
15 4,6 5,23 6,26 7,26 8,55 11 14,3 18,2 22,3 25 27,5 30,6 32,8
16 5,14 5,81 6,91 7,96 9,31 11,9 15,3 19,4 23,5 26,3 28,8 32 34,3
17 5,7 6,41 7,56 8,67 10,1 12,8 16,3 20,5 24,8 27,6 32 33,4 35,7
18 6,26 7,01 8,23 9,39 10,9 13,7 17,3 21,6 26 28,9 31,5 34,8 37,2
19 6,84 7,63 8,91 10,1 11,7 14,6 18,3 22,7 27,2 30,1 32,9 36,2 38,6
20 7,43 8,26 9,56 10,9 12,4 15,5 19,3 23,8 28,4 31,4 34,2 37,6 40
21 8,03 8,9 10,3 11,6 13,2 16,3 20,3 24,9 29,6 32,7 35,5 38,9 41,4
22 8,64 9,54 11 12,3 14 17,2 21,3 26 30,8 33,9 36,8 40,3 42,8
23 9,26 10,2 11,7 13,1 14,8 18,1 22,3 27,1 32 35,2 38,1 41,6 44,2
24 9,89 10,9 12,4 13,8 15,7 19 23,3 28,2 33,2 36,4 39,4 43 45,6
25 10,5 11,5 13,1 14,6 16,5 19,9 24,3 29,3 34,4 37,7 40,6 44,3 46,9
26 11,2 12,2 13,8 15,4 17,3 20,8 25,3 30,1 35,6 38,9 41,9 45,6 48,3
27 11,8 12,9 14,6 16,2 18,1 21,7 26,3 31,5 36,7 40,1 43,2 47 49,6
28 12,5 13,6 15,3 16,9 18,9 22,7 27,3 32,6 37,9 41,3 44,5 48,3 51
29 13,1 14,3 16 17,7 19,8 23,6 28,3 33,7 39,1 42,6 45,7 49,6 52,3
30 13,8 15 16,8 18,5 20,6 24,5 29,3 34,8 40,3 43,8 47 50,9 53,7
40 20,7 22,2 24,4 26,5 29,1 33,7 39,3 45,6 51,8 55,8 59,3 63,7 66,8
50 28 29,7 32,4 34,8 37,7 42,9 49,3 56,3 63,2 67,5 71,4 76,2 79,5
60 35,5 37,5 40,5 43,2 46,5 52,3 59,3 67 74,4 79,1 83,3 88,4 92
70 43,3 45,4 48,8 51,7 55,3 61,7 69,3 77,6 85,5 90,5 95 100,4 104,2
80 51,2 53,5 57,2 60,4 64,3 71,1 79,3 88,1 96,6 101,9 106,6 112,4 116,3
90 59,2 61,8 65,6 69,1 73,3 80,6 89,3 98,6 107,6 113,1 118,1 124,1 128,3
100 67,3 70,1 74,2 77,9 82,4 90,1 99,3 109,1 118,5 124,3 129,6 135,8 140,2

93
ANNEXES 4
DISTRIBUTIONS DE FISHER-SNEDECOR
α = 0,1

Degré de liberté du numérateur ν1


1 2 3 4 5 6 7 8 9 10 15 20 30 50 100 200 500 inf
1 39,9 49,5 53,6 55,8 57,2 58,2 58,9 59,4 59,9 60,2 61,2 61,7 62,3 62,7 63,0 63,2 63,3 63,3
2 8,53 9,00 9,16 9,24 9,29 9,33 9,35 9,37 9,38 9,39 9,42 9,44 9,46 9,47 9,48 9,49 9,49 9,49
3 5,54 5,46 5,39 5,34 5,31 5,28 5,27 5,25 5,24 5,23 5,20 5,18 5,17 5,15 5,14 5,14 5,14 5,13
4 4,54 4,32 4,19 4,11 4,05 4,01 3,98 3,95 3,94 3,92 3,87 3,84 3,82 3,80 3,78 3,77 3,76 3,76
5 4,06 3,78 3,62 3,52 3,45 3,40 3,37 3,34 3,32 3,30 3,24 3,21 3,17 3,15 3,13 3,12 3,11 3,11
6 3,78 3,46 3,29 3,18 3,11 3,05 3,01 2,98 2,96 2,94 2,87 2,84 2,80 2,77 2,75 2,73 2,73 2,72
7 3,59 3,26 3,07 2,96 2,88 2,83 2,78 2,75 2,72 2,70 2,63 2,59 2,56 2,52 2,50 2,48 2,48 2,47
8 3,46 3,11 2,92 2,81 2,73 2,67 2,62 2,59 2,56 2,54 2,46 2,42 2,38 2,35 2,32 2,31 2,30 2,29
9 3,36 3,01 2,81 2,69 2,61 2,55 2,51 2,47 2,44 2,42 2,34 2,30 2,25 2,22 2,19 2,17 2,17 2,16
10 3,29 2,92 2,73 2,61 2,52 2,46 2,41 2,38 2,35 2,32 2,24 2,20 2,16 2,12 2,09 2,07 2,06 2,06
11 3,23 2,86 2,66 2,54 2,45 2,39 2,34 2,30 2,27 2,25 2,17 2,12 2,08 2,04 2,01 1,99 1,98 1,97
Degré de liberté du numérateur ν2

12 3,18 2,81 2,61 2,48 2,39 2,33 2,28 2,24 2,21 2,19 2,10 2,06 2,01 1,97 1,94 1,92 1,91 1,90
13 3,14 2,76 2,56 2,43 2,35 2,28 2,23 2,20 2,16 2,14 2,05 2,01 1,96 1,92 1,88 1,86 1,85 1,85
14 3,10 2,73 2,52 2,39 2,31 2,24 2,19 2,15 2,12 2,10 2,01 1,96 1,91 1,87 1,83 1,82 1,80 1,80
15 3,07 2,70 2,49 2,36 2,27 2,21 2,16 2,12 2,09 2,06 1,97 1,92 1,87 1,83 1,79 1,77 1,76 1,76
16 3,05 2,67 2,46 2,33 2,24 2,18 2,13 2,09 2,06 2,03 1,94 1,89 1,84 1,79 1,76 1,74 1,73 1,72
17 3,03 2,64 2,44 2,31 2,22 2,15 2,10 2,06 2,03 2,00 1,91 1,86 1,81 1,76 1,73 1,71 1,69 1,69
18 3,01 2,62 2,42 2,29 2,20 2,13 2,08 2,04 2,00 1,98 1,89 1,84 1,78 1,74 1,70 1,68 1,67 1,66
19 2,99 2,61 2,40 2,27 2,18 2,11 2,06 2,02 1,98 1,96 1,86 1,81 1,76 1,71 1,67 1,65 1,64 1,63
20 2,97 2,59 2,38 2,25 2,16 2,09 2,04 2,00 1,96 1,94 1,84 1,79 1,74 1,69 1,65 1,63 1,62 1,61
22 2,95 2,56 2,35 2,22 2,13 2,06 2,01 1,97 1,93 1,90 1,81 1,76 1,70 1,65 1,61 1,59 1,58 1,57
24 2,93 2,54 2,33 2,19 2,10 2,04 1,98 1,94 1,91 1,88 1,78 1,73 1,67 1,62 1,58 1,56 1,54 1,53
26 2,91 2,52 2,31 2,17 2,08 2,01 1,96 1,92 1,88 1,86 1,76 1,71 1,65 1,59 1,55 1,53 1,51 1,50
28 2,89 2,50 2,29 2,16 2,06 2,00 1,94 1,90 1,87 1,84 1,74 1,69 1,63 1,57 1,53 1,50 1,49 1,48
30 2,88 2,49 2,28 2,14 2,05 1,98 1,93 1,88 1,85 1,82 1,72 1,67 1,61 1,55 1,51 1,48 1,47 1,46
40 2,84 2,44 2,23 2,09 2,00 1,93 1,87 1,83 1,79 1,76 1,66 1,61 1,54 1,48 1,43 1,41 1,39 1,38
50 2,81 2,41 2,20 2,06 1,97 1,90 1,84 1,80 1,76 1,73 1,63 1,57 1,50 1,44 1,39 1,36 1,34 1,33
60 2,79 2,39 2,18 2,04 1,95 1,87 1,82 1,77 1,74 1,71 1,60 1,54 1,48 1,41 1,36 1,33 1,31 1,29
80 2,77 2,37 2,15 2,02 1,92 1,85 1,79 1,75 1,71 1,68 1,57 1,51 1,44 1,38 1,32 1,28 1,26 1,25
100 2,76 2,36 2,14 2,00 1,91 1,83 1,78 1,73 1,69 1,66 1,56 1,49 1,42 1,35 1,29 1,26 1,23 1,22
200 2,73 2,33 2,11 1,97 1,88 1,80 1,75 1,70 1,66 1,63 1,52 1,46 1,38 1,31 1,24 1,20 1,17 1,15
500 2,72 2,31 2,09 1,96 1,86 1,79 1,73 1,68 1,64 1,61 1,50 1,44 1,36 1,28 1,21 1,16 1,12 1,09
Inf 2,71 2,30 2,08 1,95 1,85 1,77 1,72 1,67 1,63 1,60 1,49 1,42 1,34 1,26 1,19 1,13 1,08 1,03

94
DISTRIBUTION DE FISHER-SNEDECOR SUITE
α = 0,05
Degré de liberté du numérateur ν1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
1 161,4 199,5 215,7 224,6 230,2 234 236,8 238,9 240,5 241,9 243 243,9 244,7 245,4 245,9 246,5 246,9 247,3
2 18,51 19,00 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,40 19,41 19,42 19,42 19,43 19,43 19,44 19,44
3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,76 8,74 8,73 8,71 8,70 8,69 8,68 8,67
4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,94 5,91 5,89 5,87 5,86 5,84 5,83 5,82
5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,70 4,68 4,66 4,64 4,62 4,60 4,59 4,58
6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,03 4,00 3,98 3,96 3,94 3,92 3,91 3,90
7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,60 3,57 3,55 3,53 3,51 3,49 3,48 3,47
8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,31 3,28 3,26 3,24 3,22 3,20 3,19 3,17
9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,10 3,07 3,05 3,03 3,01 2,99 2,97 2,96
10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,94 2,91 2,89 2,86 2,85 2,83 2,81 2,80
11 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,82 2,79 2,76 2,74 2,72 2,70 2,69 2,67
12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,72 2,69 2,66 2,64 2,62 2,60 2,58 2,57
13 4,67 3,81 3,41 3,18 3,03 2,92 2,83 2,77 2,71 2,67 2,63 2,60 2,58 2,55 2,53 2,51 2,50 2,48
14 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 2,57 2,53 2,51 2,48 2,46 2,44 2,43 2,41
15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,51 2,48 2,45 2,42 2,40 2,38 2,37 2,35
16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,46 2,42 2,40 2,37 2,35 2,33 2,32 2,30
Degré de liberté du numérateur ν2

17 4,45 3,59 3,20 2,96 2,81 2,70 2,61 2,55 2,49 2,45 2,41 2,38 2,35 2,33 2,31 2,29 2,27 2,26
18 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46 2,41 2,37 2,34 2,31 2,29 2,27 2,25 2,23 2,22
19 4,38 3,52 3,13 2,90 2,74 2,63 2,54 2,48 2,42 2,38 2,34 2,31 2,28 2,26 2,23 2,21 2,20 2,18
20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,31 2,28 2,25 2,22 2,20 2,18 2,17 2,15
21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,28 2,25 2,22 2,20 2,18 2,16 2,14 2,12
22 4,30 3,44 3,05 2,82 2,66 2,55 2,46 2,40 2,34 2,30 2,26 2,23 2,20 2,17 2,15 2,13 2,11 2,10
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 2,27 2,24 2,20 2,18 2,15 2,13 2,11 2,09 2,08
24 4,26 3,40 3,01 2,78 2,62 2,51 2,42 2,36 2,30 2,25 2,22 2,18 2,15 2,13 2,11 2,09 2,07 2,05
25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,20 2,16 2,14 2,11 2,09 2,07 2,05 2,04
26 4,23 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,18 2,15 2,12 2,09 2,07 2,05 2,03 2,02
27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,31 2,25 2,20 2,17 2,13 2,10 2,08 2,06 2,04 2,02 2,00
28 4,20 3,34 2,95 2,71 2,56 2,45 2,36 2,29 2,24 2,19 2,15 2,12 2,09 2,06 2,04 2,02 2,00 1,99
29 4,18 3,33 2,93 2,70 2,55 2,43 2,35 2,28 2,22 2,18 2,14 2,10 2,08 2,05 2,03 2,01 1,99 1,97
30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,13 2,09 2,06 2,04 2,01 1,99 1,98 1,96
31 4,16 3,30 2,91 2,68 2,52 2,41 2,32 2,25 2,20 2,15 2,11 2,08 2,05 2,03 2,00 1,98 1,96 1,95
32 4,15 3,29 2,90 2,67 2,51 2,40 2,31 2,24 2,19 2,14 2,10 2,07 2,04 2,01 1,99 1,97 1,95 1,94
34 4,13 3,28 2,88 2,65 2,49 2,38 2,29 2,23 2,17 2,12 2,08 2,05 2,02 1,99 1,97 1,95 1,93 1,92
36 4,11 3,26 2,87 2,63 2,48 2,36 2,28 2,21 2,15 2,11 2,07 2,03 2,00 1,98 1,95 1,93 1,92 1,90
40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 2,04 2,00 1,97 1,95 1,92 1,90 1,89 1,87
42 4,07 3,22 2,83 2,59 2,44 2,32 2,24 2,17 2,11 2,06 2,03 1,99 1,96 1,94 1,91 1,89 1,87 1,86
44 4,06 3,21 2,82 2,58 2,43 2,31 2,23 2,16 2,10 2,05 2,01 1,98 1,95 1,92 1,90 1,88 1,86 1,84
46 4,05 3,20 2,81 2,57 2,42 2,30 2,22 2,15 2,09 2,04 2,00 1,97 1,94 1,91 1,89 1,87 1,85 1,83
48 4,04 3,19 2,80 2,57 2,41 2,29 2,21 2,14 2,08 2,03 1,99 1,96 1,93 1,90 1,88 1,86 1,84 1,82
50 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,99 1,95 1,92 1,89 1,87 1,85 1,83 1,81
55 4,02 3,16 2,77 2,54 2,38 2,27 2,18 2,11 2,06 2,01 1,97 1,93 1,90 1,88 1,85 1,83 1,81 1,79
60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,95 1,92 1,89 1,86 1,84 1,82 1,80 1,78
70 3,98 3,13 2,74 2,50 2,35 2,23 2,14 2,07 2,02 1,97 1,93 1,89 1,86 1,84 1,81 1,79 1,77 1,75
80 3,96 3,11 2,72 2,49 2,33 2,21 2,13 2,06 2,00 1,95 1,91 1,88 1,84 1,82 1,79 1,77 1,75 1,73

95
DISTRIBUTION DE FISHER-SNEDECOR SUITE
α = 0,05
Degré de liberté du numérateur ν1
19 20 22 24 26 28 30 35 40 50 60 80 100 200 500 Inf
1 248 248 249 249 249 250 250 251 251 252 252 253 253 254 254 254
2 19,4 19,4 19,5 19,5 19,5 19,5 19,5 19,5 19,5 19,5 19,5 19,5 19,5 19,5 19,5 19,5
3 8,67 8,66 8,65 8,64 8,63 8,62 8,62 8,60 8,59 8,58 8,57 8,56 8,55 8,54 8,53 8,53
4 5,81 5,80 5,79 5,77 5,76 5,75 5,75 5,73 5,72 5,70 5,69 5,67 5,66 5,65 5,64 5,63
5 4,57 4,56 4,54 4,53 4,52 4,50 4,50 4,48 4,46 4,44 4,43 4,41 4,41 4,39 4,37 4,37
6 3,88 3,87 3,86 3,84 3,83 3,82 3,81 3,79 3,77 3,75 3,74 3,72 3,71 3,69 3,68 3,67
7 3,46 3,44 3,43 3,41 3,40 3,39 3,38 3,36 3,34 3,32 3,30 3,29 3,27 3,25 3,24 3,23
8 3,16 3,15 3,13 3,12 3,10 3,09 3,08 3,06 3,04 3,02 3,01 2,99 2,97 2,95 2,94 2,93
9 2,95 2,94 2,92 2,90 2,89 2,87 2,86 2,84 2,83 2,80 2,79 2,77 2,76 2,73 2,72 2,71
10 2,79 2,77 2,75 2,74 2,72 2,71 2,70 2,68 2,66 2,64 2,62 2,60 2,59 2,56 2,55 2,54
11 2,66 2,65 2,63 2,61 2,59 2,58 2,57 2,55 2,53 2,51 2,49 2,47 2,46 2,43 2,42 2,41
12 2,56 2,54 2,52 2,51 2,49 2,48 2,47 2,44 2,43 2,40 2,38 2,36 2,35 2,32 2,31 2,30
13 2,47 2,46 2,44 2,42 2,41 2,39 2,38 2,36 2,34 2,31 2,30 2,27 2,26 2,23 2,22 2,21
14 2,40 2,39 2,37 2,35 2,33 2,32 2,31 2,28 2,27 2,24 2,22 2,20 2,19 2,16 2,14 2,13
15 2,34 2,33 2,31 2,29 2,27 2,26 2,25 2,22 2,20 2,18 2,16 2,14 2,12 2,10 2,08 2,07
16 2,29 2,28 2,25 2,24 2,22 2,21 2,19 2,17 2,15 2,12 2,11 2,08 2,07 2,04 2,02 2,01
Degré de liberté du numérateur ν2

17 2,24 2,23 2,21 2,19 2,17 2,16 2,15 2,12 2,10 2,08 2,06 2,03 2,02 1,99 1,97 1,96
18 2,20 2,19 2,17 2,15 2,13 2,12 2,11 2,08 2,06 2,04 2,02 1,99 1,98 1,95 1,93 1,92
19 2,17 2,16 2,13 2,11 2,10 2,08 2,07 2,05 2,03 2,00 1,98 1,96 1,94 1,91 1,89 1,88
20 2,14 2,12 2,10 2,08 2,07 2,05 2,04 2,01 1,99 1,97 1,95 1,92 1,91 1,88 1,86 1,84
21 2,11 2,10 2,07 2,05 2,04 2,02 2,01 1,98 1,96 1,94 1,92 1,89 1,88 1,84 1,83 1,81
22 2,08 2,07 2,05 2,03 2,01 2,00 1,98 1,96 1,94 1,91 1,89 1,86 1,85 1,82 1,80 1,78
23 2,06 2,05 2,02 2,01 1,99 1,97 1,96 1,93 1,91 1,88 1,86 1,84 1,82 1,79 1,77 1,76
24 2,04 2,03 2,00 1,98 1,97 1,95 1,94 1,91 1,89 1,86 1,84 1,82 1,80 1,77 1,75 1,73
25 2,02 2,01 1,98 1,96 1,95 1,93 1,92 1,89 1,87 1,84 1,82 1,80 1,78 1,75 1,73 1,71
26 2,00 1,99 1,97 1,95 1,93 1,91 1,90 1,87 1,85 1,82 1,80 1,78 1,76 1,73 1,71 1,69
27 1,99 1,97 1,95 1,93 1,91 1,90 1,88 1,86 1,84 1,81 1,79 1,76 1,74 1,71 1,69 1,67
28 1,97 1,96 1,93 1,91 1,90 1,88 1,87 1,84 1,82 1,79 1,77 1,74 1,73 1,69 1,67 1,65
29 1,96 1,94 1,92 1,90 1,88 1,87 1,85 1,83 1,81 1,77 1,75 1,73 1,71 1,67 1,65 1,64
30 1,95 1,93 1,91 1,89 1,87 1,85 1,84 1,81 1,79 1,76 1,74 1,71 1,70 1,66 1,64 1,62
31 1,93 1,92 1,90 1,88 1,86 1,84 1,83 1,80 1,78 1,75 1,73 1,70 1,68 1,65 1,62 1,61
32 1,92 1,91 1,88 1,86 1,85 1,83 1,82 1,79 1,77 1,74 1,71 1,69 1,67 1,63 1,61 1,60
34 1,90 1,89 1,86 1,84 1,82 1,81 1,80 1,77 1,75 1,71 1,69 1,66 1,65 1,61 1,59 1,57
36 1,88 1,87 1,85 1,82 1,81 1,79 1,78 1,75 1,73 1,69 1,67 1,64 1,62 1,59 1,56 1,55
40 1,85 1,84 1,81 1,79 1,77 1,76 1,74 1,72 1,69 1,66 1,64 1,61 1,59 1,55 1,53 1,51
42 1,84 1,83 1,80 1,78 1,76 1,75 1,73 1,70 1,68 1,65 1,62 1,59 1,57 1,53 1,51 1,49
44 1,83 1,81 1,79 1,77 1,75 1,73 1,72 1,69 1,67 1,63 1,61 1,58 1,56 1,52 1,49 1,48
46 1,82 1,80 1,78 1,76 1,74 1,72 1,71 1,68 1,65 1,62 1,60 1,57 1,55 1,51 1,48 1,46
48 1,81 1,79 1,77 1,75 1,73 1,71 1,70 1,67 1,64 1,61 1,59 1,56 1,54 1,49 1,47 1,45
50 1,80 1,78 1,76 1,74 1,72 1,70 1,69 1,66 1,63 1,60 1,58 1,54 1,52 1,48 1,46 1,44
55 1,78 1,76 1,74 1,72 1,70 1,68 1,67 1,64 1,61 1,58 1,55 1,52 1,50 1,46 1,43 1,41
60 1,76 1,75 1,72 1,70 1,68 1,66 1,65 1,62 1,59 1,56 1,53 1,50 1,48 1,44 1,41 1,39
70 1,74 1,72 1,70 1,67 1,65 1,64 1,62 1,59 1,57 1,53 1,50 1,47 1,45 1,40 1,37 1,35
80 1,72 1,70 1,68 1,65 1,63 1,62 1,60 1,57 1,54 1,51 1,48 1,45 1,43 1,38 1,35 1,33

96
DISTRIBUTION DE FISHER-SNEDECOR SUITE
α = 0,025
Degré de liberté du numérateur ν1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
1 648 799 864 900 922 937 948 957 963 969 973 977 980 983 985 987 988 990
2 38,5 39,0 39,2 39,2 39,3 39,3 39,4 39,4 39,4 39,4 39,4 39,4 39,4 39,4 39,4 39,4 39,4 39,4
3 17,4 16,0 15,4 15,1 14,9 14,7 14,6 14,5 14,5 14,4 14,4 14,3 14,3 14,3 14,3 14,2 14,2 14,2
4 12,2 10,6 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,79 8,75 8,71 8,68 8,66 8,63 8,61 8,59
5 10,0 8,43 7,76 7,39 7,15 6,98 6,85 6,76 6,68 6,62 6,57 6,52 6,49 6,46 6,43 6,40 6,38 6,36
6 8,81 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5,52 5,46 5,41 5,37 5,33 5,30 5,27 5,24 5,22 5,20
7 8,07 6,54 5,89 5,52 5,29 5,12 4,99 4,90 4,82 4,76 4,71 4,67 4,63 4,60 4,57 4,54 4,52 4,50
8 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,24 4,20 4,16 4,13 4,10 4,08 4,05 4,03
9 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 3,96 3,91 3,87 3,83 3,80 3,77 3,74 3,72 3,70
10 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,66 3,62 3,58 3,55 3,52 3,50 3,47 3,45
11 6,72 5,26 4,63 4,28 4,04 3,88 3,76 3,66 3,59 3,53 3,47 3,43 3,39 3,36 3,33 3,30 3,28 3,26
12 6,55 5,10 4,47 4,12 3,89 3,73 3,61 3,51 3,44 3,37 3,32 3,28 3,24 3,21 3,18 3,15 3,13 3,11
13 6,41 4,97 4,35 4,00 3,77 3,60 3,48 3,39 3,31 3,25 3,20 3,15 3,12 3,08 3,05 3,03 3,00 2,98
14 6,30 4,86 4,24 3,89 3,66 3,50 3,38 3,29 3,21 3,15 3,09 3,05 3,01 2,98 2,95 2,92 2,90 2,88
15 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 3,01 2,96 2,92 2,89 2,86 2,84 2,81 2,79
6,12 4,69 4,08 3,73 3,50 3,34 3,22 3,12 3,05 2,99 2,93 2,89 2,85 2,82 2,79 2,76 2,74 2,72
Degré de liberté du numérateur ν2

16
17 6,04 4,62 4,01 3,66 3,44 3,28 3,16 3,06 2,98 2,92 2,87 2,82 2,79 2,75 2,72 2,70 2,67 2,65
18 5,98 4,56 3,95 3,61 3,38 3,22 3,10 3,01 2,93 2,87 2,81 2,77 2,73 2,70 2,67 2,64 2,62 2,60
19 5,92 4,51 3,90 3,56 3,33 3,17 3,05 2,96 2,88 2,82 2,76 2,72 2,68 2,65 2,62 2,59 2,57 2,55
20 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,72 2,68 2,64 2,60 2,57 2,55 2,52 2,50
21 5,83 4,42 3,82 3,48 3,25 3,09 2,97 2,87 2,80 2,73 2,68 2,64 2,60 2,56 2,53 2,51 2,48 2,46
22 5,79 4,38 3,78 3,44 3,22 3,05 2,93 2,84 2,76 2,70 2,65 2,60 2,56 2,53 2,50 2,47 2,45 2,43
23 5,75 4,35 3,75 3,41 3,18 3,02 2,90 2,81 2,73 2,67 2,62 2,57 2,53 2,50 2,47 2,44 2,42 2,39
24 5,72 4,32 3,72 3,38 3,15 2,99 2,87 2,78 2,70 2,64 2,59 2,54 2,50 2,47 2,44 2,41 2,39 2,36
25 5,69 4,29 3,69 3,35 3,13 2,97 2,85 2,75 2,68 2,61 2,56 2,51 2,48 2,44 2,41 2,38 2,36 2,34
26 5,66 4,27 3,67 3,33 3,10 2,94 2,82 2,73 2,65 2,59 2,54 2,49 2,45 2,42 2,39 2,36 2,34 2,31
27 5,63 4,24 3,65 3,31 3,08 2,92 2,80 2,71 2,63 2,57 2,51 2,47 2,43 2,39 2,36 2,34 2,31 2,29
28 5,61 4,22 3,63 3,29 3,06 2,90 2,78 2,69 2,61 2,55 2,49 2,45 2,41 2,37 2,34 2,32 2,29 2,27
29 5,59 4,20 3,61 3,27 3,04 2,88 2,76 2,67 2,59 2,53 2,48 2,43 2,39 2,36 2,32 2,30 2,27 2,25
30 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,46 2,41 2,37 2,34 2,31 2,28 2,26 2,23
31 5,55 4,16 3,57 3,23 3,01 2,85 2,73 2,64 2,56 2,50 2,44 2,40 2,36 2,32 2,29 2,26 2,24 2,22
32 5,53 4,15 3,56 3,22 3,00 2,84 2,71 2,62 2,54 2,48 2,43 2,38 2,34 2,31 2,28 2,25 2,22 2,20
34 5,50 4,12 3,53 3,19 2,97 2,81 2,69 2,59 2,52 2,45 2,40 2,35 2,31 2,28 2,25 2,22 2,20 2,17
36 5,47 4,09 3,50 3,17 2,94 2,78 2,66 2,57 2,49 2,43 2,37 2,33 2,29 2,25 2,22 2,20 2,17 2,15
40 5,42 4,05 3,46 3,13 2,90 2,74 2,62 2,53 2,45 2,39 2,33 2,29 2,25 2,21 2,18 2,15 2,13 2,11
42 5,40 4,03 3,45 3,11 2,89 2,73 2,61 2,51 2,43 2,37 2,32 2,27 2,23 2,20 2,16 2,14 2,11 2,09
44 5,39 4,02 3,43 3,09 2,87 2,71 2,59 2,50 2,42 2,36 2,30 2,26 2,22 2,18 2,15 2,12 2,10 2,07
46 5,37 4,00 3,42 3,08 2,86 2,70 2,58 2,48 2,41 2,34 2,29 2,24 2,20 2,17 2,13 2,11 2,08 2,06
48 5,35 3,99 3,40 3,07 2,84 2,69 2,56 2,47 2,39 2,33 2,27 2,23 2,19 2,15 2,12 2,09 2,07 2,05
50 5,34 3,97 3,39 3,05 2,83 2,67 2,55 2,46 2,38 2,32 2,26 2,22 2,18 2,14 2,11 2,08 2,06 2,03
55 5,31 3,95 3,36 3,03 2,81 2,65 2,53 2,43 2,36 2,29 2,24 2,19 2,15 2,11 2,08 2,05 2,03 2,01
60 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 2,33 2,27 2,22 2,17 2,13 2,09 2,06 2,03 2,01 1,98
70 5,25 3,89 3,31 2,97 2,75 2,59 2,47 2,38 2,30 2,24 2,18 2,14 2,10 2,06 2,03 2,00 1,97 1,95
80 5,22 3,86 3,28 2,95 2,73 2,57 2,45 2,35 2,28 2,21 2,16 2,11 2,07 2,03 2,00 1,97 1,95 1,92

97
DISTRIBUTION DE FISHER-SNEDECOR SUITE
α = 0,025
Degré de liberté du numérateur ν1
19 20 22 24 26 28 30 35 40 50 60 80 100 200 500 Inf
1 992 993 995 997 999 1000 1001 1004 1006 1008 1010 1012 1013 1016 1017 1018
2 39,4 39,4 39,5 39,5 39,5 39,5 39,5 39,5 39,5 39,5 39,5 39,5 39,5 39,5 39,5 39,5
3 14,2 14,2 14,1 14,1 14,1 14,1 14,1 14,1 14,0 14,0 14,0 14,0 14,0 13,9 13,9 13,9
4 8,58 8,56 8,53 8,51 8,49 8,48 8,46 8,43 8,41 8,38 8,36 8,33 8,32 8,29 8,27 8,26
5 6,34 6,33 6,30 6,28 6,26 6,24 6,23 6,20 6,18 6,14 6,12 6,10 6,08 6,05 6,03 6,02
6 5,18 5,17 5,14 5,12 5,10 5,08 5,07 5,04 5,01 4,98 4,96 4,93 4,92 4,88 4,86 4,85
7 4,48 4,47 4,44 4,41 4,39 4,38 4,36 4,33 4,31 4,28 4,25 4,23 4,21 4,18 4,16 4,14
8 4,02 4,00 3,97 3,95 3,93 3,91 3,89 3,86 3,84 3,81 3,78 3,76 3,74 3,70 3,68 3,67
9 3,68 3,67 3,64 3,61 3,59 3,58 3,56 3,53 3,51 3,47 3,45 3,42 3,40 3,37 3,35 3,33
10 3,44 3,42 3,39 3,37 3,34 3,33 3,31 3,28 3,26 3,22 3,20 3,17 3,15 3,12 3,09 3,08
11 3,24 3,23 3,20 3,17 3,15 3,13 3,12 3,09 3,06 3,03 3,00 2,97 2,96 2,92 2,90 2,88
12 3,09 3,07 3,04 3,02 3,00 2,98 2,96 2,93 2,91 2,87 2,85 2,82 2,80 2,76 2,74 2,73
13 2,96 2,95 2,92 2,89 2,87 2,85 2,84 2,80 2,78 2,74 2,72 2,69 2,67 2,63 2,61 2,60
14 2,86 2,84 2,81 2,79 2,77 2,75 2,73 2,70 2,67 2,64 2,61 2,58 2,56 2,53 2,50 2,49
15 2,77 2,76 2,73 2,70 2,68 2,66 2,64 2,61 2,59 2,55 2,52 2,49 2,47 2,44 2,41 2,40
16 2,70 2,68 2,65 2,63 2,60 2,58 2,57 2,53 2,51 2,47 2,45 2,42 2,40 2,36 2,33 2,32
Degré de liberté du numérateur ν2

17 2,63 2,62 2,59 2,56 2,54 2,52 2,50 2,47 2,44 2,41 2,38 2,35 2,33 2,29 2,26 2,25
18 2,58 2,56 2,53 2,50 2,48 2,46 2,44 2,41 2,38 2,35 2,32 2,29 2,27 2,23 2,20 2,19
19 2,53 2,51 2,48 2,45 2,43 2,41 2,39 2,36 2,33 2,30 2,27 2,24 2,22 2,18 2,15 2,13
20 2,48 2,46 2,43 2,41 2,39 2,37 2,35 2,31 2,29 2,25 2,22 2,19 2,17 2,13 2,10 2,09
21 2,44 2,42 2,39 2,37 2,34 2,33 2,31 2,27 2,25 2,21 2,18 2,15 2,13 2,09 2,06 2,04
22 2,41 2,39 2,36 2,33 2,31 2,29 2,27 2,24 2,21 2,17 2,14 2,11 2,09 2,05 2,02 2,00
23 2,37 2,36 2,33 2,30 2,28 2,26 2,24 2,20 2,18 2,14 2,11 2,08 2,06 2,01 1,99 1,97
24 2,35 2,33 2,30 2,27 2,25 2,23 2,21 2,17 2,15 2,11 2,08 2,05 2,02 1,98 1,95 1,94
25 2,32 2,30 2,27 2,24 2,22 2,20 2,18 2,15 2,12 2,08 2,05 2,02 2,00 1,95 1,92 1,91
26 2,29 2,28 2,24 2,22 2,19 2,17 2,16 2,12 2,09 2,05 2,03 1,99 1,97 1,92 1,90 1,88
27 2,27 2,25 2,22 2,19 2,17 2,15 2,13 2,10 2,07 2,03 2,00 1,97 1,94 1,90 1,87 1,85
28 2,25 2,23 2,20 2,17 2,15 2,13 2,11 2,08 2,05 2,01 1,98 1,94 1,92 1,88 1,85 1,83
29 2,23 2,21 2,18 2,15 2,13 2,11 2,09 2,06 2,03 1,99 1,96 1,92 1,90 1,86 1,83 1,81
30 2,21 2,20 2,16 2,14 2,11 2,09 2,07 2,04 2,01 1,97 1,94 1,90 1,88 1,84 1,81 1,79
31 2,20 2,18 2,15 2,12 2,10 2,07 2,06 2,02 1,99 1,95 1,92 1,89 1,86 1,82 1,79 1,77
32 2,18 2,16 2,13 2,10 2,08 2,06 2,04 2,00 1,98 1,93 1,91 1,87 1,85 1,80 1,77 1,75
34 2,15 2,13 2,10 2,07 2,05 2,03 2,01 1,97 1,95 1,90 1,88 1,84 1,82 1,77 1,74 1,72
36 2,13 2,11 2,08 2,05 2,03 2,00 1,99 1,95 1,92 1,88 1,85 1,81 1,79 1,74 1,71 1,69
40 2,09 2,07 2,03 2,01 1,98 1,96 1,94 1,90 1,88 1,83 1,80 1,76 1,74 1,69 1,66 1,64
42 2,07 2,05 2,02 1,99 1,96 1,94 1,92 1,89 1,86 1,81 1,78 1,74 1,72 1,67 1,64 1,62
44 2,05 2,03 2,00 1,97 1,95 1,93 1,91 1,87 1,84 1,80 1,77 1,73 1,70 1,65 1,62 1,60
46 2,04 2,02 1,99 1,96 1,93 1,91 1,89 1,85 1,82 1,78 1,75 1,71 1,69 1,63 1,60 1,58
48 2,02 2,01 1,97 1,94 1,92 1,90 1,88 1,84 1,81 1,77 1,73 1,69 1,67 1,62 1,58 1,56
50 2,01 1,99 1,96 1,93 1,91 1,89 1,87 1,83 1,80 1,75 1,72 1,68 1,66 1,60 1,57 1,55
55 1,99 1,97 1,93 1,90 1,88 1,86 1,84 1,80 1,77 1,72 1,69 1,65 1,62 1,57 1,54 1,51
60 1,96 1,94 1,91 1,88 1,86 1,83 1,82 1,78 1,74 1,70 1,67 1,63 1,60 1,54 1,51 1,48
70 1,93 1,91 1,88 1,85 1,82 1,80 1,78 1,74 1,71 1,66 1,63 1,59 1,56 1,50 1,46 1,44
80 1,90 1,88 1,85 1,82 1,79 1,77 1,75 1,71 1,68 1,63 1,60 1,55 1,53 1,47 1,43 1,40

98
DISTRIBUTION DE FISHER-SNEDECOR SUITE
α = 0,01
Degré de liberté du numérateur ν1
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
1 4052 4999 5403 5625 5764 5859 5928 5981 6022 6056 6083 6106 6126 6143 6157 6170 6181 6192
2 98,5 99,0 99,2 99,2 99,3 99,3 99,4 99,4 99,4 99,4 99,4 99,4 99,4 99,4 99,4 99,4 99,4 99,4
3 34,1 30,8 29,5 28,7 28,2 27,9 27,7 27,5 27,4 27,2 27,1 27,1 27,0 26,9 26,9 26,8 26,8 26,8
4 21,2 18,0 16,7 16,0 15,5 15,2 15,0 14,8 14,7 14,6 14,5 14,4 14,3 14,3 14,2 14,2 14,1 14,1
5 16,3 13,3 12,1 11,4 11,0 10,7 10,4 10,3 10,2 10,1 10,0 9,89 9,82 9,77 9,72 9,68 9,64 9,61
6 13,8 10,9 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,79 7,72 7,66 7,60 7,56 7,52 7,48 7,45
7 12,3 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,54 6,47 6,41 6,36 6,31 6,28 6,24 6,21
8 11,3 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,73 5,67 5,61 5,56 5,52 5,48 5,44 5,41
9 10,6 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 5,18 5,11 5,05 5,01 4,96 4,92 4,89 4,86
10 10,0 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,77 4,71 4,65 4,60 4,56 4,52 4,49 4,46
11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63 4,54 4,46 4,40 4,34 4,29 4,25 4,21 4,18 4,15
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,22 4,16 4,10 4,05 4,01 3,97 3,94 3,91
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19 4,10 4,02 3,96 3,91 3,86 3,82 3,78 3,75 3,72
14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03 3,94 3,86 3,80 3,75 3,70 3,66 3,62 3,59 3,56
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,73 3,67 3,61 3,56 3,52 3,49 3,45 3,42
16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,62 3,55 3,50 3,45 3,41 3,37 3,34 3,31
Degré de liberté du numérateur ν2

17 8,40 6,11 5,18 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,52 3,46 3,40 3,35 3,31 3,27 3,24 3,21
18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,43 3,37 3,32 3,27 3,23 3,19 3,16 3,13
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,36 3,30 3,24 3,19 3,15 3,12 3,08 3,05
20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,29 3,23 3,18 3,13 3,09 3,05 3,02 2,99
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40 3,31 3,24 3,17 3,12 3,07 3,03 2,99 2,96 2,93
22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,18 3,12 3,07 3,02 2,98 2,94 2,91 2,88
23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,14 3,07 3,02 2,97 2,93 2,89 2,86 2,83
24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26 3,17 3,09 3,03 2,98 2,93 2,89 2,85 2,82 2,79
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 3,06 2,99 2,94 2,89 2,85 2,81 2,78 2,75
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18 3,09 3,02 2,96 2,90 2,86 2,81 2,78 2,75 2,72
27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15 3,06 2,99 2,93 2,87 2,82 2,78 2,75 2,71 2,68
28 7,64 5,45 4,57 4,07 3,75 3,53 3,36 3,23 3,12 3,03 2,96 2,90 2,84 2,79 2,75 2,72 2,68 2,65
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09 3,00 2,93 2,87 2,81 2,77 2,73 2,69 2,66 2,63
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,91 2,84 2,79 2,74 2,70 2,66 2,63 2,60
31 7,53 5,36 4,48 3,99 3,67 3,45 3,28 3,15 3,04 2,96 2,88 2,82 2,77 2,72 2,68 2,64 2,61 2,58
32 7,50 5,34 4,46 3,97 3,65 3,43 3,26 3,13 3,02 2,93 2,86 2,80 2,74 2,70 2,65 2,62 2,58 2,55
34 7,44 5,29 4,42 3,93 3,61 3,39 3,22 3,09 2,98 2,89 2,82 2,76 2,70 2,66 2,61 2,58 2,54 2,51
36 7,40 5,25 4,38 3,89 3,57 3,35 3,18 3,05 2,95 2,86 2,79 2,72 2,67 2,62 2,58 2,54 2,51 2,48
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,73 2,66 2,61 2,56 2,52 2,48 2,45 2,42
42 7,28 5,15 4,29 3,80 3,49 3,27 3,10 2,97 2,86 2,78 2,70 2,64 2,59 2,54 2,50 2,46 2,43 2,40
44 7,25 5,12 4,26 3,78 3,47 3,24 3,08 2,95 2,84 2,75 2,68 2,62 2,56 2,52 2,47 2,44 2,40 2,37
46 7,22 5,10 4,24 3,76 3,44 3,22 3,06 2,93 2,82 2,73 2,66 2,60 2,54 2,50 2,45 2,42 2,38 2,35
48 7,19 5,08 4,22 3,74 3,43 3,20 3,04 2,91 2,80 2,71 2,64 2,58 2,53 2,48 2,44 2,40 2,37 2,33
50 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,63 2,56 2,51 2,46 2,42 2,38 2,35 2,32
55 7,12 5,01 4,16 3,68 3,37 3,15 2,98 2,85 2,75 2,66 2,59 2,53 2,47 2,42 2,38 2,34 2,31 2,28
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,56 2,50 2,44 2,39 2,35 2,31 2,28 2,25
70 7,01 4,92 4,07 3,60 3,29 3,07 2,91 2,78 2,67 2,59 2,51 2,45 2,40 2,35 2,31 2,27 2,23 2,20
80 6,96 4,88 4,04 3,56 3,26 3,04 2,87 2,74 2,64 2,55 2,48 2,42 2,36 2,31 2,27 2,23 2,20 2,17

99
DISTRIBUTION DE FISHER-SNEDECOR SUITE
α = 0,01
Degré de liberté du numérateur ν1
19 20 22 24 26 28 30 35 40 50 60 80 100 200 500 Inf
1 6201 6209 6223 6235 6245 6253 6261 6276 6287 6303 6313 6326 6334 6350 6360 6366
2 99,45 99,4 99,5 99,5 99,5 99,5 99,5 99,5 99,5 99,5 99,5 99,5 99,5 99,5 99,5 99,5
3 26,72 26,69 26,64 26,60 26,56 26,53 26,50 26,45 26,41 26,35 26,32 26,27 26,24 26,18 26,15 26,13
4 14,05 14,02 13,97 13,93 13,89 13,86 13,84 13,79 13,75 13,69 13,65 13,61 13,58 13,52 13,49 13,46
5 9,58 9,55 9,51 9,47 9,43 9,40 9,38 9,33 9,29 9,24 9,20 9,16 9,13 9,08 9,04 9,02
6 7,42 7,40 7,35 7,31 7,28 7,25 7,23 7,18 7,14 7,09 7,06 7,01 6,99 6,93 6,90 6,88
7 6,18 6,16 6,11 6,07 6,04 6,02 5,99 5,94 5,91 5,86 5,82 5,78 5,75 5,70 5,67 5,65
8 5,38 5,36 5,32 5,28 5,25 5,22 5,20 5,15 5,12 5,07 5,03 4,99 4,96 4,91 4,88 4,86
9 4,83 4,81 4,77 4,73 4,70 4,67 4,65 4,60 4,57 4,52 4,48 4,44 4,41 4,36 4,33 4,31
10 4,43 4,41 4,36 4,33 4,30 4,27 4,25 4,20 4,17 4,12 4,08 4,04 4,01 3,96 3,93 3,91
11 4,12 4,10 4,06 4,02 3,99 3,96 3,94 3,89 3,86 3,81 3,78 3,73 3,71 3,66 3,62 3,60
12 3,88 3,86 3,82 3,78 3,75 3,72 3,70 3,65 3,62 3,57 3,54 3,49 3,47 3,41 3,38 3,36
13 3,69 3,66 3,62 3,59 3,56 3,53 3,51 3,46 3,43 3,38 3,34 3,30 3,27 3,22 3,19 3,17
14 3,53 3,51 3,46 3,43 3,40 3,37 3,35 3,30 3,27 3,22 3,18 3,14 3,11 3,06 3,03 3,01
15 3,40 3,37 3,33 3,29 3,26 3,24 3,21 3,17 3,13 3,08 3,05 3,00 2,98 2,92 2,89 2,87
16 3,28 3,26 3,22 3,18 3,15 3,12 3,10 3,05 3,02 2,97 2,93 2,89 2,86 2,81 2,78 2,75
Degré de liberté du numérateur ν2

17 3,19 3,16 3,12 3,08 3,05 3,03 3,00 2,96 2,92 2,87 2,83 2,79 2,76 2,71 2,68 2,65
18 3,10 3,08 3,03 3,00 2,97 2,94 2,92 2,87 2,84 2,78 2,75 2,70 2,68 2,62 2,59 2,57
19 3,03 3,00 2,96 2,92 2,89 2,87 2,84 2,80 2,76 2,71 2,67 2,63 2,60 2,55 2,51 2,49
20 2,96 2,94 2,90 2,86 2,83 2,80 2,78 2,73 2,69 2,64 2,61 2,56 2,54 2,48 2,44 2,42
21 2,90 2,88 2,84 2,80 2,77 2,74 2,72 2,67 2,64 2,58 2,55 2,50 2,48 2,42 2,38 2,36
22 2,85 2,83 2,78 2,75 2,72 2,69 2,67 2,62 2,58 2,53 2,50 2,45 2,42 2,36 2,33 2,31
23 2,80 2,78 2,74 2,70 2,67 2,64 2,62 2,57 2,54 2,48 2,45 2,40 2,37 2,32 2,28 2,26
24 2,76 2,74 2,70 2,66 2,63 2,60 2,58 2,53 2,49 2,44 2,40 2,36 2,33 2,27 2,24 2,21
25 2,72 2,70 2,66 2,62 2,59 2,56 2,54 2,49 2,45 2,40 2,36 2,32 2,29 2,23 2,19 2,17
26 2,69 2,66 2,62 2,58 2,55 2,53 2,50 2,45 2,42 2,36 2,33 2,28 2,25 2,19 2,16 2,13
27 2,66 2,63 2,59 2,55 2,52 2,49 2,47 2,42 2,38 2,33 2,29 2,25 2,22 2,16 2,12 2,10
28 2,63 2,60 2,56 2,52 2,49 2,46 2,44 2,39 2,35 2,30 2,26 2,22 2,19 2,13 2,09 2,07
29 2,60 2,57 2,53 2,49 2,46 2,44 2,41 2,36 2,33 2,27 2,23 2,19 2,16 2,10 2,06 2,04
30 2,57 2,55 2,51 2,47 2,44 2,41 2,39 2,34 2,30 2,25 2,21 2,16 2,13 2,07 2,03 2,01
31 2,55 2,52 2,48 2,45 2,41 2,39 2,36 2,31 2,27 2,22 2,18 2,14 2,11 2,04 2,01 1,98
32 2,53 2,50 2,46 2,42 2,39 2,36 2,34 2,29 2,25 2,20 2,16 2,11 2,08 2,02 1,98 1,96
34 2,49 2,46 2,42 2,38 2,35 2,32 2,30 2,25 2,21 2,16 2,12 2,07 2,04 1,98 1,94 1,91
36 2,45 2,43 2,38 2,35 2,32 2,29 2,26 2,21 2,18 2,12 2,08 2,03 2,00 1,94 1,90 1,87
40 2,39 2,37 2,33 2,29 2,26 2,23 2,20 2,15 2,11 2,06 2,02 1,97 1,94 1,87 1,83 1,81
42 2,37 2,34 2,30 2,26 2,23 2,20 2,18 2,13 2,09 2,03 1,99 1,94 1,91 1,85 1,80 1,78
44 2,35 2,32 2,28 2,24 2,21 2,18 2,15 2,10 2,07 2,01 1,97 1,92 1,89 1,82 1,78 1,75
46 2,33 2,30 2,26 2,22 2,19 2,16 2,13 2,08 2,04 1,99 1,95 1,90 1,86 1,80 1,76 1,73
48 2,31 2,28 2,24 2,20 2,17 2,14 2,12 2,06 2,02 1,97 1,93 1,88 1,84 1,78 1,73 1,71
50 2,29 2,27 2,22 2,18 2,15 2,12 2,10 2,05 2,01 1,95 1,91 1,86 1,82 1,76 1,71 1,68
55 2,25 2,23 2,18 2,15 2,11 2,08 2,06 2,01 1,97 1,91 1,87 1,82 1,78 1,71 1,67 1,64
60 2,22 2,20 2,15 2,12 2,08 2,05 2,03 1,98 1,94 1,88 1,84 1,78 1,75 1,68 1,63 1,60
70 2,18 2,15 2,11 2,07 2,03 2,01 1,98 1,93 1,89 1,83 1,78 1,73 1,70 1,62 1,57 1,54
80 2,14 2,12 2,07 2,03 2,00 1,97 1,94 1,89 1,85 1,79 1,75 1,69 1,65 1,58 1,53 1,50

100

Vous aimerez peut-être aussi