Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Jean-
Michel Probabilités et Statistique
JOLION
3ème Année
Sommaire ……………………………………………………………………………...2
Probabilités …………………………………………………………………………….6
o Notions de probabilités
o Analyse combinatoire (rappels)
Factorielle
Arrangements de p objets parmi n
Permutations
Combinaisons de p parmi n
Répétitions
o Epreuves et Evènements
o Espace probabilisé
Axiomatique de Kolmogorov
Propriétés élémentaires
o Probabilité conditionnelle - Théorème de Bayes
Théorème des probabilités composées
Conséquences
Théorème de Bayes - Probabilités des causes
o Le paradoxe de Bertrand
2 Jean-Michel Jolion2006 LD
Définitions
Quelques moments particuliers
Variance, covariance et écart-type
Variable centrée réduite
Coefficient de corrélation
Exemple
Inégalités de Bienaymé - Tchebyshev - Markov
o Quelques lois de probabilités
Les valeurs principales
Liaisons entre lois de probabilités
o Quelques relations
o Loi des grands nombres
Convergence stochastique
Théorème central limite
o Simulation d'une variable aléatoire
Méthode générale par transformation inverse
Loi uniforme
Loi exponentielle
Loi binomiale
Loi de Poisson
Loi normale :
o Autres indicateurs
Histogramme
Médiane
Mode
Autres moyennes
Estimation ……………………………………………………………………………53
o Estimation ponctuelle
Introduction
Estimateur convergent
Estimateur sans biais
Estimateur efficace
Robustesse
o Méthode du maximum de vraisemblance
o Estimation par intervalle de confiance
Estimation d'une proportion
Estimation d'une moyenne
Estimation d'une variance
o Estimation robuste
Interprétation de données: l'approche bayésienne
Le traitement de l'a priori
Le traitement de l'a posteriori
Le cas monodimensionnel
Le cas général
Estimation itérative
3 Jean-Michel Jolion2006 LD
o Régression linéaire
Formalisation
Résolution dans le cas d'une distribution normale des écarts
Le cas de la droite
Intervalle de confiance sur le coefficient de corrélation
o Filtre de Kalman
o Estimation d'un mode
o Estimation d'une densité
Test du
Test de Kolmogorov
Test de Cramer-Von Mises
o Test d'indépendance
Test des différences premières
Test de Spearman
o Test de comparaison d'échantillons
Test des variances de Fisher-Snédécor
Test de Student
Test de Spearman
4 Jean-Michel Jolion2006 LD
o Analyse de la variance
Les données de l'analyse
Le test
Analyse des contrastes
Tables ……………………………………………………………………………….126
o Fonction de répartition de la loi normale centrée réduite
o Fractiles de la loi normale centrée réduite
5 Jean-Michel Jolion2006 LD
Probabilités
Subsections
Notions de probabilités
Analyse combinatoire (rappels)
o Factorielle
o Arrangements de p objets parmi n
o Permutations
o Combinaisons de p parmi n
o Répétitions
Epreuves et Evènements
Espace probabilisé
o Axiomatique de Kolmogorov
o Propriétés élémentaires
Le paradoxe de Bertrand
6 Jean-Michel Jolion2006 LD
Notions de probabilités
Probabilité théorique ou déductive : cette probabilité est connue grâce à l'étude du phénomène
sous-jacent sans expérimentation. Il s'agit donc d'une connaissance a priori par opposition à la
définition précédente qui faisait plutôt référence à une notion de probabilité a posteriori. Par
exemple, dans le cas classique du dé parfait, on peut dire, sans avoir à jeter un dé, que
P["obtenir un 4"] = .
Comme il n'est pas toujours possible de déterminer des probabilités a priori, on est souvent
amené à réaliser des expériences. Il faut donc pouvoir passer de la première à la deuxième
solution. Ce passage est supposé possible en terme de limite (i.e. avec une population dont la
taille tend vers la taille de la population réelle).
Subsections
Factorielle
Arrangements de p objets parmi n
Permutations
Combinaisons de p parmi n
Répétitions
Factorielle
Si une action peut être obtenue de façons différentes, puis suivant cette action, de façons
différentes indépendantes des précédentes, puis ...alors, le nombre de possibilités correspondant à
7 Jean-Michel Jolion2006 LD
On appelle factorielle n et l'on note n! le nombre :
La formule de Stierling permet de construire une estimation de la factorielle très valable pour
Permutations
, , , , .
Combinaisons de p parmi n
8 Jean-Michel Jolion2006 LD
La notation anglosaxonne pour les combinaisons est un peu différente : .
Propriétés :
Répétitions
Soient n objets dont on dispose une infinité d'exemplaires. On en choisit p parmi ces n classes
d'objets. Il peut donc y avoir répétitions du même objet. Dans ce cas, on obtient de nouveaux
indicateurs :
Toujours dans le même contexte, on cherche le nombre de possibilité d'avoir a fois le 1er
objet, b fois le 2ème objet, ...k fois le nème objet. Le nombre de permutations est donné par :
Epreuves et Evènements
Une expérience est dite aléatoire si ses résultats ne sont pas prévisibles avec certitude en
fonction des conditions initiales.
9 Jean-Michel Jolion2006 LD
On appelle évènement la propriété du système qui une fois l'épreuve effectuée est ou n'est pas
réalisée.
Exemple : Soient l'expérience aléatoire "lancer deux dés discernables" (et non pipés si l'on
veut vraiment une expérience aléatoire) et l'évènement A "obtenir un total des nombres
".
Correspondance entre les opérateurs logiques et les ensembles (la relation liant ces notations
est un isomorphisme, on peut donc employer n'importe laquelle).
Logique Ensemble
état du système
élément
évènement A
partie
évènement impossible
partie vide
évènement contraire ou
partie complémentaire
A et B
intersection
évènements incompatibles
parties disjointes
ou exclusif somme
10 Jean-Michel Jolion2006 LD
A partir de ces notions, on peut préciser le calcul de probabilités d'un évènement A :
probabilité théorique : .
Pour les fréquentistes, seules ont un sens les probabilités calculées a posteriori sur la base de
la répétition d'un grand nombre d'évènements identiques; pour les subjectivistes, au contraire,
la notion de probabilité a priori, évaluable en fonction d'un sentiment individuel d'incertitude,
peut avoir un sens.
Espace probabilisé
Subsections
Axiomatique de Kolmogorov
Propriétés élémentaires
Axiomatique de Kolmogorov
A chaque évènement, on associe un nombre positif compris entre 0 et 1, sa probabilité. Afin d'éviter
toute discussion sur cette notion, la théorie moderne des probabilités repose sur l'axiomatique
suivante :
Définition 1
On appelle probabilité sur ( , ) (où est l'ensemble des évèvements et une classe de
11 Jean-Michel Jolion2006 LD
-
Définition 2
Une loi de probabilité n'est donc rien d'autre qu'une mesure positive de masse totale 1. On
peut donc relier la théorie des probabilités à celle de la mesure.
Propriétés élémentaires
Propriété 1 :
Propriété 2 :
Propriété 3 :
Propriété 4 :
12 Jean-Michel Jolion2006 LD
Propriété 7 : Théorème des probabilités totales : Soit un système complet
Remarque : . De même, .
Subsections
Par définition, on a et .
13 Jean-Michel Jolion2006 LD
Conséquences
Attention :
1) indépendant incompatible.
Soit , , ..., une suite d'évènements ayant une intersection commune non nulle, i.e.
, on a alors
14 Jean-Michel Jolion2006 LD
On peut écrire que car constitue un système complet (les causes
sont incompatibles deux à deux et toutes les causes possibles à sont supposées connues).
donc
L'évènement constaté, , est donc la présence d'une pièce défectueuse et les causes sont les
Le paradoxe de Bertrand
Ce paradoxe est un exemple classique permettant de mesurer la limite des définitions de probabilités.
Considérons un triangle équilatéral et son cercle circonscrit. On tire une corde au hasard.
Quelle est la probabilité que sa longueur soit supérieure à celle du côté du triangle ?
15 Jean-Michel Jolion2006 LD
On doit à Renyi les remarques suivantes :
Première solution. Comme la longueur de la corde est déterminée par la position de son
milieu, le choix de la corde peut consister à marquer un point au hasard à l'intérieur du cercle.
La probabilité pour que la corde soit plus longue que le côté du triangle équilatéral inscrit est
alors égale à la probabilité pour que le milieu de la corde soit intérieur au cercle inscrit dans
ce triangle qui est de rayon moitié.
Si on admet que la répartition de ce point est uniforme dans le cercle, on trouve pour la
probabilité demandée :
Deuxième solution. La longueur de la corde est déterminée par la distance de son milieu au
centre du cercle. Par raison de symétrie, nous pouvons considérer que le milieu de la corde est
pris sur un rayon donné du cercle et supposer que la répartition de ce point sur le rayon est
uniforme. La corde sera plus longue que le côté du triangle équilatéral inscrit si son milieu est
à une distance du centre inférieure à r/2; la probabilité recherchée est alors 1/2.
Troisième solution. Par raison de symétrie, nous pouvons supposer qu'on a fixé une des
proportionnelle à la longueur de cet arc, la corde est plus grande que le côté du triangle
équilatéral inscrit quand P se trouve sur l'arc (tel que ) dont la longueur
est le 1/3 de celle de la circonférence; la probabilité est donc de 1/3.
Il est clair que les trois hypothèses de répartition sont également réalisable. Il n'y a pas
cependant de réel paradoxe car il s'agit simplement d'un choix de conditions expérimentales
de tirage des cordes qui conduisent à des évènements différents.
16 Jean-Michel Jolion2006 LD
Variables aléatoires
Subsections
Moments
o Définitions
o Quelques moments particuliers
o Variance, covariance et écart-type
o Variable centrée réduite
o Coefficient de corrélation
o Exemple
o Inégalités de Bienaymé - Tchebyshev - Markov
Quelques lois de probabilités
o Les valeurs principales
o Liaisons entre lois de probabilités
17 Jean-Michel Jolion2006 LD
Quelques relations
Loi des grands nombres
o Convergence stochastique
o Théorème central limite
o Loi normale :
Autres indicateurs
o Histogramme
o Médiane
o Mode
o Autres moyennes
Une variable aléatoire (V.A.) est une application de l'ensemble des épreuves dans le corps des
réels. Elle est caractérisée par l'ensemble des probabilités associées à tous ses états possibles.
Définition 1 Tout ensemble de parties d'un ensemble , stable par réunion, intersection et
complémentarité s'appelle une tribu sur .
Si peut être muni d'une topologie, alors la tribu engendrée par la classe des ouverts de
est appellée tribu borélienne.
Définition 2 Une variable aléatoire est une application mesurable d'un espace probabilisé
( , , ) dans le corps des réels muni de sa tribu borélienne ( , ) (i.e. ensemble des
intervalles de la forme ).
18 Jean-Michel Jolion2006 LD
Définition 3 Pour tout borélien B (i.e. ), on définit une loi de probabilité de X sur
( , ) et l'on note :
Dans ce cas, ne peut prendre, avec une probabilité non nulle, qu'un nombre fini de valeurs
Définition 5 Une v.a. est continue si elle peut prendre toute valeur sur un segment de la
et 3)
Fonction de répartition
Subsections
Définition
Propriétés
Fonction de répartition d'une v.a. discrète
19 Jean-Michel Jolion2006 LD
Définition
Propriétés
et
respectivement avec .
20 Jean-Michel Jolion2006 LD
Fonction de répartition d'une v.a. continue
Soit une v.a. continue. Sa fonction de répartition est continue à gauche et à droite. Il existe donc
Subsections
Définitions
Cas d'un couple de v.a. continues
Cas d'un couple de v.a. discrètes
Distribution conditionnelle
21 Jean-Michel Jolion2006 LD
Définitions
Soient et deux v.a. définies sur le même espace probabilisé. On appelle fonction de
répartition conjointe de et , la fonction définie par :
On a par définition, et .
(idem pour , ).
22 Jean-Michel Jolion2006 LD
Cas d'un couple de v.a. discrètes
On note .
Distribution conditionnelle
23 Jean-Michel Jolion2006 LD
Loi d'une fonction d'une ou plusieurs variables aléatoires
Dans la pratique, on est souvent amené à manipuler des variables aléatoires qui sont des
transformations ou des combinaisons de variables aléatoires connues. C'est pourquoi on
dispose de règles de passage d'une loi à une autre, pour des transformations simples.
Subsections
Transformation d'une loi discrète Soit une v.a. discrète de loi . Alors, la loi de la
Transformation d'une loi continue Soit une v.a. continue dont la loi admet la densité de
24 Jean-Michel Jolion2006 LD
où désigne la fonction réciproque de .
On peut par ces propriétés montrer en particulier que la v.a. où est la fonction
Cette propriété se généralise quel que soit le nombre de variables dans la somme. On peut
aussi additionner des variables aléatoires discrètes.
25 Jean-Michel Jolion2006 LD
En particulier, si et sont indépendantes, on a :
On peut aussi passer par les propriétés de l'opérateur espérance mathématique (voir section
suivante).
Subsections
Soit une v.a. discrète prenant ses valeurs dans et dont les probabilités associées
sont .
26 Jean-Michel Jolion2006 LD
Par définition, on appelle moyenne théorique ou espérance mathématique de , et l'on
note , la valeur .
On ne connait cette v.a. que par le moyen d'un échantillon de taille (dont on supposera
qu'il est significatif par rapport au nombre de valeurs possible, , de la v.a., i.e. ).
Espérance mathématique
Cette intégrale est dite au sens de Stieljes. Soit une v.a. définie sur . On peut
discrétiser la v.a. en introduisant une nouvelle v.a. discrète en découpant l'intervalle
et donc
27 Jean-Michel Jolion2006 LD
Grâce à un échantillon de taille , on peut calculer une moyenne expérimentale de
Remarque : L'espérance mathématique n'est pas toujours définie. C'est en particulier le cas de
diverge.
28 Jean-Michel Jolion2006 LD
Exemple : Soient et deux v.a. continues indépendantes de même loi . On souhaite
29 Jean-Michel Jolion2006 LD
d'où l'on déduit la densité de probabilité
Supposons maintenant que ces deux variables aléatoires suivent une loi exponentielle de
paramètre , . On a alors
La v.a. suit donc une loi uniforme. Comme on doit avoir et , cela donne
et .
Moments
La notion de moment permet d'introduire celle d'indicateur résumant et/ou caractérisant une
variable aléatoire. On y retrouvera la moyenne comme cas particulier.
Subsections
Définitions
Quelques moments particuliers
Variance, covariance et écart-type
Variable centrée réduite
Coefficient de corrélation
Exemple
Inégalités de Bienaymé - Tchebyshev - Markov
30 Jean-Michel Jolion2006 LD
Définitions
Moment centré d'ordre n. On appelle moment centré d'ordre n de la v.a. et l'on note
est la moyenne.
Très souvent, pour des raisons d'efficacité, les moments souhaités, i.e. , sont calculés à
partir des moments simples, i.e. . En effet, le calcul d'un moment centré nécessite le calcul
préalable de l'espérance mathématique, il y a donc 2 pas de calculs au lieu d'un seul pour les
moments non centrés.
31 Jean-Michel Jolion2006 LD
, et sont utilisés pour caractériser la forme d'une distribution. Pour cela, on
construit des indicateurs sans dimension :
Remarque : Ces indicateurs ne sont utilisables, i.e. n'ont de sens, que dans le cas d'une
distribution unimodale (un seul maximum).
On dit aussi que la variance traduit la notion d'incertitude. Plus la variance est faible, moins le
résultat de l'expérience aléatoire est incertain. A la limite, une v.a. de variance nulle conduit à
des expériences strictement identiques (i.e. le phénomène est complètement déterministe, il
n'y a donc plus aucune raison de garder la notion de variable aléatoire).
La covariance peut être vue comme le moment centré conjoint d'ordre 1 de deux v.a. Si les
deux v.a. sont indépendantes, alors leur covariance est nulle (mais la réciproque n'est pas
vraie en général).
C'est le moyen le plus classique pour normaliser une v.a. Par construction, on obtient
et .
Coefficient de corrélation
La relation entre deux v.a. peut être quantifiée par la covariance comme vue précédemment.
Cependant, à l'image de la moyenne et de la variance, la covariance est un moment donc possède
une dimension ce qui la rend plus difficile à interpréter. C'est pourquoi on utilise plus généralement
le coefficient de corrélation, indicateur sans dimension, défini par
33 Jean-Michel Jolion2006 LD
Le coefficient de corrélation mesure la qualité de la relation linéaire entre deux variables
On peut réécrire la relation sur la variance d'une somme de v.a. en utilisant le coefficient de
corrélation :
Et en généralisant, on obtient
34 Jean-Michel Jolion2006 LD
Exemple
Soit X une v.a. continue et uniforme sur (i.e. équiprobabilité de toutes les valeurs).
L'uniformité de X conduit à une densité de probabilité constante :
donc et
Bienaymé-Tchebyshev : .
35 Jean-Michel Jolion2006 LD
Cette inégalité est la plus connue des trois. Elle est valable quelle que soit la v.a. X, ce qui est
une propriété très intéressante. Malheureusement, elle n'a que peu d'applications pratiques car
la majoration qu'elle fournit est la plupart du temps excessive.
Subsections
et
0-1 D
Uniforme D
Binomiale D
pour
Géométrique D pour
36 Jean-Michel Jolion2006 LD
Pascal D
Poisson D pour et
Uniforme C
avec
Gauss C pour
Gamma C
Exponentiell pour et
C
e
Rayleigh C
pour
Laplace C
Student C
37 Jean-Michel Jolion2006 LD
Weibull C
Loi 0-1 : on appelle aussi cette loi, loi de Bernoulli. La v.a. associée à une telle loi est
considérée comme la fonction indicatrice d'un évènement de probabilité p. C'est un cas
particulier de la loi Binomiale.
Loi binomiale : On obtient une v.a. de loi binomiale par une somme de v.a. de loi
0-1 ( ). En d'autres termes, la loi binomiale est la loi associée à répétitions, dans des
conditions identiques et indépendamment, d'une expérience aléatoire dont l'issue est
l'apparition ou la non apparition d'un évènement. La somme de deux lois binomiales de même
paramètre est une loi binomiale.
Loi géométrique : La loi géométrique est la loi du nombre d'essais nécessaires pour faire
Loi de Pascal d'ordre n : C'est la loi du nombre d'essais nécessaires pour observer
Loi de Poisson (magistrat français du XIXème siècle) : On obtient une v.a. de loi de Poisson
38 Jean-Michel Jolion2006 LD
Figure 1: Densité de probabilité de la loi de Poisson de paramètre .
paramètre .
v.a. normales de paramètres deux à deux indépendantes, leur somme pondérée par
les coefficients est une v.a. normale de paramètres la somme pondérée des paramètres
39 Jean-Michel Jolion2006 LD
Figure 2: Densité de probabilité de la loi normale centrée réduite.
Loi exponentielle : Si suit une loi de Poisson, et traduit le nombre d'apparitions d'un
le taux de défaillance. La loi exponentielle est un cas particulier de la loi Gamma pour
.
40 Jean-Michel Jolion2006 LD
La loi exponentielle est souvent utilisée pour son caractère sans mémoire. Soit une
variable aléatoire suivant une loi exponentielle. Soient et deux réels strictement positifs,
on a
Loi de Weibull : Cette loi est aussi très utilisée pour caractériser la fiabilité des matériels.
Elle est reliée à la loi exponentielle par la relation suivante : suit une loi de Weibull de
paramètre si suit une loi exponentielle. On dit que est le paramètre de forme :
qui se bonifie avec le temps; (cas où la loi est exponentielle) à un matériel sans usure
(pannes purement accidentelles).
41 Jean-Michel Jolion2006 LD
Loi Gamma : Soit une v.a. normale X de paramètres et soit une v.a. construite par
Loi du : Le paramètre m est le nombre de degrés de liberté de cette loi. Cette distribution
permet de définir la loi de la v.a. où les sont des v.a. normales centrées
réduites indépendantes. Pour m tendant vers l'infini, cette loi tend asymptotiquement vers une
loi normale. La somme de deux v.a. du à respectivement et degrés de liberté, est une
nouvelle v.a. de loi du à degrés de liberté. On peut aussi relier cette loi à la loi
Gamma avec .
une loi du à degrés de liberté, alors la variable suit une loi de Student à
degrés de liberté. Cette loi sert essentiellement pour les tests statistiques d'hypothèses.
Quelques relations
42 Jean-Michel Jolion2006 LD
Dans le cas, fréquent, où l'on admet ou vérifie, que les sont des lois normales de même
paramètrage , alors
Par ailleurs, on sait que seules les affinités (et en particulier les sommes) conservent les lois
normale, binomiale, uniforme et Gamma (à paramètres entiers).
43 Jean-Michel Jolion2006 LD
Loi des grands nombres
Subsections
Convergence stochastique
Théorème central limite
Convergence stochastique
On s'intéresse à la loi d'une suite de v.a. indentiques, et plus particulièrement à la convergence à
l'infini. Pour étudier cette convergence, il existe de nombreux outils dont nous résumons ici les
principaux.
Convergence en loi. Soit une suite de v.a. de F.R. , et soit une v.a. de FR
. On dit que la suite converge en loi vers la v.a. ssi converge vers
44 Jean-Michel Jolion2006 LD
Convergence en probabilité. On dit que la suite converge en probabilité vers la v.a.
Cette définition est une généralisation du théorème de Bernouilli (dans le cas où est une
constante). En conséquence de ce théorème, on sait que dans une série d'épreuves
indépendantes, la fréquence relative de l'évènement A converge en probabilité vers P(A)
quand le nombre d'épreuves croit indéfiniment.
Convergence en moyenne. On dit que la suite converge en moyenne d'ordre p vers la v.a.
. La valeur exacte est 0.1319 d'après les tables. D'après le théorème, on obtient
45 Jean-Michel Jolion2006 LD
Théorème central limite
Le théorème central limite est l'un des résultats les plus importants de la théorie des
probabilités. De façon informelle, ce théorème donne une estimation très précise de l'erreur
que l'on commet en approchant l'espérance mathématique par la moyenne arithmétique. Ce
phénomène a d'abord été observé par Gauss qui l'appelait loi des erreurs; mais ce dernier n'en
a pas donné de démonstration rigoureuse. La preuve du théorème a été apportée part Moivre
et Laplace; le théorème porte donc parfois leurs noms.
Ce théorème est fondamental car il justifie toutes les approximations par la loi normale.
Théorème :
Soit une suite de v.a. de même loi d'espérance et d'écart type . Alors la v.a.
Une proportion tend vers une loi normale de moyenne la proportion théorique et
d'écart-type .
Théorème :
46 Jean-Michel Jolion2006 LD
alors
La condition de Lindeberg exprime que les v.a. sont ``uniformément petites'' avec une
grande probabilité. Le résultat veut dire qu'à force d'ajouter de telles variables, on finit par
obtenir une loi normale. Autrement dit, si une variable est la résultante d'un grand nombre de
causes, petites, à effet additif, cette variable suit une loi normale. C'est à cause de cette
interprétation que la loi normale est très souvent employée comme modèle (malheureusement
pas toujours à raison).
Enfin, notons que ces théorèmes supposent l'existence des moments des v.a. On ne peut donc
pas les utiliser par exemple pour des v.a. suivant une loi de Cauchy (dans ce cas particulier, la
somme produit une v.a. qui a toujours une loi de Cauchy et cela quel que soit le nombre
d'éléments dans la somme).
Très souvent en simulation, on est amené à utiliser des échantillons fictifs de réalisations
d'une v.a. de loi déterminée. Nous abordons ici un ensemble de méthodes de construction de
tels échantillons
Subsections
47 Jean-Michel Jolion2006 LD
Loi de Poisson
Loi normale :
la v.a. définie par . Cette v.a. suit une densité de probabilité uniformément
Les peuvent être considérés comme des réalisations de la v.a. . Pour calculer les
de sa fonction de répartition :
Loi uniforme
La construction d'un échantillon fictif d'une v.a. de loi quelconque nécessite en premier lieu la
construction d'un échantillon fictif d'une v.a. uniforme entre 0 et 1. Pour une loi uniforme, on ne
pourra donc pas se servir de la méthode générale. On utilisera alors soit des tables de nombres au
hasard, soit des algorithmes de génération de nombres pseudo-aléatoires (fonction random classique
sur les machines par exemple).
Loi exponentielle
48 Jean-Michel Jolion2006 LD
. Si on remplace par (ce qui est possible sans conséquence car la
Loi binomiale
si alors faire
si alors faire
Loi de Poisson
49 Jean-Michel Jolion2006 LD
avec ( : v.a. uniforme [0,1] et v.a. exponentielle de moyenne 1).
Loi normale :
On utilise le théorème central limite. La distribution de la moyenne d'une v.a. tend vers une loi
normale lorsque la taille de l'échantillon est suffisamment grande, et ceci quelle que soit la
distribution de la v.a. . On peut donc prendre Y : v.a. uniforme sur [0,1]. Donc et
. La v.a. définie par tend vers une loi normale centrée réduite.
En pratique, on utilise .
Autres indicateurs
Il existe d'autres indicateurs permettant de caractériser une v.a. Ils ne sont pas issus du calcul des
moments.
Subsections
Histogramme
Médiane
Mode
Autres moyennes
50 Jean-Michel Jolion2006 LD
Histogramme
L'histogramme est analogue à la courbe de densité. L'ordonnée associée à chaque abscisse est égal à
la fréquence d'apparition de la valeur dans l'échantillon. Dans le cas d'une v.a. discrète, la
construction de l'histogramme ne pose pas de problème. Par contre, pour une v.a. continue, il est
nécessaire de résumer les valeurs à reporter sur la courbe en classes.
Médiane
Par définition, la médiane est la valeur correspondant au milieu de la fonction de répartition d'une
v.a.
Si la loi de la v.a. est symétrique, alors la médiane est égale à l'espérance mathématique. la
médiane n'est pas unique. C'est une indicateur insensible aux valeurs extrèmes ce qui en fait
un outil très intéressant dans le domaine des statistiques robustes.
51 Jean-Michel Jolion2006 LD
Si l'on part d'un échantillon de réalisations triées par ordre croissant, la médiane sera
Mode
Par définition, le mode d'une v.a. est sa valeur la plus probable
Le mode n'est pas unique. Il n'est strictement défini que pour une v.a. discrète car pour toute v.a.
Autres moyennes
Dans la pratique, il peut arriver que la nature des réalisations d'un échantillon ne soit pas adaptée à
l'utilisation de la moyenne classique. Il existe d'autres possibilités
La moyenne géométrique :
La moyenne harmonique :
Il est très dur de connaître les lois de comportements de ces indicateurs particuliers. Il doivent
donc être utilisés avec précaution.
52 Jean-Michel Jolion2006 LD
Estimation
On considère généralement deux types d'estimation: l'estimation ponctuelle (on cherche à estimer
une valeur) et l'estimation par intervalle de confiance où l'on estime la probabilité que la valeur vraie
d'un paramètre appartienne à un intervalle donné.
Subsections
Estimation ponctuelle
o Introduction
o Estimateur convergent
o Estimateur sans biais
o Estimateur efficace
o Robustesse
Estimation robuste
o Interprétation de données: l'approche bayésienne
o Le traitement de l'a priori
o Le traitement de l'a posteriori
o Le cas monodimensionnel
o Le cas général
o Estimation itérative
Régression linéaire
o Formalisation
o Résolution dans le cas d'une distribution normale des écarts
o Le cas de la droite
o Intervalle de confiance sur le coefficient de corrélation
53 Jean-Michel Jolion2006 LD
Filtre de Kalman
Estimation d'un mode
Estimation d'une densité
Estimation ponctuelle
Subsections
Introduction
Estimateur convergent
Estimateur sans biais
Estimateur efficace
Robustesse
Introduction
A partir de données d'échantillons représentatifs, on va induire des résultats sur la population-mère
(i.e. population dans laquelle les échantillons ont été prélevés).
Plus exactement, soit un paramètre inconnu 2intervenant dans la loi de probabilité d'une
variable aléatoire . La loi de probabilité de cette variable aléatoire doit être connue
analytiquement (on choisit parmi les modèles existants la loi la plus appropriée au phénomène
observé). Seule la valeur numérique du paramètre intervenant dans cette loi de probabilité
est inconnue.
54 Jean-Michel Jolion2006 LD
Par définition, est une fonction des réalisations d'une v.a., est donc une v.a. dont on
peut chercher à déterminer les caractéristiques (loi, ddp, FR, moments, ...).
l'échantillon , de proposer une valeur pour la moyenne de cette loi normale. Il faut
procéder à une estimation du paramètre vrai qui se traduit par la valeur . Il y a une
infinité de manière possible parmi lesquelles on peut citer
médiane
mode
Sur ce simple exemple, est résumé le problème fondamental de l'estimation: quelle est la
définition mathématique de meilleur?
La réponse est simple, il n'en existe pas. Alors comment comparer les estimateurs. Pour cela,
on se sert de plusieurs critères, le plus souvent liés au bon sens:
le biais: On souhaite que l'estimation ne soit pas systématiquement décalée par rapport à la
valeur vraie.
la précision: Si l'on répète l'estimation sur un autre échantillon, on souhaite obtenir une
estimation cohérente, donc peu de variation d'un échantillon à l'autre. On parlera aussi
d'efficacité.
55 Jean-Michel Jolion2006 LD
la robustesse: Dans tout cas concrèt, il existe des sources de perturbations. On souhaite que
l'estimation ne soit pas sensible à la présence de valeurs abérantes (outliers en anglais).
Ces différents critères ne sont pas forcément compatibles entre eux, et l'on retrouve des
dilemmes classiques, précision vs robustesse, convergence vs complexité.
Estimateur convergent
Un estimateur est convergent si la valeur estimée tend en probabilité vers la valeur vraie du
paramètre, soit:
(arbitrairement petits)
Si l'estimation est exhaustive (l'échantillon est égal à la population-mère), alors la valeur vraie
du paramètre est connue.
Un estimateur est dit sans biais lorsque son espérance mathématique est égale à la valeur vraie
du paramètre.
Exemples:
56 Jean-Michel Jolion2006 LD
X: : est un estimateur convergent sans biais de la variance
vraie de cette v.a.
le fait qu'il faut utiliser une estimation préalable de la moyenne pour pouvoir faire
l'estimation de la variance, i.e. il n'y a donc plus données disponibles (ou degrés de libertés)
Soit .
57 Jean-Michel Jolion2006 LD
En posant , on obtient une V.A. centrée et de même variance que .
58 Jean-Michel Jolion2006 LD
Pour aller plus loin, on tient compte de quelques propriétés :
On constate bien un biais qui se traduit par le facteur . Pour le compenser, on multiplie
59 Jean-Michel Jolion2006 LD
Estimateur efficace
La variance d'un estimateur représente sa précision. Pour tous les estimateurs (ayant même
moyenne), il est possible de trouver celui dont la précision sera la meilleure, i.e. dont la variance sera
la plus faible. On parle alors d'estimateur à variance minimum.
Lorsque l'on compare deux estimateurs, on dira également que est plus efficace que si
Une estimation est liée à un échantillon de taille finie. Si la population-mère est de taille
infinie, il n'est pas possible d'avoir accès à la valeur vraie . La précision que l'on pourra
obtenir sur ne pourra donc pas descendre en deça d'une certaine limite (borne inférieure de
la variance de l'estimateur ou Minimum Variance Bound (MVB)) qui est déterminée par
l'inégalité de Cramer-Rao:
60 Jean-Michel Jolion2006 LD
désignant la ddp de la v.a. et
Remarque: La notion d'information a été proposée dans les années 20 par le chercheur
anglais Ronald A. Fisher (considéré comme le père de la statistique mathématique). La
démarche de Fisher est la suivante: si l'on s'intéresse aux caractéristiques d'une population
nombreuse (voire infinie, c'est le cas limite auquel on est en permanence ramené), on ne peut
ni connaître ni traiter les informations trop abondantes relatives à chacun des individus qui la
composent. Le problème devient donc d'être capable de décrire correctement la population au
moyen d'indicateurs de synthèse pouvant être fournis par des échantillons issus de la
population à étudier. Plus les données chiffrées que l'on peut extraire d'un échantillon
représentent correctement la population de référence et plus l'information contenue dans cet
échantillon doit être considérée comme élevée.
Robustesse
Le terme ``robuste'' a été pour la première fois introduit en statistique par G.E.P. Box en 1953. Un
estimateur est dit robuste si il est insensible à des petits écarts sur les hypothèses pour lesquelles il a
été optimisé. Il y a deux sens au terme ``petit'': de petites variations sur toutes les données, ou des
écarts importants sur un petit nombre de données. C'est le deuxième aspect qui est le plus mal pris
en compte par les estimateurs classiques.
Ainsi, la robustesse traduit le plus souvent la résistance de l'estimation aux données abérentes.
On la définit mathématiquement par le plus petit nombre de données extrèmes qui modifie la
valeur de l'estimation ramené à la taille de l'échantillon.
L'approche retenue consiste à chercher la valeur de qui rend le plus probable les réalisations
que l'on vient d'obtenir. La probabilité d'apparition a priori de l'échantillon en question peut
alors être caractérisée par le produit des probabilités d'apparition de chacune des réalisations
(puisque celles-ci sont supposées indépendantes deux à deux).
probabilité maximale. Comme nous l'avons vu plus haut, le produit des valeurs est
62 Jean-Michel Jolion2006 LD
aussi noté et appelé fonction de vraisemblance. La valeur qui rend
maximum la fonction de vraisemblance est donc la solution de:
L'emploi du logarithme sur la fonction permet de passer de la maximisation d'un produit à celle
d'une somme, le résultat restant le même car la fonction logarithme est monotone strictement
croissante.
Théorème: Si il existe un estimateur efficace sans biais, il sera donné par la méthode du
maximum de vraisemblance.
Cette approche est très théorique mais possède l'avantage d'être parfaitement formalisée.
63 Jean-Michel Jolion2006 LD
Exemple 1: Soit une loi normale avec connu mais inconnue. L'objectif est
64 Jean-Michel Jolion2006 LD
de part la propriété de linéarité de l'opérateur espérance mathématique. L'estimateur est donc
sans biais.
Subsections
Soit une population dont les individus possèdent un caractère avec une probabilité (loi 0/1). On
cherche à déterminer cette probabilité inconnue en prélevant un échantillon de taille dans cette
population. On constate que parmi les individus possèdent le caractère . Que peut-on en
déduire, i.e. la proportion approxime la valeur vraie , mais avec quelle confiance.
65 Jean-Michel Jolion2006 LD
Soit ; est une v.a. construite par la somme de variables aléatoires 0/1 et de
même paramètre, . C'est donc, d'après le théorème central limite, une variable aléatoire dont
la loi de probabilité tend vers une loi normale de moyenne et d'écart-type . Cette
approximation est valable uniquement si la taille de l'échantillon est suffisamment grande (i.e.
en pratique).
où est le risque (a priori, on construit un intervalle symétrique). est une réalisation d'une v.a.
La valeur est donc un résultat de calcul. La valeur de sera lue sur une table
de loi normale . Il existe par ailleurs différentes manières pour approximer la valeur
de :
66 Jean-Michel Jolion2006 LD
soit par majoration: en effet, quelle que soit la valeur de , le produit est majoré
par .
de ?
La variable aléatoire mesurée n'est pas normale et le nombre de réalisations est supérieur à
30 (dans ce cas, la distribution de la moyenne tend vers une loi normale d'après le théorème
central limite).
Soit donc une v.a. suivant une loi normale de moyenne inconnue et d'écart-type . On
67 Jean-Michel Jolion2006 LD
où est la moyenne arithmétique calculée à partir de l'échantillon. Pour aller plus loin, nous
devons considérer deux cas
nouvelle v.a. suit toujours une loi normale. La valeur de est donc lue dans
une table de la loi normale.
Dans ce cas, joue le rôle d'une v.a. Soit l'estimation de que l'on obtient par:
Comme suit une loi normale, on sait que la quantité suit une loi du à
degrés de liberté. La nouvelle variable aléatoire suit donc une loi de Student
A posteriori, on peut être intéressé par la taille minimale de l'échantillon tel que l'intervalle de
confiance, pour un coefficient de confiance donné, soit tel que ses bornes inférieures et
, ce qui conduit à
68 Jean-Michel Jolion2006 LD
Estimation d'une variance
Nous n'aborderons que le cas de l'estimation de la variance d'une v.a. normale de moyenne
Si est connue (très rare), alors l'intervalle de confiance à (risque) est définit par
Si est inconnue. La quantité définie dans le paragraphe précédent suit une loi du à
degrés de liberté.
69 Jean-Michel Jolion2006 LD
(attention, représente ici la confiance) avec lu sur une table du pour degrés de
liberté, d'où l'on tire :
avec .
Estimation robuste
Nous allons dans ce paragraphe reprendre le problème de l'estimation au tout début afin de
montrer qu'il est possible de dériver des estimateurs très différents de ceux que nous avons
abordés jusque là. Ces estimateurs relèvent du domaine que l'on nomme les statistiques
robustes et dont Legendre (le créateur de la méthode des moindres carrés) a été le précurseur
puisque parlant des écarts entre les données et l'interprétation, il déclarait (en 1805 dans sa
première publication sur les moindres carrés):
Si parmi ces erreurs, certaines apparaissent trop importantes pour être admises, alors les
observations qui ont générées ces erreurs seront rejetées, comme provenant d'expériences
trop peu fiables, et les inconnues seront déterminées grâce aux autres observations, qui de ce
fait induiront moins d'erreurs.
Subsections
70 Jean-Michel Jolion2006 LD
Interprétation de données: l'approche bayésienne
et . Une approche possible est de choisir l'interprétation la plus probable. C'est à dire
Dans cette expression, est la validation a posteriori des données par l'interprétation.
est l'a priori, indépendant des données. Ce deuxième terme traduit le biais qui fait
que l'on ne part jamais avec tous les modèles équiprobables (soit parce que l'on tient compte
de l'application sous-jacente, soit par habitude ou connaissance).
Malheureusement, on ne sait pas traduire l'a priori et donc sa probabilité, c'est pourquoi, on
suppose toujours qu'il est soit négligeable soit qu'il contraint suffisamment l'application pour
que toutes les interprétations possibles soient de la même catégorie.
Prenons le cas de l'interprétation de données bruitées. Dans ce cas, on suppose que les
données sont des prélèvements d'un phénomène perturbé par un bruit additif , ce qui
71 Jean-Michel Jolion2006 LD
le bruit n'est pas corrélé avec le phénomène , on obtient en fait un produit de deux
unique car les complexités de et s'équilibrent. En effet, pour un jeu de données fixé, plus
le modèle sera d'ordre faible plus il faudra supposer un modèle de bruit complexe. A l'inverse,
pour données, on peut toujours envisager une forme polynomiale de degré qui prédit
exactement tous les points, et dans ce cas, le bruit est nul, donc de complexité très faible.
Mais avons-nous l'habitude de manipuler des modèles d'ordre très élevé ?
Symétrie:
Pour aller plus loin, on suppose le plus souvent que la distribution des erreurs suit une loi
normale de moyenne nulle (pas de biais) et d'écart-type . On peut donc construire la
où .
Depuis l'origine des statistiques, les statisticiens ont toujours adoré le fait que la distribution
de la somme d'un très grand nombre de petites variations aléatoires converge toujours vers
une distribution normale (cf Théorème central limite).
72 Jean-Michel Jolion2006 LD
Le principal problème de ce choix est que la probabilité d'un écart égal à fois est de
l'ordre de ce qui est beaucoup trop faible pour traduire la fréquence d'apparition
d'un écart très fort du à une donnée abérente. De plus, dans le cas de la loi normale, des
écarts doivent se trouver à au plus fois l'écart type.
On peut donc être amené à choisir des distributions dont la décroissance est moins rapide. Par
exemple, on peut utiliser la distribution de Cauchy, ou une distribution exponentielle.
Le cas monodimensionnel
Prenons le cas de l'estimation d'un paramètre représentant un échantillon. Soit ce paramètre. Si
l'on fait l'hypothèse d'une distribution normale des écarts, on aboutit à l'estimateur moyenne. Par
Ces deux estimateurs peuvent être comparés grâce aux indicateurs que nous avons évoqués au
début de ce chapitre. Ils sont tous les deux convergents et sans biais. La complexité de la
moyenne est de alors que celle de la médiane est de car il faut faire un tri
des données, la moyenne est donc plus rapide à calculer. Par contre, la robustesse de la
moyenne est asymptotiquement nulle alors que celle de la médiane est asymptotiquement de
0.5 ce qui traduit une bien meilleure résistance au bruit, i.e. aux données abérentes.
Le cas général
La maximisation de cette probabilité peut se réécrire sous la forme d'une minimisation d'une
73 Jean-Michel Jolion2006 LD
avec et où traduit l'incertitude sur la ème donnée et permet de relativiser la
valeur de chaque écart.
Ce système n'a bien sur pas de solution générale et il convient de l'étudier en fonction du
choix de , ce qui donne une classe d'estimateurs connus sous le nom de M-estimateurs.
Modèle de Legendre:
C'est le cas le plus connu car il correspond à l'hypothèse de normalité de la distribution des
écarts. On pose et
L-estimateur:
Comme nous l'avons vu précédemment, ce modèle permet de par la plus lente décroissance de
la loi de Cauchy, de mieux rendre compte des apparitions de données abérentes.
Modèle de Huber:
74 Jean-Michel Jolion2006 LD
Dans ce modèle, on utilise un seuil qui permet d'avoir à la fois une décroissance rapide (i.e.
quadratique) si l'écart est faible et de réduire la décroissance (donc augmenter l'importance)
des écarts forts (au delà du seuil). Il réalise un bon compromis entre le modèle de Legendre et
celui du L-estimateur.
Modèle de Tuckey:
Le modèle de Tuckey est du même type que celui de Hubert mais un peu plus complexe car il
permet de s'affranchir de la sensibilité au choix du seuil .
La valeur est appelée point de rejet (rejection point) et joue le rôle du seuil de Hubert. La
valeur est la constante de confiance est vaut (cette valeur a été déterminée pour
obtenir une bonne adéquation à des écarts distribués normalement). La valeur est un facteur
de dimension qui permet d'adapter le seuil à l'étalement de la distribution des écarts. On peut
assimiler à un écart-type et utiliser l'estimateur correspondant mais Tuckey propose un
estimateur plus robuste, la médiane des écarts absolus (Median of Absolute Deviation) qui
vaut
On peut aussi déterminer le point de rejet en pourcentage du volume de données. Par exemple,
on ellimine les % plus grandes et plus petites valeurs des écarts. Une valeur généralement
75 Jean-Michel Jolion2006 LD
recommandée est . La médiane est le cas extrème de cet estimateur tronqué avec
Le R-estimateur est un cas particulier car il ne s'appuie plus sur des relations linéaires mais
tient compte essentiellement du classement des écarts. La fonction de cout est la suivante:
où est le rang de l'écart dans la liste triée des écarts. La fonction est normalisée telle
Estimation itérative
Tous les estimateurs que nous avons abordés sont des méthodes directes, et, le plus souvent, il
faut faire un compromis entre efficacité et faible complexité d'une part, et robustesse d'autre
part.
Pour cela on peut procéder en plusieurs étapes pour essayer de combiner tous les avantages.
Dans un premier temps, un estimateur classique non robuste permet de quantifier l'adéquation
de chaque donnée au modèle, i.e. par l'écart. Chaque donnée est alors affectée d'un poids, le
plus souvent inversement proportionnel à l'écart. On peut alors itérer le processus d'estimation.
L'hypothèse sousjacente est qu'une donnée abérente aura un écart initial fort et donc une
adéquation et un poids faibles. Il n'interviendra donc que très peu dans la deuxième phase
d'estimation. Le processus peut être itéré jusqu'à convergence de l'estimation.
76 Jean-Michel Jolion2006 LD
Prenons pour exemple l'estimation de l'espérance mathématique par la moyenne arithmétique
1. Première estimation ( ):
3. Calcul des poids: (cf le chapitre précédent pour diverses possibilités pour ).
Dans cet exemple, on augmente la robustesse au bruit avec comme coût une complexité un
Régression linéaire
La régression linéaire est un cas particulier d'estimation très usité car très bien formalisé et
correspondant à des modèles simples (car linéaires). C'est l'outil de base de la modélisation de
données. Une approche très générale de ce problème est fournit dans le cours d'approche
conceptuelle des systèmes. Nous ne traiterons ici que de la facette statistique de ce problème
mathématique.
77 Jean-Michel Jolion2006 LD
Subsections
Formalisation
Résolution dans le cas d'une distribution normale des écarts
Le cas de la droite
Intervalle de confiance sur le coefficient de corrélation
Formalisation
(On supposera par simplicité que toutes les données ont la même incertitude, ce qui permet de
nous avons vu que cela revient à utiliser . On obtient alors le système d'équations
linéaires suivant:
78 Jean-Michel Jolion2006 LD
Soit
Ce système étant linéaire, il a une solution unique sauf si le déterminant du système est nul.
On peut montrer que ce cas intervient si il existe une relation linéaire d'ordre entre les
vecteurs . On dit alors que le système est surdimensionné et un traitement des données est
nécessaire afin d'elliminer préalablement cette dépendance. La dimension du nouveau vecteur
Le système à résoudre est de plus symétrique. On peut donc faire appel à des techniques
Le cas de la droite
Nous abordons ici le cas limité où le modèle est une droite. On parle aussi de regression linéaire
79 Jean-Michel Jolion2006 LD
Ce système a une solution unique si et seulement si .
On peut considérer que les données constituent un échantillon d'une v.a. que l'on
Les v.a. et sont reliées par la relation où et sont les valeurs vraies.
80 Jean-Michel Jolion2006 LD
L'estimation sera donc parfaite si les v.a. et sont parfaitement corrélées (i.e.
Là encore, l'estimation sera d'autant meilleure que la corrélation sera proche de 1. Cependant,
on constate que et interviennent comme un gain sur l'erreur due à la corrélation non
parfaite. L'estimation de sera donc plus vite dégradée que celle de .
et
Grâce à la relation liant les variables et , on peut obtenir l'intervalle de confiance sur .
81 Jean-Michel Jolion2006 LD
Exemple : Soit obtenu sur un échantillon de taille . On souhaite construire
Filtre de Kalman
Dans tous les problèmes d'estimation que nous venons d'aborder, on suppose toujours connu et fixe
un échantillon de données. L'estimation est un travail a posteriori à partir de cet échantillon. Dans
certains contextes (lorsque l'échantillon est très grand, ou qu'il correspond à un échantillonnage
continu donc sans fin réel) on peut être amené à estimer les paramètres sans attendre d'avoir la
totalité de l'échantillon. A chaque nouvelle donnée disponible, on cherchera donc à mettre à jour la
valeur de l'estimation (il n'est bien sûr pas question de recommencer l'estimation à chaque fois, ce
qui serait trop couteux). On parle alors d'estimation incrémentale.
Nous aborderons dans ce chapitre la technique la plus classique qui réalise une régression
linéaire incrémentale, le filtre de Kalman.
De même, soit l'estimation courante (calculée grâce aux premières données) et son
connait aussi son incertitude notée ( est une matrice ). Le problème est
Comment cela s'interprète-t-il? La matrice est une matrice qui permet de passer
82 Jean-Michel Jolion2006 LD
traduit donc l'écart entre la prédiction et la donnée réelle. On peut aussi dire que cet écart est
l'innovation apportée par la nouvelle donnée. Cette innovation va servir à mettre à jour
l'estimation. Cette mise à jour est une simple addition où l'on fait cependant intervenir un gain
sur la partie innovation, la matrice appelée gain de Kalman.
Le gain de Kalman doit tenir compte des incertitudes relatives de l'estimation courante et de la
L'emploi de la matrice est rendu nécessaire par le fait que les matrices d'incertitudes ne
sont pas de même rang.
Il ne reste plus qu'à mettre à jour l'incertitude de l'estimation qui tient compte de l'incertitude
courante et du gain de Kalman par la relation:
On peut montrer que l'estimation obtenue par ce processus après données est égale à celle
que l'on obtiendrait si l'on estimait directement le vecteur sur l'échantillon de données.
Définition: Soit une v.a. continue. On appele mode de la valeur qui satisfait à
83 Jean-Michel Jolion2006 LD
avec
et .
Ce qui veut dire que est le milieu de l'intervalle le plus dense dans la
distribution des valeurs de .
Comment peut-on estimer cette valeur à partir d'un échantillon? On choisit dans un premier
plus dense, i.e. , la liste des réalisations étant préalablement triée par
valeurs croissantes. L'estimation finale du mode est obtenue conformément à la définition, par
le mileu de l'intervalle retenu.
La théorie de l'estimation permet de proposer des solutions visant à obtenir une bien meilleure
approximation de la densité réelle à partir d'un histogramme.
84 Jean-Michel Jolion2006 LD
Une première amélioration consiste à utiliser une fenêtre mobile. On construit autour de
et si . vaut donc si .
Cette méthode donne une estimation peu régulière. Si l'on veut une fonction lisse, il est alors
possible de généraliser la formule précédente en utilisant des noyaux, i.e. fonctions , plus
continus. En pratique, on utilise souvent des noyaux symétriques et très fréquemment un
l'image de la largeur des classes de l'histogramme: si est faible, sera très peu régulière, si
Bien que l'on sache que doit être proportionnel à , sa valeur optimale se détermine
souvent empiriquement.
Il n'est pas nécessaire que soit une densité positive en tout point. On peut tout à fait
envisager d'utiliser des noyaux prenant des valeurs négatives, par exemple le noyau proposé
85 Jean-Michel Jolion2006 LD
Tests d'hypothèse
Subsections
Introduction
o Hypothèses et erreurs
o Tests bilatéral et unilatéral
o Région d'acceptation et région critique
o Choix d'un test
o Influence de l'échantillonnage
Test de comparaison
o Comparaison de deux moyennes
o Comparaison de deux variances
o Comparaison de deux proportions
o Test du
o Test de Kolmogorov
86 Jean-Michel Jolion2006 LD
o Test de Cramer-Von Mises
Test d'indépendance
o Test des différences premières
o Test de Spearman
Analyse de la variance
o Les données de l'analyse
o Le test
o Analyse des contrastes
Introduction
Subsections
Hypothèses et erreurs
Tests bilatéral et unilatéral
Région d'acceptation et région critique
Choix d'un test
Influence de l'échantillonnage
Hypothèses et erreurs
Une utilisation courante des statistiques est la notion de test. Un test est un mécanisme qui permet
de trancher entre deux hypothèses au vu des résultats d'un échantillon. Dans les cas qui nous
intéressent, ces hypothèses porteront sur des estimations (valeur d'un moment, égalité de variances,
nature d'une loi de probabilité ...). Soient et ces deux hypothèses, dont une et une seule est
87 Jean-Michel Jolion2006 LD
vraie. La décision aboutira à choisir ou . Il y a donc 4 cas possibles dont les probabilités sont
résumées dans le tableau suivant:
vraie vraie
décidée
décidée
Ces deux erreurs sont antogonistes, plus sera grand (resp. petit), plus sera petit (resp.
grand). Le fait d'imposer un faible conduit à une règle de décision plus stricte qui aboutit le
plus souvent à n'abandonner l'hypothèse que dans des cas rarissimes et donc à conserver
cette hypothèse quelque fois à tort. Le compromis entre les valeurs de et est donc
souhaitable bien que difficile à réaliser.
Dans la pratique des tests statistiques, il est de règle de se fixer comme donné (les valeurs
les plus courantes sont 0.05, 0.01 ou 0.1) de préférence en fonction du risque de première
espèce. En effet, joue le plus souvent un rôle prédominant par rapport à l'hypothèse .
Cela est la conséquence du fait que joue le rôle d'hypothèse de référence alors que est
souvent limitée à l'hypothèse contraire. Par exemple, on peut avoir : ce qui est
Cette pratique est liée au fait que l'évaluation d'un test passe par l'évaluation de fonctions
complexes qui ont été tabulées pour de nombreuses valeurs de mais ne sont pas connues
. On est donc amené à choisir a priori . Cependant, l'apparition de plus en plus
88 Jean-Michel Jolion2006 LD
fréquente de processus numériques d'approximation rapides et précis permet une autre
approche consistant à rechercher la plus petite valeur de pour laquelle l'hypothèse reste
vraie.
Un test bilatéral s'applique quand on cherche une différence entre deux estimations, ou entre
une estimation et une valeur donnée sans se préoccuper du signe ou du sens de la différence.
Dans ce cas, la zone de rejet (cf section suivante) de l'hypothèse principale se fait de part et
d'autre de la distribution de référence.
Un test unilatéral s'applique quand on cherche à savoir si une estimation est supérieure (ou
inférieure) à une autre ou à une valeur donnée. La zone de rejet de l'hypothèse principale est
située d'un seul côté de la distribution de probabilité de référence.
) afin de ne pas introduire de nouvelles inconnues dans le problème. On appelle alors région
critique, et l'on note , l'ensemble des valeurs de la variable de décision qui conduisent à écarter
89 Jean-Michel Jolion2006 LD
La construction d'un test est la détermination a priori de la région critique sans connaitre le
résultat de l'expérience. On peut donc résumer cette démarche de la manière suivante:
Choix de et
de vérité une hypothèse principale. Dans un tel cas, le test qui fournit l'erreur la plus petite, pour
une même valeur de , est par définition le plus puissant (celui ayant la plus grande valeur de la
puissance de test ). En effet, il peut détecter les plus petites différences entre les populations
sans pour autant augmenter l'erreur de première espèce.
La majorité des tests statistiques repose sur le respect d'un certain nombre de conditions.
Selon le degré de respect de ces conditions d'application, la validité des résultats se trouve
plus ou moins affectée et elle l'est d'autant plus que le test est moins robuste. Ainsi, la
robustesse d'un test équivaut à sa tolérance vis-à-vis du respect des conditions.
Si le statisticien dispose de plusieurs tests pour vérifier une hypothèse, il choisira bien sûr le
plus puissant et le plus robuste.
Les tests peu puissants augmentent la probabilité de commettre une erreur de deuxième
espèce. Or, cette erreur peut s'avérer particulièrement grave. En effet, en médecine par
exemple, une analyse qui classerait comme malade un individu bien portant peut avoir des
conséquences aussi graves qu'une analyse qui classerait comme bien portants des individus
malades (erreur de première espèce). Dans de tels cas, il y a intérêt à tracer la courbe de
puissance du test, aussi appelée courbe caractéristique d'efficacité qui indique la
90 Jean-Michel Jolion2006 LD
probabilité de prendre une bonne décision si est vraie. La puissance est mesurée par la
Influence de l'échantillonnage
Pour comparer les moyennes, les variances ou les autres paramètres estimés de deux échantillons, il
faut prendre en considération la technique conduisant à la constitution des deux échantillons. Si la
sélection des éléments est aléatoire, et si le choix des éléments du premier échantillon n'a aucune
influence sur le choix des éléments du second, les deux échantillons sont alors appelés indépendants.
Si l'on prélève aléatoirement des paires d'éléments, et non les éléments eux-mêmes, on
constitue deux échantillons appariés. Dans ce cas, le premier élément de chaque paire
appartient au premier échantillon et le deuxième est affecté au second. Parfois, la paire
déléments peut se rapporter au même individu sur lequel on mesure la même variable à deux
occasions différentes, par deux moyens différents par exemple.
Dans ce qui suit, nous allons aborder quelques tests classiques. Cette liste ne se veut pas
exhaustive. Reportez-vous à des ouvrages plus spécialisés pour une approche plus
systématique des tests statistiques.
Subsections
91 Jean-Michel Jolion2006 LD
La méthode de Neyman et Pearson
Supposons l'erreur de première espèce connu. On a vu que l'on peut relier à une région de
l'espace par:
On cherche par ailleurs le test le plus puissant, donc celui qui maximise:
Théorème: La région critique optimale est définie par l'ensemble des points x de tels que:
92 Jean-Michel Jolion2006 LD
Les fonctions de vraisemblance, ou densité, de l'échantillon sont:
La région critique est définie par le ratio de ces deux fonctions. En passant par un opérateur
logarithme, on obtient facilement:
En posant: , on obtient:
Si , on aboutit à:
La région critique est donc définie par l'inégalité qu'il faut maintenant déterminer.
Pour cela, nous introduisons l'erreur . Cette erreur est définie par: . Nous
moyenne et d'écart-type .
93 Jean-Michel Jolion2006 LD
On a alors (la condition étant vraie)
avec .
avec .
Si la valeur de est fixée, on peut par lecture dans une table de la loi normale, trouver la
94 Jean-Michel Jolion2006 LD
La quantité ne suit plus une loi normale centrée réduite car le dénominateur n'est
plus une constante mais une réalisation de l'estimateur de la variance de la variable . est
obtenue par
Par construction, suit une loi du . est donc une v.a. suivant une loi de Student à
degrés de liberté. Ce qui nous donne:
avec : Student(n-1).
Là encore, il est possible grâce à une table de la loi de Student de trouver la valeur du seuil et
donc celle de . La règle de décision est toujours la même.
95 Jean-Michel Jolion2006 LD
(On utilise et non pas car la moyenne est connue.)
La région critique est définie par le ratio de ces deux fonctions. En passant par un opérateur
logarithme, on obtient facilement:
une loi du à degrés de liberté. La valeur seuil sera donc lue dans une table du .
La variable de décision est qui est telle que suit une loi du
96 Jean-Michel Jolion2006 LD
La règle de décision du test est donc:
Soit une population très grande où la proportion d'individus possédant le caractère est égale à .
On pense que cette proportion ne peut avoir que deux valeurs ou . Au vu d'un échantillon de
taille , on désire prendre une décision quant à la valeur de cette proportion, avec une signification
.
est une réalisation d'une v.a. dont la loi de probabilité peut être déterminée grâce au
théorème central limite. Si la taille de l'échantillon est suffisamment grande (en pratique,
), on admet que la loi de tend vers une loi normale de moyenne et d'écart-type
97 Jean-Michel Jolion2006 LD
avec .
La valeur du seuil critique est lue dans une table de la loi normale.
Subsections
Tests UMP
Test d'une moyenne de loi normale, l'écart-type étant connu
Test d'une moyenne de loi normale, l'écart-type étant inconnu
Test d'une variance de loi normale, la moyenne étant connue
Test d'une variance de loi normale, la moyenne étant inconnue
Test d'une proportion
98 Jean-Michel Jolion2006 LD
Tests UMP
Dans un premier temps, considérons que la formulation générale reste la même pour l'hypothèse
principale:
tests unilatéraux.
test bilatéral.
L'erreur de première espèce étant fixée, on pourra déterminer une région critique
Le test est dit uniformément le plus puissant (Uniformely Most Powerful) ou UMP si les
Théorème: S'il existe un test UMP, la puissance de ce test est supérieure à la puissance
associée à tout autre test.
Plus généralement, peut elle-même être composée. dépend alors de selon les valeurs
Le théorème de Lehmann assure l'existence de tests UMP dans les cas suivants:
et
99 Jean-Michel Jolion2006 LD
Par contre, il n'existe pas de tests UMP pour les cas : contre
ou , et a fortiori, contre .
Nous allons maintenant introduire quelques exemples. Pour une liste plus exhaustive,
reportez-vous à la bibliographie.
Les règles de décision ne changent pas dans le principe. Il s'agit toujours de trouver une
Comme toujours, l'erreur de première espèce est fixée. Par ailleurs, la moyenne sera
estimée par la moyenne arithmétique . La construction du test est similaire à ce que nous
avons vu pour le cas du test simple d'une moyenne. On aboutit à:
avec : .
La variable suit une loi normale (en effet est connue et joue donc le rôle d'une
constante) centrée et réduite. La valeur du seuil sera donc déduite d'une table de la loi normale.
Il en est de même pour l'erreur de deuxième espèce et pour la puissance du test.
Test bilatéral
Comme toujours, l'erreur de première espèce est fixée. Par ailleurs, la moyenne sera
estimée par la moyenne arithmétique . La construction du test est obtenue en remarquant
La détermination des seuils est simple puisque les deux hypothèses et sont disjointes.
On a
à des valeurs de symétriques par rapport à . Chaque cas est en fait une application du
test précédent mais pour une valeur moindre de .
avec : .
La valeur du seuil est donc déduite d'une table de la loi normale. Il en est de même pour
l'erreur de deuxième espèce et pour la puissance du test.
Dans le cas du test bilatéral, on s'appuie sur le fait que la proportion empirique suit
soit .
Test de comparaison
Soient et deux variables aléatoires définies sur deux populations mères comparables
: contre :
Subsections
: contre : au risque
On dispose de deux échantillons de tailles et sur lesquels on peut faire des estimations
Si les écart types et sont inconnus, il faut tenir compte de la taille des échantillons
où
Le test de Student est assez robuste mais si l'on s'éloigne trop des conditions de normalité, il
est préférable d'utiliser un test non paramétrique.
: contre : au risque
On calcule , et .
On rejette au risque si où la
Remarque :
: contre : au risque .
puis
On a donc . est intuitivement une statistique convenable pour un test car plus il
est fort, plus l'hypothèse est vraisemblable. Cela revient à remplacer dans par son
estimation par la méthode du maximum de vraisemblance. La région critique du test sera
donnée par : .
On peut étendre cette approche au test entre deux hypothèses composées. Il suffit de former la
quantité suivante:
Test d'adéquation
Dans cette partie, on suppose que la loi de probabilité de la variable aléatoire , dont on
dispose d'un échantillon, est inconnue. Une première remarque s'impose: les tests
d'adéquation ne permettent pas de trouver la loi d'une v.a., mais seulement d'accepter
ou de rejeter une hypothèse simple émise a priori.
Subsections
Test du
Test de Kolmogorov
Test de Cramer-Von Mises
Test du
distribution inconnue de . L'hypothèse de départ sera que la loi de distribution est . Ceci
permet de formuler le test:
v.a. suit la loi alors l'effectif théorique de la classe est donné par: où
est la probabilité pour que la v.a. suivant la loi prenne une valeur sur le domaine
définissant la classe .
spécification complète de ).
La région d'acceptation du test est l'intervalle tel que la probabilité d'une variable
du à degrés de liberté prenne une valeur dans cet intervalle soit égale à ( étant
l'erreur de première espèce relative au test). Si la valeur de l'indicateur est supérieure à
Il n'est guère possible de déterminer l'erreur de deuxième espèce (et donc la puissance du test),
la loi de probabilité de n'étant pas spécifiée sous l'hypothèse . On ne peut donc pas
déterminer la loi de probabilité de l'indicateur sous cette hypothèse.
Pour que la loi (sous l'hypothèse ) de l'indicateur d'écart tende effectivement vers une loi
Test de Kolmogorov
distribution inconnue de . L'hypothèse de départ sera que la loi de distribution est . Ceci
permet de formuler le test:
maximum entre et :
sont lues sur les tables de Kolmogorov (il existe aussi des procédures numériques
pour les estimer).
répartition inconnue. L'hypothèse de départ sera que la fonction de répartition est . Ceci
permet de formuler le test:
Test d'indépendance
Dans la plupart des tests que nous venons de présenter, on suppose toujours les valeurs de
l'échantillon indépendantes. C'est une condition nécessaire. Il est donc souvent utile de vérifier cette
hypothèse par un test.
Subsections
Soit un échantillon de valeurs successives d'une v.a. . On désire tester l'indépendance des
compter le nombre de différences positives et négatives. Si est vraie alors il doit y avoir
autant de différences positives que de différences négatives.
Test de Spearman
Soit une réalisation de la v.a. . Nous désirons savoir si les peuvent être considérés comme
des réalisations indépendantes les unes des autres. Pour cela, Spearman propose le raisonnement
suivant: si les réalisations sont indépendantes, l'échantillon ne présente pas de structure, i.e. d'ordre
privilégié. On testera donc la présence de dépendance en comparant l'ordre de l'échantillon recueilli
avec celui issu d'une procédure de tri. Cette comparaison se fait grâce au coefficient de corrélation.
Sous l'hypothèse d'indépendance, le coefficient de corrélation doit être nul. Ce test est souvent
utilisé comme test de tendance de séries chronologiques.
Soit le rang occupé par la réalisations dans la série ordonnée des (le rang initial
où .
peut considérer que la quantité est approximativement distribuée selon une loi
normale centrée réduite.
Si , on peut se servir des valeurs d'une table de la loi normale centrée réduite.
on retiendra, pour , l'hypothèse négative qui se traduit par le fait que les variables observées ne
sont pas significativement différentes.
De plus, on supposera que les échantillons ont des tailles comparables. Des tests entre
populations de tailles très différentes peuvent être trouvés dans la littérature, et en particulier
dans l'ouvrage de B.Scherrer (cf Bibliographie).
Subsections
. Cette quantité suit une loi du . Sous l'hypothèse d'égalité des variances
( ), la quantité
En pratique, on met toujours au numérateur la plus grande des deux quantités afin d'obtenir
une variable de décision dont la valeur est supérieure à . La région critique est de la forme
Test de Student
Ce test s'applique à la comparaison de deux échantillons gaussiens de même variance. Il est donc
souvent la suite logique du test de Fisher-Snédécor. On dispose des données suivantes:
.
114 Jean-Michel Jolion2006 LD
La variance étant inconnue, on construit une variable de Student définie par
Il faut noter pour finir que le test de Student est robuste car il s'applique également lorsque
l'hypothèse d'égalité des variances n'est plus valide. Il faut cependant pour cela que les tailles
des échantillons soient grandes (quelques dizaines d'observations pour chaque échantillon).
Test de Spearman
On peut ici réutiliser le coefficient de corrélation de Spearman qui va indiquer le degré de liaison
existant entre le classement des éléments d'un échantillon selon la variable et le classement des
mêmes éléments selon la variable . Une forte valeur du coefficient de corrélation de Spearman
indiquera une liaison entre les deux variables (puisqu'induisant des classements linéairement liés).
Cette approche n'a de sens que si les échantillons des v.a. et sont appariés.
Il existe des versions plus sophistiquées de cet indicateur qui tiennent compte des ex-aequos
dans les classements (cette correction n'est nécessaire que si ce nombre d'ex aequos devient
important).
où est la variable aléatoire associée à l'indicateur de Spearman. De plus, si l'effectif est grand
( ), cette vatiable aléatoire suit approximativement une loi normale. On peut donc
construire un test sur la variable
qui suit une loi normale centrée réduite. On retrouve un test équivalent à un test de moyenne de loi
normale. Dans le cas d'un test bilatéral, avec un risque de , la règle de décision est
Pour les petits échantillons, il est nécessaire d'avoir recours à une table spécifique de
Spearman.
Analyse de la variance
L'analyse de la variance est un ensemble de techniques permettant de comparer plusieurs
échantillons de données. Cette comparaison est le plus souvent limitée à celle des moyennes dans un
cas gaussien. On l'utilise également pour étudier l'effet d'un facteur qualitatif externe. Nous nous
limiterons ici à une présentation résumée dans le cas où il y a un seul facteur explicatif.
Subsections
On considère que chaque échantillon est issu d'une v.a. suivant une loi . En
terme de test, nous avons donc
On pose où est une perturbation dont la variation obéit à une v.a. normale
centrée et d'écart-type . On peut aussi adopter un modèle similaire mais plus général de la
Dans le cas où l'hypothèse est rejetée, l'étude se poursuit par l'estimation des valeurs
Le test
On note la moyenne totale que l'on obtient par
variance des moyennes, (aussi appelée variance inter-classes) plus la moyenne des
On peut réécrire cette variance résiduelle en faisant intervenir les variances de chaque
échantillon
Sous l'hypothèse , les v.a. sont de même loi donc on a également le fait que la quantité
Le rejet de l'hypothèse ne signifie pas que toutes les moyennes sont différentes. Il est possible
qu'un seul couple ne valide pas l'hypothèse. On est alors intéressé par une analyse plus
où est le carré moyen résiduel que l'on peut estimer par la quantité
On peut montrer que l'hypothèse a été rejetée si au moins un des contrastes est
significativement différent de .
Attention, ce test est parallèle, il n'y a donc pas nécessairement de transitivité des résultats. On
Subsections
Introduction
Capabilité d'un processus
o Etude de la capabilité des processus
o Indicateurs généralisés
o Les cartes de contrôle
Introduction
La notion de qualité est bien sûr très importante dans la production et les statistiques y contribuent
en fournissant des outils de mesure mais aussi de décision les plus objectifs possibles. Si l'on suit
Montgomery, la qualité est inversement proportionnelle à la variabilité. L'accroissement de la qualité
s'obtient donc par la réduction de cette variabilité. Celle-ci s'exprime bien en termes statistiques par
le biais de la variance même si cela n'est pas suffisant. C'est pourquoi il existe de nombreux
indicateurs. Afin de les utiliser au mieux il est nécessaire d'en bien connaître et comprendre les
hypothèses sousjacentes.
la variabilité inhérente au processus (et peu modifiable) qui induit la notion de distribution
des mesures (le plus souvent admise par les entreprises comme étant une distribution
normale);
la variabilité externe qui induit le plus souvent un biais dans les distributions par rapport à
cette hypothèse de normalité.
Le contrôle statistique de process (SPC : Statistical Process Control) tente de modéliser ces
causes et leurs effets. Il s'agit plus d'une méthodologie que d'une simple liste d'outils. Cette
méthodologie est composée de trois objectifs:
1. Process control qui tente de maintenir le processus sur sa cible en termes de positionnement
nominal et de tolérances.
2. Process capability qui tente de déterminer la variabilité inhérente à un processus pour établir
des spécifications réalistes utilisables en particulier à des fins de comparaisons.
3. Process change qui induit des modifications du processus dans un but d'amélioration (c'est la
partie action du SPC).
flowchart;
run charts;
pareto charts and analysis;
cause and effect diagrams;
frequency histograms;
control charts;
process capability studies;
acceptance sampling plans;
scatter diagrams.
Tous ces outils utilisent des données de type échantillon et propose une visualisation (le plus
souvent graphique) de la variabilité du processus étudié. Ce chapitre ne va évoquer que la
notion de capabilité. La bibliographie contient les références principales introduisant tous ces
outils.
1. Une étude de la capabilité des différents process sur lesquels se basent les contrôles.
2. La détermination de la loi de probabilité pour chaque processus.
3. La réalisation de cartes de contrôle pour un suivi de l'évolution du processus.
4. La détermination des réactions à adopter pour chacun des phénomènes défaillants mis en
évidence par les autocontrôles.
5. Une formation sur les autocontrôles pour les opérateurs directement concernés.
6. La mise en place définitive des autocontrôles dans les ateliers.
Subsections
Pour qu'un processus puisse être déclaré sous contrôle, il est indispensable de connaître sa
capabilité et que cette valeur soit acceptable. Cet indicateur permet de déterminer si le
processus est capable de produire dans l'intervalle de tolérance requis.
contrindication, on prendra ).
.
mathématique . Tous ces indicateurs ont été construits et tabulés sous l'hypothèse de la loi
normale pour la distribution sousjacente.
Par exemple, pour implanter un contrôle statistique, le coefficient doit être égal ou
supérieur à . Ce coefficient, très utilisé dans le monde industriel, est assujéti à des
hypothèses qui ne sont pas toujours vérifiées. Tout d'abord, on ne compare que des écarts à la
valeur moyenne sans tenir compte de la répartition de ces écarts. On fait donc une hypothèse
de symétrie de la distribution des mesures. Il faut donc, au moins par un tracé, s'assurer de la
validité de cette hypothèse. Ensuite, les valeurs de référence (cf. tableau ci-dessous) sont
obtenues dans le cas de la Loi normale et ne sont bien sûr valables que dans ce contexte.
Capabilité Classement
Très mauvaise
0.67
1 Mauvaise
Excellente
2
L'amélioration de la capabilité peut donc être obtenue soit par une révision de l'intervalle de
tolérance dans le sens d'un élargissement, soit par la fiabilisation du process pour diminuer la
dispersion sur les valeurs mesurées.
L'importance des hypothèses peut être montrée sur le coefficient . Lorsque celui-ci est
faible, cela n'induit pas obligatoirement que la qualité du processus l'est également. En effet,
cela peut provenir de la non adéquation de l'hypothèse de normalité (ou au minimum de
l'hypothèse de symétrie). Le raisonnement est également valable pour les fortes valeurs de
. En particulier, ce coefficient n'est pas adapté à des distributions de type Gamma pourtant
fréquentes dans les cas réels (sauf si le coefficeint d'asymétrie est proche de 0, i.e. la valeur de
référence de la loi normale). Un test d'adéquation préalable à toute interprétation est donc
requis.
Indicateurs généralisés
Compte tenu des limitations des indicateurs classiques de capabilité, des indicateurs
généralisés ont été proposés. Ils permettent de prendre en compte la non normalité de la
distribution. Cependant, ils sont moins connus et donc moins bien acceptés par le milieu
professionnel.
avec
si est pair).
Ces indicateurs donnent les mêmes résultats que les précédents en présence de la loi normale
et une meilleure appréhension lorsque celle-ci n'est pas vérifiée. En effet, la valeur de
Cartes de contrôle à valeurs individuelles Elles se composent de relevés des valeurs sous
forme de graphique. Ces cartes sont composées de trois zones: bon, surveillance, rejet (au delà
des valeurs extrèmes et ). La valeur cible est mise en évidence. L'objectif est de
se situer au plus proche de cette valeur. Dans la zone de surveillance, on accepte la production
mais on est plus attentif à des phénomènes tels que la stagnation dans la zone (plusieurs points
Figure 5: Exemple de carte de contrôle où figurent les valeurs de référence ansi que le résultat de la
mesure m(x).
Cartes de contrôle par attribut On utilise un calibre. Elles sont à caractère qualitatif (bon,
mauvais par défaut, mauvais par excès). L'atout est de pouvoir suivre plusieurs
caractéristiques sur une même carte. 5B 1]
Subsections
Subsections
Probabilités
Variables aléatoires
Estimation
Tests d'hypothèses
SPC
Sujets généraux
o Problème 1
o Problème 2
o Problème 3
o Problème 4
Probabilités
1- Trois personnes entrent dans une pièce où se trouvent 7 chaises différentes. De combien de
manières différentes peut-on placer les 3 personnes?
Réponse :
2- Quel est le nombre maximum d'immatriculations qu'il est possible de réaliser dans le cas
des immatriculations de véhicules français?
, , et .
5- Un circuit électronique est composé de blocs identiques en série, chacun de ces blocs
peut être formé d'un élément unique ou de deux éléments identiques en parallèle (dans ce cas
on supposera qu'il suffit qu'un des deux éléments fonctionne pour que le bloc fonctionne). On
admet que chaque élément a une probabilité égale à 0.02 de tomber en panne pendant les 5000
premières heures de fonctionnement et que les pannes des divers éléments sont des
évènements indépendants. Calculer les probabilités d'une panne de circuit pendant les 5000
premières heures de fonctionnement, si chaque bloc est formé d'un seul élément(a), si chaque
bloc est formé de deux éléments(b), si blocs sont fomés d'un seul élément(c). Combien
faut-il de blocs à éléments pour garantir une probabilité de panne du circuit inférieure à
(d).
6- On dispose de boules dont sont rouges. On tire (sans remise) boules. Quelle est la
probabilité de tirer boules rouges ?
Réponse :
7- La demande d'un produit pendant mois peut prendre les valeurs suivantes avec les
probabilités :
8- On sait que les jumeaux peuvent être de vrais jumeaux, dans ce cas ils ont même sexe, ou
de faux jumeaux, et dans ce cas la probabilité pour qu'ils aient même sexe est . On
suppose connue la probabilité pour que deux jumeaux soient de vrais jumeaux. (a)
Déterminer en fonction de la probabilité pour que deux jumeaux soient de même sexe. (b)
Déterminer la probabilité pour que deux jumeaux soient de vrais jumeaux sachant qu'ils ont
même sexe.
9- Les clients d'une entreprise ont été répartis en plusieurs catégories en fonction du volume
d'affaires annuel traité avec eux et en fonction du fait que l'on a déjà eu pour eux ou non des
créances impayées. Les résultats de ce décompte sont donnés dans le tableau ci-dessous:
Volume d'affaire
annuel 0 à 10 000 ( ) 10 000 à 100 000 ( ) + de 100 000 ( )
Clients n'ayant
jamais eu d'impayés 1 200 350 150
( )
, , , , , , . Y a-t-il
dépendance entre le volume d'affaires et l'existence d'impayés ?
Réponse : , , , ,
, , , ,
région avait été concernée par la campagne. Les résultats sont les suivants:
80 150 770
Région
50 130 320
Région
a) Déterminer pour chacune des régions: la probabilité qu'une personne connaisse le produit
, la probabilité qu'une personne consomme le produit et la probabilité qu'elle consomme
le produit sachant qu'elle le connait.
11- La probabilité pour qu'une ampoule électrique ait une durée de vie supérieure à ans est
de . Sachant qu'un lustre est formé de 5 ampoules, donnez la loi modélisant le phénomène
"il faut changer n ampoules en ans" et les probabilités correspondant aux valeurs et de
.
Réponse : L'évènement "une ampoule à changer" peut être modélisé par une loi .
La loi de l'évènement "il faut changer une ampoule en ans" est donc une loi binomiale (si
12- Soient deux urnes contenant respectivement 100 boules rouges et 100 boules noires. On
prend 32 boules rouges de la première urne pour les mettre dans la seconde, puis on mélange
et on reprend 32 boules de la 2ème urne pour les remettre dans la première. Quelle est la
probabilité qu'il y ait plus de boules rouges dans la première urne que dans la deuxième ?
13- Un lot de articles présente un mélange des produits de trois usines : articles de
14- On considère trois lots d'articles de même type, le premier compte articles défectueux
parmi les articles. De même, on compte (resp. ) articles défectueux parmi les
(resp. ) articles du deuxième (resp. troisième) lot d'articles. On choisit au hasard l'un des
lots pour en tirer au hasard deux articles. Le premier article est défecteux. Quelle est la
probabilité que le second article soit défecteux lui aussi ?
Réponse : Soient les états et indiquants que les premier et deuxième articles sont
Les deux articles provenant d'un des trois lots, on introduit les lots par
donc
Variables aléatoires
1- On admet que le nombre de défauts sur le verre d'une ampoule obéit à une loi de Poisson
de paramètre . Calculer les probabilités des évènements suivants: (a) Aucun défaut. (b)
Plus de 2 défauts. (c) Entre 3 et 7 défauts.
2- Soit une loi uniforme continue définie sur l'intervalle symétrique . Quels sont
la moyenne et l'écart type de cette variable aléatoire. On procède à une accumulation
3- Dans une entreprise de 200 salariés, il se produit en moyenne 4 accidents du travail par
mois. On suppose que tous les salariés ont la même probabilité d'avoir un accident. Quelle loi
peut modéliser le nombre mensuel d'accidents du travail ?
5- Montrer par le calcul que pour v.a. de Raleigh. (On rappelle que
.)
Posons
et
On en déduit
et
Donc
Réponse : Par définition, suit une loi du dont l'espérance mathématique est et la
variance .
7- On envisage l'achat d'une machine de valeur euros et dont la durée de vie est 2 ans.
Les dépenses de fonctionnement de ce matériel seraient de euros par an. On pourrait
fabriquer pièces par an. L'entrepreneur estime que chaque année, la probabilité
d'écouler cette production est de . Par contre, en cas de récession, l'une ou l'autre des
années, on ne pourra écouler plus de pièces. Le prix de vente d'une pièce (imposé par la
concurence) est de euros la première année. Pour la seconde année, il y a une probabilité
probabilité pour qu'il baisse de . Dans les questions suivantes, il vous est demandé
de formaliser chaque question en termes de v.a. avant de procéder aux calculs.
c) Quelle est l'espérance mathématique du gain procuré par cet investissement sur l'ensemble
des deux années ?
8- La demande d'un produit par mois à une entreprise suit une loi normale. Elle a une
probabilité d'être inférieure à unités, et une probabilité d'être supérieure à
.
b) La marge sur coût variable unitaire est de euros. Les charges fixes mensuelles sont de
euros. Déterminer la loi de probabilité suivie par le résultat mensuel. En déduire la
probabilité que le seuil de rentabilité mensuel soit atteint.
c) Quelle est la loi de probabilité du résultat trimestriel ? Quelle est la probabilité que le seuil
de rentabilité trimestriel soit atteint ? Quelle commentaire peut-on faire en comparant les
probabilités mensuelles et trimestrielles ?
9- Au contrôle de la fabrication, une pièce est rejetée si une au moins de ses deux dimensions
ne répond pas aux normes tolérées, soit une variation de mm en plus ou en moins pour la
longueur , et mm en plus ou en moins pour la largeur . Les normes de fabrication
sont pour : cm et pour : cm. Les moyennes de et sur des échantillons de
pièces sont respectivement cm et cm. Les écarts types sont égaux à:
10- Donnez la valeur de sachant que est une variable aléatoire normale
de moyenne et d'écart-type .
réduction, on pose .
. Par lecture
dans la table de la loi normale (0,1), on obtient
11- Une usine produit unités d'un produit sur un intervalle de temps . Pour cette
même période, la demande, exprimée en milliers d'unités, concernant ce produit peut être
considérée comme une variable aléatoire suivant une loi exponentielle de paramètre .
13- Une machine déréglée produit des pièces dont sont défectueuses. Donnez la loi qui
modélise le nombre de pièces défectueuses. Dans un lot de pièces fabriquées par cette
machine, calculez le nombre moyen de pièces défectueuses et la probabilité associée à ce
nombre.
Réponse : Une pièce est défectueuse ou non. Ce comportement peut tout à fait se modéliser
d'où .
15- Montrez que la variance théorique d'une v.a. suivant une loi de Rayleigh de paramètre
et
16- Donnez la valeur de telle que sachant que est une variable
aléatoire de Student à degrés de liberté.
Réponse : Cette probabilité n'a de sens que si est négatif. En effet, la loi de Student est
Réponse :
19- Donnez la valeur de telle que sachant que est une variable
aléatoire de Fisher-Snédécor .
Réponse : Pour intégrer cette fonction, on va construire d'abord la solution d'une intégrale
Dans cette intégrale double, les deux variables sont indépendantes, donc cette intégrale double
est le carré de l'intégrale simple et nous avons
La fonction sera une densité de probabilité si cette intégrale est unité, d'où l'on déduit
Estimation
3- Une machine fabrique des pièces à une cadence qui ne permet pas de faire un controle
qualité total. On procède donc à un prélèvement d'un échantillon de pièces qui sont testées.
d'un modèle linéaire de la forme approximant au mieux ces données. Quelle est
la confiance dans ce modèle ?
Réponse :
Réponse :
9- Un quotidien publie tous les mois la cote du chef du gouvernement à partir d'un sondage
réalisé sur un échantillon représentatif de 1000 personnes. En janvier, la cote publiée était de
et .
10- Le chiffre d'affaires mensuel de l'entreprise JET suit une loi normale de moyenne
inconnue mais dont l'écart type est connu et égal à Keuros. Sur les douze derniers mois, la
moyenne des chiffres d'affaires mensuels a été de Keuros. Donnez une estimation de
par intervalle de confiance au niveau .
11- Dans une station service, on suppose que le montant des chèques essence suit une loi
Réponse : On doit procéder au calcul d'un intervalle de confiance sur une moyenne d'une loi
normale dont l'écart-type est inconnu et estimé. Cet intervalle est définit par
12- Dans une production continue de pièces manufacturières, on fait un contrôle de qualité par
prélèvement avec un échantillon de 100 pièces.
1. Pour chaque pièce, on procède à un contrôle de poids. On admet que cette mesure peut être
modélisée par une variable aléatoire exponentielle de paramètre . Le paramètre de cette loi
étant inconnu, on estime les moments et l'on obtient respectivement, g et g pour la
moyenne expérimentale, , et l'écart-type, . Quelle est la confiance d'un intervalle de
largeur ?
Réponse: La variable aléatoire poids suit une loi exponentielle de paramètre qui est aussi sa
moyenne théorique. On accède à ce paramètre par l'estimation de la moyenne. L'on a donc à
2. Sur cet échantillon, on estime à le taux de pièces défectueuses. Quel est l'intervalle de
Réponse: Il s'agit de déterminer un intervalle de confiance d'une proportion qui est donné par
La fluctuation est très importante (du même ordre que l'estimation) et rend difficilement
interprétable la valeur obtenue pour la proportion. Il faut soit réduire la confiance, soit
augmenter la taille de l'échantillon. Ces remarques restent relatives aux attendus de
l'application.
3. Donnez la taille minimale de l'échantillon pour que la largeur de cet intervalle soit au plus
égale à .
13- Sur un échantillon de 20 valeurs, on procède à une régression linéaire et on obtient les
valeurs suivantes pour les moyennes expérimentales : , , ,
et . Calculer les paramètres et de la droite de régression. Quelle
est la confiance dans le modèle ? Conclusion.
La qualité du modèle estimée par le coefficient de corrélation est très faible, le modèle
linéaire n'est pas adapté.
14- Dans une production continue de pièces manufacturières, on fait un contrôle de qualité par
prélèvement avec un échantillon de 80 pièces.
1. Pour chaque pièce, on procède à un contrôle dimensionnel. On admet que cette mesure peut
être modélisée par une variable aléatoire normale . Les paramètres de cette loi étant
inconnus, on les estime et l'on obtient, respectivement, cm et cm pour la moyenne
expérimentale, , et l'écart-type, . Quelle est la confiance d'un intervalle de largeur
autour de la moyenne ?
Réponse: Il s'agit de déterminer un intervalle de confiance d'une moyenne d'une loi normale,
son écart-type étant inconnu. Donc cet intervalle est donné par
160 Jean-Michel Jolion2006 LD
avec d'où . On sait par ailleurs que t est à lire dans la table de la loi de
Student pour degrés de liberté. Compte tenu de la faible variation autour de on approxime la
lecture par celle de la ligne degrés de liberté. On obtient
et donc
2. Sur cet échantillon, on estime à le taux de pièces défectueuses. Quel est l'intervalle de
Réponse: Il s'agit de déterminer un intervalle de confiance d'une proportion qui est donné par
La fluctuation est très importante (du même ordre que l'estimation) et rend difficilement
interprétable la valeur obtenue pour la proportion. Il faut soit réduire la confiance, soit
augmenter la taille de l'échantillon. Ces remarques restent relatives aux attendus de
l'application.
Réponse: Il s'agit de déterminer un intervalle de confiance d'une variance d'une loi normale.
Donc cet intervalle est donné par
On sait que
donc
et donc
La probabilité que l'écart-type vrai soit plus grand que est donc .
1- La répartition des durées de 670 vols Paris-Alger est donnée dans le tableau suivant:
Durée Nombre
cumulé
Réponse : On peut tout d'abord utiliser le test de Spearman. Pour cela, on construit la table
suivante
163 Jean-Michel Jolion2006 LD
i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
R 2 1 3 5 4 7 6 9 8 12 14 15 13 11 10
où i est le rang initial des valeurs de la séquence initiale SI et R le rang final de la valeur de la
deuxième ligne dans séquence triée ST. L'indicateur de Spearman a donc pour valeur
On peut aussi utiliser le test des différences premières. On construit alors la table suivante
- + + - + - + - + + + - - -
où les sont les signes des différences entre deux valeurs consécutives. L'indicateur des différences
Si les deux tests sont contradictoires, c'est qu'ils ne testent pas la même nature d'indépendance.
Réponse : Le nombre de degrés de liberté du test est (on doit estimer les
deux paramètres de la loi normale). Par lecture dans la table du on obtient les valeurs
suivantes
0.99 29.141
p 30
0.995 31.319
L'hypothèse est donc acceptable jusqu'à un risque de ce qui est très faible.
4- On dispose de deux échantillons dont on sait qu'ils sont liés à deux variables aléatoires
5- On introduit une modification sur une chaîne de production et l'on souhaite en mesurer
l'impact. Pour cela, on utilise un indicateur de performance lié au nombre de clients servis
dans les délais. On obtient les valeurs suivantes au cours de l'expérimentation:
Indicateur
1 148 165
2 155 155
3 144 132
4 129 152
5 154 133
6 144 145
8 147 145
9 151 144
10 119 143
7- Le temps mis par une machine pour fabriquer une pièce suit une loi normale de
possèdaient une voiture. Au risque , cela contredit-il l'hypothèse que des ménages
possèdent une voiture ? Quel est l'intervalle de confiance au risque autour de la valeur
trouvée ?
Réponse : Il s'agit dans un premier temps de réaliser un test bilatéral sur un proportion.
La valeur vraie est bien dans l'intervalle mais de justesse de même que pour le test
précédent. Il y a donc une sensibilité à envisager en fonction de la valeur du risque dans les
deux cas.
9- Une entreprise fait un test de conformité sur un produit qu'elle fabrique par une analyse de
sa chaîne de production. Une étude théorique permet de conduire à un pourcentage de
un test bilatéral sur cette proportion par rapport à la valeur nominale au risque .
Commentez le choix de ce risque. On réalise le prélèvement d'un échantillon de taille
Réponse : Le risque de est très très faible et conduira très vraisemblablement à une
acceptation systématique sans réelle signification. Ce risque peut cependant se justifier par la
SPC
1.33
1.18
0.94
est supérieur à , on peut donc envisager d'implanter un contrôle statistique. Mais les
trois autres indicateurs sont moins satisfaisant. Une campagne plus approfondie est nécessaire.
2- On souhaite construire une carte-contrôle pour une fabrication dans laquelle on considère
(a) Sachant qu'on prélève un échantillon de taille , quelle est la loi de la v.a. , nombre de
pièces défectueuses contenue dans l'échantillon ?
Prob( ) = 0.95
Prob( ) = 0.99
sachant que .
(d) En utilisant cette carte contrôle, quelle est la probabilité de laisser la fabrication se
Subsections
Problème 1
Problème 2
Problème 3
Problème 4
Problème 1
1- (8 pts) Une machine fabrique des pièces rectangulaires dont les deux côtés sont et .
Cette machine est sujette à des dérèglements qui induisent, indépendamment, des variations
dans les cotes théoriques qui rendent aléatoires les cotes mesurées. Une analyse systématique
des pièces a montré que ces erreurs sont faibles en valeur, symétriques et de même amplitude
et variation pour les deux cotes.
Compte tenu des hypothèses sur les erreurs, on peut faire une hypothèse de répartition selon
A partir de ces deux variables, on construit deux nouvelles variables aléatoires d'erreur
1.2 (2 pts) Quelles sont les lois (avec moyennes et écarts types) des variables aléatoires
et ?
Compte tenu de l'hypothèse d'indépendance entre les variables et par définition, la variable
suit une loi de Raleigh.
La densité de Raleigh est une fonction unimodale (courbe de Gauss légèrement asymétrique).
Elle a donc un seul maximum qui est situé à la valeur qui annule sa dérivée donnée par
On peut donc, à partir de la densité empirique, repérer la valeur maximale, i.e., le mode, et en
2- (6 pts) On considère une unité de production organisée en îlots. Sur chacun, on résume la
qualité de la production par une mesure calibrée entre -1 et 1. On désire tester l'architecture
et particulièrement les effets de propagation des dysfonctionnements d'approvisionnement en
provenance du stock central. Sous l'hypothèse de répartition uniforme des dysfonctionnements,
on peut déterminer les valeurs théoriques de la moyenne et de la variance de l'indicateur de
qualité. Pour la configuration concernée, composée de 250 îlots, et sous cette hypothèse, on
L'estimateur d'une moyenne peut être considéré comme une variable aléatoire de loi normale
(l'échantillon est de taille significative). Soit cet estimateur, on a donc
si alors sinon .
. Dans ce cas,
L'erreur de première espèce est donc très très faible (inférieure à ) ce qui revient à dire que l'on
Ces deux approches donne donc un même raisonnement qui conduit à conclure que
l'hypothèse de distribution uniforme des dysfonctionnements n'est pas validée par les données
empiriques.
3- (3 pts) Une machine fabrique des pièces dont la longueur suit une loi normale de
paramètres et . On veut procéder à un test bilatéral sur la moyenne pour tester cette
Doit-on rejeter ?
si alors sinon .
5- (3 pts) Afin de tester l'adéquation d'une loi à la loi exponentielle à partir d'un échantillon
(de 50 valeurs), on procède à deux tests. Le test du (8 classes) accepte l'adéquation. Par
contre, sur le même échantillon, le test de Kolmogorov-Smirnov rejette l'hypothèse. Que
pouvez-vous conclure ?
On peut préférer le test du KS qui est plus contraignant car pour le test du , on a 8 classes
pour un échantillon de taille soit en moyenne valeurs par classes ce qui est peu.
Problème 2
1- (8 pts) Une machine fabrique des pièces rectangulaires dont les deux côtés sont et .
Cette machine est sujette à des dérèglements qui induisent, indépendamment, des variations
dans les cotes théoriques qui rendent aléatoires les cotes mesurées. Une analyse systématique
des pièces a montré que ces erreurs sont indépendantes, faibles en valeur, symétriques et de
même moyenne et variation pour les deux cotes.
Compte tenu des hypothèses sur les erreurs, on peut faire une hypothèse de répartition selon
A partir de ces deux variables, on construit une variable aléatoire d'erreur normalisée par
1.2 (3 pts) Quelle est la loi (avec moyenne et écarts type) de la variable aléatoire ?
Puisque l'on connait la loi théorique avec ses paramètres, on peut construire, pour chaque
valeur de l'échantillon, une mesure de validité pourt rejeter ou accepter cette valeur. Ensuite,
2- (6 pts) On considère une unité de production organisée en îlots. Sur chacun, on résume
la qualité de la production par une mesure. Une analyse a montré que cette mesure, sur
chaque îlots, suit une loi normale de paramètres et . Pour tester le comportement
2.2 (3 pts) Proposez, en le justifiant, une nouvelle mesure dont on pourrait exploiter la loi.
Si on procède à un centrage réduction des donnant ainsi les variables avant d'en faire la
somme, alors la nouvelle loi
suivrait une loi du à degrés de liberté. Cette opération peut se justifier si on veut compenser
2.3 (2 pts) Sur une campagne de mesures, on obtient une réalisation de cette variable
3- (3 pts) Une entreprise fait un test de validité sur un produit qu'elle fabrique. Une étude
sur cette proportion par rapport à la valeur nominale au risque . Pour cela, on réalise un
rejeter ?
4- (3 pts) Afin de tester l'adéquation d'une loi à la loi binomiale à partir d'un échantillon (de
80 valeurs), on procède à deux tests. Le test du (10 classes) accepte l'adéquation. Par
contre, sur le même échantillon, le test de Kolmogorov-Smirnov rejette l'hypothèse. Que
pouvez-vous conclure ?
Problème 3
On doit tout d'abord faire une hypothèse sur la distribution des mesures. Afin de pouvoir faire
un intervalle de confiance sur la moyenne, on supposera que les données sont distribuées
selon une loi normale.
176 Jean-Michel Jolion2006 LD
Comme la moyenne est inconnue (et donc estimée), l'intervalle de confiance est donné par
avec et
et
1.3 (2 pts) En vous référant à la table page V-3, qualifiez les capabilités obtenues.
En se référant à la table de la page V-3 du polycopié, on déduit que les capabilités min et max
sont entre mauvaises (1) et très moyennes (1.33). Il est donc difficile d'implanter un contrôle
statistique sur cette unité de production. Ce commentaire, interprétant la capabilité, est rendu
possible par l'hypothèse de loi normale formulée au début.
un indicateur de sécurité atteint une valeur de référence. On estime à la probabilité que cet
indicateur atteigne la valeur de référence sur une unité de temps. Après chaque unité de
temps, l'indicateur est réinitialisé. Celui-ci est sans mémoire. On note la variable aléatoire
qui donne la durée de fonctionnement (en nombre d'unités de temps) du processus sans
interruption.
La loi de est une loi géométrique de paramètre (loi du nombre d'essais pour faire
d'où
Par remplacement, on trouve aisément que la deuxième valeur constitue une erreur
2.3 (2 pts) Quelle est la probabilité que le processus se déroule sans interruption sur 23
unités de temps ?
Le risque de est très très faible et conduira très vraisemblablement à une acceptation
systématique sans réelle signification. Ce risque peut cependant se justifier par la valeur
marchande élevée des pièces qui pousse à ne pas les mettre au rebut sauf si on est sûr de leur
non conformité.
Dans ce cas, avec un très faible échantillon, il n'est pas envisageable de réellement utiliser le
de Cramer-Von Mises qui est plus puissant (au sens de la puissance du test, ).
Problème 4
1- (6 pts) Le merle à plastron est un oiseau qui en automne erre dans les bois clairs et les buissons des
montagnes. En 1968, une station ornithologique du Col de la Golèze située dans les Alpes françaises,
a capturé 48 merles à plastron au filet durant les 89 jours d'ouverture de la station. On note la
variable aléatoire qui donne le nombre de merles capturés en fonction du nombre de jours.
2- (4 pts) Une entreprise fait un test de conformité sur deux machines. Sur des échantillons de
tailles respectivement pour les deux machines, 75 et 55, les nombres de défauts sont,
respectivement pour les deux machines, 7 et 5. Les deux machines sont-elles aussi fiables au
risque ?
Réponse : On veut tester l'hypothèse d'égalité des proportions théoriques de défauts sur les
deux machines.
avec
Réponse: Comme on ne sait rien sur la variable, on ne peut pas faire d'hypothèse de loi
normale mais on a plus de 30 valeurs pour faire les estimations. Donc on peut procéder aux
estimations des moments.
Donc
On obtient alors
Soit
où
5- (3 pts) Dans l'hôpital Hiks, la salle Igrec contient 30 patients contaminés par le virus Zed.
Le traitement que l'on fournit, guérit avec une probabilité de réussite de 4/7. Quelles sont les
probabilités de ne pas guérir 10 patients ? Et 25 patients ?
Réponse : On suppose que tous les patients sont équivalents en regard du traitement. Soit la
variable aléatoire , vrai/faux, associé à l'évènement "ne pas guérir un patient". On construit,
par répétition, une variable aléatoire de type binomiale. est donc associé à
l'évènement, "ne pas guérir n patients". On peut donc dire que
De même, on obtient
P.Chang & K.Lu (1994) PCI Calculations for Any Shape of Distribution with Percentile, Quality
World-Technical Supplement, Sep., 110-114.
Deh 96
Dio 97
Dud 73
R.O.Duda & P.E.Hart (1973) Pattern Classification and Scene Analysis, John Wiley & Sons,
New York.
Gho
Gou 81
Iso 95
ISO Standard (1995) Statistical methods for Quality Control, 4th edition, ISO Standards
Handbook.
Joh 93
N.L.Johnson & S.Kotz (1993) Process Capability Indices, Chapman & Hall.
Kun 91
D.C.Mongomery (1996) Introduction to Statistical Quality Control, 3rd edition, Wiley and sons,
Inc.
Per 00
Pre86
Rea96
Sap 90
Sch 84
Sch 80
Sch 80b
Sch 88
De même, les liens suivants (valides au moment du tirage du polycopié) sont quelques points
d'entrée sur le Web. Cette liste s'intensifiera si vous trouvez des liens intéressants et que vous
m'en faites part.