Vous êtes sur la page 1sur 54

Master Chimie QSE – S8

Cours de Statistiques Appliquées


MSP
Objectifs : Inférence statistique et applications
Mettre en œuvre des méthodes statistiques pour permettre de
prendre une décision à partir d’un ou plusieurs échantillon.s

Modalités :
Cours / TD / TP intégrés
Traitement de données avec le logiciel R
Evaluation sur machines (1,5 heure)

Florent ARNAL
florent.arnal@u-bordeaux.fr
http://flarnal.e-monsite.com
PLAN DU COURS

I. Rappels et compléments de statistiques descriptives

II. Généralités sur les variables aléatoires

III. Lois usuelles discrètes et applications

IV. Lois usuelles continues et applications

V. Echantillonnage – Estimations

VI. Cartes de contrôle

VII. Tests d hypothèses

VIII. ANOVA à 1 facteur

IX. Tests non paramétriques


1

I. Rappels et compléments
de statistiques
descriptives

1
1. Paramètres fondamentaux de Statistiques à 1 variable

La moyenne d’une série statistique (xi )1in est un paramètre de position défini
par :
n
1X
x̄ = xi
n i=1
Sa variance est un paramètre de dispersion défini par :
n
1X 2 SCE
s2 = (xi x̄) =
n i=1 n

s correspond à l’écart-type de cette série statistique.


Plus s est voisin de 0, plus la série est homogène

2. Représentations graphiques

Données quantitatives : le boxplot

2
Données qualitatives (Répartition des défauts d’une production) :
Le diagramme de Pareto

Ce diagramme, basé sur des fréquences cumulées, permet d’évaluer


l’importance de différents facteurs sur un processus.

Historique : V. Pareto, économiste italien, avait fait une étude sur la répartition
des richesses mettant en évidence que 80 % des richesses étaient détenues par
20 % de la population (loi des 80/20).

Juran en tire l'idée que, pour un phénomène, 20 % des causes produisent 80 %


des effets (d’où l’intérêt de s’intéresser à la répartition des défauts d'une
production).

Données qualitatives (Répartition des défauts d’une production) :


Le diagramme de Pareto

Numéro Nombre de
De pannes
machine sur 1 an
1 26
2 13
3 35
4 24
5 20
6 52
7 5
8 2
Avec R : pareto.chart( ) via le
6
package qcc

3
3. Statistiques à 2 variables : Introduction

Afin de procéder à l’étalonnage d’un nouvel appareil de mesures, on e↵ectue 5


mesures (grandeurs obtenues) avec cet appareil associées à 5 valeurs de référence
X (grandeurs théoriques).
Pour chaque mesure e↵ectuée, on calcule l’écart, noté Y , entre la valeur obtenue
et la valeur de référence.

Valeurs de référence xi 0,2 0,5 1 2 4


Écarts yi 0,083 0,176 0,311 0,631 1,231

Pour une valeur de référence de 6, peut-on donner un ordre de grandeur de la


mesure avec cet appareil ?

Statistiques à 2 variables : Introduction

Représentation du nuage de points associé à (X, Y )


1,4

1,2

0,8

0,6

0,4

0,2

0
0 1 2 3 4 5

Objectif : Trouver une relation affine entre Y et X de la forme

Y = aX + b 8

4
Statistiques à 2 variables : Méthode des moindres carrés

Soit une série statistique double représenté par un nuage de points M i (xi ; yi )1in .

Objectif : Déterminer, suivant la méthode des moindres carrés, une équation de


la droite (D) passant ”le plus proche” possible des points du nuage.

Pour tout entier naturel i tel que 1  i  n, on note Pi le projeté de Mi


sur la droite (D) parallèlement à l’axe des ordonnées.
Ajuster ce nuage de points par la méthode des moindres carrés, c’est déterminer
Pn
la droite (D) pour que la somme Mi Pi2 soit minimale.
i=1

Pn

Mn

Pi
M1

Mi
P1
9

P
n
Minimiser la somme Mi Pi 2 revient à déterminer le minimum de la fonction
i=1
' définie sur R2 par
n
X 2
'(a, b) = [(axi + b) yi ]
i=1

En considérant que les dérivées partielles doivent s’annuler en l’extrêmum, on


obtient :
Xn n
X n
X
x i yi = a x2i + b xi
i=1 i=1 i=1
n
X n
X
yi = a xi + nb
i=1 i=1

10

5
Notons X et Y les variables prenant respectivement les valeurs (xi ) et (yi )
La résolution du système associé conduit à :

1
P
n
n x i yi x̄ȳ
i=1 cov(X, Y )
a= P
n = 2
1 2 X
n (xi x̄)
i=1

b = ȳ ax̄
En fixant b = ȳ ax̄, on constate que cet extremum est un minimum.

La droite d’équation Y = aX + b est la droite d’ajustement du nuage de points


par la méthode des moindres carrés.

11

Les points Pi appartenant à la droite d’ajustement (D) ont pour ordonnée

ybi = axi + b

La distance entre les points Mi et Pi correspond à |yi ybi |.

Pn

Mn

Pi
M1

Mi
P1

On définit les résidus, notés ei , par :

e i = yi ybi

Les résidus sont de somme et de moyenne nulle. P 2


La méthode des moindres carrés conduit à avoir la somme ei minimale.
12

6
Indicateur de qualité d’un ajustement :
Coefficients de corrélation et détermination

Considérons les SCE suivantes :


P
n
2 P
n
2 P
n
SCEtotale = (yi ȳ) SCEexp = (ybi ȳ) SCEres = ei 2
i=1 i=1 i=1
Relation fondamentale :

SCEtotale = SCEexp + SCEres

Plus la variabilité résiduelle est faible, plus la part expliquée est importante.
Le coefficient de détermination est un indicateur de la qualité de la régression
défini par :
SCEexp
R2 =
SCEtotale
Plus R2 est voisin de 1, plus la relation affine entre Y et X est ”significative” ...

13

Indicateur de qualité d’un ajustement :


Coefficients de corrélation et détermination
Le nombre R est appelé coefficient de corrélation linéaire entre Y et X.

On peut montrer que :


cov(X; Y )
R=
X Y

Exemples de nuages avec les valeurs du coefficient de corrélation linéaire pour


les deux premières lignes.
Les graphiques de la dernière ligne ne sont pas associés à des relations linéaires.
R SVG Plot 02/02/14 10:50

1 0.8 0.4 0 -0.4 -0.8 -1

1 1 1 -1 -1 -1

0 0 0 0 0 0 0

14

7
II. Généralités sur les
Variables aléatoires

15

Généralités sur les variables aléatoires discrètes


Définition :
Soit X une variable aléatoire discrète sur ⌦, muni d’une probabilité P telle que
X (⌦) = {x1 , x2 , · · · , xn }.
On appelle loi de probabilité de X, la suite de réels (pi )1in définis par :

pi = P ({! 2 ⌦ tq X(!) = xi )}) = P (X = xi )

Remarque : Cette définition s’étend à des variables prenant des valeurs dans N

Exemple : On lance 3 fois une pièce de monnaie non truquée.


Gain de 2 euros si le résultat est Pile et perte de 1 euro si le résultat est Face.
On note X la variable égale au gain d’un joueur.

X(⌦) = { 3; 0; 3; 6}
1
P (X = 3) = P (X = 6) =
8
3
P (X = 0) = P (X = 3) =
8 16

8
Généralités sur les variables aléatoires discrètes
X
Propriété : P (X = k) = 1
k2X(⌦)

Définition : La fonction de répartition d’une variable X est la fonction FX


définie sur R par
FX (t) = P (X  t)
Définition : L’espérance de X est le réel noté E(X) défini par
X
E(X) = kP (X = k)
k2X(⌦)
Propriété-définition : La variance de X est le réel (positif) défini par
X 2
V(X) = [k E(X)] P (X = k)
k2X(⌦)

X 2 2
V(X) = k 2 P (X = k) [E(X)] = E X 2 [E(X)]
k2X(⌦) 17

Généralités sur les variables aléatoires discrètes


Propriétés de l’espérance et de la variance

Théorème de transfert : Soit f : I ! R une application avec X(⌦) ⇢ I.


X
E (f (X)) = f (k)P (X = k)
k2X(⌦)

Propriété : Soient a et b deux réels.


E (aX + b) = aE (X) + b ; V (aX + b) = a2 V (X)

Propriété : Soient X et Y deux variables aléatoires.

E (X + Y ) = E (X) + E (Y )
V (X + Y ) = V (X)+V (Y )+2 Cov(X; Y ) où Cov(X; Y ) = E (XY ) E (X) E (Y )

Si X et Y sont indépendantes alors


18
V (X + Y ) = V (X) + V (Y )

9
III. Lois usuelles
discrètes

19

Lois usuelles discrètes


Loi de Bernoulli

Définition : Une variable aléatoire X est distribuée suivant la loi de Bernoulli


de paramètre p si :
• X(⌦) = {0; 1}
• P(X = 0) = 1 p et P(X = 1) = p

Ces lois sont utilisées dans le cas d’une expérience avec deux issues possibles
(épreuve de Bernoulli).
Le 1 est associé au succès et le 0 à l’échec.

Propriété : Soit X une variable aléatoire de Bernoulli de paramètre p.


• E(X) = p
• V(X) = p(1 p)
20

10
Lois usuelles discrètes
Loi binomiale

Définition d’un schéma de Bernoulli : Epreuve de Bernoulli répétée n fois dans


des conditions identiques et indépendantes.
Dans ces conditions, la variable aléatoire X égale au nombre de succès est
distribuée suivant la loi binomiale B (n; p).

Propriété : La variable X peut s’écrire


n
X
X= Xi
i=1

où les variables Xi sont des variables de Bernoulli de paramètre p, deux à deux
indépendantes.
21

Lois usuelles discrètes


Loi binomiale

Propriété :
• X(⌦) = {0; 1; · · · ; n}
✓ ◆
n n k
• P(X = k) = pk (1 p)
k

Propriété :
• E(X) = np
• V(X) = np(1 p)

22

11
IV. Lois usuelles
continues

23

Lois usuelles continues


1. Généralités
Définition : Une fonction f définie sur R est une densité de probabilité si :
• f est continue presque partout
• f est positive
R
• Rf =1

Propriété :
Z b
P (a  X  b) = f (x) dx = FX (b) FX (a)
a
où FX est la fonction de répartition associée à X

Remarque : Pour tout réel t, on a : P (X = t) = 0

On utilise indi↵éremment des inégalités strictes ou larges avec des lois continues.
24

12
Lois usuelles continues
Généralités

Définition : L’espérance d’une variable aléatoire continue X est définie par


Z
E(X) = xf (x)dx
R

Définition : La variance d’une variable aléatoire continue X est définie par


Z
2
V(X) = E ([X E(X)]) = (x E(X))2 f (x)dx
R

Z
2 2
Propriété : V(X) = x2 f (x)dx [E(X)] = E X 2 [E(X)]
R

25

Lois usuelles continues


2. Lois uniformes

Définition :
La loi uniforme sur [a; b] a pour densité de probabilité la fonction f définie par
( 1
si x 2 [a; b]
f (x) = b a
0 sinon

Ces lois sont utilisées pour modéliser des temps d’attente (à un arrêt de tramway
par exemple).

Propriété : La loi uniforme sur [a; b] a pour espérance

a+b
2

26

13
Lois usuelles continues
3. Lois normales
Définition :
La loi normale N (µ; ) a pour densité de probabilité la fonction fµ, définie par
1 1
(x µ
)
2
fµ, (x) = p e 2
2⇡

Cas de di↵érentes valeurs de Cas de di↵érentes valeurs de µ

27

Lois usuelles continues


Lois normales

Propriété : Si X ,! N (µ; ) alors E (X) = µ et V (X) = 2

Propriété : Soit X est une variable aléatoire continue de densité f .


La fonction de répartition FX de X caractérise la loi de X et F admet comme
dérivée f presque partout.

X µ
Théorème : Si X ,! N (µ; ) alors X ? = ,! N (0; 1).

Définition : La loi N (0; 1) est appelée loi normale centrée réduite.


Sa fonction de répartition se note généralement .

Théorème : La somme de variables normales indépendantes suit une loi normale.


28

14
Lois usuelles continues
Loi normale centrée réduite

Rappels sur l’utilisation de la fonction de répartition :


P (X  b) = FX (b)
P (a  X  b) = FX (b) FX (a)

Les fonctions de répartition associées aux lois normales étant strictement


croissantes, on peut utiliser :

FX (b) = FX (a) , a = b

29

Lois usuelles continues


Lois normales

30

15
Un critère pour décider de la normalité d’une distribution
Le graphique Quantile-Quantile de normalité (QQ-norm)

Notons xi les di↵érentes valeurs à considérer et fi les fréquences


cumulées définies par :
nb val  xi
fi =
N +1

Soit le quantile u⇤i tel que

P(X ⇤  u⇤i ) = fi ie u⇤i = 1


(fi )

Si X ⇠ N (µ, ), on doit avoir

P (X  xi ) ' fi

ie ✓ ◆
xi µ
P X⇤  ' P(X ⇤  u⇤i )

Il en résulte que
xi µ
' u⇤i

En conséquence, les points de coordonnées (xi , u⇤i ) doivent être sensiblement 31


alignés.

Un critère pour décider de la normalité d’une distribution


Le graphique Quantile-Quantile de normalité (QQ-norm)

32

16
Applications de la normalité en production :
Règle des 6 Sigma & Capabilité

Considérons une fabrication de pièce avec une longeur cible égale à L.


La pièce est utilisable si sa longueur appartient à [L L; L + L].

Si on considère que : L = 3 alors

P (X 2 [L L; L + L]) ' 0, 9973

soit 2700 pièces défectueuses par million.

Si on considère que : L = 6 alors


9
P (X 2 [L L; L + L]) ' 2 ⇥ 10

soit 2 pièces défectueuses par milliard.

33

Règle des 6 Sigma & Capabilité

L’approche Six Sigma tient compte d’une éventuelle déviation de 1, 5

6
P (X 2/ [L 4, 5 ; L + 7, 5 ]) ' 3, 4 ⇥ 10
soit 3,4 pièces défectueuses par million.
34

17
Règle des 6 Sigma & Capabilité

La capabilité d’un processus associé à un intervalle de tolérance [TI ; TS ] est


définie par :
TS TI
Cp =
6
Dans le cas d’un processus avec une dérive sur la valeur cible, on introduit :

TS µ µ TI
Cpk = min ;
3 3

On considère une machine ”capable” lorsque ces coefficients sont supérieurs à


1,33 ...

35

Capabilité

En phase de pré-industrialisation, ces indices font référence à la


capabilité Machine. On les note alors :

Cm et Cmk

En phase de production, les indices de capabilité ne reflètent la qualité du


procédé que lorsque celui-ci est sous contrôle (stable en moyenne et disper-
sion).

Fonction sous R :
process.capability( ) via le package qcc
36

18
Capabilité

37

V. Echantillonnage
&
Estimations

38

19
1. Échantillonnage
1.1 Variables d’échantillonnage

On suppose que les prélèvements sont e↵ectués de manière aléatoire et avec


remise ou peuvent être considérés comme tels.

On considère un caractère quantitatif X sur une population d’espérance µ et


d’écart-type .
On prélève un échantillon aléatoire de taille n et on obtient une suite de valeurs
x 1 , x2 , . . . , x n .
On note Xi la variable aléatoire égale à la i-ème réalisation sur un échantillon
de taille n.

Définition : Soit (Xi )1in n variables aléatoires indépendantes de même loi,


d’espérance µ et d’écart-type .
La variable aléatoire égale à la moyenne est définie par :
X1 + X2 + ... + Xn
X=
n 39

Échantillonnage
Variables d’échantillonnage

Définition : Soit (Xi )1in n variables aléatoires indépendantes de même loi,


d’espérance µ et d’écart-type .
n
1X 2
S2 = Xi X̄
n i=1

Théorème : Soit une population qui contient une proportion p d’individus


présentant un caractère qualitatif donné.
n
X 1X
F = = Xi
n n i=1

où les variables Xi sont mutuellement indépendantes et de loi de Bernoulli de


paramètre p.
40

20
Échantillonnage
1.2 Estimation ponctuelle

Définition : Soit ✓ un paramètre d’un modèle.


Une variable Y est un estimateur sans biais de ✓ si

E (Y ) = ✓

b est alors y, réalisation de


Une estimation ponctuelle de ce paramètre ✓, notée ✓,
la variable Y sur l’échantillon considéré.
On note
✓b = y

41

Échantillonnage
Estimation ponctuelle

Estimation ponctuelle de la moyenne µ d’une population

Théorème :

E X̄ = µ
Conséquences :
• X̄ est un estimateur de µ.
• Une estimation ponctuelle de la moyenne µ est donc

µ̂ = x̄

42

21
Échantillonnage
Estimation ponctuelle

2
Estimation ponctuelle de la variance d’une population
1 Pn 2
On rappelle que S 2 = Xi X̄ où les n variables aléatoires (Xi )1in
n i=1
sont indépendantes, d’espérance µ et d’écart-type

Théorème : Soient (Xi )1in des variables aléatoires indépendantes et iden-


tiquement distribuées (i.i.d.) de loi N (µ; ). On a :
nS 2
• 2 ⇠ 2 (n 1)
n 1 2
• E(S 2 ) =
n
nS 2 SCE
Ainsi, en posant Ŝ 2 = = , on a :
n 1 n 1
⇣ ⌘
E Ŝ 2 = 2
43

Échantillonnage
Estimation ponctuelle

2
Estimation ponctuelle de la variance d’une population

Conséquences :
• Ŝ 2 est un estimateur de la variance 2 .
2
• Une estimation ponctuelle de la variance est donc

ns2 SCE
ŝ2 = =
n 1 n 1

Cette estimation de la variance s’obtient directement sous R avec la


fonction var( ).

On considère
q fréquemment qu’une estimation de l’écart-type de la population
n
est b = n 1 s mais il faut savoir qu’il s’agit d’une estimation biaisée ... 44

22
Échantillonnage
Estimation ponctuelle

Estimation ponctuelle de la proportion p d’un caractère dans une population

On rappelle que la variable aléatoire égale à la fréquence d’apparition de ce


caractère sur un échantillon est définie par
n
X 1X
F = = Xi
n n i=1

où les variables Xi sont mutuellement indépendantes et de loi de Bernoulli de


paramètre p.

Une estimation ponctuelle de la proportion dans une population est donnée par

pb = f

où f représente la proportion observée sur l’échantillon.


45

Échantillonnage
1.3 Lois associées aux distributions des moyennes et proportions

Quelles sont les lois associées à ces variables aléatoires ?

Commençons par nous intéresser à la variable des moyennes X̄

Attention, le choix du modèle dépend de la situation. Pensez à vous poser les


questions suivantes :
• L’écart-type de la population est-il connu ou inconnu ?
• Est-on en présence d’un grand échantillon ?

46

23
Échantillonnage
1.4 Notions d’estimation
Théorème : Si le caractère X est distribué suivant la loi normale N (µ; ) alors
✓ ◆
X ,! N µ; p
n

Théorème central limite (TCL) : ✓ ◆


Si n est grand alors la loi de X se rapproche de la loi N µ; p .
n
Ce théorème est à utiliser lorsqu’on connait l’écart-type de X et que l’on
considère de grands échantillons (n 30).

Théorème : (Distribution de Student)


Si la variable X est distribuée normalement alors
X̄ µ
,! T (n 1)
Sb
p
n

Ce théorème est à utiliser lorsque l’écart-type de la population est inconnu. 47

Échantillonnage
Notions d’estimation

Théorème : La loi de Student T (n) converge vers la loi normale N (0; 1).
48
Cette convergence (en loi) n’a de sens que lorsque n est très grand ...

24
Échantillonnage
Notions d’estimation
Théorème : Soit une population qui contient une proportion p d’individus
présentant un caractère qualitatif donné.
n
X 1X
F = = Xi
n n i=1

où les variables Xi sont mutuellement indépendantes et de loi de Bernoulli de


paramètre p.

Quelle est la loi de F ?

Théorème : (Application du TCL) ✓ q ◆


Si n est grand, la loi de F se rapproche de la loi N p; p(1n p)
<latexit sha1_base64="weLSs7ofr18hVVg9Lh6+A89Hjmw=">AAAExnicjVNNb9NAEJ0YAyV8NIUjF4u4opEgcsoBBJdCJNQDQkU0baWkQs56k1p1bGOvQVVUiT/AFX4a4saR/gveTDahEBA48nrn683Mm8kwT+LSBMHXmnPBvXjp8sqV+tVr12+sNtZu7pVZVSjdU1mSFQfDsNRJnOqeiU2iD/JCh5NhoveHx12277/TRRln6a45yfXhJByn8ShWoYEqW6sRDSiljGKcEWmchjzapSM6g7ag7zSB1qPHeDfoKeX4JfBWFMIzhk8KS0SVRHXpBbWAOKA6vYbVIx92H19NpSCPgRlKrnuQEtz5zMQ3kkw+PZeIUiT25pwFfBSq0gu/87F1RAxQKdd0JLUlNKWXsJ/iHUDSNIJtA1JOT6Ap6S0wDbzYPpI8ClIOnw7dx7eF2CkqPV2gFMg0Br6BzUfOOq3/kb2u1GeWOJxz8A1vJewxk9xnYTsppK7K9nfXsqvkW8I3AlZxjoOfbJaQzoShUKpg7MTG8eR8QRogQiODRw8ogK5F7TeNZtAO5PGWLx17aZJ9drLGF8BEMo5KGuN0SsZR4tcHfQHoM3QI+kIhORa7Bo11xFbSci6EH+PkkvpWm0KeCFEczY3PaOEBrCMmg1+xGL4SmZFZ+zfsqWBybSf4Di3WfFnKf8bNPf83ri/DHdEj6YFXIxcNd6csynz8WhZy3pWRZZ+tQwQ7j1pJ5GSxXImw48mSz5bW2KVgLcvK+lZYCFSJAXd+H+fyZW+z3cH91WZz65kd9Qrdpjvyd3hIW7RNO9Qj5Yydj84n57O77aZu5b6fuTo1G3OLfnncDz8AHHDp5Q==</latexit>

Ce théorème est à utiliser lorsque l’on considère de grands échantillons (n 30).


49

Échantillonnage
1.5 Estimation par intervalle de confiance

Nous avons vu précédemment qu’il était possible d’avoir une estimation ponctuelle
des paramètres de la population en considérant des observations sur un échantillon.

Cependant, di↵érents échantillons nous donneraient di↵érentes estimations d’un


paramètre donné.

L’estimation ponctuelle étant trop liée à l’échantillon choisi, il est souvent


intéressant de déterminer des intervalles appelés intervalles de confiance.

50

25
Échantillonnage
Estimation par intervalle de confiance

Estimer un paramètre ✓ par intervalle, au niveau de confiance 1 ↵ 2]0; 1[, à


partir d’un estimateur Y revient à déterminer deux variables aléatoires ✓min et
✓max tels que
P (✓min  ✓  ✓max ) = 1 ↵
Dans le cas où Y est gaussienne, chercher un intervalle de confiance revient à
déterminer un réel positif ⌘ tel que

P (Y ⌘  ✓  Y + ⌘) = 1 ↵

L’intervalle [y ⌘; y + ⌘] est une estimation de ✓ par intervalle de confiance au


niveau 1 ↵.
<latexit sha1_base64="FiRW/Wfp7Agzxhp1qQ75IXTp4fQ=">AAAHvniclVVLTxNRFD6gtVhfRZduJlKjRiEtG02ISeMjceECE3mlEHLncgsTpjPDzLSBIEu3+vOMO5b4E9z5nXNvh5a2gG06c+95fud+5576SRhkeb3+e2r6xs3SrfLM7cqdu/fuP6jOPlzN4m6qzYqOwzhd91VmwiAyK3mQh2Y9SY3q+KFZ8/ffs36tZ9IsiKOv+VFitjpqNwragVY5RPHs9DfapIhiCvDcIYNnTh59pAzvgDqQpNh3IfcoIYWdgvQM2hQ6j2rwz2kP6xyaWmHlScRc/HuQhPgaegW5QjQPugBy43Y7EksDR0RtaBTe2sVv0DxycIQEeRRkmxLboy2q0xL0LVhx5NMiO2NPJe4zh90UFSlB1RV9jTYEM9fSg7Zf/6n4/nH4O5LPuIjse4hVTzIxVl9qy6S2EF6cIRYEVjp8Rtt07CKeSG4jGStjrRQyWStGEkq0A+Q3zqMmp2Fr2gMOH17L8NgURG1In0/M7TmrA1md20ySDyJiDde+C21OL7B/i98oU55grOA72mUV+iA8c02h41/JLqa/A9xY5jzk4l7J8LU8Ra6ftCBMi3e/W8f132Wddv0esPFT6JgT7rlYUHF/tR3f5/chd1aWN8vaVZxtyElezsegfINeDtlfzY3l5TPux/hzqg3gaWF/NIRoSSSTcm4N8daVc7t4AwNhoM/H/02Ry1gcN11GZ0iNFrarc/WFuny80UXDLebIfZbj6i+E2EFKjaAd1yYaIZU0ZQtJ6gjP5R8XQ0gL4BO5ANy8RgrTtI/nLnYtJ41krPIRsTcXFuKXylV7Kg1mB1Yoh61lH7oxNin2scRkbEd4+y5Wv/GyK/36ltf141py0PFGamDiEpEYIcdG6cqpWBLPq2LSk2LA2sGpxbN/zl4xYrX7E2L9WTFiea+dbRcXEyhBcOMinaOL1cWFBtZfFuea7xzVM/SYnuASNug1NekTLucK6dJ26XvpR+lnuVlulzvl2JpOTzmfRzT0KR/+A4akciQ=</latexit>

Déterminons une estimation par intervalle de confiance de la moyenne µ lorsque


la distribution dans la population est normale, d’espérance µ et d’écart-type
connu.
51

Échantillonnage
Estimation par intervalle de confiance

Théorème :
On considère un estimateur Y tel que

Y ⇠ N (mean, sd)

Une estimation par intervalle de confiance au niveau (1 ↵) de E(Y ) = mean


est donnée par
⇥ ⇤
I1 ↵ = y u1 ↵
2
⇥ sd; y + u1 ↵
2
⇥ sd
où y est la réalisation de Y sur l’échantillon.

52

26
Échantillonnage
Estimation par intervalle de confiance

Une estimation par intervalle de confiance au niveau 0, 95 est donnée par :



I0,95 = x 1, 96 p ; x + 1, 96 p
n n

Il est très vraisemblable que la moyenne de la population µ appartienne à cet


intervalle ...

Dans le cas où l’écart-type est inconnu, sous réserve de normalité de la


distribution, on est amené à utiliser la même démarche que précédemment avec

X̄ µ
,! T (n 1)
pŜ
n

Avec R, on peut utiliser : t.test( )$conf.int


53

VI. Cartes de contrôle


Principe

Graphique sur lequel on reporte, dans l’ordre chronologique, les valeurs


d’une statistique calculée sur des échantillons, en général de même
effectif, issus de la fabrication.

Une telle carte comporte :


• une ligne centrale (valeur cible)
• des limites de surveillance et de contrôle

Les points placés ont pour :


• Abscisse : Numéro de l’échantillon
• Ordonnée : Valeur de la statistique calculée sur cet échantillon
54

27
Cartes de contrôle
Carte de contrôle de Shewart sur la moyenne

55

Cartes de contrôle

Principe pour la carte de contrôle de Shewart de la moyenne


La valeur cible correspond à la vraie valeur du paramètre (ou son
estimation ponctuelle).
Les limites de contrôle inférieures (LIC ou LCL en anglais) et supérieures
(LSC ou UCL en anglais) sont situées à 3 écarts-types de la cible.

LCL = LIC = µ 3p ; UCL = LSC = µ + 3 p .


n n
✓ ◆
Étant donné que X est distribuée suivant la loi normale N µ; p , on a
n
✓ ◆
P µ 3p  X  µ + 3p ' 0, 9973
n n
Ainsi : la plupart des moyennes observées sont comprises entre ces 2
limites.
56

28
Cartes de contrôle

Principe pour la carte de contrôle de Shewart de la moyenne

On peut rajouter des limites de surveillance situées à 2 écarts-types de la


cible.
✓ ◆
Étant donné que X ⇠ N µ; p , on a
n
✓ ◆
P µ 2 p X µ+2 p ' 0, 954
n n

Une observation comprise entre les limites de surveillance et de contrôle


(inf ou sup) doit inciter à une attention particulière (prélèvement d’un
nouvel échantillon par exemple).

57

Cartes de contrôle

Carte de contrôle de la
moyenne avec limites de
contrôle et surveillance

Avec R :
Package qcc
qcc(valeurs, type="xbar")

58

29
Cartes de contrôle

Étude et utilisation de la carte de contrôle de Shewart de la moyenne


Norme NF 06-031

1. Vérifier que la distribution des valeurs est normale.

2. Estimation de l’écart-type de la production en utilisant les variances ou


étendues (voir diapo suivante).

3. Calculs des limites de contrôle (et surveillance).

4. Suivi de la production
On peut considérer qu’il y a un déréglage lorsque :
• Point à l’extérieur des limites de contrôle ;
• 9 points consécutifs du même côté de la ligne centrale ;
• 6 points consécutifs tous « ascendants » ou « descendants ». 59

Cartes de contrôle

Estimation de l’écart-type par les étendues

1. Prélever plusieurs échantillons de même taille n (issus d’une population


gaussienne).
2. Calculer pour chaque échantillon l’étendue Ri
ainsi que l’étendue moyenne R̄.

3. Déterminer d2 en fonction de n.
On a alors

b=
d2

60

30
Cartes de contrôle
Pour compléter l’étude sur les moyennes : Étude de la variabilité
1. Carte de contrôle de l’étendue ( qcc(valeurs, type= "R") )
Carte (x̄, R)
1. Carte de contrôle de l’écart-type ( qcc(valeurs, type= "S") )
Carte (x̄, s)

Pour contrôler des proportions ou nombre de défectueux (qualitatif) :


Carte de contrôle aux attributs
1. Carte de contrôle de la proportion (p) ( qcc(valeurs, type= »") )

2. Carte de contrôle du nombre de défectueux (np)


( qcc(valeurs, type= "np") )

3. Carte de contrôle du nombre de défauts (c)


( qcc(valeurs, type= "c") ) 61

VII.LES TESTS STATISTIQUES

OBJECTIFS :
A partir d’un ou plusieurs échantillon(s), on souhaite prendre des décisions
concernant les populations dont sont extraits les échantillons.

Exemples : QN, Proportion de défectueux, . . .

62

31
1. Généralités sur les tests d’hypothèse
Une aide à la prise de décision

Exemples

1. Afin de tester une solution toxique, on fait des injections à un groupe de


80 souris.
On fait l’hypothèse que l’injection est mortelle dans 80% des cas.
58 souris sont mortes.
Cette étude remet-elle en cause l’hypothèse initiale ?

2. On lance 10 fois une pièce. On obtient 10 fois Pile.


La probabilité d’obtenir un Pile est-elle supérieure à 50 % ?
<latexit sha1_base64="d2nEnOOfq5T9Uar9B6O0DQeOpCc=">AAAG4nicjVTLThRBFL3gOOKoOOjKuKk4EFzoZIaEgCtQYuLCREjkkQAx3T01UFLT3faDSCazcufOuPUH3OrHGHcu4S88dat6nhDtyXTfOnXvuc8qP9YqzRqN31PT10rXyzdmblZu3b4ze7c6d28njfIkkNtBpKNkz/dSqVUotzOVabkXJ9Lr+Fru+icbZn/3VCapisK32VksDzveUajaKvAyQNHc9CxV6IBCikjh3SKJd0YCWAb5I94+tak7tA6gq/FPgPqQcuA9yC+xK6lDMTBJKbAeuA27j/UR83eZP4eWhL3HnD3WUSx34FnQc3g02oLjEbyT8jvBKseOQVOOIweuIIWsFyEGRR84pidALN6GJ8VZtZhJMPt7yEHf2qB/HLtAtAnQHLnIfhQH+FVolRrOdw4dBane33sz5k3TIh3TGVgirI/pHNqGycaHffHgkkiEy1agGqbKJm/NNTWReC7WeRfJAS1AHmQWQGM4pnlahub8WMx2FY55MXbWagOrjDFBF/jmrgYJ98jsPR2KSnLUxnPuMrwqc5Ot4kw9Z7vmPFZGpqCopeZ8A9Zscr5tntR0aA5irM9Zx2Rt7SLMnPFSTPO47Sa+2llY/6/hyXAlbOvhbzRMPBdc3UXHKTmDYg4HTEXXhuuS8gRdcM0l1166KVvu925QgS2eCj3CZisg+MyZOmiucDEnHp3y5Ah6NhLJGv6rE8jKGFLUXPK5v/RkvqvWGvUGP2JSaDqhRu7ZjKq/QNhCeIGjCvnC0DyUKe1zI2Jgh3Do8dgp3i+uATtAMfYCOsH7CKt9h4ZYd7gwxnpwDfWQzgKPWs6NGZQsZ2aDXsXdZU4T2xm+vuPqcAGOgf7LrtD8X7t9vrDaaI/JwRyHmBHJ7bUs9krTbriLrDIwxO4KbPEI2ktD9uss3MVrj2LCfjMcjcShZh043RxjiSjR4OZ4OyeFnaV6E/LWUm39hWv1DD2kR/QY/VyhdXqFwdqmoPSp9L30o/Sz3Cp/Ln8pf7Wq01PO5j6NPOVvfwG4LEot</latexit>
Quelle est la conclusion avec 9 Pile ? 8 Pile ? 7 Pile ?

63

Généralités sur les tests d’hypothèse


Hypothèse nulle et alternative

La première étape d’un test consiste à déterminer les hypothèses à tester.

Le contexte donne fréquemment H1 .


Cette hypothèse est appelée l’hypothèse alternative et se présente souvent sous
la forme :
soit “ . . . .6=. . . . ” ; on dit que le test est bilatéral.
soit “ . . . .>. . . . ” ou “ . . . .<. . . .. ” ; on dit alors que le test est unilatéral.

La ”première” hypothèse, notée H0 , est appelée hypothèse nulle dans le sens


”to be nullified” c’est-à-dire ”à réfuter”.
Il s’agit, en général, d’une égalité.
<latexit sha1_base64="wN8ozQ5eeecCJIcUnbv1qqumFFk=">AAAIlnicrVVbTxNBFD6g1rXeQF80xmRTMPWhNC0vGE0MkRg18QETuSRAYDudlg3b3XUvKCHwN41vPsK/8DtnZukiUGpim+zOnPv5zmU7ceCnWav1a2Lyxs1bldvOnerde/cfPJyafrSaRnmi9IqKgihZ73ipDvxQr2R+Fuj1ONHeoBPotc7eEvPX9nWS+lH4NTuI9dbA64d+z1deBlI0PXlCmxRSRD6eXdJ4ZlSlz+SRSzEloAzA26QdOsT5SCgu7nV7zyAZC60LWg59FzRNKZ4uKVgOcfblbjTZkgdN1ijb0bA9kDj45FIgVlzapQN4iCCxSyegGOrvkh+Wb4rtTcRevSIjfRYPa/yw8XSFEsq5Bzun9A1ZcNYDq+vSLCwOEDNHoPAOEPNHxLxNbfCa1u8S5DNrtRzzELtUeAU2jBsjF5RQ0JJ3faQ++zc5hxKTT/vWLls1MrFkktoMtNAj5LV/lpO5p+LPk9wjwZ9lXwuWjMl3cE1FqqLhi+4O/seQGOIYiFxsK+0Ck1lrwaA3SvIY+dbxfINbJP3TtX5MJUwnlLuqeHcgFwgGQwQTwaf5HzIYcvvS9Z5F3R0rH1fw/VdPpufTa32MQo3z51qmYyDI8zoaw1ETxX1TK22JEznVLp3ZBqihUM53+9Wz1QKvMca8jJqVEBkGNvsqYvdkGxV4mPnA3X0O7Ug6qqzlYyp8ULrgY3e4T20sc9g+c4K32YY12UY8cT1omi6pne2FT7DEvurw3pcamay4Zv1SLuGFCjRKW5X9nELek7gynC/v8er21Eyr2ZKfe/HQtocZsr/laOonzPAaVHBULD0lTcGtuIEl1wLAGW3J4k5k5SiB8EhaIxcgY/AU7UmSGlq5hdcTm6lo8/o1zcnr/4WULbfL3rPrORfLTL3K9qHY5NgO8O5YW0UTpdfqFZLj6m1IUXv0SnJgoGNb5hBSxkouqAR2+RZZFR/HxI4nt4sSzeHHpfjMKcHWE74ZpFSaXuFvZHNZ6Vzg9t/lvHhYnW+2cf4yP7P4zpbaoWdoy5eo5wItYsiWaYVUZaGyVelV+s4T563z3vlgRCcnrM5jOvdzlv8APpyhFg==</latexit>

64

32
Généralités sur les tests d’hypothèse
Autour de la p-value

La p-valeur (p-value en anglais) est parfois nommée probabilité critique.

Elle correspond à la probabilité que la statistique de test soit égale à la valeur


observée ou encore plus extrême, tout en supposant que l’hypothèse nulle H0
est vraie.
Elle correspond à la probabilité d’avoir une observation égale ou ”pire”
que celle que l’on a obtenue.
Dans le cas d’un test bilatéral, la p-value correspond au double de
celle qui aurait été obtenue lors de la mise en place d’un test uni-
latéral.

La p-valeur est une probabilité calculée a posteriori, en fonction des données.


<latexit sha1_base64="uflZA0GjHSJF9tck4kcZ4InHZVE=">AAAHynicjVRLb9NAEJ4WQkp4tXDkYrVFFKlESS9wrHhIHHIoEn1IbVXZG6e16le9dkQU9YL4A1zhhyFuHCm/gm9m14mTpqVeZbMzu/P4vpldLw0Dnbdav+bmb92u3akv3G3cu//g4aPFpcc7Oiky5W+rJEyyPc/VfhjE/nYe5KG/l2a+G3mhv+udvuX93b6f6SCJP+WD1D+M3OM46AXKzaFKlua/0AHFlFCAuUs+5pwa1CGXHFqlFL+X1IcUYq+gDNq1KX2BHUcsHcgxHUPnwp+mF6LX8OjAwoV1TyJpyBwzwrgQ6xR7CXk442E/xC/HjkMKel4HdCZxmtAdYDQwZuX9HraheFTYyzA4foo1n3LoN36hYLsq4pnFY05x7q7E15UsHInoQFOi05IJry6A37U5jKNNMshxNaQMeoM/wY7h0ORtOGFuteg/w3dGf8GXT+sSmS3yEe8aUio4tdQgn0DynE5oILs5Vn8kNlegGLG1CjYjQXqCDDjXIX2gczqiFvbGVewjC64tV8LU4eaMHwhfjMRDHwyvrEAX+bqIxIwyWwU8+VOsmZokgr3KuOFxGb4DyWS5woPCXOZa5SaxnWsi5MJoUUH4ThjVctr4cUXiPAuxHfeBQeIKkkyyWh/hn3VrZnPmCoquoPFs1O5MDIE9bapi+s+wOImFc+BIeuTJ5BRJZ4/vbyp6ZSNexsfyNMIm+uT6W9mxN276Jal6vf4VYCsl/Wrui/GXiL0vb0Qi8/oISU/YVJU+6Uo8w2uMcSEyvyiNo8WVVrMln3N50baLFbLfVrL4E0DZEScVWaBKiNEY+9TGxUmhO0Sj88PHaSiBfi4kFUJ7KmSfYj6GtG+1MeRIkmNrbhFTPKb5mcA29JkSKpFLUq/yPRSfnNsA/571VV55/V+78uRN7fbleerRa8HA7ZCKxjxxxkshrIS29CUqfnBTKSqXylxjJZYlz+YiatsYmcTN8axlVsuysmcLlFlLgdvT5by82NlotrH+uLGy+caWeoGe4hFZQz1f0SaexC3aJlU7rX2rfa/9qHfqWX1QH5qj83PW5glNfPWv/wAMSn9P</latexit>

65

Généralités sur les tests d’hypothèse


Méthodologie d’un test (Fisher-Neyman-Pearson)

• Formuler les hypothèses H0 (hypothèse nulle) et H1 (hypothèse alternative).

• Préciser la loi de probabilité de la variable de décision (statistique de test) en


justifiant précisément son utilisation.
(Normalité des distributions, indépendance, . . . )

• Calcul de la p-valeur sous H0 .


Cette valeur correspond à la probabilité d’avoir une observation égale ou pire
que celle que l’on a obtenue.

• Conclusion en comparant la p-valeur au seuil de signification


(usuellement 5 %).
<latexit sha1_base64="i1F5jQHJhmDAEVFjkmDCvGS3UXQ=">AAAIRHicnVVLb9NAEJ4WmpSWR8vjxMWiLQ8JoqQSgmNFJcQJikQfUltVtuMEt45tvOuIqspv48ZfQNy4ILUSN8QV8c3sbpO0DS3Yynp3Zuebxze7CfIkVrpe/zo2funyRKU6eWVq+uq16zdmZm+uqawswmg1zJKs2Ah8FSVxGq3qWCfRRl5EfidIovVgb5n1692oUHGWvtP7ebTd8dtp3IpDX0OUzY5/oi1KKaMYY5MijJo8moc0oJISvBEk85C9xK6COiKNMPPkq/B9T/uUQ6sxO4TESBmjQ75IQ3wTOqBX1KMdqgvewzPsPPh3Xh9hFR1HczZS4y9IvE9LpKnYxtQV1BrQtmgK7+nMT+btCf4KMI7gORZkk7kvI1t7Yu3Bf4F1AE0AaYKfhpXTGosuxgIa3pOIvGlHhx8DI5WcFOxN3ErGD4irb6GlytpWiS12oTc7W+LBMJkPxH6EKjqGlfVTikUieuON5TVoTJUe0mvLu38iJyVfEx3nFFgstlf0GFpT2SPEEMmMYwoxh867j8gvzgOzsCwRhCIdrmpOT6SyvLcUfji78gJd6HphWbxowRxGCiX7QvLNJbcmpN8GfI9i/QFkXcmrkDqngs57TRd1B+rtwaZt/XoSOyPH4tc7Zp5rl9g9TpbAj0HwLbqWGrL2XzrdVDgThhKpnYvMdBfXoYOYuH9db42qvi/xK1nHA2wxZhu2pkPDofxdt7Hn8jjPfr8+tVwuoG/6vG1Jth8xBsA8oDeCxVXbHWD0vJtIySkelY05Z6abW+CJe93oov/KtTdwuqZ2Zubqtbo83ulJw07myD4r2cwXGDYBxAfBlSeU4BXeTVyJdSShaRtJMlla3HM6PSlYKcEykSHtYWxjtWmlfFF2JGG2ZsoTaf8eAl6Q9i8Hrr9Q1q5Qo7APBJNj28c3sFiODnWundt5UbtNuYZa9FxyYNJykUTS2gbFXXrm2nZZ8XWb2wu+aQ9fKJb9NnR/eaE9CKw/tNeDJ+vQ7i3RKkoIbpyk8/RkbbHWqNcabxfnll5YqifpLt3DgWjQM1pCu67QKoUT3yvTlduVO9XP1R/Vn9VfZuv4mLW5RUNP9fcff5mUBQ==</latexit>
On rejette H0 si la p-valeur est inférieure au seuil de signification.

66

33
Généralités sur les tests d’hypothèse
Risques associés
1er cas : Si on rejette une hypothèse vraie, on commet une erreur de première
espèce. Le risque associé est noté ↵.
On l’appelle aussi risque du vendeur.
2nd cas : Si on ”accepte” une hypothèse fausse, on commet une erreur de second
espèce. Le risque associé est noté .
On l’appelle aussi risque de l’acheteur.
REALITE H0 VRAIE H0 FAUSSE
DECISION
H0 REJETEE ↵ 1
(H1 VRAIE)
H0 ACEPTEE
(H1 FAUSSE)
1 ↵

Lorsqu’on met en place un test, il faut se fixer un seuil de signification ↵.


On le prend généralement égal à 5%. 67

Généralités sur les tests d’hypothèse


Comment utiliser les tests ?

Se limiter à un simple calcul de p-value pour décider d’un éventuel e↵et est trop
réducteur et source de beaucoup d’erreurs.
Par exemple, supposons que sur 1000 tests, seuls 10 % aient un e↵et réel. On
fixe ↵ = 5% et = 20% soit 1 = 80%.
Ainsi, 80 + 45 = 125 tests s’avèreront positifs (rejet de H0 ) et seulement 80
seront de ”vrais” positifs. La probabilité, lorsqu’on a déclaré un e↵et positif
(rejet de H0 ) qu’il n’y ait pas d’e↵et est
45
' 0, 36
125
1
Près de des e↵ets annoncés comme significatifs ne le sont pas ... Il est donc
3
important d’accompagner un test de mesures ou analyses telles que :

• Calcul de la puissance d’un test (ajustement éventuel de la taille d’échantillon)


• Détermination d’intervalles de confiance
68
<latexit sha1_base64="TzVnWKOk/zst3afn78YUO9A+Czs=">AAAKunicnVZLb9xUFL5teQzm0bQs2VhkqqQiHc2kFBCiohAWICERBGkrJVFlezypG49tfK+rRFEXbOEHInYsO3+BFd/5zrXxZBq1MCNfX9/zPuc7x46rPLNuPP7z0uUrr73+xpuDt4K333n3vatr167ft2VTJ+leUuZl/TCObJpnRbrnMpenD6s6jeZxnj6Ij3eE/uBpWtusLH52p1V6OI+OimyWJZHDUXntyt/mwBSmNBnWqUmxOhPgzGF/gjU2M3NmdsAxx1/poWmwZibHZXFW4yTH3eLueHfcf4nrGa4D/ANqXbX0E3YhNc1xOa/tL9oosFpSKuoPTWIi7BLQcjxNeTYEdWhumaekNTyrYKehpqlZgD8jrz5veM0LSKgXIiP6UsQ6w+q4t7w7SJXQF+K+gHQDbeKlalde660ltK1exVgjcgut8pbFh9pLWzPymdkFp2o7wdVGu0XNIivRiI2CWf3Fx2i9DxMz5r+fe5VNmSfreaQON7BGyMa/dSzOxS1RSjZG2P9A6gz8Jz7TB8xxZR7jHpq7uO54vcMuG8IVc9/ybHfWhz5bmeecYL1F2rLEZz2JEbFzEX6+4rOgZKuT+wjXx/TsLmPf5r6PTItaRKj/c1ajZm6dx42ldxniFs5NcjzxsU27PMwh75AHReSZ+RZIfwTrQ3OzhwutQNrrHPXQLllVrR/Cn5rVsdiv+iJ5+J4ZqigbYx/7LnSo2hb7qCSyBCMb1B9SQrsgJ84WL6z7srX/G7fazdhNBXanHm9qIWJGtQ9WOy2AjiGrPgVNMpFAv9TxGe5aRZ0mOhNSWAthecvcNp/QuyF7qUZV7ZLPfX0TaruNdeh57FImLD0uiLQCEgueJN3804l0BFrGzkiYjxYthZ9mqcd5sRT5iP/QfOenjfW5VUuhn3RSQUcfnM+WeK4eiKYjWqm7KrqeJrE753PD+olVmT8ak1TslNhrJ3Xeze12qnzOPpNuPGJnnRG5DbXWjDVF7oRHp/Xc7PuOb7w2h+dDaNp5wazOPX4botzSq3ZqbqzEswn6E5xab6ntodXJ3dfuiLjcV0H0CvYf+4wqRTJ+85Wi+AbS+laaMx9abe2sKbFeeLq+f9p8Tv37SjgFJ22k/zVz9iXRKaXfUSPaSDklL6jeo7X18WjMX7i6mfjNuvG/3XLtD7ZRSafaQuhAkTLu8wVT4ewQJiMCOCO9BUtD2FWE8jFBnEJKTyWpClqRlpTpGJNmv9F7lWsC9IWa+5foRbrPqFN8O8U99rra4WVfKtdyvqrcPj+JZhjvEoOAouJJyrKrlvajafkDRQpadR8nGds2OQf4FlQJcxuR/rxrcB0PbUPIwJICT86Xc3Vzf3s0GY8mP26v3/val3pgPsDLZxP1/NTcw3DfNXsmGewPfh38Nvg9+CKIgyw4VtbLl7zM+2bpF7h/AG8p9PE=</latexit>
• Calculs de la taille de l’e↵et.

34
Généralités sur les tests d’hypothèse
Test et puissance

La puissance d’un test correspond à la probabilité de mettre en évidence un


e↵et lorsque celui existe.
Il s’agit donc de la capacité d’un test à prendre la bonne décision lorsqu’il existe
un e↵et.

1. Pour un même risque ↵ et une même taille d’échantillon, on constate que,


si l’écart entre la valeur du paramètre posée en H0 et celle supposée
dans l’hypothèse vraie H1 augmente, le risque diminue ce qui induit une
augmentation de 1 .
2. Une diminution de la variabilité (cf. écart-type) peut également induire
une augmentation de la puissance du test.

3. Enfin, une augmentation de la taille du ou des échantillons aura pour e↵et


de donner une meilleure précision.
Le test est alors plus puissant.

Il est recommandé de choisir une taille d’échantillon conduisant, a priori, à une


puissance de test au moins égale à 80 %.
Avec R, on peut utiliser des fonctions implémentées de base (’power.t.test’ ou 69
’power.anova.test’) ou accessibles via le package ’pwr’.
<latexit sha1_base64="YNFdzEfJacPK5cQMJf1yLfMQ/hU=">AAAL2nicjVZLj9tUFL4tBZoJ0Cks2VhMq7RSGiXdwLK8JCqxGFCnrTRTVbZzk7FqJ8GPKaNoNuyALX+ALfwgxG6WM/wKvvPdcx07SWES2b6+9zy+83a0SJOiHA7/vnb9rRtvv/Puzc5O9733P7i1e/vDp8W8ymN7EM/Tef48CgubJjN7UCZlap8vchtmUWqfRa++lPNnJzYvkvnsSXm6sC+ycDpLJkkcltia377xizkyMzM3Ce5jY3EvzQ72Sqx/xD0yE7M0T/BW4C3AU+4LU4GjwD8ER4zdwJyB6wi8O1slfgvK7Xxj08PuDKuy1hKDP8df3hdYi6TAnONKVU6O3QjrCPJSXKW5pCyRmBFlSf6ACAKcnoDK4XF6nU4L+yZqVUqthfkBZ5YoLPYEcUBvJERnzUAtfYzTAHs94JgSgyCYU4PH4vDGuC9wxQ2km1afq2WW9uYN/ohSZ+qvS8opcM0poYm7R3+08W7aOtA4RXibMlJLaq3ouxw6he+MNAnXGfj3oafCqZeXmX9IH2AvafjtDrhCoFiYYzzv1FlTqQUrvhLngjetM0FsO2Z2lHoiNvZx6myN+SzI6WxzWvuMhERqCe0Ob6ryQuArFddXjGlJXGeaHWXL1yfEbtXSMZ4BYydeycxFTS15WUD+KsdEfkZcx9SaAss30PLSDBtecFnlLC4gfdGSNKbthaI/Nqc8FYkX2LXEl9Nr9j81jqgxhPwpfT2jt/qUuz1iEfG5eI1xmjEvVpXgPC0edpVdacb7qLZ1hYyfi9lYdYzMg5aewVp+HdQZvtK+LsXFaBXjE0YmWesEEtl7QD2BjqCRAw9wiUetuc8IWmoQiqlG3eNvWpnXNXQVO32H2tbpqka9r1v/Negm1NpvaFtZejW96xVVsXIqpSrUG5sVVtBnIbM+1Ox2FdDskGOV6rtRbppVbWvNVV0j+Vq3knhI9wwwEWyr+/lnWPcz4Zf+W2z403vPdco39a7tk+ix9kenTXBKT8lYRzN2V2+n+Gmu2JuWXrVr+W41VuzuvE8bnW8SWppw77yhYX3+bs+mtv9CRjlTe4tWVjvpn6EPiey78I6fYZ+jgizn1feNLruqjEotSth98kYeTXTS+TwsWDMZY3ZZ5+mlUju0MrFdF7sHr0mOvabUASPqbenVOdumCRlNqfgm7f2aWuZrzH2JWETLC/aIhB5PNSeF7hVntlUdryG/p1MR/5e7e8PBkL9gczHSxZ7R3/589y84U8oi1jQU02OWpIA5ROsbQk1pXiCYrhUlPPdDtqJb2tAOdXfGwSOmCLeklCsQKdi7jUL1nxry7ovwTbKXlCnYTvGMVJYfJcX/8nnKq/IdMpEmSEGxQRJ0wR33Oeak+FTzw9VZVfLTyadeogVbtlq1D3SsY1rOL/TzcZUWQlshIQsGeLQezs3F04eD0XAw+u7h3qMvNNQ3zcfmEyTvyHxqHmHU7mNoxZ1l5/fOH50/u0fdn7o/d391pNevKc9HpvXr/vYvqYc9hA==</latexit>

Tests d’hypothèse

70

35
Tests d’hypothèse
Taille de l’e↵et

Pour un grand échantillon, un e↵et minime (et sans réelle signification) suffira
à faire rejeter l’hypothèse H0 .
On peut donc introduire la notion de taille de l’e↵et désignant à quel degré
un phénomène donné est présent dans la population (Revue des sciences de
l’éducation, volume 31, 2009 ).
Ainsi, ne pas rejeter l’hypothèse nulle revient à considérer que la taille
de l’e↵et est nulle.

Soit l’écart entre la moyenne de la population et une valeur cible, ou entre


les moyennes de deux populations.
La taille de l’e↵et est déterminé par

Taille de l’e↵et =

où correspond à l’écart-type des populations.


On peut utiliser des niveaux définis par Cohen pour qualifier un e↵et.
• d = 0.2 : E↵et faible
• d = 0.5 : E↵et moyen
71
• d = 0.8 : E↵et fort
<latexit sha1_base64="T6kmjAB0s35+TYvYiDUrpsSxCKA=">AAAKeHiclVZbj9NGFB4uLcG9sNAnxIvV3YquBFEShIBKCCitRKVK3bYsIO0iZDuTrME3fImIov2dFW88kp9An/qdb8Z2kk2AJrIzlzPn8n3nnImfRWFR9npvT50+c/aLL891zjtfff3Ntxe2Ll56UqRVHuj9II3S/JnvFToKE71fhmWkn2W59mI/0k/9Vw9l/+lE50WYJo/Laaafx944CUdh4JVYSi+eeasOVaJSFeI9VBrvUjlYKzF+g7evRmqmHisPEhG+WrmUczG+it8RvhpyxzhziJPOWn17WKlUjlMVVlw1xtijhKvmKlBHnJXWRorxtUa2teGqmHpD/IoHP9rVgqcLjHJo042fBSTHlB/hCSAlFkT7Lncrag7pi6ve4Rkxzpyn5f2SFjQ9l3iP1FRl0FBi9B4aRG4HEcfUfUQbEfB6BDxeqB72upAwyPzBaDKcqej1kJ4EGIWMPcd8iL3afkSvElozXtfIt+yEeGZ41rDjXl5iR9bnDSIGbRPza9gUzMzJMTGssc8Q05w+xIg3sfrFl4RSGhpLyuXUrq3eYcOIiUIwy6AzWuBA+FuN5C/MJvTHeFOQpwC7mliZlTb/5kRskVnJmwlGEdZNltxQfa4OwEdP3QEWuwusPCD6gsu1JWRN3puIM+gv1mUEMF6XEQkjjZosmlj/a8QDeio2hZPcantt4zaIfZrTFv3W3jEjM1U4wa54LqjNEHlX3aTtGFKb6vRvrpQ2q39hXognOw3egnVurZusbX2OcXrK9WTR649kgImjsvITVo+2nUJY9zkXZqR/rNo02bBstc2PITW92WC7AB4mA37fjPdSh2vxFtZMDph+NLc5khP7HaLVZpJIfV4HddVdnhxiJSdzsyUWjjk3NRxz7tKag4g+WM7a3R2baTnxKoiC6bjvTrB5Hc+Uvamtu4+jttrNKtu9Q9ZAvqBH+u8EY8+yIeiNbB8vFpB7CAtH5NHYrpqq8Kh3xCpq75AWubaaBQG/qYaSGBhOhhZdqYMB13/C8+sCu6b3+5ahzfpWtd1cq63Nyv+j6/YGz1Jbc1K3zout7V63x497ctC3g21lP3vp1j9MqhR0m6YoRRSQ2ALfAzTIHiAv1XMkmEmIkPuareIQp4RU00xe4T3G7MCuymUSk2o5HbD1iruSnD8sEGnaQMB5XeSbdM+oU3yb4te3uupLtvjkuVryc88dMH1HgF9ikNTMuGIuHaOlTnC9lJ5SllmT8ObqDniyxrltVKbYPO6/t0Xpch5Y2YqXqBDcX6Xz5ODJoNvvdft/Drbv/2yp7qgr6ntcq311S93Hn5A9ta+CzuXOvc6jzm/n/3Vc56qza0RPn7JnvlNLH2fwHwDV8DU=</latexit>

2. Test du Khi-deux d’homogénéité & d’indépendance

Exemple :
Trois produits sont évalués par des consommateurs qui doivent
répondre à la question suivante :
Achèteriez-vous ce produit ?
Les résultats obtenus sont les suivants :

P1 P2 P3
OUI 40 50 60

NON 60 50 40

L’appréciation est-elle liée au produit ?


72

36
Déterminons les e↵ectifs ”théoriques” si l’appréciation est indépendante
du produit.
On rappelle que si A et B sont indépendants alors P(A \ B) = P(A).P(B).

73

H0 : Les caractères étudiés sont indépendants


H1 : Les caractères étudiés ne sont pas indépendants

On suppose que les deux caractères prennent respectivement p et q modalités.

Sous H0 , la variable et la loi de décision sont les suivantes :

2
X Nij th
Nij 2
th
suit la loi ((p 1) ⇥ (q 1))
i,j
Nij

th
Nij et Nij correspondent respectivement aux e↵ectifs observés et théoriques
(cf. indépendance).
Ce test est par nature unilatéral.

Contrainte : les e↵ectifs théoriques doivent être supérieurs à 5.


Dans le cas contraire, on doit e↵ectuer des regroupements de classes ...
74

37
Mise en place du test
Avec R (Voir doc Begin’R)

Tableau = matrix(c(40, 50, 60, 60, 50, 40), nrow=2, ncol=3, byrow=TRUE)
colnames(Tableau)=c("P1","P2","P3")
rownames(Tableau) = c("OUI","NON")
Tableau
chisq.test(Tableau)

Pearson's Chi-squared test

data: Tableau
X-squared = 8, df = 2, p-value = 0.01832

75

3. Tests de conformité
On se propose de tester l’hypothèse selon laquelle dans une population,
il y a une moyenne ou une proportion égale à une valeur donnée (par ex : QN).
On a donc H0 : µ = · · · ou H0 : p = · · ·
Cas d’un test de conformité d’une moyenne :

Premier cas : Ecart-type de la population connu


Théorème : Si le caractère X est distribué suivant la loi normale N (µ; ) alors
✓ ◆
X ,! N µ; p
n

Théorème central limite (TCL) : ✓ ◆


Si n est grand alors la loi de X se rapproche de la loi N µ; p .
n
Ce théorème est à utiliser lorsqu’on connait l’écart-type de X et que l’on
considère de grands échantillons (n 30). 76

38
Second cas : Ecart-type de la population inconnu

Théorème : (Distribution de Student)


Si la variable X est distribuée normalement alors
X̄ µ
,! T (n 1)
Sb
p
n

Mise en place du test avec R :


t.test(x=… , mu= …. , alternative="less »)

Sous réserve de normalité de la distribution !!!


77

Cas d’un test de conformité d’une proportion


Théorème : (Application du TCL) ✓ q ◆
p(1 p)
Si n est grand, la loi de F se rapproche de la loi N p; n
<latexit sha1_base64="weLSs7ofr18hVVg9Lh6+A89Hjmw=">AAAExnicjVNNb9NAEJ0YAyV8NIUjF4u4opEgcsoBBJdCJNQDQkU0baWkQs56k1p1bGOvQVVUiT/AFX4a4saR/gveTDahEBA48nrn683Mm8kwT+LSBMHXmnPBvXjp8sqV+tVr12+sNtZu7pVZVSjdU1mSFQfDsNRJnOqeiU2iD/JCh5NhoveHx12277/TRRln6a45yfXhJByn8ShWoYEqW6sRDSiljGKcEWmchjzapSM6g7ag7zSB1qPHeDfoKeX4JfBWFMIzhk8KS0SVRHXpBbWAOKA6vYbVIx92H19NpSCPgRlKrnuQEtz5zMQ3kkw+PZeIUiT25pwFfBSq0gu/87F1RAxQKdd0JLUlNKWXsJ/iHUDSNIJtA1JOT6Ap6S0wDbzYPpI8ClIOnw7dx7eF2CkqPV2gFMg0Br6BzUfOOq3/kb2u1GeWOJxz8A1vJewxk9xnYTsppK7K9nfXsqvkW8I3AlZxjoOfbJaQzoShUKpg7MTG8eR8QRogQiODRw8ogK5F7TeNZtAO5PGWLx17aZJ9drLGF8BEMo5KGuN0SsZR4tcHfQHoM3QI+kIhORa7Bo11xFbSci6EH+PkkvpWm0KeCFEczY3PaOEBrCMmg1+xGL4SmZFZ+zfsqWBybSf4Di3WfFnKf8bNPf83ri/DHdEj6YFXIxcNd6csynz8WhZy3pWRZZ+tQwQ7j1pJ5GSxXImw48mSz5bW2KVgLcvK+lZYCFSJAXd+H+fyZW+z3cH91WZz65kd9Qrdpjvyd3hIW7RNO9Qj5Yydj84n57O77aZu5b6fuTo1G3OLfnncDz8AHHDp5Q==</latexit>

Ce théorème est à utiliser lorsque l’on considère de grands échantillons (n 30).

Mise en place du test avec R :


binom.test(x= … , n=… , p=… , alternative = ….. )

Dans le cas d’un grand échantillon :


prop.test(x=…, n=….,p=….,alternative=…. , correct=FALSE)
78

39
4. Tests de comparaisons

On se propose de tester l’hypothèse selon laquelle dans deux


populations P1 et P2 , il y a la même moyenne (µ inconnue) pour
la variable étudiée à partir d’échantillons extraits de tailles
respectives n1 et n2.

On a donc l’hypothèse nulle suivante :


Ho : « µ1 =µ2 »

Plusieurs cas peuvent se présenter


(il faut également s’intéresser à la taille de l’échantillon) :
Ÿ les variances sont connues
Ÿ les variances sont inconnues
Ÿ les échantillons sont appariés (pas indépendants)
79

Tests de COMPARAISON de 2 MOYENNES


Cas de distributions normales
• Cas où les échantillons sont indépendants et les variances connues :
s !
2 2
1 2
X̄1 X̄2 ⇠ N µ1 µ2 ; +
n1 n2

• Cas où les échantillons sont indépendants et les variances inconnues


mais supposées égales (hypothèse d’homoscédasticité) :
(X̄1 X̄2 ) (µ1 µ2 )
s ✓ ◆ ⇠ T (n1 + n2 2)
n1 S12
+ n2 S22 1 1
⇥ +
n 1 + n2 2 n1 n2
SCE1 + SCE2 n1 s21 + n2 s22
= est une estimation de la variance
n 1 + n2 2 n1 + n2 2

commune
Avec R : 80

t.test(x= , y = , var.equal = TRUE, …)

40
Tests de COMPARAISON de 2 MOYENNES

• Cas où les échantillons sont indépendants et les variances


inconnues mais différentes :

Utilisation du test de Welch (adaptation d’un test de Student)


t.test(x= , y = , var.equal = FALSE, …)

• Cas où les échantillons ne sont pas indépendants (échantillons


appariés) avec n1=n2=n :
On raisonne sur la distribution des différences entre les mesures et on
utilise que : X̄ µ
,! T (n 1)
Sb
p
n
Mise en place du test avec R :
t.test(x= , y = , paired = TRUE, …)
Sous réserve de normalité de la distribution des différences ! 81

Tests de COMPARAISON de 2 PROPORTIONS

On se propose de tester l’hypothèse selon laquelle dans deux


populations, il y a la même proportion (p inconnue) pour la
variable mesurée.

On a donc l’hypothèse nulle suivante :


Ho : « p1 = p2 »
Nous ne considérerons que le cas de grands échantillons.

On a, sous H0 : s ✓ ◆!
1 1
F1 F2 ⇠ N 0; p̂(1 p̂) +
n1 n2
où p̂est une estimation de la proportion commune.

Avec R : prop.test(x= , y= , … ) 82

41
Tests de COMPARAISON de 2 VARIANCES

On se propose de tester l’hypothèse selon laquelle dans deux


populations gaussiennes indépendantes, il y a la même variance
pour la variable mesurée.
2 2
H0 : 1 = 2

On utilise un test de Fisher avec, sous H0 :


2
Sb1
2 ,! F (n1 1; n2 1)
b
S2

Mise en place du test avec R :


var.test(x= , y = , …)
83

VIII.ANOVA à 1 facteur

84

42
L’ANOVA (Analysis of variance) :
Modèle linéaire gaussien dans lequel toutes les variables explicatives sont
qualitatives.
Elles sont appelées facteurs (cf. plans factoriels) et leurs modalités sont ap-
pelées niveaux (contrôlés ou provoqués).
La variable aléatoire réponse est toujours quantitative et supposée
gaussienne.

Exemple : (E↵et d’une molécule activateur d’enzyme)


• 5 groupes de 10 souris.
• Doses : 1ng, 10 ng, 50 ng et 100 ng. Le 5e groupe ne reçoit que le solvant
utilisé.

85

Pourquoi faire une ANOVA ?

On considère un facteur prenant p niveaux de moyennes µ1 , · · · , µp .


On teste l’hypothèse selon laquelle le facteur étudié n’a pas d’e↵et.
Ainsi, on a
H0 : µ1 = · · · = µp
H1 : ”deux moyennes au moins sont di↵érentes”

Dans le cas de 4 modalités :


6 tests de Student a priori à mettre en place

Risque alpha au global trop élevé

86

43
Répétition de tests et Risque Alpha

Calcul du risque ↵global lorsque l’on e↵ectue 6 tests :


On considère que H0 est vraie c’est-à-dire qu’il n’y a pas d’e↵et significatif du
facteur étudié (toutes les moyennes sont égales).

1 ↵global correspond à la probabilité qu’aucun des 6 tests ne mette en évidence


(à tort) un e↵et significatif.
Avec un seuil de signification de 5 %, pour 6 tests indépendants, on a :

1 ↵global = 0, 956

↵global ' 26, 5%


On ne peut donc envisager de réaliser plusieurs tests de Student ...

Plus généralement, pour n tests, avec un risque ↵, on a


n
↵global = 1 (1 ↵)
87

Exemple : L’acide citrique a-t-il une influence sur le brunissement


de pâtes alimentaires ?

Doses d’acide citrique


5 ppm 10 ppm 20 ppm
25,2 22,1 18,4
Indices 24,3 23,8 19,5
de brun 26,8 21,9 18,9
25,9 22,6 19,9

Facteur étudié : Quantité d’acide citrique


Nombre de niveaux : 3
Plan équilibré (même nombre de répétitions)
88

44
Principe de L'ANOVA

Hypothèses
• Indépendances des p populations dont sont extraits les échantillons
(cf. niveaux)

• Homoscédasticité et Distributions gaussiennes vérifiées sur les


résidus usuellement
Formulation des hypothèses
H0 : « µ1 = µ2 = … = µp »
ie « il n’y a pas d’effet du facteur étudié »
H1 : « Au moins deux moyennes sont différentes »
ie « il y a un effet du facteur étudié »
89

Principe de L'ANOVA
Légende
xij
xi
80
70
60
50
x
40
30
20
10
0
0 1 2 3 4 5 6

90

45
Principe de L'ANOVA

xij x̄ = (xij x̄i ) + (x̄i x̄) avec eij = xij x̄i

donc xij = x̄ + (x̄i x̄) + eij


Observation Part expliquée
par l effet du traitement

Moyenne globale Résidu eij

Les résidus eij = xij x̄i , par niveau (et donc au global), sont
de somme et de moyenne nulle.

91

Principe de L'ANOVA

MODELE LINEAIRE
Xij = µ + ↵i + "ij
où

• µ est la moyenne (globale) associée aux p populations.


• Xij est une variable aléatoire (réponse quantitative). Les Xij sont indépendantes.
• "ij est une variable aléatoire d’erreur (non observées). On a :
"ij ⇠ N (0; ), étant un paramètre inconnu (à estimer).
p
X
• ↵i correspond à l’e↵et associé à la modalité i avec ↵i = 0.
i=1
Une estimation de cet e↵et est donnée par


ˆ i = x̄i x̄

Le modèle peut également s’écrire

Xij = µi + "ij
92
où µi = µ + ↵i dont une estimation est µ̂i = x̄i .

46
En posant X 2
• SCEf act = SCEinter = (x̄i x̄)
i,j
X 2
• SCEres = SCEintra = (xij x̄i )
i,j
X 2
• SCEtotale = (xij x̄) .
i,j
On a
SCEtotale = SCEf act + SCEres

Source Df SCE CM Fobs p-valeur


SCEf act
Factorielle p 1 SCEf act CMf act = fobs P (Fobs > fobs )
p 1
SCEres
Résiduelle N p SCEres CMres =
N p
Totale N 1 SCEtotale

pour p modalités, N observations. Sous H0 ,


CMf act
Fobs = ⇠ F (p 1; N p)
CMres
93

Conditions requises pour utiliser


l ANOVA

Similaires à un test
de Student

Indépendance
Egalité des variances
(estimation d une variance
commune par le CMres) Normalité des distributions

Vérifications sur les résidus (cf. Modèles)


94

47
Conditions requises

Fonction plot sous R


Obtention de 4 graphiques permettant d’obtenir des informations sur :

ü l’homoscédasticité (dispersion des résidus),


ü la normalité (QQ-plot),
ü l’indépendance des résidus.

Avec R :
anova = aov(var ~ facteur)
par(mfrow = c(2,2))
plot(anova)
95

Conditions requises

Pour le modèle linéaire d’ANOVA, les résidus doivent être


indépendants de loi normale de moyenne nulle

Egalité des variances Normalité


Test de Bartlett Test sur coefficients
Test de Levene Test du Khi²
Méthodes graphiques Test de Kolmogorov-Smirnoff
... Test de Shapiro-Wilks
Méthodes graphiques
Indépendance
Méthodes graphiques 96

48
Conditions requises

Hypothèse d homoscédasticité
Comparaison des variances : Test de Bartlett

H 0 : s12 = s12 = ... = s 2p

å [(n - 1) ln sˆ ]
p
2
( N - p ) ln CM R -
c 2
0 = i =1
i i
c 2
( p - 1)
1 é 1 1 ù
1+ ê
3( p - 1) ë å
i
- ú
ni - 1 N - p û

Code R :
bartlett.test( Variable ~ Facteur)
97

Principe de l’Anova

Si f0 est proche de 0 alors la variabilité factorielle est inférieure à la variabilité


résiduelle.
Il n’y a donc pas d’e↵et factoriel significatif puisque la variabilité totale est due
essentiellement à la variabilité résiduelle.

On rejette H0 si le bruit factoriel est bien plus grand que le bruit résiduel i.e.

f0 >> 1

Ce test est donc, par nature, unilatéral.

Si on rejette H0 alors on peut dire que le facteur étudié a un e↵et significatif.


Il est alors intéressant de comparer ces di↵érentes moyennes à l’aide d’un test
post hoc (par exemple, test de Bonferroni ou de Newman-Keuls).
<latexit sha1_base64="Imfc/DzG03moXpNT6h3bYIzbAuE=">AAAH/HicpVTLbhNBEOwEjIN5JXBCXEYkKCCBZecCJxQlFxASBEEeUhJFu+tdZ8nau+wjEEXhRxA3bogrP8AVzogbR/wX1NTM2s5LRmAr45me7k51dfW4SRRmeaPxc2z8zNnKuerE+dqFi5cuX5mcurqSxUXq+cteHMXpmutkfhR2/eU8zCN/LUl9p+NG/qq7s6jvV3f9NAvj7st8L/E3O067Gwah5+QwxVPj72VDuhJLiLUlPtZcavICZyUzEsiWNPCrcJPhRkkiKbw92YZFMULBQ4kjEewpvBR2DtZdrCnyOOJijfCXSw/2ABYP+5i3Pm4iZin/g0YSwNPcFvjVt79G5k2xZji1EFNmraO6DdTzGCeFvLOyR6waeYyzx4ocom6p64gI8PWJ4zhOxfxtxIW4DXHr4F7vdZYCu0xe87+Pwqqz5uRsuPKWjdXnzPZiwFDHWv6Xi9qJHX+GX0WuX7H+nEhm4NthldusNpJ9eSQHfVVk1ImpwkV0QQQnc1dW6dLSJWcRIjT3bfg5xKOGGDya9WhVWit1VqaRlmpV8hBfJU1rrckiM+V9BAO+jQbuWhWk1Iiu1qhO2wt2O6K1R5TRCCbN7MT/xOfwFMWWIz0DBm1oZ+EwQyXXZlYUUGr82rtntV4w07C2T9OxZnJ4YkqmhnGFrLNHLFqnjlWleQs8+HUsmz7xePQz+AM72YYrY+8gYo+WrrVQ35hGh70278ysrWLQxQRxZrfNF0nJ7X4XfXnLiUnI0d1DcSbjAvkNiDHl3nSt6Hs8xfqG3erKPXlCfiPkuAOWaluT0416gx91fNO0m2mxn6V48gdobRFo0R9lj8LSJK5Drg3AzWUTktBF5GyMhn9AoRV8EhI2ewdrG6d1a9Wi7bBAHa1bYNp1gDJukSgjDfNoeDxHVjCn5d5nTo1tD7+uzVWKNxsZV3r+bdw6ZR7IA9agRZbQ4nNETZaCrBjZD6rSD2lixVYOiRmIwZMZWWl55NYMzG8rYcWzZ30LPjK6wc2j7Ty+WZmrN7F/Pjc9v2BbPSE35Cak2JT7Mo/hXpJl8SofKl8r3yrfq++qH6ufqp+N6/iYjbkmhz7VL38AwdyGPQ==</latexit>

98

49
Exemple d’ANOVA
ANALYSE DE
VARIANCE

Source des Somme des Degré de


Moyenne
variations carrés liberté
des carrés F Prob

Entre Groupes 81,43

A l'intérieur
6,8575
des groupes

Total

99

ANALYSE DE
VARIANCE

Source des Somme des Degré de


Moyenne
variations carrés liberté
des carrés F Prob

Entre Groupes 81,43 2


40,72 53,44 1E-05
A l'intérieur
6,8575 9 0,76
des groupes

Total 88,29 11

Avec R :
anova = aov(var ~ facteur)
summary(anova)
100

50
Test post hoc :
Comparaison de moyennes 2 à 2

Ces tests sont à réaliser lorsque l’on a mis en évidence un e↵et du facteur étudié.

Le test de Bonferroni est basé sur un test de Student de comparaison de deux


moyennes.
Présentation dans le cas d’échantillons de même taille n :

Le carré moyen résiduel CMres est un bon estimateur de la variance commune.


Sous l’hypothèse d’égalité des moyennes :

X̄i X̄ X̄i X̄j


T0 = p q j =q ,! T (N p)
1 1 2CMres
CMres ni + nj n
<latexit sha1_base64="7NEK10YSYxQSgrCXw0M0ENWGios=">AAAHYnicpVRbTxNBFD6ApVhvIE9GHyaiQWMkbX3QmJAQePFBCYZrAoTsbqftwHZ33QvaNP2dxjcffAB/hd85My1QQEncyezOOXMu37ns8ZPQZHm1+mNsfOJWabI8dbty5+69+w+mZx5uZXGRBnoziMM43fG9TIcm0pu5yUO9k6Ta6/ih3vaPVvh++1inmYmjjbyb6P2O14pM0wReDlY8M75KexRRTAbvBmm8c6rQCk4ZKZz5m8s5gxTfKvqJndIpeRRCL4NMCk6I+xTUFyrAYXpeNBTkFHVEUokHBd1j0NZfINKF8DU1sbR4aYCnQHmQYByFeDnFucCdwWkB2PeAtnJlDB/F7iACJTeKlgVTUzCncjbi18r48JbBMkdr/Vlco1bWHQrtMmK5Aex1KIGNFNu4jA1uGxLDN8lFTF3RjcSujUMB85rkNXN2PWwztOHhm0lerS9PqIZ6BI2A2nLP8qFUwspazx36jW2z4TkJptju+xvkMJCIUsnLGXblsBqplIZNhb75BK52lbYZsxn0XRyWa2DHO1fVhusY7pRj8WYknuBcXjtiSQ+rvg5u4TIyj/i7yHwMm206kQyy1XkgbLk+zQV/w6EbrQFnokLPsCq0QQdUBWcRew8aTalnQD1QvqDr0Q71IcW981qkLvIP8e4Jn/+HFL57kpsDfG1++lgX75k681QTC5H4YMlX2OpamUORsat/7rsodf2fCP6GsX5FTIynP4KDMbSR75iOpLItULnrqZi+SsZf0CpwJPRyWAWsg+m56kJVHnX5UHOHOXLPWjz9XcKNAa+Qluc2DqSxMqxdpKwKJzntA6gnQRm51w5mIa2TSIBHeLdA7TpuBLojgbI2N6UdeRzoc2m+wg1CzzVtIZaZe53tnthkbF18fWfL/hxtcP+lN5C8qR7HkqOE7yQG/tkT4dhBbK0UbozwL3QWFRcscaOexy+X3A7mQZ7taMqGA8MO7pPhQGA6cLKFjA4ucG20nJcPW/WFGs6f63NLy67UU/SYnqJpavSWlugDBucmBaWJ0stSvfRm8le5Up4pz1rR8TGnM0sXnvKTP0xZZEs=</latexit>

101

Pour chaque comparaison, on e↵ectue un test avec un seuil


de signification égal à
↵ ↵
= p
nombre de tests 2
p p(p 1)
où ↵ = 0, 05 (usuellement) et 2 = 2 .

Avec R :
pairwise.t.test(variable, facteur, p.adj = ”bonferroni”)
LSD.test( ) via le package agricolae

Un test plus puissant (surtout si plan équilibré) basé sur les plus petites
amplitudes significatives(ppas) :
Test de Student-Newman-Keuls
Avec R :
SNK.test( ) via le package agricolae 102

51
IX. Tests non paramétriques
À utiliser si les conditions d’applications des tests ne sont pas vérifiées ?

Pour comparer deux moyennes :


Tests des rangs de Wilcoxon
wilcox.test( )

Pour comparer plus de 2 moyennes :


Test des rangs de Kruskal-Wallis
kruskal.test( )

103

Exemple avec le test des signes

Notes attribuées par 12 personnes d’un jury sur 2 produits

Produit 1
6 6 7 6 7 8 5 6 8 8 8 8

Produit 2
5 7 6 5 8 9 0 7 6 7 10 7

Normal Q−Q Plot


5
4
Sample Quantiles
3
2
1
0
−2 −1

−1.5 −1.0 −0.5 0.0 0.5 1.0 1.5


Theoretical Quantiles
104

52
Exemple avec le test des signes
On va considérer les di↵érences entres les notes des deux produits.
H0 : ”les notes sont similaires”

Sous H0 , le nombre X de di↵érences positives (ou négatives) est tel que

X ⇠ B(n; 0, 5)

Le test des signes se ramène à un test binomial.

105

Ici, on observe 7 di↵érences positives pour tester l’hypothèse selon laquelle


le produit 1 serait ”meilleur”.

Ø binom.test(x= .… , n= .… , p= …. , alternative= ”greater”)


Exact binomial test
data: 7 and 12
number of successes = 2, number of trials = 12,
p-value = 0.381

Ø Avec le test de Wilcoxon


wilcox.test(x, y, paired=…….….. , alternative = ”greater”)
data: x and y
p-value = 0.255

106

53