Académique Documents
Professionnel Documents
Culture Documents
Modalités :
Cours / TD / TP intégrés
Traitement de données avec le logiciel R
Évaluation sur machines (1,5 heure)
Florent ARNAL
florent.arnal@u-bordeaux.fr
http://flarnal.e-monsite.com
2021
PLAN DU COURS
V. Echantillonnage – Estimations
I. Rappels et compléments
de statistiques
descriptives
1
1. Paramètres fondamentaux de Statistiques à 1 variable
La moyenne d’une série statistique (xi )1in est un paramètre de position défini
par :
n
1X
x̄ = xi
n i=1
Sa variance est un paramètre de dispersion défini par :
n
1X 2 SCE
s2 = (xi x̄) =
n i=1 n
2. Représentations graphiques
2
Données qualitatives (Répartition des défauts d’une production) :
Le diagramme de Pareto
Historique : V. Pareto, économiste italien, avait fait une étude sur la répartition
des richesses mettant en évidence que 80 % des richesses étaient détenues par
20 % de la population (loi des 80/20).
Numéro Nombre de
De pannes
machine sur 1 an
1 26
2 13
3 35
4 24
5 20
6 52
7 5
8 2
Avec R : pareto.chart( ) via le
6
package qcc
3
3. Statistiques à 2 variables : Introduction
1,2
0,8
0,6
0,4
0,2
0
0 1 2 3 4 5
Y = aX + b 8
4
Statistiques à 2 variables : Méthode des moindres carrés
Soit une série statistique double représenté par un nuage de points M i (xi ; yi )1in .
Pn
Mn
Pi
M1
Mi
P1
9
P
n
Minimiser la somme Mi Pi 2 revient à déterminer le minimum de la fonction
i=1
' définie sur R2 par
n
X 2
'(a, b) = [(axi + b) yi ]
i=1
10
5
Notons X et Y les variables prenant respectivement les valeurs (xi ) et (yi )
La résolution du système associé conduit à :
1
P
n
n x i yi x̄ȳ
i=1 cov(X, Y )
a= P
n = 2
1 2 X
n (xi x̄)
i=1
b = ȳ ax̄
En fixant b = ȳ ax̄, on constate que cet extremum est un minimum.
11
ybi = axi + b
Pn
Mn
Pi
M1
Mi
P1
e i = yi ybi
6
Indicateur de qualité d’un ajustement :
Coefficients de corrélation et détermination
Plus la variabilité résiduelle est faible, plus la part expliquée est importante.
Le coefficient de détermination est un indicateur de la qualité de la régression
défini par :
SCEexp
R2 =
SCEtotale
Plus R2 est voisin de 1, plus la relation affine entre Y et X est ”significative” ...
13
1 1 1 -1 -1 -1
0 0 0 0 0 0 0
14
7
II. Généralités sur les
Variables aléatoires
15
Remarque : Cette définition s’étend à des variables prenant des valeurs dans N
X(⌦) = { 3; 0; 3; 6}
1
P (X = 3) = P (X = 6) =
8
3
P (X = 0) = P (X = 3) =
8 16
8
Généralités sur les variables aléatoires discrètes
X
Propriété : P (X = k) = 1
k2X(⌦)
X 2 2
V(X) = k 2 P (X = k) [E(X)] = E X 2 [E(X)]
k2X(⌦) 17
E (X + Y ) = E (X) + E (Y )
V (X + Y ) = V (X)+V (Y )+2 Cov(X; Y ) où Cov(X; Y ) = E (XY ) E (X) E (Y )
9
III. Lois usuelles
discrètes
19
Ces lois sont utilisées dans le cas d’une expérience avec deux issues possibles
(épreuve de Bernoulli).
Le 1 est associé au succès et le 0 à l’échec.
10
Lois usuelles discrètes
Loi binomiale
où les variables Xi sont des variables de Bernoulli de paramètre p, deux à deux
indépendantes.
21
Propriété :
• X(⌦) = {0; 1; · · · ; n}
✓ ◆
n n k
• P(X = k) = pk (1 p)
k
Propriété :
• E(X) = np
• V(X) = np(1 p)
22
11
IV. Lois usuelles
continues
23
Propriété :
Z b
P (a X b) = f (x) dx = FX (b) FX (a)
a
où FX est la fonction de répartition associée à X
On utilise indi↵éremment des inégalités strictes ou larges avec des lois continues.
24
12
Lois usuelles continues
Généralités
Z
2 2
Propriété : V(X) = x2 f (x)dx [E(X)] = E X 2 [E(X)]
R
25
Définition :
La loi uniforme sur [a; b] a pour densité de probabilité la fonction f définie par
( 1
si x 2 [a; b]
f (x) = b a
0 sinon
Ces lois sont utilisées pour modéliser des temps d’attente (à un arrêt de tramway
par exemple).
a+b
2
26
13
Lois usuelles continues
3. Lois normales
Définition :
La loi normale N (µ; ) a pour densité de probabilité la fonction fµ, définie par
1 1
(x µ
)
2
fµ, (x) = p e 2
2⇡
27
X µ
Théorème : Si X ,! N (µ; ) alors X ? = ,! N (0; 1).
14
Lois usuelles continues
Loi normale centrée réduite
FX (b) = FX (a) , a = b
29
30
15
Un critère pour décider de la normalité d’une distribution
Le graphique Quantile-Quantile de normalité (QQ-norm)
P (X xi ) ' fi
ie ✓ ◆
xi µ
P X⇤ ' P(X ⇤ u⇤i )
Il en résulte que
xi µ
' u⇤i
32
16
Applications de la normalité en production :
Règle des 6 Sigma & Capabilité
33
6
P (X 2/ [L 4, 5 ; L + 7, 5 ]) ' 3, 4 ⇥ 10
soit 3,4 pièces défectueuses par million.
34
17
Règle des 6 Sigma & Capabilité
35
Capabilité
Cm et Cmk
Fonction sous R :
process.capability( ) via le package qcc
36
18
Capabilité
37
V. Echantillonnage
&
Estimations
38
19
1. Échantillonnage
1.1 Variables d’échantillonnage
Échantillonnage
Variables d’échantillonnage
20
Échantillonnage
1.2 Estimation ponctuelle
E (Y ) = ✓
41
Échantillonnage
Estimation ponctuelle
Théorème :
E X̄ = µ
Conséquences :
• X̄ est un estimateur de µ.
• Une estimation ponctuelle de la moyenne µ est donc
µ̂ = x̄
42
21
Échantillonnage
Estimation ponctuelle
2
Estimation ponctuelle de la variance d’une population
1 Pn 2
On rappelle que S 2 = Xi X̄ où les n variables aléatoires (Xi )1in
n i=1
sont indépendantes, d’espérance µ et d’écart-type
n 1
Théorème : E(S 2 ) = 2
n
nS 2 SCE
Ainsi, en posant Ŝ 2 = = , on a :
n 1 n 1
⇣ ⌘
E Ŝ 2 = 2
<latexit sha1_base64="ttzWmSi7iNV+wkHLFw/TRld4p2o=">AAAF6HiclVTNbtNAEJ40GEr4S+HIxSKpVCSIklxASJUKERI3Cm3aSk1BtrNJTB3b8k9FFfkBuMEJceUFuMKTIN4A3oJvxuumaUIBr+Lszn4z8803u7ZDz42TZvNHaal8wbh4afly5crVa9dvVFdu7sRBGjmq6wReEO3ZVqw811fdxE08tRdGyhrbntq1Dzu8v3ukotgN/O3kOFQHY2vouwPXsRKYgpXSB+qRTwG5ePdJ4Z2QSRXaphH9gj2inzSG3aRH+NXx62FtATUiG2NCTymjNdqiV9Smu9hfF0yfBvC1yAHCp/vUAopnmezGyDeUOOzFcXsYFYx5NvnOY7Gx3z3gecekEMgYMXLOHGMkzCZgk+nIi9jkXLNTzNbPYLaoI3VNEXXJG0heS9QoGOeZ5zXhvB6YDmBfk9U8ux4yshIj2AvtFuvDmVYXqMPW5yes+sLQEWtdd6vIejrqrDoFIj5XNRP7/6+bKTzOY9/BPMFQ0tcYM1er6Wq9+7LnSYVHeLNmltQ59eHe2BLFp1TsFrAKmMJzoLWZxu0J/q1YuP48djbj+5Iar6u1ZqMpjzk/aelJjfSzGVS/iywBAqRyebhUR2jEGPsQponDm9ABknJKJuDIYcnkCqRAKSBY1EO8h1jta6uP9ViKZm8HWTy5pkx7Va5EilVRtCNrjszWP8WeSEzmdox/W8cqjnT8V78C+a9+XEuChjyUGvhAhGJR0qA8SiqqeNLKaVUJIoSwRXIsXPwraak60dkUn1hqt/TBTPARi7SV147GpvjEgSUa3DrbzvnJTrvRwvxFu7bxRLd6mW7THVzuFj2gDXpGm9Qlp/yu/KX8tfzNeGO8Nz4an3LoUkn73KKZx/j8G5zlGYs=</latexit>
43
Échantillonnage
Estimation ponctuelle
2
Estimation ponctuelle de la variance d’une population
Conséquences :
• Ŝ 2 est un estimateur de la variance 2 .
2
• Une estimation ponctuelle de la variance est donc
ns2 SCE
ŝ2 = =
n 1 n 1
22
Échantillonnage
Estimation ponctuelle
Une estimation ponctuelle de la proportion dans une population est donnée par
pb = f
Échantillonnage
1.3 Lois associées aux distributions des moyennes et proportions
46
23
Échantillonnage
Cas de la moyenne
Théorème : Si le caractère X est distribué suivant la loi normale N (µ; ) alors
✓ ◆
X ,! N µ; p
n
Échantillonnage
Théorème : La loi de Student T (n) converge vers la loi normale N (0; 1).
48
Cette convergence (en loi) n’a de sens que lorsque n est très grand ...
24
Échantillonnage
Cas d’une proportion
Théorème : Soit une population qui contient une proportion p d’individus
présentant un caractère qualitatif donné.
n
X 1X
F = = Xi
n n i=1
Échantillonnage
Cas d’une variance
1 Pn 2
On rappelle que S 2 = Xi X̄ où les n variables aléatoires (Xi )1in
n i=1
sont indépendantes, d’espérance µ et d’écart-type
Théorème :
Soient (Xi )1in des variables aléatoires indépendantes et identiquement dis-
tribuées (i.i.d.) de loi N (µ; ).
On a :
nS 2 2
2
⇠ (n 1)
<latexit sha1_base64="OfEvn5vOEfZ3C/y7Wqbv2EaFB0E=">AAAElXicjVLLbtNAFL01Bkp5NMCCBRuLBClZECVZ0AqEVAFCrGhRmzZSXSp7Mkmt+oXHqVRF/U7EHyR/wbnXk5RQIbDl8Z1zX+c+wjyOTNnp/Fxzbrm379xdv7dx/8HDR5u1x08OTTYplO6rLM6KQRgYHUep7pdRGetBXuggCWN9FJ5/YP3RhS5MlKUH5WWuT5JgnEajSAUloKw2I59SyijCOSSNsySPNuiAzmgOvKAZJcA9egNLH5p9sV5YNqhJAzoF0sI5pS4wn2Lov0OKVm4pXcHekzwG/wsKED/CGYoNYwGkOc5SshQWrdjNKZe8Q+g5e6XTwiNaso+QawI5+a2aIVADmbOF0M6tbxP3tnxDfC3LzQOHTLg3wD4RNmekhNuUvqCKpuATeou/geVYrFri0ZaauVO7yM8Vce8WWEM64CPPCGwCRJ3Cap++UQ9xpyvxKsyzWCKSAhNmxromPF+h41XeBqLjPa3VO+2OPN5NoWuFOtlnL6v9EDoZQk+WTVMoNUBaQ8dI0EHjSzoBPR4Yt1jJwK6Q0IeXgZxLMec4x7gdWzTFPZFms7dClliWist6CZ8MdoU0nNuk5M6RGf1b7KnEZG6X+Ic21mJM5p9+C8v/9eNaSoxrW2rgVcwF4eqUjTKRrsSyPNdVlYjAK1vIYlXrrMTzejkXi6+kt4HoZ8vF57uytry2Rgbc/XOcN4XDXrsL+WuvvvPejnqdntMLLE2XtmiHPtMe9Uk5rx3f0c7Ifea+cz+6nypTZ836PKWVx939BY8+3iY=</latexit>
50
25
Échantillonnage
1.5 Estimation par intervalle de confiance
Nous avons vu précédemment qu’il était possible d’avoir une estimation ponctuelle
des paramètres de la population en considérant des observations sur un échantillon.
51
Échantillonnage
Estimation par intervalle de confiance
P (Y ⌘ ✓ Y + ⌘) = 1 ↵
26
Échantillonnage
Estimation par intervalle de confiance
Théorème :
On considère un estimateur Y tel que
Y ⇠ N (mean, sd)
53
Échantillonnage
Estimation par intervalle de confiance
X̄ µ
,! T (n 1)
pŜ
n
27
VI. Cartes de contrôle
Principe
Cartes de contrôle
Carte de contrôle de Shewart sur la moyenne
56
28
Cartes de contrôle
Cartes de contrôle
58
29
Cartes de contrôle
Carte de contrôle de la
moyenne avec limites de
contrôle et surveillance
Avec R :
Package qcc
qcc(valeurs, type="xbar")
59
Cartes de contrôle
4. Suivi de la production
On peut considérer qu’il y a un déréglage lorsque :
• Point à l’extérieur des limites de contrôle ;
• 9 points consécutifs du même côté de la ligne centrale ;
• 6 points consécutifs tous « ascendants » ou « descendants ». 60
30
Cartes de contrôle
3. Déterminer d2 en fonction de n.
On a alors
R̄
b=
d2
61
Cartes de contrôle
Pour compléter l’étude sur les moyennes : Étude de la variabilité
1. Carte de contrôle de l’étendue ( qcc(valeurs, type= "R") )
Carte (x̄, R)
1. Carte de contrôle de l’écart-type ( qcc(valeurs, type= "S") )
Carte (x̄, s)
31
VII.LES TESTS STATISTIQUES
OBJECTIFS :
A partir d’un ou plusieurs échantillon(s), on souhaite prendre des décisions
concernant les populations dont sont extraits les échantillons.
63
Exemples
64
32
Généralités sur les tests d’hypothèse
Hypothèse nulle et alternative
65
66
33
Généralités sur les tests d’hypothèse
Méthodologie d’un test (Fisher-Neyman-Pearson)
67
34
Généralités sur les tests d’hypothèse
Comment utiliser les tests ?
Se limiter à un simple calcul de p-value pour décider d’un éventuel e↵et est trop
réducteur et source de beaucoup d’erreurs.
Par exemple, supposons que sur 1000 tests, seuls 10 % aient un e↵et réel. On
fixe ↵ = 5% et = 20% soit 1 = 80%.
Ainsi, 80 + 45 = 125 tests s’avèreront positifs (rejet de H0 ) et seulement 80
seront de ”vrais” positifs. La probabilité, lorsqu’on a déclaré un e↵et positif
(rejet de H0 ) qu’il n’y ait pas d’e↵et est
45
' 0, 36
125
1
Près de des e↵ets annoncés comme significatifs ne le sont pas ... Il est donc
3
important d’accompagner un test de mesures ou analyses telles que :
35
Tests d’hypothèse
71
Tests d’hypothèse
Taille de l’e↵et
Pour un grand échantillon, un e↵et minime (et sans réelle signification) suffira
à faire rejeter l’hypothèse H0 .
On peut donc introduire la notion de taille de l’e↵et désignant à quel degré
un phénomène donné est présent dans la population (Revue des sciences de
l’éducation, volume 31, 2009 ).
Ainsi, ne pas rejeter l’hypothèse nulle revient à considérer que la taille
de l’e↵et est nulle.
Taille de l’e↵et =
36
2. Test du Khi-deux d’homogénéité & d’indépendance
Exemple :
Trois produits sont évalués par des consommateurs qui doivent
répondre à la question suivante :
Achèteriez-vous ce produit ?
Les résultats obtenus sont les suivants :
P1 P2 P3
OUI 40 50 60
NON 60 50 40
74
37
H0 : Les caractères étudiés sont indépendants
H1 : Les caractères étudiés ne sont pas indépendants
2
X Nij th
Nij 2
th
suit la loi ((p 1) ⇥ (q 1))
i,j
Nij
th
Nij et Nij correspondent respectivement aux e↵ectifs observés et théoriques
(cf. indépendance).
Ce test est par nature unilatéral.
Tableau = matrix(c(40, 50, 60, 60, 50, 40), nrow=2, ncol=3, byrow=TRUE)
colnames(Tableau)=c("P1","P2","P3")
rownames(Tableau) = c("OUI","NON")
Tableau
chisq.test(Tableau)
data: Tableau
X-squared = 8, df = 2, p-value = 0.01832
76
38
3. Tests de conformité
On se propose de tester l’hypothèse selon laquelle dans une population,
il y a une moyenne ou une proportion égale à une valeur donnée (par ex : QN).
On a donc H0 : µ = · · · ou H0 : p = · · ·
Cas d’un test de conformité d’une moyenne :
39
Cas d’un test de conformité d’une proportion
Théorème : (Application du TCL) ✓ q ◆
p(1 p)
Si n est grand, la loi de F se rapproche de la loi N p; n
<latexit sha1_base64="weLSs7ofr18hVVg9Lh6+A89Hjmw=">AAAExnicjVNNb9NAEJ0YAyV8NIUjF4u4opEgcsoBBJdCJNQDQkU0baWkQs56k1p1bGOvQVVUiT/AFX4a4saR/gveTDahEBA48nrn683Mm8kwT+LSBMHXmnPBvXjp8sqV+tVr12+sNtZu7pVZVSjdU1mSFQfDsNRJnOqeiU2iD/JCh5NhoveHx12277/TRRln6a45yfXhJByn8ShWoYEqW6sRDSiljGKcEWmchjzapSM6g7ag7zSB1qPHeDfoKeX4JfBWFMIzhk8KS0SVRHXpBbWAOKA6vYbVIx92H19NpSCPgRlKrnuQEtz5zMQ3kkw+PZeIUiT25pwFfBSq0gu/87F1RAxQKdd0JLUlNKWXsJ/iHUDSNIJtA1JOT6Ap6S0wDbzYPpI8ClIOnw7dx7eF2CkqPV2gFMg0Br6BzUfOOq3/kb2u1GeWOJxz8A1vJewxk9xnYTsppK7K9nfXsqvkW8I3AlZxjoOfbJaQzoShUKpg7MTG8eR8QRogQiODRw8ogK5F7TeNZtAO5PGWLx17aZJ9drLGF8BEMo5KGuN0SsZR4tcHfQHoM3QI+kIhORa7Bo11xFbSci6EH+PkkvpWm0KeCFEczY3PaOEBrCMmg1+xGL4SmZFZ+zfsqWBybSf4Di3WfFnKf8bNPf83ri/DHdEj6YFXIxcNd6csynz8WhZy3pWRZZ+tQwQ7j1pJ5GSxXImw48mSz5bW2KVgLcvK+lZYCFSJAXd+H+fyZW+z3cH91WZz65kd9Qrdpjvyd3hIW7RNO9Qj5Yydj84n57O77aZu5b6fuTo1G3OLfnncDz8AHHDp5Q==</latexit>
4. Tests de comparaisons
40
Tests de COMPARAISON de 2 MOYENNES
Cas de distributions normales
• Cas où les échantillons sont indépendants et les variances connues :
s !
2 2
1 2
X̄1 X̄2 ⇠ N µ1 µ2 ; +
n1 n2
commune
Avec R : 81
41
Tests de COMPARAISON de 2 PROPORTIONS
On a, sous H0 : s ✓ ◆!
1 1
F1 F2 ⇠ N 0; p̂(1 p̂) +
n1 n2
où p̂est une estimation de la proportion commune.
Avec R : prop.test(x= , y= , … ) 83
42
VIII.ANOVA à 1 facteur
85
86
43
Pourquoi faire une ANOVA ?
87
1 ↵global = 0, 956
44
Exemple : L’acide citrique a-t-il une influence sur le brunissement
de pâtes alimentaires ?
Principe de L'ANOVA
Hypothèses
• Indépendances des p populations dont sont extraits les échantillons
(cf. niveaux)
45
Principe de L'ANOVA
Légende
xij
xi
80
70
60
50
x
40
30
20
10
0
0 1 2 3 4 5 6
91
Principe de L'ANOVA
Les résidus eij = xij x̄i , par niveau (et donc au global), sont
de somme et de moyenne nulle.
92
46
Principe de L'ANOVA
MODELE LINEAIRE
Xij = µ + ↵i + "ij
où
↵
ˆ i = x̄i x̄
Xij = µi + "ij
93
où µi = µ + ↵i dont une estimation est µ̂i = x̄i .
En posant X 2
• SCEf act = SCEinter = (x̄i x̄)
i,j
X 2
• SCEres = SCEintra = (xij x̄i )
i,j
X 2
• SCEtotale = (xij x̄) .
i,j
On a
SCEtotale = SCEf act + SCEres
47
Conditions requises pour utiliser
l ANOVA
Similaires à un test
de Student
Indépendance
Egalité des variances
(estimation d une variance
commune par le CMres) Normalité des distributions
Conditions requises
Avec R :
anova = aov(var ~ facteur)
par(mfrow = c(2,2))
plot(anova)
96
48
Conditions requises
Conditions requises
Hypothèse d homoscédasticité
Comparaison des variances : Test de Bartlett
å [(n - 1) ln sˆ ]
p
2
( N - p ) ln CM R -
c 2
0 = i =1
i i
c 2
( p - 1)
1 é 1 1 ù
1+ ê
3( p - 1) ë å
i
-
ni - 1 N -
ú
pû
Code R :
bartlett.test( Variable ~ Facteur)
98
49
Principe de l’Anova
On rejette H0 si le bruit factoriel est bien plus grand que le bruit résiduel i.e.
f0 >> 1
99
Exemple d’ANOVA
ANALYSE DE
VARIANCE
A l'intérieur
6,8575
des groupes
Total
100
50
ANALYSE DE
VARIANCE
Total 88,29 11
Avec R :
anova = aov(var ~ facteur)
summary(anova)
101
Ces tests sont à réaliser lorsque l’on a mis en évidence un e↵et du facteur étudié.
102
51
Pour chaque comparaison, on e↵ectue un test avec un seuil
de signification égal à
↵ ↵
= p
nombre de tests 2
p p(p 1)
où ↵ = 0, 05 (usuellement) et 2 = 2 .
Avec R :
pairwise.t.test(variable, facteur, p.adj = ”bonferroni”)
LSD.test( ) via le package agricolae
On peut utiliser la méthode de Holm ajustant à chaque test le risque suivant
la méthode décrite précédemment et le nombre de tests restants.
Un test plus puissant (surtout si plan équilibré) basé sur les plus petites
amplitudes significatives(ppas) :
Test de Student-Newman-Keuls
Avec R :
SNK.test( ) via le package agricolae
<latexit sha1_base64="FBoUijxO+MV0rqcdg/4UWvsPnpc=">AAAGknicpVRbTxNBFD5grVgvFPXNl43EpCRCWnzQkJiA+GACUbQUMEDM7HRaFna76+62SIi/0/jmk7H/wu+cmYUWMJK4m509cy7fuc74SRhkeb3+Y2LyRulm+dbU7cqdu/fuT1dnHmxlcT/VpqXjME53fJWZMOiZVh7kodlJUqMiPzTb/tEqy7cHJs2CuLeZnyRmP1LdXtAJtMrBimcmftEe9SimAGubDNacKrRCA9CaPPqIbwk6e+AmpKCX0jHWDPIF6PJnsMupBhsFaYDVpxDcZ7DtYKdFpw8ZcxLYKPg6BP0K3xNox/DbgU6Kl+kA3DnIrN91atKbMU+eSAfiyxNfnkSn6QhrV/b852g0EEPsjEN7D3zW5ohyULwG0LA5pYLHqBENITmAdVvw7LonUXzF6iPiU3or6BF9E4+HQOMIldTRo5/4NDAUfYGE7YsciqhT8VtIM/wDqWPP6VwdyRCobJm7zFPhDEUe4TXO3ox44i5HiDodyaaIJpNIzEjsGept61W5ckJaUsXzbBJ46QtOIjlkeIssapJXCjp2Nc+gYW2U4AylArYLvmTD/fUhzUB7zt5mkl3wZqR/uZPYmBUyTQQth17bydhrV6arI3OhxHIg0hr0E/E3NzLxm2f52Xo1z/A4s3l6B+oYvjiLeVqTmQphYa2vf7KaQFr7/wn/XJ2tL9Tl8S4TDUfMkns24up3uG/DXCPwYmy0gHEDd6lBdbjNaR+jrqSFgcgNBp4T7MuhGQ9s13F70gZOiK1tkDEw+Kg8hU181lQlxySW4tmL4m/Yp4LJsZ3IMFusSFp5AO6/7ArN69rtysB26KXkwK1MhMPZaYdSXCC2RUVWfJASd6G05do07iI8P57FOGuprb0of7uD6MleO90+jgGiRIMbF9t5mdhaXGiA/rA4u/zatXqKHuNKraGfL2gZl9YGDrAuPS99KvklXX5UXiqvlFet6uSEs3lIY095/Q99hkAu</latexit>
103
104
52
Exemple avec le test des signes
On considère les mesures d’efficacité sur 12 personnes pour la réalisation d’une
tâche avant et après entrainement.
<latexit sha1_base64="77SgxYnVHsdHiNvpCEFtMyWz+O4=">AAADv3icjVJLb9QwEJ40PEp5bcuRS8QKwWmV3QscC1y4tUhsW6mtIHHcrVUnsWyn0qrqlWv5d4grp+2/4PPESwUrBI7imfnm4fE3Lo1Wzuf592QtvXX7zt31exv3Hzx89HiwubXn2s4KORWtbu1BWTipVSOnXnktD4yVRV1quV+evQv+/XNpnWqbj35u5HFdzBp1okThAbWDSzqihlpS2CuS2D1t0A5kRgJ4Qw6+ihZk4c1IY3eQNcuO0WBX9ALaCT6FvAK/QqVrePqojMY0wW4QZYGFyk3MNbD6GI3MDNo1pEYFB+khW+4nnNFxVgb0B844Zb2gc/yh8wy2Z8SgyoKr93eywBTn1hEZfRoM81HOK1tVxlEZUly77eAbyKrQjEAbyzKCm3b4DnHFHAd7OqYLYJZbF0zZJUg9QpaDbpieM+wzWIcRbWD3pIbsQL3Gb5GZ0fMVigTboXJA/1b7gmuG3uaQZaxVM6mnQP+Vt4z837xwF48n8JrvEOg2jITbiVilY1Y0D+7mVp5HJlmv4A/PSnDmkuebpyeY24L9i18PMNgixnZ4QOgSAx7/Oc5VZW8yGkP/MBluv42jXqen9IxeYp6vaJve0y5NSSSfky/JVfI1fZPO0iY1fehaEnOe0G8rnf8EoH/AEw==</latexit>
Avant
6 6 7 6 7 8 5 6 8 8 8 8
Après
5 7 6 5 8 9 0 7 6 7 10 7
X ⇠ B(n; 0, 5)
106
53
Ici, on observe 7 di↵érences positives pour tester l’hypothèse selon laquelle
le produit 1 serait ”meilleur”.
107
54