Académique Documents
Professionnel Documents
Culture Documents
Un test a été étalonné sur une population A de manière que sa distribution suive une loi normale de
moyenne 13 et d'écart type 3. sur un échantillon de taille 10 issu d'une population B, on a observé les
valeurs suivantes :
8.43 8.70 11.27 12.92 13.05 13.05 13.17 13.44 13.89 18.90
Ces valeurs sont-elles compatibles avec l'hypothèse selon laquelle la variable sous-jacente est distribuée
selon une loi normale de moyenne 13 et d'écart type 3 ?
On peut éviter le message d'avertissement concernant les ex aequo en modifiant légèrement l'une des
valeurs 13.05 :
> X1 <- c(8.43, 8.70, 11.27, 12.92, 13.05, 13.050001, 13.17, 13.44, 13.89, 18.90)
> ks.test(X1,"pnorm",mean=13, sd=3)
Calcul à la main : On calcule, pour chaque valeur observée Xi, les fréquences cumulées F(X < Xi) et F(X
<= Xi).
On calcule également les fréquences cumulées théoriques aux points Xi pour la loi normale de paramètres
m=13 et s=3. On calcule enfin les écarts entre les fréquences cumulées expérimentales et les fréquences
cumulées théoriques. La valeur de D est le maximum de ces écarts :
http://geai.univ-brest.fr/carpentier/2007-2008/Documents-R/normalite.html[21/04/2018 11:32:28]
Tests de normalité avec R
Sur un échantillon de taille 10, on a observé les valeurs suivantes d'une VD numérique :
Est-il légitime de supposer que la distribution de la VD dans la population parente suit une loi normale ?
Ici, la moyenne et l'écart type de la distribution théorique sont estimés à partir des 10 observations. Le test
de Lilliefors est donc préférable au test de Kolmogorov-Smirnov.
Ce test n'est pas disponible "en standard" avec R, mais il se trouve dans le package "nortest" :
> library(nortest)
> X2 <- c(8, 9, 9, 10, 10, 10, 11, 13, 14, 14)
> lillie.test(X2)
Calcul à la main : la statistique de test se calcule de la même façon que celle du test de Kolmogorov-
Smirnov.
data: X3
D = 0.2978, p-value = 0.4771
alternative hypothesis: two-sided
Warning message:
cannot compute correct p-values with ties in: ks.test(X3, "pnorm", mean = mean(X3), sd = sd(X3))
> lillie.test(X3)
data: X3
D = 0.2978, p-value = 0.03534
data: X3
D = 0.2978, p-value = 0.399
alternative hypothesis: two-sided
On constate, comme précédemment, que le niveau de significativité indiqué pour le test de Kolmogorov-
Smirnov est très sensible à la présence d'ex aequo.
Le test de Shapiro-Wilk
On reprend l'exemple illustrant le test de Lilliefors.
Sur un échantillon de taille 10, on a observé les valeurs suivantes d'une VD numérique :
http://geai.univ-brest.fr/carpentier/2007-2008/Documents-R/normalite.html[21/04/2018 11:32:28]
Tests de normalité avec R
Est-il légitime de supposer que la distribution de la VD dans la population parente suit une loi normale ?
Le test de Shapiro-Wilk est disponible dans le package "stats". La fonction correspondante est shapiro.test.
> X2 <- c(8, 9, 9, 10, 10, 10, 11, 13, 14, 14)
> shapiro.test(X2)
Le test d'Anderson-Darling
On reprend l'exemple illustrant le test de Lilliefors.
Sur un échantillon de taille 10, on a observé les valeurs suivantes d'une VD numérique :
Est-il légitime de supposer que la distribution de la VD dans la population parente suit une loi normale ?
Le test d'Anderson-Darling est disponible dans le package "nortest". La fonction correspondante est ad.test.
> library(nortest)
> X2 <- c(8, 9, 9, 10, 10, 10, 11, 13, 14, 14)
> ad.test(X2)
Un graphique de normalité
L'écart à la normalité peut être représenté par le graphique suivant :
> qqnorm(X2,datax=TRUE)
> qqline(X2,datax=TRUE)
http://geai.univ-brest.fr/carpentier/2007-2008/Documents-R/normalite.html[21/04/2018 11:32:28]
Tests de normalité avec R
http://geai.univ-brest.fr/carpentier/2007-2008/Documents-R/normalite.html[21/04/2018 11:32:28]