Vous êtes sur la page 1sur 10

Révisions Tests Statistiques

Démarche des tests statistiques:


(1)Définir une valeur seuil α (alpha) qu’on utilisera dans le test
(2)Définir une hypothèse nulle H0 et une hypothèse alternative H1
(3)Vérifier les conditions d’application du test statistique:
●Si elles sont validées on procède au test→
●Sinon on ne peut pas effectuer le test→
(4)Réaliser le test sur R (il faut connaître la fonction à utiliser)
(5)Comparer la valeur p au seuil α choisi à l’étape 1, si p > α, on ne peut rejeter H0, sinon si p <
α on rejette H0 et on accepte H1
(6)Conclure sur les données

Test Non Paramétriques


Quand utiliser les tests (non-)paramétriques ?
Les tests non paramétriques ne font pas d’hypothèse sur la distribution des données (ils transforment les
données en rangs)
→ Pas besoin de vérifier des conditions d’application
→ Pas besoin d’estimer les paramètres associés
Tests plus robustes aux données aberrantes
Tests adaptés aux petits effectifs
Tests adaptés aux données ordinales (ordre de grandeur plutôt que valeurs facile à estimer
Statistiques Paramétriques
Type de test Objectif Conditions Exemples
d’application

Shapiro-Wilk Vérifier si l’échantillon suit une distribution


normale. Aucune

Hypothèses
H0 : l’échantillon suit une distribution
normale
H1 : l’échantillon ne suit pas une p > alpha = 0,05, donc on ne peut pas rejeter H0 les
distribution normale données suivent une loi normale

Méthode Vérifier si l’échantillon suit une distribution Aucune Sur R :qqnorm(donnees)


normale. qqline(donnees)
graphique des
quantiles Elle compare les quantiles de l’échantillon
aux quantiles théoriques d’une loi normale

Si les points suivent la droite l’échantillon


suit une loi n

Fisher-Snedecor vérifier si les deux échantillons ont des Aucune Fonction sur R : var.test(e1, e2)
variances égales

Hypothèses
H0 : les variances des deux échantillons
sont égales S12 = S22H1 : les variances
des deux échantillons sont différentes S12
≠ S22

p> alpha = 0,05, donc on ne peut pas rejeter H0 les


deux échantillons ont des →variances égales

Comparaison de Aucune si n > 30 sur R: t.test(x, mu = moyenne_théorique)


moyenne Si n < 30, il faut que
l’échantillon suive une loi
Student Comparer la moyenne de l’échantillon à normale
une moyenne théorique

H0 : La moyenne observée est égale à la


moyenne théorique
H1 : La moyenne observée est différente
de la moyenne théorique
p > alpha = 0,05, donc on ne peut pas rejeter H0 la
moyenne est égale à 0→

Echantillons Comparer la moyenne de deux Si N1 > 30 et N2 > 30, Fonction sur R: t.test(e1, e2)
indépendants échantillons indépendants E1 et E2 aucune

La moyenne des deux échantillons est Si N1 < 30 ou N2 < 30


égale, μ1 = μ2 •il faut que les deux
H1 : La moyenne des deux échantillons est échantillons suivent une loi
différente, μ1 ≠ μ2 normale
•Il faut que les deux
échantillons aient des
variances identiques (test
de Fisher-Snedecor)

Si la condition d’app est la 2:

Résultats du test:
Echantillons Test de Student pour deux échantillons Si N > 30, aucune t.test(e1, e2, paired = TRUE)
appariés* appariés Si N < 30, il faut que la
différence entre les deux
H0 : La différence entre les deux mesures échantillons suivent une loi
est nulle , μD = 0 normale
H1 : La différence entre les deux mesures
n’est pas nulle, μD ≠ 0

Test uni- ou Bilatéral L'hypothèse alternative est que


les moyennes sont différentes
bilatéral ?
Unilatéral L'hypothèse alternative est que
la première moyenne est supérieure (ou
bien inférieure) à la second

Souvent par défaut,


sinon alternative = “two.sided”
Si H1 : m1 > m2, alternative = “greater”
Si H1 : m1 < m2, alternative = “less”

*Rappel sur la notion d’appariementDeux échantillons sont dit appariés si chaque observation d’un échantillon E1est liée à une observation
d’un échantillon E2
Par exemple on test l’effet d’un médicament sur le taux de cholestérol,en lemesurant chez des patients avant et après la prise du
médicament.Chaque patient est donc mesuré deux fois →données appariés
Autre exemple, on dose le taux de protéines sanguines de plusieurs échantillons selon deux méthodes différentes.Là aussi, chaque
échantillon est mesuré deux fois données →appariés
Test Non Paramétriques

Type de test Objectif Exemples

Kolmogorov-S Tester si un échantillon suit une distribution Fonction sur R: ks.test(x, “loi_theorique”, parametres_de_la_loi)
donnée
mirnov
Hypothèses H0 : La variable suit la distribution
donnée
(↔H 0 : F1(x) = F2(x))
On simule des données normales → p >
H1 : La variable ne suit pas la distribution
alpha, donc, on ne peut pas rejeter H0
donnée
( H ↔ 1 : F1(x) ≠ F2(x))

On simule des données exponentielles → p


> alpha, donc, on ne peut pas rejeter H0, donc le test de
Kolmogorov-Smirnov nous dit qu’elles suivent bien une loi exponentielle

Mann-Whitney Tester si deux échantillons sont issus de la Fonction sur R: wilcox.test(e1, e2)
même distribution (et, par extension, ont la
-Wilcoxon même médiane et la même moyenne)

Hypothèses
H0 : Les distributions sont identiques H1 : Les
distributions sont différentes → On observe p > alpha, donc on
ne peut pas rejeter H0, ce qui signifie que les deux échantillons ont des
distributions identiques
Kruskal-Wallis Tester si, parmi k échantillons sont issus de la Fonction sur R: kruskal.test(donnees, groupes)
même distribution (et, par extension, ont la
même médiane et moyenne) Exemple : Une usine veut comparer les performances de 3 réglages
différents de machines dans la production de comprimés : un réglage
Comparaison de >2 échantillons indépendants standard, et 2 autres types de réglages. La variable d'intérêt est le nombre de
comprimés produits dans une unité de temps
Hypothèses
H0 : Il n’y a pas de différence entre les
échantillons
H1 : Au moins un échantillon est différent des
autres

→ On observe p < alpha, donc on rejette H0, ce qui signifie qu’au moins un
réglage est différent des autres, a priori, il s’agit de la modification 2

Wilcoxon Comparer la moyenne de deux échantillons Fonction sur R : wilcox.test(e1, e2, paired = TRUE)
appariés

Hypothèses
H0 : Les deux échantillons ont des moyennes
identiques
H1 : Les deux échantillons ont des moyennes
différentes
→ On observe p > alpha, donc on ne peut pas rejeter H0, ce qui signifie que
les deux échantillons sont identiques

Friedman Comparer la K moyenne de K échantillons Fonction sur R : friedman.test(donnees, groupes)


appariés
-Le test de Friedman est utilisé pour identifier des différences de traitements
Hypothèses dans le cas où les mesures ont été répétées
H0 : Tous les échantillons ont des moyennes Exemple : On veut comparer l’effet de trois médicaments sur le temps de
identiques réaction (en secondes) de patients
H1 : Au moins un échantillon à une moyenne
différente des autres

Similaire au test de Kruskal-Wallis mais


fonctionne sur des données appariés Les rangs
sont calculés et mesurés à l’intérieur des blocs
appariés

Vous aimerez peut-être aussi