Vous êtes sur la page 1sur 42

INFÉRENCE SUR UNE

OU DEUX VARIABLES
LPSP1209

2018 - 2019 Professeur : Bernadette Govaerts


| Valentine Isselée

Table des matières


INTRODUCTION ..............................................................................................................2
DESCRIPTION DU COURS ...............................................................................................2
MODULES........................................................................................................................3
PROBABILITÉ ..................................................................................................................4
CHAPITRE 1 : INTRODUCTION .......................................................................................4
CHAPITRE 2 : CALCULE DE PROBABILITÉS SUR DES ÉVÉNEMENTS ................................4
CHAPITRE 3 : VARIABLES ALÉATOIRES : GÉNÉRALITÉS ET LOIS CLASSIQUES ..............6
CHAPITRE 4 : COMBINAISON DE V. A. ET THÉORÈME CENTRAL LIMITE .......................9
INFÉRENCE STATISTIQUE..............................................................................................11
CHAPITRE 1 : PRINCIPES DE L’INFÉRENCE STATISTIQUE .............................................11
CHAPITRE 2 : INFÉRENCES SUR LES PARAMÈTRES D’UNE VARIABLE QT NORMALE..15
CHAPITRE 3 : TESTS SUR LES PARAMÈTRES D’UNE VARIABLES QT NORMALE OBSERVÉE SUR 2
GROUPES INDÉPENDANTS OU PAIRÉS ........................................................................20
CHAPITRE 4 : INFÉRENCE SUR LES PARAMÈTRES DE 2 VARIABLES QL .......................25
CHAPITRE 5 : INFÉRENCES SUR LES PARAMÈTRES DE 2 VARIABLES QL .....................29
CHAPITRE 6 : TEST NON PARAMÉTRIQUES POUR COMPARER 2 VALEURS CENTRALES32
CHAPITRE 7 : INFÉRENCE SUR UN COEFFICIENT DE CORRÉLATION ...........................37
CHAPITRE 8 : PUISSANCE D’UN TEST ET CALCUL DE TAILLE D’ÉCHANTILLON ...........40
| Valentine Isselée

INTRODUCTION
DESCRIPTION DU COURS
4 crédits, 22,5 heurs + 15heurs de TP.

Le cours PSP1209 fait suite au cours PSP1101 de première BAC de statistique descriptive et sera suivi en BAC 3 par un cours
de modélisation statistique. Il entretient des liens privilégiés avec les cours de psychométrie et de méthodologie de BAC2 qui
utilisent les statistiques.
Contenus du cours (matière) :
- Eléments de probabilité nécessaire pour comprendre et savoir utiliser les outils généraux d'inférence et de modélisation
statistique : calcul élémentaire de probabilité sur des événements, distributions de probabilité normale et binomiale et
dérivées, utilisation de tables, théorème central limite.
- Notions clefs de l'inférence statistique paramétrique : estimateur, distribution d'échantillonnage, intervalle de confiance
et test d'hypothèse, puissance de test et influence du choix de la taille d'échantillon
- Tests et intervalles de confiance sur une moyenne et une variance en population normale
- Tests d'hypothèse sur deux moyennes pour échantillons pairés et indépendants et sur 2 variances en populations normales
- Tests non paramétriques sur une ou deux mesures de position pour données pairées ou non pairées.
- Inférence sur un coefficient de corrélation, y compris corrélation partielle.
- Inférence sur une ou 2 variables catégorielles : test et intervalle de confiance sur une ou deux proportions, test chi carré
d'ajustement pour une ou 2 variables.
- Conditions d'application et validation des hypothèses sous-jacentes aux différents tests, qq plot.
- Méthodologie pour l'analyse statistique de données depuis le choix de la méthode, son application, sa validation, jusqu'à
l'interprétation des résultats obtenus
- Introduction au logiciel SPSS et utilisation dans des situations variées
Compétences visées :
Adopter une démarche systématique pour appliquer les outils d'analyse statistique descriptive et d'inférence à une et 2
variables dans des situations émanant de différents domaines d'application et/ou méthodes de recherche de la psychologie
et des sciences de l'éducation. Plus précisément au terme du cours l'étudiant sera capable de
- Reconnaître, pour une question de recherche posée, les méthodes statistiques adaptées aux données disponibles.
- Appliquer les méthodes à l'aide du logiciel de statistique SPSS et en valider les hypothèses sous-jacentes.
- Expliquer les résultats issus d'une analyse statistique des concepts fondamentaux à leur interprétation dans le contexte
de la recherche.
- Lire, critiquer et interpréter des résultats statistiques disponibles dans la littérature.
- Expliquer les concepts de probabilité indispensables en statistique et manipuler des probabilités et distribution de
probabilité de base.
- Transférer ces connaissances acquises dans les domaines d'activités du psychologue, logopède et pédagogue.
Activités du cours :
- Des cours magistraux en auditoire avec la titulaire du cours
- Des séances d'exercice de probabilité et inférence statistique par petits groupes
- Un auto-apprentissage à SPSS via la Plateforme informatique selt : des podcasts, des exercices de dril, des études de
cas et un autotest
- Des séances de TPs collectives facultatives d'intégration de la matière de bac 2 ou de révision de la matière de bac1
- Des exercices, simulations et autres activités pour vous aider à intégrer la matière par auto-apprentissage.
- Des forums pour interagir entre vous et avec l'équipe enseignante.

Les supports de cours à votre disposition


- Un syllabus comprenant : transparents du cour, les énoncés des TPs, les énoncés des exercices SPSS
- Le formulaire OBLIGATOIRE
- Sur Moodle se trouve toutes les informations pratiques sur le déroulement du cours (horaire, examen, TPs, etc...), les
annonces avec les activités hebdomadaires et des forums pour interagir
- Livre de références (très bon livre mais facultatif) : Howell: statistique en sciences humaines - De Boeck.

Évaluation
- Un examen écrit avec des questions à choix multiples et des questions ouvertes (15pts)
- Un test SPSS en salle informatique (5pts)
- Une évaluation continue de votre participation aux activités durant l'année (bonus 1pt)
VOUS DEVEZ AVOIR au moins 6/15 A L'EXAMEN ECRIT POUR RECEVOIR UNE COTE ≥10/20
Vous pouvez utiliser votre formulaire lors de l'examen écrit et du test SPSS et y prendre des notes selon les indications
données à la première page du formulaire.
| Valentine Isselée

MODULES
| Valentine Isselée

PROBABILITÉ
CHAPITRE 1 : INTRODUCTION
Modèle probabiliste Est utilisé pour décrire le phénomène d’intérêt pour la population.

Échantillon vs population Voir bac 1

Événement Sous-ensemble de résultats possible d’une XP aléatoire répondant à une


certaine caractéristique (noté avec 1ères lettre de l’alphabet).

Variable aléatoire Représentation numérique des résultats d’une XP aléatoire.

Distinction entre continue et discrète.

CHAPITRE 2 : CALCULE DE PROBABILITÉS SUR DES ÉVÉNEMENTS


Probabilité Nombre entre 0 et 1 noté « P » qui donne la fréquences théoriques ou attendue
d’un évènement.
𝑃𝑃(𝑥𝑥)

Évènement Nombre des résultats possible dans Ω sans les résultats de l’événement.
complémentaire
𝑃𝑃(𝐴𝐴𝑐𝑐 ) = 1 − 𝑃𝑃(𝐴𝐴)

Intersection Nombre de résultats correspondant aux caractéristiques des évènements A ET B.


d’évènement Il faut avoir les 2 en même temps !

𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵)

Union Nombre de résultats correspondant aux caractéristiques des évènement A OU B.


d’évènement Il faut au moins 1 des 2 !

𝑃𝑃(𝐴𝐴 ∪ 𝐵𝐵) = 𝑃𝑃(𝐴𝐴) + 𝑃𝑃(𝐵𝐵) − 𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵)

Équiprobabilité On dit que des données sont équiprobable lorsque tous les éléments on la même
probabilité. On a la même chance d’avoir n’importe quel élément.

Exemple : jet d’un dé :

1
𝑃𝑃(1) = 𝑃𝑃(2) = 𝑃𝑃(3) = 𝑃𝑃(4) = 𝑃𝑃(5) = 𝑃𝑃(6) =
6
| Valentine Isselée

Calcule de Dénombrement Calcule réalisable que si éléments équiprobables !


probabilité par
𝑁𝑁𝑁𝑁𝑁𝑁 𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑 ′ é𝑙𝑙é𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝐴𝐴
=
𝑁𝑁𝑁𝑁𝑁𝑁 𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑟𝑟𝑟𝑟 𝑑𝑑 ′ é𝑙𝑙é𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑑𝑑𝑑𝑑 Ω

Combinaison Permet de calculer le nombre de façon de tirer m objet dans n


sans remise et sans tenir compte de l’ordre.

𝑛𝑛!
𝐶𝐶𝑛𝑛𝑚𝑚 =
𝑚𝑚! (𝑛𝑛 − 𝑚𝑚)!

𝑛𝑛 = 𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑 ′ 𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 𝑎𝑎𝑎𝑎 𝑑𝑑é𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝


𝑚𝑚 = 𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛𝑛 𝑑𝑑 ′ 𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜𝑜 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡

0! = 1

1! = 0

Probabilité Calculer la probabilité d’un évènement si je sais qu’il y a tel évènement.


conditionnelle Probabilité de A SI B.

𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵)
𝑃𝑃(𝐴𝐴 |𝐵𝐵) =
𝑃𝑃(𝐵𝐵)

Indépendance Les deux évènements A et B sont indépendants si et seulement si :

𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑃𝑃(𝐴𝐴) . 𝑃𝑃(𝐵𝐵)

⟺ 𝑃𝑃(𝐴𝐴|𝐵𝐵) = 𝑃𝑃(𝐵𝐵)

⟺ 𝑃𝑃(𝐵𝐵|𝐴𝐴) = 𝑃𝑃(𝐵𝐵)

Incompatibles Les deux évènements A et B sont incompatibles si et seulement si :

𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 0

Calcule de Quand il est plus facile de calculer une probabilité conditionnelle de deux
probabilités évènements que de calculer la probabilité d’un seul des deux évènements.
composées
𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑃𝑃(𝐴𝐴|𝐵𝐵) . 𝑃𝑃(𝐵𝐵) =

𝑃𝑃(𝐴𝐴 ∩ 𝐵𝐵) = 𝑃𝑃(𝐵𝐵|𝐴𝐴) . 𝑃𝑃(𝐴𝐴)

Calcule de Quand on doit calculer une probabilité d’un évènement et qu’on connait les
probabilité probabilités conditionnelles : 𝑃𝑃(𝐴𝐴|𝐵𝐵) et 𝑃𝑃(𝐴𝐴|𝐵𝐵 𝑐𝑐 )
totales
𝑃𝑃(𝐴𝐴) = 𝑃𝑃(𝐴𝐴|𝐵𝐵) . 𝑃𝑃(𝐵𝐵) + 𝑃𝑃(𝐴𝐴|𝐵𝐵 𝑐𝑐 ) . 𝑃𝑃(𝐵𝐵 𝑐𝑐 )
| Valentine Isselée

Théorème de Permet de réviser la valeur de la probabilité d’un évènement quand on a plus


Bayes d’informations lié à un autres évènements.

𝑃𝑃(𝐴𝐴|𝐵𝐵) . 𝑃𝑃(𝐵𝐵) 𝑃𝑃(𝐴𝐴|𝐵𝐵) . 𝑃𝑃(𝐵𝐵)


𝑃𝑃(𝐵𝐵|𝐴𝐴) = =
𝑃𝑃(𝐴𝐴) 𝑃𝑃(𝐴𝐴|𝐵𝐵) . 𝑃𝑃(𝐵𝐵) + 𝑃𝑃(𝐴𝐴|𝐵𝐵 𝑐𝑐 ) . 𝑃𝑃(𝐵𝐵𝑐𝑐 )

Très utilisé dans le domaine de diagnostic médical : B = patient avec maladie et A= test de
dépistage avec résultat positif.

CHAPITRE 3 : VARIABLES ALÉATOIRES : GÉNÉRALITÉS ET LOIS CLASSIQUES


Variable Représentation numérique des résultats d’une expérience aléatoire.
aléatoire
Discrète Prend un nombre finit ou dénombrable de valeurs. Définit par la liste
= (v. a.) des valeurs possibles et les probabilités associées. On doit être capable
de lister des valeurs possibles.

Exemple : X = résultat du jet d’un dé ; Y = nombre de questions réussie dans QCM

Continue Prend un nombre infini non dénombrables de valeurs. Définie par un


domaine et une fonction de densité qui permet le calcule de
probabilités.

Exemple : X = poids à la naissance ; Y = taille d’un étudiant

Distribution et Dans les variables aléatoires continue :


densités de - La densité de la fonction = modèle pour histogramme idéale
probabilité - Domaine = Valeurs de X telle que la densité de la fonction est supérieure à 0
- Probabilité = surface sous la fonction de densité

Moyenne Paramètre souvent utiliser pour résumer une v. a.

Variance Paramètre souvent utiliser pour résumer une v. a.

Lois classiques Il existe une infinité de variables aléatoires possibles et donc une infinité de
distributions de probabilité pour les caractériser. Mais il existe un petit nombre de
distributions qui sont très utilisées dans un grand nombre d’applications. Ces
distributions de probabilité très courantes sont définies systématiquement pour
faciliter leur utilisation dans les applications. On les définit par leur distribution, leur
moyenne et leur variance. Pour certaines, des tables de calcule de probabilité sont
disponibles.
| Valentine Isselée

Loi uniforme 𝑋𝑋~𝑈𝑈𝑈𝑈(𝑎𝑎, 𝑘𝑘)


discrète
Une variable aléatoire X de distribution de probabilité uniforme discrète prend k
valeur possibles x = a, a+1, a+2, ... a+k avec pour probabilité associées :

1
𝑃𝑃(𝑋𝑋 = 𝑥𝑥) =
𝑘𝑘

On parle d’équiprobabilité des résultats.

Exemple : Résultat du jet d’un dé.

Loi Bernoulli 𝑋𝑋~𝐵𝐵𝐵𝐵(𝜋𝜋)

Une variable aléatoire de distribution indicatrice ou Bernoulli prend pour valeurs 0


ou 1 avec des probabilités associées : (1 − 𝜋𝜋) et 𝜋𝜋 .

𝑃𝑃(𝑋𝑋 = 𝑥𝑥) = 𝜋𝜋 𝑥𝑥 (1 − 𝜋𝜋)1−𝑥𝑥

Une expérience aléatoire de Bernoulli est une XP aléatoire qui peut avoir
seulement 2 résultats possibles : un évènement donné « échoue » ou « réussit ». Le
résultat est donc noté 0 si échec et 1 si réussite.

Exemple : 1 question à choix multiple.

Bernoulli → Le schéma de Bernoulli est une XP aléatoire qui consiste à exécuter un certain nombre de fois (n)
une XP de Bernoulli et qui répond aux conditions suivantes :
Binomial
- La probabilité d’avoir un succès reste la même tout au long de l’XP
- Les XP ou essais sont indépendants (le résultat d’un essai n’influence pas le résultat du
suivant).

Une variable aléatoire Binomial consiste au nombre d’XP réussies dans un schéma de Bernoulli.

Loi Binomial 𝑋𝑋~𝐵𝐵𝐵𝐵(𝑛𝑛, 𝜋𝜋)

Une variable aléatoire Binomial est définie comme le nombre de réussites dans n
expériences de Bernoulli exécutées suivant un schéma de Bernoulli à « n » essais ou
par la somme de « n » variables aléatoires de Bernoulli indépendantes.

L’ensemble des valeurs possibles de X est : 0, 1, 2, ... n

Si π es la probabilité de réussite d’une XP :

𝑛𝑛!
𝑃𝑃(𝑋𝑋 = 𝑥𝑥) = 𝐶𝐶𝑛𝑛𝑥𝑥 𝜋𝜋 𝑥𝑥 (1 − 𝜋𝜋)𝑛𝑛−𝑥𝑥 = . 𝜋𝜋 𝑥𝑥 (1 − 𝜋𝜋)𝑛𝑛−𝑥𝑥
𝑥𝑥! . (𝑛𝑛 − 𝑥𝑥)!

Exemple : Questionnaire (pleins de question) à choix multiple.


| Valentine Isselée

Loi uniforme 𝑋𝑋~𝑈𝑈(𝑎𝑎, 𝑏𝑏)


continue
Cas de 1 variable aléatoire avec 1 domaine de variation. La distribution de
probabilité sera uniforme sur tout le domaine.

1
𝑃𝑃(𝑋𝑋 = 𝑥𝑥) = 𝑓𝑓(𝑥𝑥) =
(𝑏𝑏 − 𝑎𝑎)

Exemple : temps d’attente d’un bus qui passe toute les 20 min.

Loi Normale 𝑋𝑋~𝑁𝑁(𝜇𝜇 ; 𝜎𝜎 2 )


générale
C’est la v.a. la plus utilisée en statistique car un très grand nombre de variable
continue répondent à la loi Normale en conséquence du théorème central limite.

Sa densité a la forme de la courbe de Gausse. Une courbe symétrique de forme


constante mais dont le centre et l’aplatissement dépendent des paramètres µ (la
moyenne) et de σ (l’écart-type).

• P(Z ≤ +z) = probabilité qu’une valeur se situe avant z

• P(Z ≥ +z) = probabilité qu’une valeur se situe après z → 1 – (P (Z ≤ z))

• P(Z ≤ -z) = probabilité qu’une valeur se situe avant z → P(Z ≥ z) = 1 – (P (Z ≤ z))

• P(x ≤ Z ≤ y) = probabilité qu’une valeur se situe entre x et y → P(Z ≤ y) – P(Z ≤ x)

Loi normale 𝑍𝑍~𝑁𝑁(0 ; 1)


réduite
Une variable aléatoireNormale Réduite est une v.a. de domaine ℜ, l’ensemble réels
𝑧𝑧²

𝑒𝑒 2
et de fonction de densité : 𝑓𝑓(𝑧𝑧) = 𝑒𝑒
√2𝜋𝜋

Espérance En théorie des probabilités, l'espérance mathématique d'une variable aléatoire


réelle est, intuitivement, la valeur que l'on s'attend à trouver, en moyenne, si l'on
répète un grand nombre de fois la même expérience aléatoire.
| Valentine Isselée

CHAPITRE 4 : COMBINAISON DE V. A. ET THÉORÈME CENTRAL LIMITE


Combinaisons Très souvent en statistique, on est amené à combiner les valeurs de plusieurs
linéaires de v. a. variable observées : faire la somme, le rapport, ... Si on connait les propriétés des
variables de départ (leur moyenne, variance, distribution, ...), il est important de
connaitre les propriétés de la combinaison calculée.

Les combinaisons très souvent utilisées sont la somme ou la moyenne de variables


aléatoires qui ont la même distribution

Espérance et Espérance :
variance de → 𝐸𝐸(𝑎𝑎 + 𝑏𝑏𝑏𝑏) = 𝑎𝑎 + 𝑏𝑏 . 𝐸𝐸(𝑋𝑋)
combinaison de → 𝐸𝐸(𝑋𝑋1 + 𝑋𝑋2 + 𝑋𝑋3 + ⋯ + 𝑋𝑋𝑛𝑛 ) = 𝐸𝐸(𝑋𝑋1 ) + 𝐸𝐸(𝑋𝑋2 ) + 𝐸𝐸(𝑋𝑋3 ) + ⋯ 𝐸𝐸(𝑋𝑋𝑛𝑛 )
v. a. quelconques
Variance :
→ 𝑉𝑉(𝑎𝑎 + 𝑏𝑏𝑏𝑏) = 𝑏𝑏 2 𝑉𝑉(𝑋𝑋)
→ 𝑉𝑉(𝑋𝑋1 + 𝑋𝑋2 + ⋯ + 𝑋𝑋𝑛𝑛 ) = 𝑉𝑉(𝑋𝑋1 ) + 𝑉𝑉(𝑋𝑋2 ) + ⋯ 𝑉𝑉(𝑋𝑋𝑛𝑛 ) SI les v. a. sont
indépendantes !

Théorème Soit X1, X2, ... Xn n v. a. indépendantes et identiquement distribuées de même


centrale limite moyenne µ et de même variance σ².

Quand est n est suffisamment grand (>50) :

→ La sommes des v.a. est approximativement une v.a. Normale de moyenne


nµ et de variance nσ²
→ 𝑆𝑆𝑛𝑛 = ∑𝑛𝑛𝑖𝑖=1 𝑋𝑋𝑖𝑖 (= 𝑋𝑋1 + 𝑋𝑋2 + ⋯ + 𝑋𝑋𝑛𝑛 ) ≈ 𝑁𝑁(𝑛𝑛𝑛𝑛 ; 𝑛𝑛𝜎𝜎 2 )
→ La moyenne des v.a. est approximativement une v.a. Normale de moyenne
σ2
µ et de variance
n
∑ 𝑛𝑛 2
𝑋𝑋𝑖𝑖 =𝑋𝑋1 +𝑋𝑋2 +⋯+𝑋𝑋𝑛𝑛 𝜎𝜎
 𝑋𝑋� = 𝑖𝑖=1 � � ≈ 𝑁𝑁 �𝜇𝜇 ; 𝑛𝑛 �
𝑛𝑛 𝑛𝑛
| Valentine Isselée

Approximation Une varaible aléatoire binomiale 𝐵𝐵𝐵𝐵 (𝑛𝑛; 𝜋𝜋) est la somme de « n » v. a.
d’une binomiale indépendantes de Bernoulli de paramètre « π ». C’est-à-dire de moyenne π et de
par une normale
variance π(1-π).
(Théorème
centrale limite Le théorème central limite peut être appliqué pour affirmer qu’une v. a. Binomiale
appliqué à la ressemble à une Normale quand « n » est grand :
variable
Si n est suffisamment grand, une v. a. X de distribution binomiale 𝑋𝑋~𝐵𝐵𝐵𝐵(𝑛𝑛; 𝜋𝜋) suit
aléatoire
approximativement une distribution Normale :
Binomiale)
𝑋𝑋𝑁𝑁𝑜𝑜𝑟𝑟𝑟𝑟 de moyenne 𝑛𝑛𝑛𝑛 et de variance 𝑛𝑛𝑛𝑛(1 − 𝜋𝜋) : 𝑋𝑋𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁 ~𝑁𝑁�𝑛𝑛𝑛𝑛 ; 𝑛𝑛𝑛𝑛(1 − 𝜋𝜋)�

L’approximation est bonne dès que 𝑛𝑛𝑛𝑛 ≥ 5 et 𝑛𝑛(1 − 𝜋𝜋) ≥ 5.

Le TCL peut s’utiliser pour faire des calcules sur des v. a. Binomiales quand les
tables ne sont pas disponibles (n est trop grand) mais il faut faire une correction
de continuité :

𝑃𝑃(𝑋𝑋𝐵𝐵𝐵𝐵 ≤ 𝑥𝑥) ≅ 𝑃𝑃(𝑋𝑋𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁 ≤ 𝑥𝑥 + 0,5)

𝑥𝑥 + 0,5 − 𝑛𝑛𝑛𝑛
𝑃𝑃(𝑋𝑋𝐵𝐵𝐵𝐵 ≤ 𝑥𝑥) ≅ 𝑃𝑃(𝑋𝑋𝑁𝑁𝑁𝑁𝑁𝑁𝑁𝑁 ≤ 𝑥𝑥 + 0,5) = 𝑃𝑃 �𝑍𝑍 ≤ �
�𝑛𝑛𝑛𝑛(1 − 𝜋𝜋)

Transformation Toute somme, moyenne ou combinaison linéaire de v. a. Normale indépendantes


linéaire de suit aussi exactement une distribution Normale.
variables
→ Soit X1 et X2 sont 2 v. a. indépendante N(µ1 ; σ²1) et N(µ2 ; σ²2), alors
aléatoires
𝑎𝑎 + 𝑏𝑏𝑋𝑋1 + 𝑐𝑐𝑋𝑋2 est 𝑁𝑁(𝑎𝑎 + 𝑏𝑏𝜇𝜇1 + 𝑐𝑐𝜇𝜇2 ; 𝑏𝑏 2 𝜎𝜎12 + 𝑐𝑐 2 𝜎𝜎22 )
normales

→ Soit X1, X2 ... Xn sont n v. a. indépendante N(µ ; σ²), alors


𝑛𝑛 2
∑ 𝑋𝑋 𝜎𝜎
∑𝑛𝑛𝑖𝑖=1 𝑋𝑋𝑖𝑖 ~𝑁𝑁(𝑛𝑛𝑛𝑛 ; 𝑛𝑛𝜎𝜎 2 ) et 𝑋𝑋� = 𝑖𝑖=1 𝑖𝑖 ~ 𝑁𝑁 �𝜇𝜇; �
𝑛𝑛 𝑛𝑛

Lois En inférence statistique on suppose le plus souvent la normalité des données et des
formules comme les statistiques de tests font intervenir des transformations parfois
compliquées de ces normales. Des nouvelles lois de probabilités sont utilisées pour
manipuler des statistiques. Des tables statistiques existent pour les quantiles de ces
lois. :
- Chi² : Quand on traite un somme de N(0;1) au carré
- Student : Quand on divise une N(0;1) par la racine Khi-carré
- Fischer : Quand on fait le rapport entre 2 v.a. Chi-carré
| Valentine Isselée

INFÉRENCE STATISTIQUE
CHAPITRE 1 : PRINCIPES DE L’INFÉRENCE STATISTIQUE
La statistique descriptive : propose des outils pour organiser, décrire, représenter et résumer utilement l’information disponible
dans un ensemble de données à l’aide de graphiques et d’indices numériques et mettre en évidence les informations importantes.
Les probabilités : désignent une branche des mathématiques qui fournit un formalisme et des outils de calcul pour analyser des
phénomènes aléatoires. Elles permettent d’écrire des « modèles probabilistes » pour les variables observées sur les populations
d’intérêt et les manipuler.

L’inférence Elle propose des outils pour répondre à des questions concernant une population
statistique à partir des résultats sur un échantillon provenant de cette population. Elle
comprend 3 concepts clé : l’estimation, les intervalles de confiance, les tests
d’hypothèses. Le but de l’inférence statistique est de tenter de tirer des
conclusions concernant la population à partir des résultats obtenus sur
l’échantillon et de mesurer, par calcul de probabilités, le degré d’incertitude
attaché à ces conclusions.

Distribution Montre comment un estimateur varie quand on le calcule sur différents


d’échantillonnage échantillons d’une population. C’est la « distribution de probabilité » de
l’estimateur. Connaître cette distribution est crucial pour construire des IC et des
tests sur le paramètre d’intérêt.

Estimateur À pour but d’estimer les paramètres inconnus de la population à partir


d’échantillon. C’est une formule qui permet d’estimer un paramètre inconnu à
partir d’un échantillon de données. Notation : paramètre avec un accent
circonflexe ou lettre latine. Propriétés attendues pour un bon estimateur :
absence de biais, faible variance et robustesse

Intervalle de À pour but d’indiquer, sur base d’une estimation, dans quel intervalle se trouve
confiance la « vraie » valeur d’un paramètre de la population, ceci en associant un certain
degré de confiance à l’intervalle proposé. L’intervalle se base sur la distribution
d’échantillonnage de la v.a. et sa largeur dépend de cette distribution et d’un
degré de confiance choisie (svt 95%). Nous avons vu 5 IC :
→ 1 variable QT Normale X∼N(µ ;σ²) : IC sur une moyenne µ à σ² connu
→ 1 variable QT Normale X∼N(µ ;σ²) : IC sur une moyenne µ à σ² inconnu
→ 1 variable QT Normale X∼N(µ ;σ²) : IC sur une variance σ²
→ 1 variable QL et 1 variable de comptage associée Binomiale (k=2) ou
multinomiale (k≥2) : IC sur 1 proportion en gd échantillon (Xobs et (n-Xobs) ≥5)
→ 2 variables QT VD : IC sur un coefficient de corrélation ρ.

Niveau de confiance Un IC à un certain niveau de confiance (généralement 95%) : pour 95% des
échantillons tirés, l’intervalle comprendra la « vrai » moyenne.
| Valentine Isselée

Test d’hypothèse Un test d’hypothèse a pour but de répondre à une question concernant la
population à partir des données disponibles dans un échantillon.
La méthode utilisée est un règle de décision qui détermine, sur base des valeurs
de X1, X2, ... Xn S’il faut « accepter » ou « rejeter » l’hypothèse (répondre oui ou
non à une question). Nous avons vu 19 tests :

• 1 variable QT Normale X∼N(µ ;σ²) :


→ Test Z sur une moyenne µ à σ² connu
→ Test t sur une moyenne µ à σ² inconnu
→ Test sur une variance σ²

• 1 variable QL et v.a. de comptage associée Binomiale ou multinomiale


→ Test binomial exact relatif à une proportion (en petit échantillon)
→ Test Z relatif à une proportion (pour grand échantillon : nπ0 et n(1-π0)≥5)
→ Test t’ajustement chi-carré à critère de classification (proportion |e|grp)

• 1 variable QT VD et 1 variable QL VI (k=2 et grp indépendants)


→ Test t de comparaison de 2 moyennes, variance inconnues et supposées =
→ Test t de comparaison de 2 moyennes, variance inconnues et supposées ≠
→ Test F de comparaison de 2 variances
→ Test de la somme des rangs de Wilcoxon de comparaison de 2 tendances
centrales (petit échantillon)
→ Test de la somme des rangs de Wilcoxon de comparaison de 2 tendances
centrales (grand échantillon)

• 1 variable QT VD et une variable QL VI (k=2 et données pairées)


→ Test t de comparaison de 2 moyennes pour données pairées
→ Test (non-paramétrique) des rangs de Wilcoxon de comparaison de 2
tendances centrale pour données pairées (petit échantillon)
→ Test des rangs de Wilcoxon de comparaison de 2 tendances centrales
pour données pairées (grand échantillon)
→ Test de signe de comparaison de 2 tendances centrales pour données
pairées

• 2 variables QL
→ Test Z de comparaison de 2 proportions (grp indépendants et gd
échantillons)
→ Test χ² d’homogénéité des proportions d’1 variable QL VD sur les niveaux
d’1 variable VI
→ Test χ² de Pearson d’indépendance de 2 variables QL VD (lien |e| grp)

• 2 variables QT VD
→ Test t de nullité d’un coefficient de corrélation
| Valentine Isselée

Statistique de 1. Question en psychologie


test : étapes 2. Question statistique : définition de la variable d’intérêt et regarde données
d’application d’un 3. Choix du test approprié et validation des conditions d’application du test
test 4. Écriture des hypothèses (H1 et H0)
On écrit la question sous forme d’hypothèses à tester. On met dans H1 ce
qu’on veut prouver. Une égalité va toujours dans l’hypothèse H0.
(Récolte des données et estimation du paramètre d’intérêt)
5. Calcul de la statistique de test
On définit une formule, la statistique de test, pour comparer le paramètre
estimé à la valeur de référence. La statistique est choisie pour avoir une
distribution connue si H0 est vrai.
6. Décision statistique : règle de décision (dessin) et décision finale
Elle a pour but de décider si H0 ou H1 est vrai à partir de la stat de test.
Il existe 3 approches :
- Méthode du seuil critique : on calcule un seuil de rejet.
- Méthode de la p-valeur : utilisée par logiciels de statistique
- Méthode de l’intervalle de confiance : utilisée quand on en a
calculé un et uniquement pour test bilatéraux.
Le calcule du seuil critique ou de la p-valeur dépendent des hypothèses
du test utilisé. La décision va se prendre avec un niveau d’incertitude
donnée α (svt 0,05). On décide soit de rejeter H0 soit de ne pas le rejeter.
7. Interprétation
La conclusion d’un test consiste à décider si on rejette H0 ou si on ne rejette
pas H0. Attention ! on n’accepte jamais H0 car on ne contrôle pas le risque
d’erreur. Ensuite on retourne à la question de base et on repond à la question
dans le contexte de l’étude en donnant le risque d’erreur de la conclusion.

 Étapes 4 à 7 = étapes de la réalisation du test

Hypothèse H0 et Il faut écrire la question sous forme d’hypothèses à tester avant de faire un test.
H1
On met dans H1 ce qu’on veut prouver.

Une égalité va toujours dans l’hypothèse H0.

Test unilatérale et Les tests unilatéraux utilisent : ≥ ; > ; < ; ≤


bilatérale Les tests bilatéraux utilisent : = ; ≠
| Valentine Isselée

Calcule de la p- Le calcul de la p-valeur et du seuil critique dépendent du couple d’hypothèse


valeur et du seuil testés : (exemple avec µ)
critique H0 : µ ≤ µ0 On rejette à droite

H1 : µ > µ0 P-valeur = P(Z>Zobs)

Unilatéral
H0 : µ ≥ µ0 On rejette à gauche

H1 : µ < µ0 P-valeur = P(Z<Zobs)

H0 : µ = µ0 On rejette et on
répartit le risque des 2
Bilatéral

H1 : µ ≠ µ0
cotés
P-valeur = P(Z>|Zobs|)

Cela fonctionne plus ou moins comme cela pour tous les tests avec p-valeur et
seuil critique. (C’est le principe).
Seuil critique Quand on fait les tests « à la main », on calcule un seuil de rejet pour
l’observation (Zobs) au-delà duquel H0 est « rejeté ».

Méthode ou l’on choisit un seuil critique au-delà du quel l’observation (Zobs) a une
petite probabilité α de tomber si H0 est vrai et on décide de rejeter H0 au-delà
de ce seuil.

Le seuil critique est le percentile 1-α de la Z∼N(0;1) : P(Zobs > seuil critique H0)

P-valeur Quand on utilise des logiciels de statistique, on calcule la probabilité d’observer


les données que l’on a si H0 est vrai et si cette probabilité est faible (<α) on
décide de rejeter H0.

Méthode ou l’on calcule la p-valeur : la probabilité d’observer une statistique de


test aussi grande que celle obtenue si H0 est vrai P(Z>Zobs)

On rejette H0, si la p-valeur est plus petite que α.


| Valentine Isselée

CHAPITRE 2 : INFÉRENCES SUR LES PARAMÈTRES D’UNE VARIABLE QT


NORMALE
Dans de nombreuses situations, un score, une mesure ou autre variable d’intérêt d’une étude est représentée sur une échelle
continue et suit une distribution de probabilité Normale (grâce au TCL). La variable normale possède d’excellentes propriétés qui
facilitent sa manipulation en inférence statistique. Ceci justifie que de nombreux outils d’inférence statistiques soient basés sur
cette loi de probabilité. L’objectif du chapitre est de proposer des outils d’inférence statistique sur les paramètres d’UNE variable
normale : X∼N(µ;σ²).

Correspond à la page F5 du formulaire : Une variable quantitative Normale X∼N(µ;σ²)


Les tests et IC sur les paramètres d’un Normale ont des hypothèses sous-jacentes, elles supposent que :
- Les données sont de distribution Normale → vérifier par q-q plot → si pas vérifier : transformation
- Les observations sont indépendantes → vérifier par le contexte → si pas vérifier : autres tests
- Il n’y a pas de données aberrantes → vérifier par un box-plot→ si pas vérifier : comparé avec et
sans données aberrantes.

Test numéro
Concept/ Explication
test/ IC

Quand les données sont Normale les meilleurs estimateurs de µ et σ² sont la moyenne
arithmétique (𝑋𝑋�) et la variance d’échantillon (𝑠𝑠²). Ils sont sans biais et les plus précis
possibles.

∑𝑛𝑛𝑖𝑖=1 𝑋𝑋𝑖𝑖 ∑𝑛𝑛𝑖𝑖=1(𝑋𝑋𝑖𝑖 − 𝑋𝑋�)


� = 𝑋𝑋� =
µ �² = 𝑠𝑠 2 =
σ
𝑛𝑛 𝑛𝑛 − 1
𝑋𝑋� et 𝑠𝑠² visent à approcher via un échantillon la valeur de la moyenne et de la
variance de la population.
Estimateurs
La distribution d’échantillonnage d’un estimateur représenta la distribution de
d’une v.a.
probabilité des estimations qui serait obtenues à partir d’un grand nombre F1
N∼(µ ;σ²)
d’échantillons prélevés dans la population.

Distribution d’échantillonnage de moyenne arithmétique et de la variance s²

Connaitre la distribution d’échantillonnage permet de construire des tests et IC.


| Valentine Isselée

Question : Quelles valeurs donner à µmin et µmax pour assurer que


𝑃𝑃�µ𝑚𝑚𝑚𝑚𝑚𝑚 < µ < µ𝑚𝑚𝑚𝑚𝑚𝑚 � = 1 − α = ⋯ % où 1-α est le niveau de

confiance de l’IC (exemple : 95%) et α le niveau d’erreur


(exemple : 5%) ? En connaissant σ

Hypothèse H0 : µ1 est dans IC ; H1 : µ1 n’est pas dans IC


σ σ
µ avec σ² �𝑋𝑋� − 𝑍𝑍1−α . ; 𝑋𝑋� + 𝑍𝑍1−α . � F5
2 √𝑛𝑛 2 √𝑛𝑛
connu A
Décision et interprétation :
Si le µéchant appartient à l’IC de ... % : NRH0 donc il y a ...% de
chance que mon IC contienne la valeur de µ.
Si le µéchant n’appartient pas à l’IC de ...% : RH0 donc il y a ...% de
chance que mon IC ne contienne pas la valeur de µ.

IC
Question : Quelles valeurs donner à µmin et µmax pour assurer que
𝑃𝑃�µ𝑚𝑚𝑚𝑚𝑚𝑚 < µ < µ𝑚𝑚𝑚𝑚𝑚𝑚 � = 1 − α = ⋯ % où 1-α est le niveau de

confiance de l’IC (exemple : 95%) et α le niveau d’erreur


(exemple : 5%) ? Étant donnée l’incertitude de σ on calcule avec
le quantile t et on calcule avec l’estimateur s.

Hypothèse H0 : µ1 est dans IC ; H1 : µ1 n’est pas dans IC


µ avec σ² F5
𝑠𝑠 𝑠𝑠
inconnu �𝑋𝑋� − 𝑡𝑡𝑛𝑛−1 ;
1−α . ; 𝑋𝑋� + 𝑡𝑡𝑛𝑛−1 ;
1−α . � B
2 √𝑛𝑛 2 √𝑛𝑛

Décision :
Si le µéchant appartient à l’IC de ... % : NRH0 donc il y a ...% de
chance que mon IC contienne la valeur de µ.
Si le µéchant n’appartient pas à l’IC de ...% : RH0 donc il y a ...% de
chance que mon IC ne contienne pas la valeur de µ.
| Valentine Isselée

Question : Quelles valeurs donner à σ²min et σ²max pour assurer que


𝑃𝑃(σ²𝑚𝑚𝑚𝑚𝑚𝑚 < σ² < σ²𝑚𝑚𝑚𝑚𝑚𝑚 ) = 1 − α = ⋯ % où 1-α est le niveau
de confiance de l’IC (exemple : 95%) et α le niveau d’erreur
(exemple : 5%) ?
Hypothèse H0 : σ1 est dans IC ; H1 : σ1 n’est pas dans IC

(𝑛𝑛 − 1) . 𝑠𝑠² (𝑛𝑛 − 1) . 𝑠𝑠²


� ; � F5
σ² 𝜒𝜒 2 𝛼𝛼 𝜒𝜒 2 𝛼𝛼
𝑛𝑛−1 , 1− 2 𝑛𝑛−1 , 2
C
[ 𝑟𝑟é𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 𝐼𝐼𝐼𝐼 < 1 ; 𝑟𝑟é𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 𝐼𝐼𝐼𝐼 > 1 ]

Décision et interprétation :
Si le σ²échant appartient à l’IC de ... % : NRH0 donc il y a ...% de
chance que mon IC contienne la valeur de σ².
Si le σéchant n’appartient pas à l’IC de ...% : RH0 donc il y a ...% de
chance que mon IC ne contienne pas la valeur de σ².
Question : Est-ce-que en moyenne, les individus de mon échantillon
ont une résultat [différente ; plus grande ; plus petite] que la
population (connaissant σ²) ? Avec un risque α.

= ≠
Hypothèse → H0 : µ � ≤ � µ0 et H1 : µ �>� µ0
≥ <
𝑋𝑋� − µ0
𝑧𝑧𝑜𝑜𝑜𝑜𝑜𝑜 = σ
√𝑛𝑛
Test sur Test Z : σ² F5

une µ connue Décision et interprétation : 1


Calculer Z en fonction des hypothèses (avec le risque α) et comparé
Z avec Zobs en fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer que les
individus de mon échantillon ont un résultat moyen [différente ; plus
grande ; plus petite] que la population avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer que les individus de
mon échantillon ont un résultat moyen [différente ; plus grande ;
plus petite] que la population avec un risque d’erreur α.
| Valentine Isselée

Question : Est-ce-que en moyenne, les individus de mon échantillon


ont une résultat [différente ; plus grande ; plus petite] que la
population (ne connaissant pas σ²) ? Avec un risque α.
= ≠
Hypothèse → H0 : µ � ≤ � µ0 et H1 : µ �>� µ0
≥ <
𝑋𝑋� − µ0
𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 = 𝑠𝑠
√𝑛𝑛
Test t : σ² F5
Décision et interprétation :
inconnue 2
Calculer tdl en fonction des hypothèses (avec le risque α) et
comparé tdl avec tobs en fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer que les
individus de mon échantillon ont un résultat moyen [différente ; plus
grande ; plus petite] que la population avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer que les individus de
mon échantillon ont un résultat moyen [différente ; plus grande ;
plus petite] que la population avec un risque d’erreur α.

Test χ² sur une variance σ²


Question : Est-ce-que les individus de mon échantillon ont une variabilité de résultat
[différente ; plus grande ; plus petite] que la population ? Avec un risque α.
= ≠

Hypothèse → H0 : σ² � � σ²0 et H1 : σ² �>� σ²0
≥ <
(𝑛𝑛 − 1) . 𝑠𝑠²
χ2𝑜𝑜𝑜𝑜𝑜𝑜 =
σ20
Test sur Décision et interprétation : F5

une σ² Calculer χ²n-1 en fonction des hypo (avec risque α) et comparer χ²n-1 avec χ²obs en 3
fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer que la variance des résultats
des individus de mon échantillon est [différente ; plus grande ; plus petite] que la
population avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer que la variance des résultats des
individus de mon échantillon est [différente ; plus grande ; plus petite] que la
population avec un risque d’erreur α.
| Valentine Isselée

Un QQ plot consiste à comparer les données observées aux données qu’on devrait avoir
si elles suivaient « parfaitement » une distribution normale. Les valeurs observées et
« idéales » sont représentées sur un graphe X-Y qui soit montrer une tendance linéaire en
cas de normalité.

Q-Q Plots

Si les données sont alignées à la droite représentant les données idéales cela signifie que
c’est une normale.

Le qq plot peut s’utiliser pour comparer deux distributions quelconques.

Distribution t de Ressemble à la distribution d’une Z∼N(0 ;1) mais à des « queues » plus épaisses.
Student On l’utilise, en inférence statistique sur des

T8 variables normales, quand une variance σ2 est


inconnue et qu’on la remplace par un estimateur
s² afin de tenir compte de l’incertitude sur σ².
Elle dépend d’un degré de liberté dl qui est
fonction du nombre de données utilisées pour calculer la variance estimée.
Plus le dl est grand, plus la t s’approche d’une N(0,1) donc queues s’aplatissent.

Distribution χ² Ressemble à la distribution d’une Z∼N(0 ;1) mais la moyenne est plus sur la gauche.
La distribution Chi-carré est utilisée pour faire de
l’inférence sur des sommes de carrées de variables
normales indépendantes. C’est le cas pour les
variances s² mais aussi pour les tests d’ajustement χ².
La distribution χ² dépend d’un paramètre, le degré
de liberté, qui est fonction du nombre de termes indépendants dans la somme des
carrés concernées.
| Valentine Isselée

CHAPITRE 3 : TESTS SUR LES PARAMÈTRES D’UNE VARIABLES QT NORMALE


OBSERVÉE SUR 2 GROUPES INDÉPENDANTS OU PAIRÉS
Une question fréquente en statistique consiste à comparer les moyennes ou les variances d’une variable continue X observée sur
2 groupes d’individus ou un même groupe observé dans 2 situations différentes. Les tests suivants sont des méthodes d’inférence
statistiques sur les paramètres d’une variable normale X observé dans 2 conditions différentes 𝑋𝑋1 ∼𝑁𝑁(𝜇𝜇1 ; 𝜎𝜎12 ) et 𝑋𝑋2 ∼𝑁𝑁(𝜇𝜇2 ; 𝜎𝜎22 )

F6 + 7 : Une variable quantitative VD et une variable qualitative VI (k=2 et groupes indépendants)


F8 : Une variable quantitative VD et une variable qualitative VI (k=2 et données pairées)
Les tests donnés dans ce chapitre ont des conditions d’application, elles supposent que :
- Les données sont de distribution Normale → vérifier par 2 q-q plot → si pas vérifier : transformation
- Les observations sont indépendantes (les individus n’influencent pas les autres individu, les échantillons
peuvent être indépendants) → vérifier par le contexte → si pas vérifier : autres tests
- Les variances sont éventuellement égales → vérifier par test d’égalité des variances (F ou Levene)
- Il n’y a pas de données aberrantes → vérifier par un box-plot→ si pas vérifier : comparé avec et
sans données aberrantes.

Test t de comparaison de 2 moyennes, variances inconnues et


supposées égale (données Normales) Test sur 2 populations
indépendantes.

Question : Est-ce-que la µ du grp 1 est [différente ; plus grande ; plus


petite] que la µ du grp 2 ? Avec un risque α.
= ≠

Hypothèse → H0 : µ1 � � µ2 et H1 : µ1 �>� µ2
≥ <
���1 − 𝑋𝑋
𝑋𝑋 ���2
𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 =
1 1
σ² �𝑠𝑠 ∗2 � + �
𝑛𝑛 𝑛𝑛
1 2
Test de inconnue (𝑛𝑛1 −1)𝑠𝑠12 +(𝑛𝑛2 −1)𝑠𝑠22
Avec : 𝑠𝑠 ∗2 = F6
comparaison mais 𝑛𝑛1 +𝑛𝑛2 −2

Décision et interprétation : 7
de µ supposée
égale Calculer tdl en fonction des hypo (avec risque α) et comparer tdl avec
tobs en fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer qu’en moyenne,
les individus de mon échantillon ont un résultat moyen [différente ;
plus grande ; plus petite] que l’autre groupe/ qu’avec l’autre
condition avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer qu’en moyenne, les
individus de mon échantillon ont un résultat moyen [différente ; plus
grande ; plus petite] que l’autre groupe/ qu’avec l’autre condition
avec un risque d’erreur α.
| Valentine Isselée

Test t de comparaison de 2 moyennes, variances inconnues et


supposées différentes (données Normales) Test sur 2 populations
indépendantes.

Question : Est-ce-que la µ du grp 1 est [différente ; plus grande ; plus


petite] que la µ du grp 2 ? Avec un risque α.
= ≠
Hypothèse → H0 : µ1 � ≤ � µ2 et H1 : µ1 �>� µ2
≥ <
���1 − 𝑋𝑋
𝑋𝑋 ���2
𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 =
σ² 𝑠𝑠 2 𝑠𝑠 2
� 1 + 2
inconnue 𝑛𝑛1 𝑛𝑛2
F7
mais Décision et interprétation :
8
supposée Calculer tdl en fonction des hypo (avec risque α) et comparer tdl avec
différentes tobs en fonction du dessin :

Si NRH0 → Les données n’ont pas permis de montrer qu’en moyenne,


les individus de mon échantillon ont un résultat moyen [différente ;
plus grande ; plus petite] que l’autre groupe/ qu’avec l’autre
condition avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer qu’en moyenne, les
individus de mon échantillon ont un résultat moyen [différente ; plus
grande ; plus petite] que l’autre groupe/ qu’avec l’autre condition
avec un risque d’erreur α.
| Valentine Isselée

Test utilisé par SPSS pour tester l’égalité de 2 ou k variances. Il sera


présenté en Bac 3 mais l’interprétation de sa p-valeur est identique à
Test de
celle du test F. SPSS

Levene

Test F de comparaison de 2 variances (données Normales) Test sur 2


populations indépendantes.

Question : Est-ce-que la σ² du grp 1 est [différente ; plus grande ;


plus petite] que la σ² du grp 2 ? Avec un risque α.
Test de = ≠
Hypothèse → H0 : σ²1 � ≤ � σ²2 et H1 : σ²1 �>� σ²2
comparaison ≥ <
de
𝑠𝑠1 ²
variances 𝐹𝐹𝑜𝑜𝑜𝑜𝑜𝑜 =
𝑠𝑠2 ²
F7
Test F Décision et interprétation :
9
Calculer Fn1-1;n2-1 en fonction des hypo (avec risque α) et comparer
Fn1-1;n2-1 avec Fobs en fonction du dessin :
Si NRH0 → Les données ne mettent pas en valeur une [différente ;
différence supérieure ; différence inférieur] significative entre les
variances du 1er et du 2ème groupe. Avec un risque d’erreur α.
Si RH0 → Les données mettent en valeur une [différente ; différence
supérieure ; différence inférieur] significative entre les variances du
1er et du 2ème groupe. Avec un risque d’erreur α.
| Valentine Isselée

ATTENTION test sur :


1 variable quantitative VD et 1 variable qualitative VI (k=2 et données pairées)
Test t de comparaison de deux moyennes pour données pairées (Normales)
Principe : on ne peut pas appliquer le test t (de 2 µ au groupe indépendant) sur 2
µ au données pairées car l’hypothèse d’indépendance entre les 2 mesure n’est pas
vérifiée. Pour comparer les µ de 2 échantillons pairés, le principe est de calculer
la différence entre les paires de données et de réaliser un test d’hypothèse sur la
moyenne des différences.
Question : Est-ce-que la µ du grp 1 est [différente ; plus grande ; plus petite] que
la µ du grp 2, sachant que ces groupes sont pairés ? Avec un risque α.
= ≠
Hypothèse → H0 : µ1 � ≤ � µ2 et H1 : µ1 �>� µ2
≥ <
= ≠
OU → H0 : µD � ≤ � 0 et H1 : µD �>� 0
Test t de
≥ < F8
comparaison
1) Calculer les différences entre les données pairées : 𝐷𝐷𝑖𝑖 = 𝑋𝑋1𝑖𝑖 − 𝑋𝑋2𝑖𝑖
de moyenne 12
� des 𝐷𝐷𝑖𝑖 et la variance 𝑠𝑠𝐷𝐷2 des Di
2) Calcule la moyenne 𝐷𝐷
3) Appliquer le test t sur une moyenne à variance inconnue sur la moyenne des
différences µD (test 2 de F5)
� −�µ���
𝐷𝐷 𝑋𝑋� −�µ��0�
𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 = 𝑠𝑠
0
OU 𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 = 𝑠𝑠
√𝑛𝑛 √𝑛𝑛

Décision et interprétation :
Calculer tdl en fonction des hypo (avec risque α) et comparer tdl avec tobs en fonction
du dessin :
Si NRH0 → Les données n’ont pas permis de montrer qu’en moyenne, on observe
une [stabilisation, différence, augmentation, diminution] significative sur mon
échantillon. Avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer qu’en moyenne on observe une
[stabilisation, différence, augmentation, diminution] significative sur mon
échantillon. Avec un risque d’erreur α.
| Valentine Isselée

Distribution F La distribution de F est utilisée en inférence statistique


de Fischer- pour tester l’égalité de variances indépendantes que
Snedecor ce soit pour comparer 2 simples variances ou pour
faire de l’ANOVA (voir BAC 3)

La distribution F dépend de 2 degrés de liberté : dl1 et dl2. C’est le rapport de 2


variables chi-carré à dl1 et dl2 degrés de liberté.

La table donne des quantiles en fonction des 2 degrés de liberté.

Un QQ plot consiste à comparer les données observées aux données qu’on devrait avoir
si elles suivaient « parfaitement » une distribution normale. Les valeurs observées et
« idéales » sont représentées sur un graphe X-Y qui soit montrer une tendance linéaire en
cas de normalité.

Q-Q Plots

Si les données sont alignées à la droite représentant les données idéales cela signifie que
c’est une normale.

Le qq plot peut s’utiliser pour comparer deux distributions quelconques.


| Valentine Isselée

CHAPITRE 4 : INFÉRENCE SUR LES PARAMÈTRES DE 1 VARIABLES QL /


CATÉGORIELLE
Dans de nombreuses situations, le résultat d’un test/ expérience/ sondage/ diagnostic, ... s’exprime sous la forme de nombre ou
proportion d’individus appartenant à une liste de catégories possibles. (Exemple : préférences électorales, réusite ou échec à une
épreuve, type de pathologie, ...) L’objectif du chapitre est de proposer des outils d’inférence pour traiter des données observées
sur 1 variable catégorielle. La variable d’intérêt est une variable Binomiale : X∼Bi(n;π) si deux résultats sont possibles et
multinomiale quand le nombre de résultats possible dépasse 2.

Correspond à la page F6 du formulaire : Une variable quantitative (et v.a. de comptage associée
binomiale (k=2) ou multinomiale (k ≥ 2))
Les tests et IC sur les paramètres d’un Normale ont des hypothèses sous-jacentes, elles supposent que :
- Une variable qualitative/catégorielle à k valeurs possibles sur n individus.
- Xi est le nombre d’individus observé dans la catégorie i.
- Les individus sont indépendants et représente un échantillon aléatoire de la population d’intérêt.

Chaque Xi est une variable Binomial X∼Bi(n;πi) ou πi est la proportion d’inconnue


d’individus de la population dans la catégorie i.
Variable
aléatoire Le « vecteur » (X1, …Xk) reprend les comptages des individus dans les k catégories.
multinomiale Il est appelé vecteur aléatoire multinomial et a pour paramètres π1, ... πk

Attention : ∑𝑅𝑅𝑖𝑖=1 π𝑖𝑖 = 1

Soit X une 𝐵𝐵𝐵𝐵(𝑛𝑛; π) ou π est inconnu et Xobs est le nombre de réussites d’une XP
observée sur un échantillon de n individus.
La probabilité ou proportion de π s’exprime naturellement par :
𝑋𝑋𝑜𝑜𝑜𝑜𝑜𝑜
𝑝𝑝 = 𝜋𝜋� =
Estimation sur une 𝑛𝑛
Distribution d’échantillonnage de l’estimateur : valable uniquement en grand
proportion et
distribution échantillon : 𝑛𝑛π ≥ 5 et 𝑛𝑛(1 − π) ≥ 5

d’échantillonnage 𝑋𝑋~𝐵𝐵𝐵𝐵(𝑛𝑛 ; 𝜋𝜋) ~ 𝐴𝐴 𝑁𝑁�𝑛𝑛𝑛𝑛 ; 𝑛𝑛𝑛𝑛(1 − 𝜋𝜋)� 𝜋𝜋� = 𝑋𝑋𝑜𝑜𝑜𝑜𝑜𝑜 ~𝐴𝐴 𝜋𝜋(1 − 𝜋𝜋)
𝑁𝑁 �𝜋𝜋 ; �
𝑛𝑛 𝑛𝑛
⇓ ⇓
𝑛𝑛 𝑛𝑛²
| Valentine Isselée

IC sur une proportion en grand échantillon (Xobs et (n-Xobs) ≥ 5)


 IC de niveau 1-α pour une proportion π
Question : Estimer par IC la proportion d’individus/ de réponses.... ? Avec le
niveau de confiance de l’IC (exemple : 95%) et α le niveau d’erreur
(exemple : 5%) ?

IC sur une 𝑋𝑋𝑜𝑜𝑜𝑜𝑜𝑜


Estimation de l’effet recherché : 𝜋𝜋
� = F6
proportion 𝑛𝑛
D
𝜋𝜋� . (1 − 𝜋𝜋�) 𝜋𝜋� . (1 − 𝜋𝜋�)
�𝜋𝜋� − 𝑍𝑍1−α . � ; 𝜋𝜋� + 𝑍𝑍1−α . � �
2 𝑛𝑛 2 𝑛𝑛

Hypothèse valide : 𝑛𝑛π ≥ 5 et 𝑛𝑛(1 − π) ≥ 5


Si hypothèse valide → IC OK
Si hypothèse non valide → IC PAS OK

Test binomial exact relatif à une proportion d’une Bi(n;π) → n petit


Test dit « exact » car on n’approxime pas la binomial en normale

Question : Est-ce que ..% des individus ont répondu « A » ? Avec un risque α.

Variable d’intérêt : X = nmb de réussite sur n XP : X∼Bi(n ;π), π inconnu


= ≠
Hypothèse → H0 : π � ≤ � π0(=pourcentage voulu) et H1 : π �>� π0(=pourcentage voulu)
≥ <
Test sur 1 vecteur Statistique de test : 𝑋𝑋𝑜𝑜𝑜𝑜𝑜𝑜 ~𝐵𝐵𝐵𝐵(𝑛𝑛, 𝜋𝜋0 ) sous H0
de proportions : F6
≤ 4
Règle de décision : Calcule de la P-valeur : 𝑃𝑃 �𝐵𝐵𝐵𝐵(𝑛𝑛, 𝜋𝜋0 ) 𝑋𝑋 �
K=2 ≥ 𝑜𝑜𝑜𝑜𝑜𝑜
Interprétation :
Si p-valeur < α ⇒ NRH0 → Les données n’ont pas permis de monter
significativement que ...% de mon échantillon ont répondu « A ». Avec un
risque d’erreur α. Calcul supplémentaire ou p-valeur = « p-valeur . 2 »

Si p-valeur > α ⇒ Si RH0 → Les données ont permis de monter


significativement que ...% de mon échantillon ont répondu « A ». Avec un
risque d’erreur α.
| Valentine Isselée

Test Z (asymptotique) relatif à proportion pour grand échantillon : 𝑛𝑛π ≥ 5 et


𝑛𝑛(1 − π) ≥ 5 → n grand

Question : Est-ce que ..% des individus ont répondu « A » ? Avec un risque α.
Variable d’intérêt : X = nmb de réussite sur n XP : X∼Bi(n ;π), π inconnu
= ≠

Hypothèse → H0 : π � � π0(=pourcentage voulu) et H1 : π �>� π0(=pourcentage voulu)
≥ <
𝑋𝑋𝑜𝑜𝑜𝑜𝑜𝑜 − 𝑛𝑛 . 𝜋𝜋0
𝑍𝑍𝑜𝑜𝑜𝑜𝑜𝑜 = F6
�𝑛𝑛 . 𝜋𝜋0 . (1 − 𝜋𝜋0 )
5
Règle de décision et interprétation :
Calculer Z en fonction des hypothèses (avec le risque α) et comparé Z avec
Zobs en fonction du dessin :
Si NRH0 → Les données n’ont pas permis de monter significativement que ...%
de mon échantillon ont répondu « A ». Avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer significativement que ...% de
mon échantillon ont répondu « A ». Avec un risque d’erreur α.
| Valentine Isselée

Test d’ajustement χ² à un critère de classification (pour k proportions d’un


vecteur multinomial (valable si tous les nπi ≥ 5)) → Proportion entre group

« Question » : Permet de vérifier que les données classées en catégories ont


bien une distribution de probabilité hypothétique. Le principe consiste à
comparer, pour chaque catégorie, le nombre de connées observées dans la
catégorie et le nombre que l’on s’attend à avoir pour la distribution
hypothétique. Est-ce-que j’ai la même proportion pour chaque possibilité, Est-ce
aléatoire ?

Variable d’intérêt : Xi = nbr Observées dans catégorie i ; π0 = proportion


d’individu Attendus dans la catégorie i « sous H0 » ; n : nbr total d’individus

Hypothèse → H0 : π1 = π10 = π2 = π20 ; … ; π𝑘𝑘 = πk0 et H1 : minimum 1


des égalités n’est pas vérifiée

Test d’hypothèses
Vérification des hypothèse sous-jacentes : nπi ≥ 5
sur 1 vecteur de
F6
proportions : 𝑘𝑘
(𝑋𝑋𝑖𝑖 − 𝑛𝑛𝜋𝜋𝑖𝑖0 )²
𝑘𝑘
(𝑂𝑂𝑂𝑂𝑠𝑠𝑖𝑖 − 𝐴𝐴𝐴𝐴𝑡𝑡𝑖𝑖 )2 6
χ2𝑜𝑜𝑜𝑜𝑜𝑜 = � =�
𝑛𝑛𝜋𝜋𝑖𝑖0 𝐴𝐴𝐴𝐴𝑡𝑡𝑖𝑖
K≥2 (n grand) 𝑖𝑖=1 𝑖𝑖=1

Règle de décision et interprétation :


Calculer χdl en fonction des hypothèses (avec le risque α) et comparé χdl avec
χobs en fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer que significativement la
distribution n’est pas aléatoire. Avec un risque d’erreur α.

Si RH0 → Les données ont permis de montrer que significativement la


distribution n’est pas aléatoire. Avec un risque d’erreur α.

Note : quand l’XP n’a que 2 résultats possibles, le test d’ajustement χ² est
équivalent au test sur une proportion.
| Valentine Isselée

CHAPITRE 5 : INFÉRENCES SUR LES PARAMÈTRES DE 2 VARIABLES QL


L’objectif est de présenter 2 tests d’homogénéité, un test d’indépendance et le lien avec le V de Cramer pour variables catégorielle.

Correspond à la page F9 du formulaire : Deux variables qualitatives


Test Z de comparaison de 2 proportions (grp indépendants, gd échantillon)

« Question » : on observe une même variable catégorielle à 2 niveaux


(=Bernoulli) sur 2 groupes d’individus indépendants et on désire comparer les
proportions observées dans les 2 groupes. Quelles sont les proportions de la
même variable pour chaque groupe d’individus ?

Variable d’intérêt : Tailles des groupe : n1 et n2 ; X1 et X2 = nbr d’individus


des groupe 1 et 2 ayant « réussi » l’XP → 2 variable Bi(n ; π), π inconnu

Hypothèses sous-jacentes : on suppose les individus indépendants entre eux


Condition d’application : 𝑛𝑛1 𝜋𝜋1 ≥ 5 et 𝑛𝑛1 (1 − 𝜋𝜋1 ) ≥ 5 ; 𝑛𝑛2 𝜋𝜋2 ≥ 5 et 𝑛𝑛2 (1 − 𝜋𝜋2 ) ≥ 5
difficile à vérifier car π est inconnu.
= ≠
Hypothèse → H0 : π1 � ≤ � π2 et H1 : π1 �>� π2
Test Z de ≥ <
F9
comparaison de
𝑋𝑋1 𝑋𝑋2 16
2 proportions 𝑛𝑛1 − 𝑛𝑛2
𝑍𝑍𝑜𝑜𝑜𝑜𝑜𝑜 =
𝑋𝑋 + 𝑋𝑋2 𝑋𝑋1 + 𝑋𝑋2 1 1
� 1 �1 − 𝑛𝑛1 + 𝑛𝑛2 𝑛𝑛1 𝑛𝑛2 �
� � +
𝑛𝑛1 + 𝑛𝑛2

Règle de décision et interprétation :


Calculer Z en fonction des hypothèses (avec le risque α) et comparé Z avec Zobs
en fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer significativement qu’il y a
une proportion [différente ; plus grande ; plus petite] entre le groupe 1 et
group 2. Avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer significativement qu’il y a une
proportion [différente ; plus grande ; plus petite] entre le grp 1 et grp 2. Avec
un risque d’erreur α.
| Valentine Isselée

Test χ² d’homogénéité de k proportions pour 1 v.a. catégorielle observée sur


Test χ² F9
g groupes indépendants ⇒ NON VU
d’homogénéité 17
 Test équivalent au test χ² de Pearson d’indépendance

Test χ² de Pearson d’indépendance de 2 variables qualitative VD

« Question » : on observe 2 v.a. catégorielle à k et g niveau sur un MÊME


groupe d’individus et on se demande si elles sont « indépendantes ». Les 2
variables sont-elles indépendantes ?

Variable d’intérêt : 2 variable catégorielle : W à k résultats possibles et Y à g


résultat possible, ces 2 variables sont observées sur 1 échantillon de n individus
représentatifs d’une population → tableau de contingence.
Xij est un v.a. Bi(n ; πij) et c’est la probabilité d’observer un individus dans les
niveau ki et gj des catégories W et Y ⇒ 𝑃𝑃�𝑊𝑊 = 𝑤𝑤𝑖𝑖 ∩= 𝑌𝑌 = 𝑦𝑦𝑗𝑗 �
Valeur attendue : 𝑛𝑛π𝑖𝑖𝑖𝑖 = 𝑛𝑛𝑛𝑛�𝑊𝑊 = 𝑤𝑤𝑖𝑖 ∩= 𝑌𝑌 = 𝑦𝑦𝑗𝑗 � = 𝑛𝑛. 𝑃𝑃(𝑊𝑊 = 𝑤𝑤𝑖𝑖 ). 𝑃𝑃�𝑌𝑌 = 𝑦𝑦𝑗𝑗 �
On fait estimation de la valeur attendue comme les probabilités sont inconnues

Principe : comparer les valeurs observées aux valeur attendues dans chaque
Test χ² paire de catégories sous l’hypothèse d’indépendance. F9
d’indépendance 18
Hypothèse H0 : W est indépendant de Y ; H1 : W n’est pas indépendant de Y

𝑔𝑔 𝑘𝑘 �𝑋𝑋𝑖𝑖𝑖𝑖 − 𝑛𝑛𝜋𝜋�𝑖𝑖𝑖𝑖 �² �𝑂𝑂𝑂𝑂𝑠𝑠𝑖𝑖𝑖𝑖 − 𝐴𝐴𝐴𝐴𝑡𝑡𝑖𝑖𝑗𝑗 �²


χ2𝑜𝑜𝑜𝑜𝑜𝑜 =� � =�
𝑗𝑗=1 𝑖𝑖=1 𝑛𝑛𝜋𝜋�𝑖𝑖𝑖𝑖 𝑖𝑖𝑖𝑖 𝐴𝐴𝐴𝐴𝑡𝑡𝑖𝑖𝑖𝑖
𝑋𝑋𝑖𝑖. 𝑋𝑋.𝑗𝑗
Avec 𝑛𝑛𝜋𝜋�𝑖𝑖𝑖𝑖 = 𝑛𝑛

�ij ≥ 5
Condition d’application : toutes les valeurs attendues : nπ

Règle de décision et interprétation :


Calculer χdl en fonction des hypothèses (avec le risque α) et comparé χdl avec
χobs en fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer une dépendance
significative entre les 2 variables. Avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer une dépendance significative entre
les 2 variables. Avec un risque d’erreur α.
| Valentine Isselée

Le V de Cramer permet de mesurer le degré d’association entre 2 variable


qualitative W et Y avec k et g niveau.

χ2𝑜𝑜𝑜𝑜𝑜𝑜
𝑉𝑉 = �
𝑛𝑛(𝑡𝑡 − 1)

𝑡𝑡 est le minimum entre la valeur de k et g (le nombre minimum de colonne ou F9


ligne) 18
V de Cramer
Le V de cramer est compris entre 0 et 1. +

F1
Plus le V est proche de 0 ⇒ plus proportions semblables donc pas de lien.

Plus le V est proche de 1 ⇒ plus proportions sont liée entre elles !

Le V de Cramer est difficile à analyser : cela dépend de la taille du tableau


aussi !
| Valentine Isselée

CHAPITRE 6 : TEST NON PARAMÉTRIQUES POUR COMPARER 2 VALEURS


CENTRALES
L’inférence sur des variables quantitatives continues présuppose le plus souvent la normalité des données disponibles. Or cette
hypothèse n’est pas toujours vérifiée ou vérifiable (quand n est petit). Des données comprennent aussi souvent des observations
+/- aberrantes qui peuvent affecter très fort les résultats des tests en distribution normal. L’objectif de ce chapitre est de proposer
des outils d’inférence qui ne nécessitent pas l’hypothèse de normalité pour les données ET soient robustes aux valeurs aberrantes.
Les appliquer à la comparaison de valeurs centrales.

Correspond à la page F7 et F8 du formulaire : Correspond au test non paramétrique


En inférence statistique, les méthodes « paramétriques » sont des méthodes pour
Rappel test lesquelles on prend des hypothèses sur les distributions de probabilité sous-jacentes
paramétriques des données analysées. Par exemple, dans un test t, on suppose que les données
suivent une distribution normale.
Les méthodes non paramétriques permettent de réaliser des analyses statistiques,
comme des tests d’hypothèses, sans prendre d’hypothèse sur la distribution des
données.
C’est utile quand la distribution n’est pas normale, ou qu’on ne sait pas la valider
(car n est petit), ou quand on a fréquemment des données aberrantes qui peuvent
affecter les conclusions d’analyses classiques.

Avantage : peuvent s’appliquer à toutes les circonstances : données non-normales,


petit échantillon, données avec outliers, ...

Test non- Désavantage : test moins puissant qu’un test paramétrique quand les données
paramétriques suivent effectivement une distribution Normale : permettent moins facilement de
mettre en évidence un effet quand il est présent.

Principe : les tests non paramétriques présentés ici travaillent, pour la plupart, sur
des rangs plutôt que sur les données originales.

Conseil : Quand vous en avez la possibilité, appliquez un test paramétrique et non


paramétrique pour répondre à une même question. S’ils amènent à la même
conclusion, il faut choisir le test en fonction de la question. S’ils amènent à des
conclusions différentes, il faut comprendre pourquoi.
| Valentine Isselée

Test de la somme des rangs de Wilcoxon : groupes indépendants


Données auxquelles le test s’applique : Deux échantillons de données quantitatives indépendants de
tailles n1 et n2. Si les 2 échantillons ont des tailles différentes, on met en premier celui qui a la plus
petite taille !
Question à laquelle le test tente de répondre : Les données, sont-elles d’une même distribution de
probabilité (valeur centrales, dispersions, distribution) ? En pratique le test va surtout comparer les
valeurs centrales des distributions et c’est dans cette optique là qu’il va être appliqué.
Hypothèses sous-jacentes : Les deux échantillons sont indépendants et à l’intérieur de chaque
échantillon, les observations sont indépendantes.
Traitement des ex aequo : Quand les rangs comportent des ex aequo, on remplace chaque rang par
la moyenne des rangs correspondants.

Test de la somme des rangs de Wilcoxon de comparaison de 2 tendances


centrales (petit échantillon)
= ≠
Hypothèse → H0 : C1 � ≤ � C2 et H1 : C1 �>� C2
≥ <
Calcul de la statistique de test WT :
⇒ Test de 1. n1 et n2 sont les tailles des 2 grp. Si les grp ne sont pas de même tailles, on
comparaison désigne comme grp 1 celui qui a la plus petite taille : n1 ≤ n2
de 2 tendances 2. Ordonner l’ensemble des données en ordre croissant et les transformer en
centrales d’une rangs
variable QT 3. Calculer les sommes des rangs pour chacun des 2 grp : R1 et R2
sur grps 4. Calculer « 𝑊𝑊 = 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒 𝑅𝑅1 𝑒𝑒𝑒𝑒 𝑅𝑅2 ». W est la statistique de tes
indépendants de SPSS. On note nW la taille du groupe avec la plus petite somme des F7

rangs. 10
//
5. Pour faire le test à la main, calculer la statistique WT comme suit :
Remplace test
Si : 𝑛𝑛𝑊𝑊 = 𝑛𝑛1 → 𝑊𝑊𝑇𝑇 = 𝑊𝑊
paramétrique de
𝑛𝑛1 +𝑛𝑛2 +1
comparaison des µ Si : 𝑛𝑛𝑊𝑊 = 𝑛𝑛2 → 𝑊𝑊𝑇𝑇 = 𝑊𝑊 − (𝑛𝑛2 − 𝑛𝑛1 ) . 2
de 2 grp
indépendants (7 Règle de décision :
et 8) Rejeter H0 si 𝑊𝑊𝑇𝑇 est plus petit ou égal à la valeur donnée ds table de Wilcoxon :
𝛼𝛼
- Test bilatérale : prendre table (n1,n2) avec seuil : 2

- Test unilatérale : prendre table (n1,n2) avec seuil : 𝛼𝛼 ET vérifier que la


différence va dans le bon sens !

Stat de Mann-Whitney : c’est la même chose sauf stat calculé différemment.


| Valentine Isselée

Test de la somme des rangs de Wilcoxon de comparaison de 2 tendances


centrales (grand échantillon → >25)
→ Même déroulement AU DÉBUT que petit échantillon
= ≠
Hypothèse → H0 : C1 � ≤ � C2 et H1 : C1 �>� C2
≥ <
Calcul de la statistique de test WT :
1. n1 et n2 sont les tailles des 2 grp. Si les grp ne sont pas de même tailles, on
désigne comme grp 1 celui qui a la plus petite taille : n1 ≤ n2
2. Ordonner l’ensemble des données en ordre croissant et les transformer en
rangs
3. Calculer les sommes des rangs pour chacun des 2 grp : R1 et R2
4. Calculer « 𝑊𝑊 = 𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚𝑚 𝑒𝑒𝑒𝑒𝑒𝑒𝑟𝑟𝑒𝑒 𝑅𝑅1 𝑒𝑒𝑒𝑒 𝑅𝑅2 ». W est la statistique de test
de SPSS. On note nW la taille du groupe avec la plus petite somme des
rangs.
5. Pour faire le test à la main, calculer la statistique WT comme suit :
Si : 𝑛𝑛𝑊𝑊 = 𝑛𝑛1 → 𝑊𝑊𝑇𝑇 = 𝑊𝑊
𝑛𝑛1 +𝑛𝑛2 +1
Si : 𝑛𝑛𝑊𝑊 = 𝑛𝑛2 → 𝑊𝑊𝑇𝑇 = 𝑊𝑊 − (𝑛𝑛2 − 𝑛𝑛1 ) . 2 F7

11
Règle de décision :
Rejeter H0 si 𝑊𝑊𝑇𝑇 est ≤ à la valeur donnée ds table de Wilcoxon (=Wcritique) :
𝛼𝛼
- Test bilatérale : prendre table (n1,n2) avec seuil : 2

- Test unilatérale : prendre table (n1,n2) avec seuil : 𝛼𝛼 ET vérifier que la


différence va dans le bon sens !

Quand n1 et n2 sont grd (>25), la somme des rangs peut être considérée comme
une distribution normale quand H0 est vrai ! On peut dans ce cas prendre comme
statistique de test 𝑍𝑍𝑜𝑜𝑜𝑜𝑜𝑜 et pas 𝑊𝑊𝑇𝑇 et regarder non pas dans la table de wilcoxon
α
mais dans la table des Normal avec α ou 2 :
𝑛𝑛1 (𝑛𝑛1 + 𝑛𝑛2 + 1)
𝑊𝑊𝑠𝑠 −
𝑍𝑍𝑜𝑜𝑜𝑜𝑜𝑜 = 2
�𝑛𝑛1 𝑛𝑛2 (𝑛𝑛1 + 𝑛𝑛2 + 1)
12

Décision et interprétation : voir test 1


Calculer Z en fonction des hypothèses (avec le risque) et comparé Z avec Zobs
en fonction du dessin.
| Valentine Isselée

Test de la somme des rangs de Wilcoxon : données pairées


But : Comparer valeurs centrales de données pairées observées sur 1 variable QT sous 2 conditions
Condition d’application : à l’intérieur de chaque échantillon, les données sont indépendantes.
Différences nulles : On la supprime de l’échantillon
Rangs des ex aequo : On remplace chaque rang par la moyenne des rangs correspondants.

Test (non-paramétrique) des rangs de Wilcoxon de comparaison de 2


tendances centrales pour données pairées (petit échantillon)
= ≠
Hypothèse → H0 : C1 � ≤ � C2 et H1 : C1 �>� C2
≥ <
Statistique de test :
F8
1. Calculer les ≠ entre les couples de données : 𝐷𝐷𝑖𝑖 = 𝑋𝑋2𝑖𝑖 − 𝑋𝑋1𝑖𝑖
2. Calculer les rangs des différences prises en valeurs absolue 13

3. Calculer les sommes :


⇒ Test de → 𝑇𝑇 + = rangs correspondants à une différence Positive
comparaison → 𝑇𝑇 − = rangs correspondants à une différence Négative

de 2 Règle de décision : Rechercher seuil critique en fonction de n et α ou 2 et le


α

tendances comparer en fct de l’hypothèse. Attention : prendre le seuil critique à la 1ère ligne !
centrales
Test des rangs de Wilcoxon de comparaison de 2 tendances centrales pour
d’une
données pairées (grand échantillon)
variable QT = ≠
sur données Hypothèse → H0 : C1 � ≤ � C2 et H1 : C1 �>� C2
≥ <
pairées
Statistique de test :
// 1. Calculer les ≠ entre les couples de données : 𝐷𝐷𝑖𝑖 = 𝑋𝑋2𝑖𝑖 − 𝑋𝑋1𝑖𝑖
2. Calculer les rangs des différences prises en valeurs absolue
Remplace test
paramétrique de 3. Calculer les sommes des rangs :
→ 𝑇𝑇 + = rangs correspondants à une différence Positive F8
comparaison des
→ 𝑇𝑇 − = rangs correspondants à une différence Négative
µ pour données 14
pairées (12) α
Règle de décision : Rechercher seuil critique en fonction de n et α ou 2 et le
comparer en fct de l’hypothèse. Attention : prendre le seuil critique à la 1ère ligne !

Quand n est grd (>25), la stat de test peut être considérée comme une distribution
normale quand H0 est vrai ! Dans ce cas on calcule la statistique de test :

𝑛𝑛(𝑛𝑛 − 1)
𝑇𝑇 − −
𝑍𝑍𝑜𝑜𝑜𝑜𝑜𝑜 = 4
�𝑛𝑛(𝑛𝑛 + 1)(2𝑛𝑛 + 1)
24

Décision et interprétation : voir test 1


| Valentine Isselée

Test de signe de comparaison de 2 tendances centrales pour données pairées F8

15
But : comparer les valeurs centrales de données pairées observées sur 1
variable QT sous 2 conditions

Condition d’application : à l’intérieur de chaque échantillon les données sont


indépendantes

Différence avec le test de Wilcoxon ? Le test de signe est moins puissant que
le test de Wilcoxon car le test de Wilcoxon est + capable de voir une
différence quand il y en a une que le test de signe. Il faut utiliser de préférence
le test de Wilcoxon !

= ≠
Test de signe Hypothèse → H0 : C1 � ≤ � C2 et H1 : C1 �>� C2
≥ <

Attention à définir l’ordre (qui est C1 et qui est C2)

Calcul de la statistique de test :


1. Calculer les ≠ entre les couples de données : 𝐷𝐷𝑖𝑖 = 𝑋𝑋2𝑖𝑖 − 𝑋𝑋1𝑖𝑖
2. Calculer 𝐷𝐷+ et 𝐷𝐷− : le nombre de différence positives et négative (en
ignorant celles qui sont nulles)
3. Soit 𝑛𝑛∗ = le nombre de différence non-nulles

Règle de décision : Par la méthode de la p-valeur


Tester avec un test binomial sur une proportion si la proportion de signe positif
1
ou négatifs est différente de 50% (test 4) ⇒ 𝐵𝐵𝐵𝐵 �𝑛𝑛∗ ; 2�
| Valentine Isselée

CHAPITRE 7 : INFÉRENCE SUR UN COEFFICIENT DE CORRÉLATION


Quand 2 variables sont observées sur 1 même individus, on s’intéresse souvent à comment l’une évolue par rapport à l’autre. Si
2 variables QT sont observées, le graphique X-Y et le coefficient de corrélation de Pearson sont les outils les plus utilisés pour
étudier la relation. L’objectif est de présenter des outils d’inférences statistique sur un coefficient de corrélation.

Correspond à la page F9 du formulaire : Deux variables quantitatives VD


Rappel : le coefficient (𝑟𝑟) de Pearson mesure la relation linéaire existant entre
2 variables QT X et Y (continue ou discrètes). Si X1, ... Xn et Y1, ... Yn sont 2
𝑐𝑐ô𝑣𝑣(𝑋𝑋,𝑌𝑌)
échantillons observés simultanément sur X et Y : 𝑟𝑟 = où −1 ≤ 𝑟𝑟 ≤ +1
𝑠𝑠𝑋𝑋 𝑠𝑠𝑌𝑌

C’est important de faire des graphique (graphique X Y) en plus que des calcul
car présence d’autres facteurs de variation : domaine couvert, non linéaire,
données pouvant être séparée, ...

 Soient X et Y deux v.a. quantitatives ; le coefficient de corrélation ρ


entre X et Y relatif à la population est définit par :
Coefficient de
𝐸𝐸�(𝑋𝑋 − 𝜇𝜇𝑋𝑋 )(𝑌𝑌 − 𝜇𝜇𝑌𝑌 )�
corrélation 𝜌𝜌 =
𝜎𝜎𝑋𝑋 𝜎𝜎𝑌𝑌
théorique ρ et  Soient X1, ... Xn et Y1, ... Yn des échantillons observés sur X et Y ; le
F1
estimation du coefficient de corrélation 𝑟𝑟 de Pearson est un estimateur du coefficient
coefficient de
de corrélation ρ qui est un paramètre inconnu de la population :
corrélation : r
1
∑(𝑋𝑋𝑖𝑖 − 𝑋𝑋�)(𝑌𝑌𝑖𝑖 − 𝑌𝑌�)
𝑟𝑟 = − 1
𝑁𝑁
𝑠𝑠𝑋𝑋 𝑠𝑠𝑌𝑌

Distribution d’échantillonnage de 𝑟𝑟 :
Si ρ est proche de 0 on peut dire que la distribution de ρ ce rapproche de la
distribution t de Student → Test de nulité
Si ρ est différent de 0, la distribution de r n’est pas connue mais on peut
montrer que via une transformation, r est approximativement une Normale
quand n est grand → IC
| Valentine Isselée

Question : Peut est l’IC du coefficient ρ de corrélation de Pearson ?

Principe : pour calculer une IC pour un coefficient de corrélation, on le calcul


d’abord sur 𝜌𝜌′ puis on le transforme en un IC sur 𝜌𝜌

Hypothèse sous-jacente : X et Y ont une distribution Normale bivariée telle que


𝑋𝑋~𝑖𝑖𝑖𝑖(𝜇𝜇𝑋𝑋 ; 𝜎𝜎𝑋𝑋2 ), 𝑌𝑌~𝑖𝑖𝑖𝑖(𝜇𝜇𝑌𝑌 ; 𝜎𝜎𝑌𝑌2 ) et 𝜌𝜌 lie X et Y.

Étapes de calcul :
1. Transformation de 𝑟𝑟 en 𝑟𝑟 ′ à partir de la table (T17) ou par la formule :
1 + 𝑟𝑟
𝑟𝑟 ′ = 0,5 ln � �
1 − 𝑟𝑟
IC sur un
2. Calcul d’un IC sur 𝜌𝜌′ F9
intervalle de
IC sur ρ′ : �ρ′𝑚𝑚 ; ρ′𝑀𝑀 � = �𝑟𝑟 ′ +⁄− 𝑍𝑍1−𝛼𝛼
1 E
corrélation �
2 √𝑛𝑛−3

3. Transformation inverse de cet intervalle sur 𝜌𝜌′ en un intervalle sur ρ à


partir de la table
�ρ′𝑚𝑚 ; ρ′𝑀𝑀 � ⇒ �ρ𝑚𝑚 ; ρ𝑀𝑀 �

Décision :
Si le 𝑟𝑟 appartient à l’IC de ... % : NRH0 donc il y a ...% de chance que mon IC
contienne la valeur de ρ.
Si le 𝑟𝑟 n’appartient pas à l’IC de ...% : RH0 donc il y a ...% de chance que mon
IC ne contienne pas la valeur de ρ.
| Valentine Isselée

But : Savoir si la corrélation est bien significative.

Question : Y-a-t-il une corrélation significative entre ces 2 variable ? Est-ce que
ρ ce rapproche de 0 ou s’en éloigne ?

= ≠
Hypothèses : → H0 : ρ � ≤ � 0 et H1 : ρ �>� 0
≥ <

Hypothèse sous-jacente : X et Y ont une distribution Normale bivariée telle que


𝑋𝑋~𝑖𝑖𝑖𝑖(𝜇𝜇𝑋𝑋 ; 𝜎𝜎𝑋𝑋2 ), 𝑌𝑌~𝑖𝑖𝑖𝑖(𝜇𝜇𝑌𝑌 ; 𝜎𝜎𝑌𝑌2 ) et 𝜌𝜌 lie X et Y.

𝑟𝑟√𝑛𝑛 − 2
𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 =
Test de nullité �1 − 𝑟𝑟²
d’un Décision et interprétation : F9
coefficient de Calculer tdl en fonction des hypo (avec risque α) et comparer tdl avec tobs en 19
corrélation fonction du dessin :
Si NRH0 → Les données n’ont pas permis de montrer qu’il y a bien une corrélation
significative entre les 2 variable. Avec un risque d’erreur α.
Si RH0 → Les données ont permis de montrer qu’il y a bien une corrélation
significative entre les 2 variable. Avec un risque d’erreur α.

Notes :
𝑟𝑟 = 0 → 𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 = 0 Si r se rapproche de 0 = RH0
Si r se rapproche de +/-1 = NRH0
𝑟𝑟 = 1 → 𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 = +∞
En fonction de la valeur (positif ou négatif)
𝑟𝑟 = −1 → 𝑡𝑡𝑜𝑜𝑜𝑜𝑜𝑜 = −∞
de r = rejet à gauche ou à droit
| Valentine Isselée

CHAPITRE 8 : PUISSANCE D’UN TEST ET CALCUL DE TAILLE D’ÉCHANTILLON


Quand on réalise un test d’hypothèse la décision prise n’est jamais certaine. Il est donc important de définir les risques encourus,
comprendre par quoi ils sont influencés pour mieux interpréter les résultats. Le chercher peut alors se demander s’il peut influencer
ces risques. L’objectif est de définir les risques d’erreur et la puissance dans un test d’hypothèse ainsi que montrer comment les
calculer et les contrôler.

Correspond à la page F10 du formulaire : Supplément : Calcul de la puissance d’un test sur 1 ou 2
moyenne(s) en population normale
Test d’hypothèse : risques liés au test

Test Erreur de type 1 : rejeter H0 quand H0 est vrai F7

d’hypothèse : Le risque ou probabilité liée est α qui est choisi donc connu et contrôlé. 10
risques liés au Erreur de type 2 : « accepter » H0 quand H1 est vrai
test F7
Le risque lié est β qui est inconnu et peut parfois être très grand
11
C’est pour cette raison qu’on n’accepte pas H0 mais on « ne rejette pas H0 »
| Valentine Isselée

La puissance : la probabilité de rejeter H0 (ou accepter H1) quand H1 est vrai, F9

c’est-à-dire si la vrai moyenne µ1 est > µ0 19

La puissance est influencée par la vraie valeur inconnue du paramètre (µ1) et la


Puissance d’un
taille de l’échantillon n.
test
Si on connait µ1 on peut calculer et donc prédire la capacité d’un test à mettre
en évidence un effet d’une certaine taille.

Si on désir atteindre une certaine puissance, il suffit d’augmenter n

La puissance d’un test est fonction de plusieurs facteurs :


- La vraie moyenne µ1 (inconnue) sous hypothèse alternative
- La taille de l’échantillon n
- L’écart-type σ de la variable d’intérêt
- α la probabilité de l’erreur de type 1
- Le test utilisé (la majorité des tests proposés sont les plus puissant)

Facteur qui Si 𝜇𝜇1 − 𝜇𝜇0 augmente, β diminue (à α fixé) → plus µ1 est éloigné de µ0, plus le

influence la test est puissant et détectera facilement la différence.

puissance 𝜎𝜎
La largeur de la distribution de 𝑋𝑋� dépend de → si σ diminue, β diminue et
√𝑛𝑛

la puissance augmente et Si n augmente, β diminue et la puissance augmente

Si α augmente, β diminue et la puissance augmente

Des tables existent pour calculer une puissance pour les tests sur 1 et 2
moyennes. Pour les autres test des logiciels ou abaques sont disponibles.

Vous aimerez peut-être aussi