Académique Documents
Professionnel Documents
Culture Documents
Variable latente formative : lorsque les variables mesurées sont la cause du "construit"
mesuré. CAD, lorsque cette VF est « formée » ou directement modifiée et influencée par les
indicateurs. Ce sont donc les indicateurs qui "créent" le construit mesuré.
L'analyse factorielle : utilisée pour purifier les construits d'un questionnaire, c'est-à-dire
éliminer les items qui nuisent à la validité de trait ou de construit.
RAPPEL : Les items mesurant un même construit doivent tous être suffisamment fortement
corrélés à un seul et même facteur. Ils ne doivent pas, ou peu, être corrélés à d'autres ou à
plusieurs facteurs en même temps.
1- Taille de l’échantillon : Il faut min 5 observations par item (un ratio de 10 pour 1 est
préférable), le nombre total d’observations soit être d’au moins 50 et il est
souhaitable d’interroger au moins 100 individus
2- L’adéquation des données : Il faut s’assurer que les données sont factorisables. Elles
doivent former un ensemble cohérent pour pouvoir y chercher des dimensions
communes qui aient un sens.
*Indicateur utilisé : Measure of Sampling Adequacy (MSA) ou Kaiser-Meyer-
Olkin (KMO) : teste si les corrélations partielles entre les variables ne sont pas trop
faibles ; KMO >0.3 et <0.7 ⇒ Acceptable ; KMO >0.7 ⇒ Préférable et Le test de
Sphéricité de Bartlett est assez peu utile.
3- Le critère du pourcentage de variance : s’assurer que l’ensemble des facteurs
retenus explique une quantité significative de variance en dépassant un certain seuil
fixé au préalable. Il est souvent conseillé d'imposer un pourcentage de variance
expliquée égal à 50%.
4- L’extraction des facteurs : Trois critères peuvent être utilisés : L'«eigenvalue», ou
règle des valeurs propres ou règle de Kaiser-Guttman.
L’eigenvalue = valeur propre
Une valeur propre : représente la quantité d'informations capturée par un facteur, Un
facteur qui aurait une valeur propre inférieure à 1 représenterait moins d'informations qu'un
simple item initial.
La règle de Kaiser : repose sur une idée simple. Dans une ACP normée, la somme des valeurs
propres étant égale au nombre de variables, leur moyenne vaut 1.
La méthode d'extraction utilisée : ACP (quanti) ACM (quali)
Les Communalités doivent dépasser 0,5 et si possible 0,7. Une Communalité de 0,5
signifie que 50% de la variance de l’item est prise en compte ou expliquée par les
facteurs ;
Le niveau des communalités est : Moyen (compris entre 0,40 et 0,65)
Bon (compris entre 0,65 et 0,80)
Excellent (sup à 0,80)
Eliminer les communalités : si < à 0,5.
Coefficients structurels : Deux critères doivent être considérés :
Eliminer des items dont CS <0,6 (faible et moyen)
Eliminer des items moyennement corrélés à plusieurs axes à la fois
6- Rotation des facteurs : permet d'identifier des groupes de variables fortement liés
les uns aux autres en faisant tourner le système d’axe en minimisant la distance entre
les variables et les axes de telle sorte que chaque item initial ne soit fortement
corrélé qu’à un seul facteur.
Méthodes de rotation :
Orthogonale : Aucune rotation (90°) les axes ne sont pas contraints à être indépendants,
c'est-à dire non corrélés entre eux, on parle de rotation oblique.
Les axes sont orthogonaux, c'est-à-dire que les composantes principales partagent une
corrélation nulle.
Varimax : Rotation orthogonale qui minimise le nombre de variables ayant de fortes
corrélations sur chaque facteur
Oblimin direct : Rotation oblique, c’est-à-dire dans laquelle les axes se positionnent en
fonction des items et ne sont donc pas orthogonaux
Quartimax : Méthode qui minimise le nombre de facteurs requis pour expliquer chaque
variable
Equamax : Méthode de rotation qui minimise à la fois le nombre de variables qui pèsent
fortement sur un facteur et le nombre de facteurs requis pour expliquer une variable
La segmentation
La segmentation : est un moyen par lequel on pourra, par exemple, identifier les cibles
d'une campagne de mailing, orienter une extension de gamme de produits, définir le
message publicitaire adapté à un profil de consommateurs.
Constitution de groupes :
o Classification hiérarchique : (ascendante, descendante)
o Classification non hiérarchique : (centres mobiles, nuées dynamiques)
Classification hiérarchique ascendante (CHA) : l’une des techniques statistiques visant à
partitionner une population en différentes classes ou sous-groupes. On cherche à ce que les
individus regroupés au sein d’une même classe (homogénéité intra-classe) soient le plus
semblables possibles tandis que les classes soient le plus dissemblables (hétérogénéité inter-
classe).
L'étude quantitative : a pour but d'obtenir des informations plus précises et surtout quantifiées
La démarche de construction d'un questionnaire : répertorier les éléments d'informations
souhaités-définir le type de questions à poser et leur forme, leur nombre et l'ordre des questions-
réaliser le prétest du questionnaire-évaluer la fiabilité du test
Enquêtes « exploratoires » : pour les études documentaires et qualitatives qui n’ont pas vocation à
donner des résultats représentatifs, mais à éclairer la complexité d’un sujet, à en montrer les
différents aspects
Variable manifeste : est une variable ou un facteur qui peut être directement mesuré ou observé
Validité faciale : s’agit de savoir si la mesure capture les différents aspects du phénomène étudié
Validité de trait : s’agit ici de savoir si les différents indicateurs offrent une bonne représentation du
phénomène étudié
La méthode du « test/retest » : le questionnaire est administré deux fois à la même population et les
résultats obtenus sont comparés. Cette technique est particulièrement appropriée pour la mise au
point d’instrument de mesure
La méthode du « Split half », ou des deux moitiés : le questionnaire est administré au même
moment à des échantillons différents (l’échantillon est scindé en deux) et les résultats sont comparés
Technique des formes alternatives : s’agit d’introduire dans le questionnaire plusieurs questions sur
le même phénomène mais formulées différemment. Le questionnaire est administré aux mêmes
individus
Hypothèse statistique est un énoncé quantitatif concernant les caractéristiques d’une population ou,
plus précisément, une affirmation portant sur une ou plusieurs variables
Tests paramétriques : les approches reposant sur des données métriques (et par suite sur des
paramètres connus tels que la moyenne ou l’écart type, par exemple)
Tests non paramétriques : les approches reposant sur des données non métriques (et qui, par suite,
peuvent s’affranchir de conditions de distribution particulières)
Mesures indépendantes : Lorsque l’on étudie deux populations distinctes sur une même variable
Mesures appariées : Lorsque les mêmes individus sont mesurés sur une même variable dans deux
situations distinctes
Test de Kolmogorov-Smirnov : est un test dit d’ajustement, car il permet d’établir si deux
échantillons ont la même distribution ou si bien un échantillon est normalement distribué
Test de Mann-Whitney : permet de vérifier que deux échantillons (ou groupes) proviennent bien de
la même population
Test de Wilcoxon est utilisé dans le cas de la comparaison de deux échantillons appariés
La statistique z du test de Wilcoxon : s’obtient en calculant la différence entre les scores des deux
observations par paires d’observations
L’analyse typologique : peut être utilisée dans ce cadre pour simplifier la lecture des données en
regroupant des observations ayant des caractéristiques communes, ou encore pour faire émerger
des groupes d’individus homogènes des données collectées
Coefficient de corrélation de Pearson : c’est une mesure d’association qui permet d’établir si deux
variables mesurées sur le même ensemble d’observations varient de façon analogue ou non
La distance de Tchebycheff : s’agit de la différence maximale absolue entre les valeurs relatives aux
éléments de la classification
La distance de Minkowski : est la racine nième de la somme des différences absolues entre les
valeurs relatives aux éléments à la puissance n