Vous êtes sur la page 1sur 6

Résumé S6 EDM

Validation d’une échelle de mesure


Variable latente : Une variable latente est une variable abstraite, non directement
observable, qui nécessite de disposer de plusieurs indicateurs pour la mesurer.

Variable latente réflective : Lorsque les indicateurs sont le reflet (conséquence) de la


variable latente.

Variable latente formative : lorsque les variables mesurées sont la cause du "construit"
mesuré. CAD, lorsque cette VF est « formée » ou directement modifiée et influencée par les
indicateurs. Ce sont donc les indicateurs qui "créent" le construit mesuré.

L'analyse factorielle : utilisée pour purifier les construits d'un questionnaire, c'est-à-dire
éliminer les items qui nuisent à la validité de trait ou de construit.
RAPPEL : Les items mesurant un même construit doivent tous être suffisamment fortement
corrélés à un seul et même facteur. Ils ne doivent pas, ou peu, être corrélés à d'autres ou à
plusieurs facteurs en même temps.

Analyse factorielle exploratoire : permet de décrire un phénomène de manière synthétique,


les variables sont considérées chacune par rapport aux autres, et les facteurs sont formés
pour expliquer et non pas prédire l'ensemble des variables dépendantes, utilisée pour la
validation d’un questionnaire ou d’une échelle de mesure et la segmentation (regroupement
des éléments qui se ressemblent)
Principes de validation d'une échelle de mesure : 1. La validité d'une échelle de mesure / 2.
La fiabilité d'une échelle de mesure.
Conditions de l’AFE :

1- Taille de l’échantillon : Il faut min 5 observations par item (un ratio de 10 pour 1 est
préférable), le nombre total d’observations soit être d’au moins 50 et il est
souhaitable d’interroger au moins 100 individus
2- L’adéquation des données : Il faut s’assurer que les données sont factorisables. Elles
doivent former un ensemble cohérent pour pouvoir y chercher des dimensions
communes qui aient un sens.
*Indicateur utilisé : Measure of Sampling Adequacy (MSA) ou Kaiser-Meyer-
Olkin (KMO) : teste si les corrélations partielles entre les variables ne sont pas trop
faibles ; KMO >0.3 et <0.7 ⇒ Acceptable ; KMO >0.7 ⇒ Préférable et Le test de
Sphéricité de Bartlett est assez peu utile.
3- Le critère du pourcentage de variance : s’assurer que l’ensemble des facteurs
retenus explique une quantité significative de variance en dépassant un certain seuil
fixé au préalable. Il est souvent conseillé d'imposer un pourcentage de variance
expliquée égal à 50%.
4- L’extraction des facteurs : Trois critères peuvent être utilisés : L'«eigenvalue», ou
règle des valeurs propres ou règle de Kaiser-Guttman.
L’eigenvalue = valeur propre
Une valeur propre : représente la quantité d'informations capturée par un facteur, Un
facteur qui aurait une valeur propre inférieure à 1 représenterait moins d'informations qu'un
simple item initial.
La règle de Kaiser : repose sur une idée simple. Dans une ACP normée, la somme des valeurs
propres étant égale au nombre de variables, leur moyenne vaut 1.
La méthode d'extraction utilisée : ACP (quanti) ACM (quali)

Analyse en composantes principales (ACP) : la méthode la plus employé, consiste à


transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles
variables décorrélées les unes des autres. Ces nouvelles variables sont nommées «
composantes principales », ou axes principaux. Elle permet au praticien de réduire le
nombre de variables et de rendre l'information moins redondante.
Analyse des correspondances multiples (ACM) : Contrairement à l'AFC qui étudie le lien en
deux variables qualitatives, l'ACM la généralise en permettant d'étudier le lien entre
plusieurs variables qualitatives.
5- L’épuration d’une échelle de mesure se fait en deux temps :
Communalités : part de variance des composantes expliquées par l'item

Les Communalités doivent dépasser 0,5 et si possible 0,7. Une Communalité de 0,5
signifie que 50% de la variance de l’item est prise en compte ou expliquée par les
facteurs ;
Le niveau des communalités est : Moyen (compris entre 0,40 et 0,65)
Bon (compris entre 0,65 et 0,80)
Excellent (sup à 0,80)
Eliminer les communalités : si < à 0,5.
Coefficients structurels : Deux critères doivent être considérés :
 Eliminer des items dont CS <0,6 (faible et moyen)
 Eliminer des items moyennement corrélés à plusieurs axes à la fois
6- Rotation des facteurs : permet d'identifier des groupes de variables fortement liés
les uns aux autres en faisant tourner le système d’axe en minimisant la distance entre
les variables et les axes de telle sorte que chaque item initial ne soit fortement
corrélé qu’à un seul facteur.
Méthodes de rotation :
Orthogonale : Aucune rotation (90°) les axes ne sont pas contraints à être indépendants,
c'est-à dire non corrélés entre eux, on parle de rotation oblique.
Les axes sont orthogonaux, c'est-à-dire que les composantes principales partagent une
corrélation nulle.
Varimax : Rotation orthogonale qui minimise le nombre de variables ayant de fortes
corrélations sur chaque facteur
Oblimin direct : Rotation oblique, c’est-à-dire dans laquelle les axes se positionnent en
fonction des items et ne sont donc pas orthogonaux
Quartimax : Méthode qui minimise le nombre de facteurs requis pour expliquer chaque
variable
Equamax : Méthode de rotation qui minimise à la fois le nombre de variables qui pèsent
fortement sur un facteur et le nombre de facteurs requis pour expliquer une variable

La segmentation
La segmentation : est un moyen par lequel on pourra, par exemple, identifier les cibles
d'une campagne de mailing, orienter une extension de gamme de produits, définir le
message publicitaire adapté à un profil de consommateurs.

La segmentation a priori : fondée sur la connaissance qu'a le manager de son marché.


La segmentation aléatoire : fondée sur le traitement de données et les méthodes d'analyse
typologique.
Les variables de segmentation : Géomarketing/ Sociodémographiques/ psycho graphiques
: Style de vie, personnalité, etc./ Comportementales : Attitudes, préférences
Analyse typologique : Étant donné un ensemble d'objets (ou d'individus) décrits par un
certain nombre de caractéristiques (ou variables), constituer des groupes (ou types) d'objets
tels que les objets soient les plus similaires possibles au sein d'un groupe et que les groupes
soient aussi dissemblables que possible entre eux ; la ressemblance ou la dissemblance étant
mesurée sur l'ensemble des variables décrivant les objets

Constitution de groupes :
o Classification hiérarchique : (ascendante, descendante)
o Classification non hiérarchique : (centres mobiles, nuées dynamiques)
Classification hiérarchique ascendante (CHA) : l’une des techniques statistiques visant à
partitionner une population en différentes classes ou sous-groupes. On cherche à ce que les
individus regroupés au sein d’une même classe (homogénéité intra-classe) soient le plus
semblables possibles tandis que les classes soient le plus dissemblables (hétérogénéité inter-
classe).

Classification hiérarchique descendante (CHD) : consiste à considérer l'ensemble des


observations rassemblées au sein d'une même classe, puis à les diviser en deux classes, puis
en trois, quatre, etc., jusqu'à obtenir un nombre maximum de classes (des groupes ne
contenant qu'un seul individu).
N.B : Deux observations identiques auront une distance nulle. Plus les deux observations
seront dissemblables, plus la distance sera importante.
Classification non hiérarchique : le choix du nombre de groupes se fait en début de
processus. Il s'agit d'un paramètre à fixer avant de lancer l'algorithme. C'est un élément qui
peut poser problème, étant donné que l'on ne connaît jamais ex ante le nombre idéal de
groupes existant au sein d'une population étudiée.
La méthode des centres mobiles : méthode décomposant un ensemble d’individus en un
nombre n de classes choisies a priori par un processus itératif convergeant de sélection des
représentants de chaque classe.
La méthode des nuées dynamiques : s’agit d’une généralisation de la méthode des centres
mobiles, dans laquelle chaque classe est représentée par un noyau de plusieurs éléments et
non plus par un seul.

Test des hypothèses


Variable objective : Variable qui est mesurée directement comme le CA, le taux
d’endettement, l’âge ...
Variable subjective : Variable difficile à mesurer, autrement dit ambigüe, comme l’attitude.
Quand on a une variable subjective, on doit la transformer en une échelle de mesure pour
avoir des niveaux, puis, il faut épurer l’échelle en faisant appel au paradigme de Churchill
afin de réduire l’erreur aléatoire, finalement on va les transformer en chiffres
Variable médiatrice : est une variable intermédiaire qui permet de mesurer l’effet de la
variable indépendante sur la variable dépendante
Variable modératrice : est une variable qui peut influencer l’intensité de relation entre la
variable indépendante et la variable dépendante
Modèle de recherche : une représentation graphique des interactions entre les variables
Modèle mathématique : une formulation mathématique des liens entre les variables
Validité convergente : sert à supprimer tout item qui n’est pas corrélé aux autres, parce
qu’un construit ne doit contenir que des variables qui se ressemblent, c’est-à-dire des
variables qui mesurent la même chose.
Validité discriminante : sert à supprimer toute variable qui appartient à deux blocs à la fois,
car un item ne peut pas mesurer deux choses différentes
Pré-test : permet de vérifier la validité interne du questionnaire qui se compose de la validité
convergente et la validité discriminante.

Validité confirmatoire : se fait pour confirmer les résultats du pré-test.


Validité exploratoire : se fait sur un échantillon de 50
Marge d’erreur : un écart entre le résultat obtenu à partir d’un échantillon et le résultat qui
serait obtenu si on avait interrogé la totalité de la population mère.
Série plurimodale = série multimodale : contient plusieurs valeurs qui présentent à la fois la
plus grande fréquence d’apparition, dans une manière plus claire, plusieurs modes.
Classification supervisée : un ensemble de méthodes prédictives qui nécessite la réunion de
trois conditions : En premier lieu, il faut avoir une variable dépendante nommée : output
qu’on pourrait prédire contrairement aux aléatoires ou stochastiques qui sont pas
maitrisables, donc, on ne peut pas les prédire En deuxième lieu, il faut avoir un échantillon
d’apprentissage basé sur les expériences relatives au passé et qui doit être assez grand si on
veut que nos prévisions soient les plus fiables Enfin, il faut avoir des classes, autrement dit
des groupes d’affectation prédéfinis puisque le principe est d’affecter les éléments aux
classes.

Classification non supervisée : sert à regrouper un ensemble d’éléments qui se ressemblent


en termes de plusieurs critères Notons que la classification non supervisée nécessite pas
avoir une variable dépendante contrairement à la classification supervisée Parmi ses
méthodes, on trouve l’analyse en composantes principales.
Multi-colinéarité : désigne l’existence d’une forte relation entre plusieurs variables
indépendantes.
Construit : bloc de variables homogènes.

Analyse factorielle des correspondances : porte dur deux variables qualitatives


Analyse des correspondances multiples : porte sur plusieurs variables qualitatives
Business model : la façon dont l'entreprise génère son profit, tandis que le business plan ou plan
d'affaires est un document présentant la stratégie de l'entreprise et ses implications financières pour
les années à venir.
L’étude documentaire-desk research : recueillir des informations sur le marché du produit ou du
service que l'entreprise désire lancer

L’étude qualitative : permet, en se rapprochant du terrain, de comprendre les freins et les


motivations des consommateurs vis à vis du produit ou du service que l'entreprise souhaite lancer

L'étude quantitative : a pour but d'obtenir des informations plus précises et surtout quantifiées
La démarche de construction d'un questionnaire : répertorier les éléments d'informations
souhaités-définir le type de questions à poser et leur forme, leur nombre et l'ordre des questions-
réaliser le prétest du questionnaire-évaluer la fiabilité du test

Enquêtes « exploratoires » : pour les études documentaires et qualitatives qui n’ont pas vocation à
donner des résultats représentatifs, mais à éclairer la complexité d’un sujet, à en montrer les
différents aspects

L’effet de halo : correspond à la situation où la personne interrogée a tendance à répondre toujours


de la même manière lorsque plusieurs questions sont posées sous formes d’échelles orientées dans
le même sens

Variable manifeste : est une variable ou un facteur qui peut être directement mesuré ou observé

Validité faciale : s’agit de savoir si la mesure capture les différents aspects du phénomène étudié
Validité de trait : s’agit ici de savoir si les différents indicateurs offrent une bonne représentation du
phénomène étudié
La méthode du « test/retest » : le questionnaire est administré deux fois à la même population et les
résultats obtenus sont comparés. Cette technique est particulièrement appropriée pour la mise au
point d’instrument de mesure

La méthode du « Split half », ou des deux moitiés : le questionnaire est administré au même
moment à des échantillons différents (l’échantillon est scindé en deux) et les résultats sont comparés

Technique des formes alternatives : s’agit d’introduire dans le questionnaire plusieurs questions sur
le même phénomène mais formulées différemment. Le questionnaire est administré aux mêmes
individus

Hypothèse statistique est un énoncé quantitatif concernant les caractéristiques d’une population ou,
plus précisément, une affirmation portant sur une ou plusieurs variables

Tests paramétriques : les approches reposant sur des données métriques (et par suite sur des
paramètres connus tels que la moyenne ou l’écart type, par exemple)

Tests non paramétriques : les approches reposant sur des données non métriques (et qui, par suite,
peuvent s’affranchir de conditions de distribution particulières)

Mesures indépendantes : Lorsque l’on étudie deux populations distinctes sur une même variable

Mesures appariées : Lorsque les mêmes individus sont mesurés sur une même variable dans deux
situations distinctes
Test de Kolmogorov-Smirnov : est un test dit d’ajustement, car il permet d’établir si deux
échantillons ont la même distribution ou si bien un échantillon est normalement distribué

Test de Mann-Whitney : permet de vérifier que deux échantillons (ou groupes) proviennent bien de
la même population

Test de Wilcoxon est utilisé dans le cas de la comparaison de deux échantillons appariés

La statistique z du test de Wilcoxon : s’obtient en calculant la différence entre les scores des deux
observations par paires d’observations

L’analyse typologique : peut être utilisée dans ce cadre pour simplifier la lecture des données en
regroupant des observations ayant des caractéristiques communes, ou encore pour faire émerger
des groupes d’individus homogènes des données collectées

Coefficient de corrélation de Pearson : c’est une mesure d’association qui permet d’établir si deux
variables mesurées sur le même ensemble d’observations varient de façon analogue ou non

La distance de Tchebycheff : s’agit de la différence maximale absolue entre les valeurs relatives aux
éléments de la classification

La distance de Minkowski : est la racine nième de la somme des différences absolues entre les
valeurs relatives aux éléments à la puissance n

Vous aimerez peut-être aussi