Académique Documents
Professionnel Documents
Culture Documents
net/publication/256081754
CITATIONS READS
0 1,625
2 authors:
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Hervé Guyon on 22 May 2014.
Mouloud Tensaout
Maître de Conférences
ARGUMANS-GAINS
Université du Maine, Olivier Messiaen 72085, Le Mans
Email : mouloud.tensaout@univ-lemans.fr
Hervé Guyon
Maître de Conférences
PESOR,Université Paris Sud
IUT de Sceaux, 8 Avenue de Cauchy, 92 330 Sceaux
Email : herve.guyon@u-psud.fr
Les variables latentes formatives avec LISREL et PLSPM
RESUME
Les mesures formatives d’un construit sont maintenant usuelles dans les applications
marketing. Dans cet article, nous discutons des principales faiblesses soulevées dans la
littérature concernant à la fois leurs opérationnalisations (niveau conceptuel) et le processus
de validation (niveau empirique). La contribution principale de cet article est d’illustrer sur de
jeux de données simulées les implications pratiques de ces critiques sur l’interprétation d’un
construit mesuré formativement. Plus précisément nous examinons en détail les critiques
adressées sur les hypothèses auxiliaires qui sous–tendent la spécification de ce type de
mesures. Ainsi, nous relâchons une à une les hypothèses jugées peu réalistes ou fragiles. Nous
terminons par des recommandations quant au développement et à l’usage des mesures
formatives dans les applications marketing.
ABSTRACT
The formative measures of a construct are usual in the marketing applications. In this article,
we discuss main weaknesses raised in the literature concerning at the same time their
operationalization (abstract level) and the process of validation (empirical level). The main
contribution of this article is to illustrate with data simulations the practical implications of
these criticisms on the interpretation of a construct measured formatively. More exactly we
examine in detail the criticisms sent on the auxiliary hypotheses which underlie the
specification of this type of measures. So, we release one by one the hypotheses considered
little realistic or fragile. We end with recommendations as for the development and for the
formative measures in the marketing applications.
Key words: Formative measurement, LISREL, PLS, Structural Equation Model, Validation.
INTRODUCTION
Les indicateurs de mesures formatifs d’un construit1 remontent aux travaux en sociologie de
Blalock (1971).Contrairement aux mesures réflectives définies comme les manifestations
d’un construit (Figure 1), les mesures formatives sont vues comme les causes de la genèse du
construit (Figure 2) (Fornell et Bookstein, 1982 ; Bollen et Lennox, 1991 ; MacCallum et
Browne, 1993). Si les échelles de mesure ont été pendant tout un temps quasiment
exclusivement réflectives, s'appuyant sur le protocole de Churchill (1979), depuis les articles
de Diamantopoulos et Winklhofer (2001) et Jarvis et alii (2003), la production scientifique
comporte nombre de travaux utilisant des mesures formatives. La distinction entre construits
réflectifs et construits formatifs semble être clarifiée depuis l'article de Jarvis et alii (2003), et
pour les lecteurs de Recherche et Applications en Marketing par l'article de Crié (2005).
Pourtant depuis ces publications la discussion sur les modèles de mesures formatifs dans
la littérature académique est prolixe et soulève de nouveaux débats. Psychological Methods
(2007), Journal of Business Research (2008) et MIS Quaterly (2011) ont par exemple fait
récemment des numéros spéciaux sur ces construits mesurés formativement.
Ces mesures formatives renvoient en premier lieu aux questions conceptuelles traitant du
statut ontologique d’un construit (Edwards et Bagozzi, 2000 ; Rossiter, 2002 ; Borsboom et
alii, 2003 ; Borsboom et alii, 2004 ; Bagozzi, 2007 et 2011; Howell et alii, 2007a ; Howell et
alii, 2007b ; Diamantopoulos et alii, 2008). Bagozzi (2011) revient longuement sur les
fondements philosophiques distinguant les construits formatifs et réflectifs. Il souligne que le
sens ontologique du construit mesuré formativement est entièrement donné par ses indicateurs
formatifs alors que celui d’un construit représenté par des mesures réflectives existe
indépendamment de ses indicateurs réflectifs. Nous pouvons illustré ce débat sur l’orientation
marché qui peut être mesurée par ses manifestations (perspective culturelle) ou par ses causes
(perspective comportementale) (Coltman, et alii, 2008).
Mais indépendamment de la légitimité ontologique d’un construit, un examen critique du
processus de développement du modèle de mesure formatif est crucial, notamment sur les
difficultés d’estimation et l’ambiguïté d’interprétation de ces mesures formatives
particulièrement discutées dans cadre de l’analyse de covariance (Howell et alii, 2007a), que
nous associerons à l'algorithme le plus connu LISREL (équivalent à AMOS, SEPATH sous
Statistica, proc CALIS sous SAS, package SEM sous R, EQS, …). L’approche non
paramétrique Partial Least Square Path Modelling (PLSPM) est alors apparue comme une
1
Un construit est une entité non observable.
1
solution alternative car jugée moins contraignante et plus robuste sur des échantillons de
faibles tailles et à la violation de l’hypothèse de normalité de la distribution de données. Son
succès est aussi facilité par l’existence de nombreux logiciels (SMARTPLS, le module
PLSPM de XLSTAT, PLS GRAPH, le package plssem sous R, SPAD, …). La discussion a
donc légitimement dérivé dernièrement sur la pertinence de l’approche PLSPM pour les
modèles structurels intégrant des mesures formatives (Kim. et alii, 2010 ; Diamantopoulos,
2011 ; Ringle, 2012 ; Goodhue et alii, 2012). Toutes ces discussions posent in fine la
légitimité d’utiliser les mesures formatives (Hardin et Marcoulides, 2011 ; Edwards, 2011).
Comme le souligne Diamantopoulos (2011), l’introduction de mesures formatives est
« considérablement » plus compliquée à gérer sur le plan méthodologique que les modèles
n’intégrant que des mesures réflectives. Il n’est pas alors étonnant de voir les experts reconnus
se diviser entre les tenants du modèle de mesure formatif (Bollen, 2007, Diamantopoulos,
2011, Jarvis et alii,, 2003) et les opposants (Edwards, 2011 ; Bagozzi, 2011, Howell et alii,
2008 ; Borsboom, 2003 et 2004).
Il est difficile pour un chercheur non-expert d’arriver à synthétiser l’ensemble des
connaissances et des discussions entre les tenants et les opposants de ces mesures qui sont
souvent argumentées au niveau conceptuel sans réellement expliciter leurs conséquences
concrètes au niveau empirique. D’où des interrogations légitimes sur la bonne conduite à tenir
lorsque un praticien souhaite développer des mesures formatives pour un construit d’intérêt.
Notre travail tente justement de combler cette lacune. Il se veut donc un guide pédagogique
de ces discussions qui vont au-delà des débats concernant la distinction entre des mesures
formatives et réflectives (Edwards et Bagozzi, 2000, Diamantopoulos, 2001, Jarvis et alii,
2003, Rossiter, 2002) synthétisés dans Recherche et Applications en Marketing par Crié
(2005). L’objectif ici n’est pas de revenir sur cette discussion mais d’apporter un éclairage
nouveau et de proposer un cadre pratique pour le développement de ces mesures formatives.
Notre travail se propose d'illustrer, à l’aide des simulations telles que préconisées par Paxton
et alii (2001)2, la portée des débats actuels pour des praticiens non-experts en statistique
mathématique. Pour ce faire, nous ne développerons pas les aspects techniques, nous
renverrons à la lecture abondante les lecteurs soucieux d’approfondir certains de ces aspects.
Nous discuterons essentiellement des problèmes liés à la validation empirique des mesures
formatives en apportant les moyens de contourner, quand cela est possible, certains problèmes
fréquents. Nous proposerons in fine un guide de bonnes pratiques pour l’usage ce type de
2
Il est à noté que les exemples utilisés dans la littérature repose trop souvent sur des jeux données sujettes à
caution ( Cf. Bollen, 2007, les critiques adressées à ce type d’approche).
2
mesure, cependant il n'y pas de réponses "clé en main", chaque cas particulier peut soulever
des questions différentes.
Cet article est organisé en trois parties. La première partie revient rapidement sur les
hypothèses associées à spécification d’un modèle de mesure formatif, puis pose la
formalisation des mesures formatives dans le cadre de LISREL et de PLSPM. Une deuxième
partie discute des problèmes d’identification et d’estimation avec LISREL et PLSPM. Une
troisième partie illustre par des exemples les problèmes inhérents à l’opérationnalisation du
modèle de mesure formatifs avec LISREL et PLSPM. Pour conclure, nous apporterons des
recommandations aux utilisateurs de mesures formatives sur leurs usages dans les applications
empiriques en marketing.
Figure 1.
Figure 2.
4
qualité d’un service (Tung et Carlson, 2013), l’orientation marché, l’animosité du
consommateur (Diamantopoulous et Riefler, 2011) etc.
Le terme d’erreur représente les autres facteurs non pris en compte car jugés peu importants
pour altérer la signification du construit. LISREL bénéficie d’indice de fiabilité du modèle,
néanmoins, il faut garder à l’esprit que l’interprétation de ces indices reste fragile. En effet,
lorsque ces indices rejettent le modèle, il est vraisemblable que le modèle doit être
légitimement rejeté. Par contre dans le cas d’indices satisfaisants, le modèle n’est pas
forcement correcte (comme nous l’illustreront par la suite par des exemples). D’où le risque
important d’accepter un modèle de mesure formatif mal spécifié en se basant uniquement sur
ces indicateurs statistiques (RMSEA, GFI, …). Nous illustrerons ce point par des exemples
dans la troisième partie de ce travail.
5
construit (Tenenhaus et alii, 2005 ; Cenfetelli et Basselier, 2009). Contrairement à LISREL,
dans l’approche PLSPM le construit est défini comme une variable composite (VC) et
n’incorpore pas l’erreur de mesure.
C= w1 X1 + w2X2+ w3 X3 + w4 X4 (2)
Cette hypothèse complique davantage la validation du modèle de mesure (Diamantopoulos,
2011 ; Hardin et Marcoulides, 2011 ; Bollen, 2011). Mais, d’un point de vue pratique
l’élimination du terme d’erreur est aussi commode dans la phase d’estimation du modèle
formatif (absence de cadre paramétrique qui permet de relâcher bien des hypothèses
contraignantes avec LIREL), et est à l’origine du succès de l’approche PLSPM (Ringle et alii,
2012).
Nous présentons maintenant les étapes d’identification et d’estimation du modèle de mesure
nécessaires nécessaire pour examiner la validité de construit (validités prédictive et
nomologique). Rappelons le cette phase empirique de la validation d’un modèle de mesure est
au cœur des controverses récentes.
3
« Multi-Indicateurs (réflectifs) –Multi-Causes (indicateurs formatifs) »
6
deux variables Y1 et Y2 sont conditionnellement indépendantes par rapport à la variable
η, sinon le cadre mathématique obligatoire n'est plus respecté et les résultats seront biaisés.
C'est une contrainte forte et difficilement testable dans la pratique. Nous reviendrons sur ce
point. Enfin ce schéma d’identification induit des contraintes de proportionnalité (voir plus
loin).
Figure 3.
Notons qu'il n'est malheureusement pas rare de voir des articles spécifiant un modèle de
mesure formatif sans que ce dernier ait des liaisons avec au moins deux autres mesures
réflectives ou deux variables latentes endogènes avec des mesures réflectives. Théoriquement
un tel modèle n'est pas identifiable par LISREL. Pour y parvenir, des contraintes
supplémentaires spécifiées a priori sont nécessaires (en fixant une valeur nulle à certains
paramètres ou à celle de l'erreur du construit). Mais, une telle variable formative ainsi
spécifiée (c’est-à-dire sans deux liaisons avec des variables endogènes) est intégrable dans
n’importe quel modèle structurel car qu’elle soit ou pas présente, cela ne change rien au
modèle. C'est pourquoi on la qualifie de "variable fantôme". Mais en aucun cas on peut
prétendre avoir mesuré ce construit, il est purement artificiel et sans aucune validité
psychométrique (MacCallum et Browne, 1993 ; Diamantopoulos et Siguaw, 2006 ;
MacKenzie et alii, 2005 ; Bagozzi, 2007).
7
Figure 4
Quel que soit le choix de la normalisation, les résultats standardisés donneront les mêmes
estimations. Il ne faut donc impérativement analyser que les résultats standardisés pour
comparer les coefficients. La contrainte est que seul le logiciel Mplus donne des intervalles de
confiance de ces estimations standardisées. Donc la procédure conseillée sera de vérifier par
bloc (c’est-à-dire par variable latente) la significativité des coefficients non-standardisés, puis
d’analyser les coefficients standardisés de tout le modèle (en ne retenant que les coefficients
significatifs).
Identification
Dans cette approche, l’étape de l’identification ne se pose pas. En effet, PLSPM possède la
propriété de pouvoir estimer un modèle de mesure formatif d’une variable latente même si
celle-ci n'est pas reliée à des mesures réflectives ou à d’autres construits endogènes. Mais un
tel modèle de mesure estimé isolément ne sera en fait que la première composante principale
de ses indicateurs formatifs. Le résultat serait identique si nous spécifions un modèle de
mesure réflectif ! Or ces derniers doivent satisfaire l’hypothèse fondamentale d’indépendance
8
locale des mesures réflectives de la théorie classique du test. Pour rappel celle-ci stipule que
la corrélation entre les manifestes doit être forte car elle a pour seule source celle du construit.
Ce principe n’est pas exigé pour des indicateurs formatifs qui sont généralement présumés
peu corrélés. De même, avec PLSPM, une variable latente peut n’être reliée qu'à un seul autre
variable latente (formative ou réflective), mais là aussi nous retrouvons un cas particulier de
ce que l'on nomme l'analyse multi-blocks (Tenenhaus et Hanafi, 2010). Donc PLSPM
n'apporte réellement d'intérêts par rapport aux outils statistiques usuels que lorsque le modèle
formatif est relié à au moins deux autres variables latentes ou mesures dans le modèle.
La qualité d’ajustement
Le cadre non paramétrique de PLSPM ne fournit pas véritablement d'indices d’ajustement du
modèle spécifié aux données ni de seuils pour le rejet ou non d’une hypothèse portant sur les
propriétés souhaitées d’une mesure valide. Notons que Tenenhaus et alii (2005) ont discuté
d’index globaux de qualité, comme le « gof5 », (Ringle et alii, 2012). Mais ces derniers n’ont
pas de propriétés paramétriques connues, comme ceux de l’approche du maximum de
vraisemblance utilisée dans LISREL. Enfin, le recours à des indices d’ajustement non
paramétriques6 fournis par la méthode PLSPM ne permet pas de comparer des modèles
rivaux.
4
Ce n’est pas le cas avec LISREL
5
Pour PLSPM, Wetzels et alii (2009) proposent des seuils en fonction du GOF pour juger de la validité d’un
modèle (rejet) : un seuil minimum de 0,25 est jugé acceptable.
6
Il faut comparer ses indices souvent à des seuils ad hoc pour juger de la qualité d’ajustement du modèle aux
données. C’est aussi le cas pour certains indices non paramétriques (mais pas tous) fournis par LISREL.
9
Bassellier (2009). Nous discutons maintenant à l’aide de simulations afin d’illustrer la
fragilité de ce processus de validation. Il est aussi important de signaler que nos discussions
sont menées sur un construit de premier ordre mesuré avec des indicateurs formatifs. Mais
elles restent valides aussi dans le cas d’un construit second ordre mesuré formativement. Dans
ce dernier cas, il suffit de remplacer dans les équations 1 et 2 les indicateurs Xi par des
variables latentes ξi .
10
Proportionnellement les Xi jouent le même rôle avec LISREL et PLSPM, mais le praticien
verrait à tord dans le modèle avec PLSPM un rôle plus important des variables réflectives.
Figure 5
Ce constat rappelé, ce qui nous intéresse maintenant porte sur les débats et les controverses
sur les difficultés d’interprétation de la variable latente η mesurée formativement. Nous
examinons les implications pratiques de ces critiques en relâchant l’une ou plusieurs
hypothèses auxiliaires qui sous-tendent le modèle de mesure car jugées peu plausibles. Pour
certaines hypothèses nous ferons des simulations ad hoc car incompatibles avec ce modèle de
base
7
D’après Diamantopoulos se référant aux travaux de Cohen (1978) pour juger de l’importante de l’ampleur de la
taille de l’effet, une variance expliquée du terme de l’erreur ζ de plus 25% est jugée excessive.
11
importante et la simultanéité entre des variables8. Dans ce qui suit, nous discutons en détail les
implications empiriques de chacune de sources sur le processus de validation et les moyens
d’y remédier.
En conséquence, la seule solution pour éviter ce problème est de justifier théoriquement que
nos indicateurs formatifs sont des causes directes et exhaustifs de la formative. Il reste le
C’est le cas lorsque la variables dépendante, ici η et une variable explicative , ici Xi, sont déterminées
8
12
problème de l’absence de l’erreur de mesure. Nous examinons ci-dessous ces deux points :
exhaustivité des mesures et absence d’erreur de mesure.
Cet exemple illustre l’importance de cette hypothèse implicite d’absence d’erreur pour les
indicateurs formatifs. Pour répondre à ce problème, Edwards (2011) préconise tout
simplement une reformulation du modèle formatif dans laquelle chacune des mesures devient
une manifestation (mesure réflective) d’un construit de premier ordre. Pour Edwards (2011),
le recours aux mesures réflectives permettrait de s’affranchir du problème d’interprétation.
Cependant cette formulation souffre, au-delà d’un problème d’interprétation puisque la
variable latente formative semble devenir une variable latente réflective, de devoir imposer les
erreurs des indicateurs, c’est à dire choisis arbitrairement par le praticien. Cette procédure
proposée par Edwards a été très peu utilisée et demanderait d’autres investigations à partir
d’exemples ou simulations. En effet, sur nos données, en entrant l’erreur réelle des indicateurs
(puisque nous la connaissons ici exactement), les résultats sont surprenants puisque le
coefficient de X1 devient significativement négatif. Bien évidemment la modélisation
proposée par Edwards est impossible avec PLSPM.
En conclusion, seuls des indicateurs dont on sait qu’ils sont susceptibles de n’intégrer qu’une
faible erreur de mesure doivent être utilisés.
La gestion de la multi-colinéarité
Bien que théoriquement aucune contrainte ne soit imposée sur les covariances entre les
mesures formatives, une forte colinéarité peut induire une instabilité des paramètres du
modèle de mesure particulièrement dans le cadre de LISREL et de l’approche PLSPM. C'est
un problème usuel avec la régression multiple. Dans ce cas les paramètres estimés sont
instables. La colinéarité peut être jugée excessive par le calcul d’un VIF généralement
supérieur à 10. Il est préconisé dans ce cas de supprimer les indicateurs « redondants » tout en
s’assurant que la signification postulée a priori du construit n’est pas altérée.
Nous illustrons ce problème par une simulation qui reprend le même cadre que la génèse du
modèle de base posé figure 5, mais ici nous avons imposé que les indicateurs formatifs soient
14
fortement corrélés (corrélations de 0,9), avec toujours des poids théoriques des différents
indicateur identiques sur la latente. Le modèle théorique est figure 9a, nous estimons les
paramètres sous LISREL (figure 9b) et sous PLSPM (figure 9c). Nous voyons que la
colinéarité entre les quatre indicateurs formatifs amène des résultats fortement biaisés : X2
semble influencer η de façon négative. Les indicateurs de fiabilités amèneraient pourtant le
praticien à valider ce modèle. Il faut donc absolument vérifier la colinéarité potentielle des
indicateurs formatifs.
Figure 9
15
significative de la fiabilité du modèle (MI=9,41). Cela nous alerte sur la mauvaise
spécification du modèle illustré par la figure 5b, test impossible à faire avec PLSPM.
Figure 10
16
formatifs nous avons six covariances à estimer ; avec six indicateurs le nombre de covariances
à estimer monte à quinze). De plus, les indicateurs formatifs peuvent covarier avec d’autres
variables exogènes du modèle. Ceci rend l’estimation délicate dès que le modèle devient
important (le nombre de paramètres à estimer devient trop important). Une méthode avec
LISREL pour contrôler les covariances est de suivre la pratique suivante (MacCallum et
Browne, 1993 ; Jarvis et alii 2003) : estimer toutes les covariances entre tous les construits
latents exogènes et les variables manifestes, puis estimer une série de modèles
hiérarchiquement liés (nichés) qui permettent de libérer des covariances (en les spécifiant
nulle). Pour tester si une covariance peut être retirée, il suffit sous LISREL de comparer les
Chi2 entre les deux modèles (qui sont nichés) et de faire un test du Chi2 à un degré de liberté.
Comme le praticien aura essayé de prendre des indicateurs non-corrélés, il pourra
certainement vérifier que certaines covariances peuvent être retirées, ce qui réduira le nombre
de paramètres à estimer et rendra l'ensemble des résultats plus fiables. Cette démarche n’est
faisable que sous LISREL, mais PLSPM ne souffre pas de ce problème car l’algorithme
n’estime pas le modèle d’un bloc. Par contre avec PLSPM, nous ne pouvons pas spécifier des
corrélations nulles entre des indicateurs.
L’interprétation confondante
Ce problème est très clairement le plus important mis en avant par les opposants aux modèles
formatifs. De nombreux travaux empiriques montrent que le choix des construits endogènes
η1 et η2, nécessaire à l’identification du MES mais aussi pour les besoins de l’étude
formatif, peut altérer la signification du construit η. Ce phénomène a été mis en évidence
dans la littérature récente à la fois dans le cadre de LISREL aussi bien que dans l’approche
PLSPM (Wilcox et alii 2008, Howell, et alii, 2007a, Kim et alii, 2010, Diamantopoulos,
2011, Auteurs, 2011). Il est désigné sous le terme d’ « interprétation confondante ». Nous
souhaitons faire une présentation de ce phénomène qui est à l’origine de vifs débats entre les
tenants et les opposants au modèle formatif.
Dans un MES, l’interprétation confondante désigne la situation dans laquelle l’ajout ou la
suppression d’une relation structurelle entre le construit η et d’autres construits ηi du MES
modifie significativement les valeurs des paramètres du modèle de mesure (formatif ou
réflectif) du construit η, et par là altère sa signification postulée a priori, avant son estimation
par le chercheur. Wilcox et alii (2008) illustre ce problème à partir du construit « statut
socioéconomique » (SES) (Wilcox et alii, 2008). Supposons que le SES d’un individu est
17
défini a priori en fonction de son éducation, le revenu et l’emploi occupé (mesures
formatives). On peut souhaiter par exemple déterminer l’impact du SES sur le mode vie et sur
l’état de santé des individus (Modèle structurel I). Dans une seconde étude on peut souhaiter
estimer l’influence du SES sur le style de vie et l’orientation idéologique (Modèle structurel
II). Nous parlons d’interprétation confondante lorsque après l’estimation du modèle I et du
modèle II, la force et le sens des relations entre le construit SES et ses mesures formatives
changent d’un modèle à un autre. Par exemple, le paramètre liant l’éducation au SES peut
devenir non significatif dans le modèle II. En conséquence, la définition initiale, qui consiste à
postuler que l’éducation est l’une des causes du SES, est invalidée. Ainsi d’un modèle à
l’autre le construit SES n’a pas la même signification. Ce qui est problématique pour toute
généralisation de nos résultats impliquant le SES. Ce type de situation est caractérisé par Burt
(1976) d’interprétation confondante.
Howell et alii (2007a) ont montré, sur des données simulées et réelles, que les paramètres du
modèle de mesure formatif d’un construit estimé par LISREL changent fortement selon les
variables endogènes incluses dans le MES pour son identification. Ils montrent aussi que les
paramètres des mesures réflectives sont moins sensibles à l’ajout/suppression des variables
endogènes. D’autres auteurs confirment ces résultats (Bagozzi, 2007 ; Kim et alii, 2010),
tandis que Bollen (2007) récuse ce diagnostic en soulignant que la source de cette
interprétation confondante a pour source principale la mauvaise spécification du MES. Pour
Bollen (2007) lorsque le modèle formatif est bien spécifié, c’est-à-dire lorsque le chercheur
possède des mesures réflectives ou des construits de premier ordre valides nécessaires à
l’identification du modèle de mesure, alors les poids des mesures formatives sont peu
sensibles aux variables endogènes incluses pour l’identifier (il n’y a donc pas d’interprétation
confondante). Howell et alii (2007a et 2007b) reconnaissent cet argument de Bollen, tout en
s’interrogeant sur les moyens de détecter les sources d’une telle mauvaise spécification.
Diamantopoulos (2011) récuse aussi la critique de Howell et alii (2007a) en insistant sur le
fait qu’un modèle, et les construits inhérents, est toujours contextualisé. L’interprétation
confondante n’étant que l’illustration de cette contextualisation.
La discussion sur l’interprétation confondante reste un point de central de discussion dans la
littérature académique qui oppose les tenants et les opposants aux construits mesurés
formativement. Nous examinons les arguments des uns et des autres en reprenant le modèle
de base (figure 5). Nous modifions ce modèle en mettant deux nouvelles variables réflectives
endogènes Y3 et Y4 à la place de Y1 et Y2 (figure 12). η a théoriquement la même
signification dans les deux modèles (figure 5 et figure 12) car η est estimé formativement par
18
les mêmes Xi exogènes. Or nous voyons que les indicateurs formatifs ont des coefficients
différents dans les deux modèles, et ceci avec LISREL et PLSPM. Notamment, la variable X3
qui était la plus influente dans le modèle initial (figure 5) devient ici non significative (figure
11) et un praticien la retirerait de son modèle. Comment dès lors considérer avoir le même
construit η dans les deux modèles (figure 5 et 12) ?
Figure 12
DISCUSSION GENERALE
Nous avons soulignés que le des débats sur la légitimité de l’usage d’un modèle de mesure
formatif d’un construit ont fait l’objet de nombreuses publications (Bagozzi 2007 ; Bollen
2007 ; Howell et alii, 2007a, 2007b ; Petter et alii, 2007 ; Wilcox et alii, 2008 ; Baxter, 2009 ;
Wetzels et alii, 2009 ; Diamantopoulos, 2010 ; Kim et alii, 2010 ; Bollen, 2011 ;
Diamantopoulos, 2011 ; Hardin et Marcoulides, 2011 ; Bagozzi, 2011). Notre travail a
montré qu’effectivement le développement des mesures formatives nécessite un ensemble de
conditions très difficiles à satisfaire : absence d’erreur de mesure, exhaustivité des mesures,
indépendance locale des variables exogènes. A ces difficultés s’ajoutent celles communes à
tout travail de modélisation comme, l’équivalence observationnelle, l’omission de variables
importante comme les variables confondantes etc.
Les opposants aux modèles formatifs pointent que les bases théoriques et conceptuelles du
modèle de mesure formatif sont fragiles, notamment l’absence de l’erreur de mesure,
l’hypothèse d’exhaustivité des mesures, et les contraintes de spécification des mesures
19
nécessaires à l’identification. Nos simulations montrent à l’évidence que le développement
d’un modèle formatif valide est une tâche difficile et peut donc conduire à des résultats
fallacieux. PLSPM n’est pas moins sensible à l’omission de mesures importantes, à la
colinéarité et à l’interprétation confondante que LISREL.
D’autres travaux vont plus loin et proposent d’autres opérationnalisations des mesures
formatives. Nous revenons ci-dessous rapidement sur ces propositions après avoir synthétisé
nos remarques précédentes.
Solutions alternatives
Ces alternatives en commun l’objectif d’estimer les poids des mesures formatives en évitant
les difficultés rencontrées avec LISREL et PLSPM. L’idée principale est de développer une
méthode qui permette d’approximer ces poids en estimant isolément le modèle formatif. Nous
renvoyons aux articles de ces auteurs pour des développements exhaustifs de ces modèles.
20
ensuite partitionnée pour obtenir des composantes factorielles Pi en fonction des indicateurs
de mesure. 2/ la seconde étape consiste à déterminer un facteur commun F aux différentes
composantes Pi, par une analyse confirmatoire.
Nous constatons que cette approche contourne certaines difficultés liées aux mesures
formatives (identification, interprétation confondante, erreur de mesure) en construisant de
nouveaux indicateurs réflectifs de F. Elle évite aussi l’une des critiques adressée à l’approche
PLSPM qui n’inclut pas le terme d’erreur. Dans son esprit elle est proche de la proposition
d’Edwards (2011) qui consiste à construire un modèle formatif de second ordre (Figure 5)
mais en sauvegardant le nombre de degrés de liberté.
Cependant cette spécification soulève un problème de taille qui est celui de l’examen de la
validité des mesures. En premier, elle est ad hoc, une partition donnée conduira à des
résultats différents. Comment alors choisir la meilleure partition des indicateurs pour
déterminer les composantes Pi. En second, si l’inclusion de la variable F dans un modèle
structurel fourni des indices d’ajustement jugés faibles et/ou des signes non attendus et des
paramètres non significatifs, alors il sera difficile de déterminer la source du rejet du modèle :
la partition des indicateurs Xi, le calcul des composantes, les relations structurelles
supposées, ou un mélange des trois ?
Néanmoins cette formalisation est très séduisante et prometteuse, mais elle demande à être
consolidée par d'autres travaux.
LISREL ou PLSPM
L’approche de LISREL semble perdre du terrain en faveur de l’approche PLSPM pour
modéliser les construits formatifs. Mais c’est sous-estimer les avantages de LISREL,
particulièrement pour comparer des modèles nichés (Diamantopoulos, 2011 ; Bollen, 2011).
Or, le processus de validation du modèle formatif nécessite de tester plusieurs hypothèses
rivales afin de minimiser les risques d’une mauvaise spécification. Cette flexibilité à examiner
différentes hypothèses théoriques n’a pas d’équivalent dans l’approche PLSPM. PLSPM étant
non-paramétrique, il peut apporter des réponses dans des situations où LISREL n’est pas
fonctionnelle. Le cadre non paramétrique de PLSPM, qui est un avantage par rapport à
LISREL, fragilise a contrario l’usage de modèles formatifs, car la stabilité de ses coefficients
dépend de la bonne spécificité du modèle global, information que PLSPM ne peut pas fournir
au chercheur. Même si les tests d’ajustement fournis par LISREL ont une puissance statistique
faible, ils constituent néanmoins des indicateurs précieux lors de la phase de validation (Fan
et alii, 1999 ; Steiger, 2007 ; Feinian et alii, 2008). De plus, comme discuté précédemment, le
21
statut d’une variable composite (formative) avec PLSPM reste conceptuellement très
problématique et est la raison essentielle de son rejet comme solution alternative à LISREL
pour différents auteurs.
Par ailleurs, l’algorithme de PLSPM peut faire penser que PLSPM serait moins sensible aux
violations des hypothèses de LISREL sur les distributions d’erreurs, à la taille de l’échantillon
et à une mauvaise spécification du MES. Bien que les travaux sur ces points soient rares,
plusieurs simulations ont montré que PLSPM n’était pas moins sensible (Petter et alii, 2007 ;
Cenfetelli et Bassellier, 2009 ; Ringle et alii, 2009). Avec des construits formatifs il faudra
avoir des indicateurs gaussiens comme avec LISREL, et une taille d’échantillon assez grande.
Ce n'est qu'avec des construits réflectifs que PLSPM peut relâcher ces hypothèses.
Au final, PLSPM ne semble guère apporter des réponses efficientes aux problèmes rencontrés
avec les construits formatifs avec LISREL. De plus, et de façon plus fondamentale, le statut
d’une variable latente composite avec PLSPM reste conceptuellement très problématique car
nous travaillons avec un index (simple combinaison linéaire des variables manifestes, voire
précédemment). La question fondamentale qui se pose avec cette approche est de savoir si
nous estimons une mesure formative d’un construit avec un tel index ? Un certain nombre
d’auteurs récusent ainsi l’usage de PLSPM avec des mesures formatives car pour eux un
index ne peut prétendre être une estimation d’un construit par des mesures formatives à cause
de l’absence du terme d’erreur de la variable latente (Diamantopoulos, 2011 ; Hardin et
Marcoulides, 2011). Hardin et Marcoulides (2011) alertent d’ailleurs les chercheurs sur
l’engouement, non justifié pour ces auteurs, pour PLSPM pour estimer des modèles avec des
mesures formatives.
Recommandations
Comme nous l'avons souligné à plusieurs reprises, le développement d'un modèle de mesure
dans un MES se heurtent à des obstacles difficilement contournables. Notre première
recommandation qui peut paraître paradoxal dans cette rubrique est que chaque fois que cela
est possible, il est préférable de développer des mesures réflectives valides. Mais, il existe des
situations dans lesquelles le praticien possède des mesures formatives et il serait dommage de
ne pas s’en servir dans les applications empiriques. Aussi, pour les chercheurs ne pouvant
éviter d’utiliser un modèle de mesure formatif sans vouloir avoir recours aux méthodes
proposées par Hardin et alii (2011) ou Treiblmaier et alii (2010) (discuté ci-dessus), nous
résumons les précautions à prendre que nous résumons en annexes (annexe A2) par un
tableau.
22
Avec LISREL ou PLSPM, le praticien devra s'assurer que les indicateurs retenus de la
variable latente formative sont exhaustifs (on n'oublie pas un indicateur important), qu'ils sont
peu colinéaires et gaussiens. Il devra s'assurer d'avoir un échantillon important (au moins 300
personnes). Comme les mesures formatives sont généralement issues de questionnaires, elles
comportent par nature une erreur de mesure, donc il faudra s’assurer par une réflexion en
amont que nos indicateurs intègrent qu’une très faible erreur potentielle. Il devra s'assurer que
ces indicateurs formatifs n'expliquent pas directement les autres variables endogènes entrées
dans le modèle car le construit formatif doit impérativement médiatiser l'influence de ses
indicateurs formatifs sur les autres variables endogènes. Il faudra vérifier que les coefficients
des indicateurs formatifs ne changent pas significativement lorsque l'on modifie les variables
réflectives endogènes (en s'assurant que ces dernières sont fortement liées au construit
d’intérêt). Il faudra aussi vérifier que les contraintes de proportionnalités sont respectées, car
elles sont essentielles dans le processus de validation empirique (ce qui peut se faire avec les
tests sur les modifications d’indices sous LISREL mais impossible avec PLSPM).
Avec LISREL, il est conseillé d'essayer de retirer des covariances entre les indicateurs
formatifs (par des tests sur des modèles nichés). Il faut impérativement lier le construit mesuré
formativement à au moins deux autres variables (ou construit) réflectifs endogènes, en
s'assurant que ces dernières n'ont pas de liens indépendamment de ce construit (faisable
uniquement par une réflexion théorique). Il faudra de plus ne retenir que les coefficients
standardisés après analyse de leur significativité pour les praticiens n’utilisant pas Mplus.
PLSPM ne devra être choisit que lorsque LISREL n'est pas utilisable, ne serait-ce que parce
qu’aucune erreur de mesure de la variable latente n'est intégrable dans PLSPM. En fait, les
cas où PLSPM est préférable à LISREL sont rares. Si l'échantillon est faible ou les données
non-gaussiennes, PLSPM n'est pas moins sensible que LISREL pour des construits formatifs.
Donc PLSPM devra n'être utilisé que lorsque le nombre de variables intégrées est trop
important pour LISREL, en s'assurant un échantillon important et des données gaussiennes
pour les indicateurs formatifs.
CONCLUSION
Notre conclusion se veut donc une mise en garde sur le recours aux mesures formatives. Il
existe un faisceau de preuves empiriques et d’arguments théoriques qui soulignent les
difficultés à modéliser de ce type de mesures. Si cette discussion est amorcée sur le plan
épistémologique (Borsboom et alii, 2003 ; Bagozzi, 2011), elle semble avoir eu peu d’échos
sur le terrain de l’opérationnalisation des construits formatifs (Finn et Wang, 2012). En
23
considérant l’ensemble des problèmes épistémologiques et méthodologiques liés aux modèles
formatifs, nous nous associons aux conclusions de Bagozzi (2007) qui indique que la relation
entre des mesures formatives et le construit « n’est pas seulement conceptuellement ambiguës
mais aussi empiriquement ambiguës » (p 234), l’auteur ajoutant : « Personnellement, je ne
pense pas que le sens d’un construit mental puisse être aussi interprétable et utilisable dans
une forme formative que dans une forme réflective. » (p 234). Ce constat s’applique aussi bien
à LISREL qu’à l’approche PLSPM. Hardin et Marcoulides (2011) rappellent les divergences
entre les défenseurs (Bollen, 2007, Jarvis et alii, 2003 ; Diamantopoulos et alii, 2008, 2011) et
les opposants à ce type de mesures (Bagozzi, 2007 ; Howell et alii, al.2007a ; Edwards, 2011).
Pour Hardin et Marcoulides : “La prudence conseillerait de suspendre temporairement
l’usage de mesures formatives” (p 1) en attendant que la recherche ait tranché sur la
pertinence de leur usage. Dans l’attente de futurs résultats, nous préconisons nous aussi le
développement des mesures réflectives lorsque cela est possible car moins sujette que les
mesures formatives aux problèmes d’identification, d’erreur de mesure et d’interprétation.
Concernant l’approche PLSPM comme solution alternative à LISREL, il semble que les
avantages attendus sont loin d’être atteints. Cependant des auteurs pointent les avantages de
PLSPM pour certains modèles avec des construits formatifs. En effet comme le soulignent
Ringle et alii (2012), PLSPM est la seule méthode utilisable lorsque nous avons des données
secondaires de tailles faibles, avec parfois seulement un ou deux indicateurs disponible, et de
surcroit sans la possibilité de recourir à des indicateurs réflectifs (pas données disponibles),
le chercheur n'a plus alors le choix. Cependant, Ringle et alii (2012) préconisent lorsque cela
est possible la validité d’un modèle formatif par le modèle de redondance proposé par Chin
(2010), qui s’appuie sur le même construit mesuré réflectivement. N’est-il pas plus valide
alors d’utiliser le modèle de mesure réflectif utilisé dans le modèle de redondance pour le
MES ? Si les données pour les indicateurs réflectifs ne sont pas disponibles, la prudence
semble valoir comme le souligne Hardin et Marcoulides (2011) car PLSPM demande
certainement d’autres travaux académiques avant de pouvoir apparaître comme une
alternative fiable à LISREL pour de tels cas.
L’objet de notre discussion n’est pas de récuser l’usage des mesures formatives. Bagozzi
(2011 p 275) dit « les mesures formatives et les construits formatifs ont une place dans la
recherche, mais c’est crucial de reconnaître que leurs applications sont limités à quelques
modèles bien définis ». Si donc un chercheur ne peut éviter de devoir développer un modèle
de mesure formatif, il lui faudra valider toutes les hypothèses nécessaires à une telle
formalisation, que nous synthétisons dans l’annexe A2, dont seules quelques-unes sont
24
testables empiriquement. C’est avant tout la théorie qui justifiera un tel modèle, avec de
faibles moyens statistiques pour le valider empiriquement.
25
REFERENCES BIBLIOGRAPHIQUES
Auteurs (2011)
Auteurs (2013)
Bagozzi R. P. (2007), On the Meaning Formative Measurement and How It Differs From
Reflective Measurement: Comment on Howell, Breivik, and Wilcox (2007), Psychological
Methods, 12, 2, 229-237.
Bagozzi R.P. (2011), Measurement and meaning in information systems and organizational
research: methodological and philosophical foundations, Mis Quarterly, 35, 2, 261-292.
Baxter R. (2009), Reflective and formative metrics of relationship value: a commentary essay.
Journal of Business Research, 62, 12, 1370-1377.
Blalock H.M. (1971), Causal models involving unobserved variables in stimulus-response
situations, In H. M. Blalock (Ed.), Casual models in the social sciences, Chicago, IL: Aldine
Atherton, 335-347.
Bollen K.A. (2007), Interpretational Confounding Is Due to Misspecification, Not to Type of
Indicator: Comment on Howell, Breivik, and Wilcox (2007), Psychological Methods, 12, 2,
219-228.
Bollen K. A. (2011), Evaluating effect, composite, and causal indicators in Structural Equation
Models, Mis Quarterly, 35, 2, 359-372.
Bollen K.A. et Davis W.R. (2009a.), Causal Indicator Models: Identification, Estimation, and
Testing, Structural Equation Modeling, 16, 498-522.
Bollen K.A. et Davis W.R. (2009b), Two Rules of Identification for Structural Equation Models,
Structural Equation Modeling, 16, 523-36.
Bollen K.A., et Lennox, R. (1991), Conventional wisdom on measurement: A structural Equation
Perspective, Psychological Bulletin, 110,305-314.
Borsboom D., Mellenberghet Van Heerden J. (2003), The Theoretical Status of Latent Variables,
Psychological Review, 110, 2, 203-219.
Borsboom D., Mellenbergh G.J. et Van Heerden J. (2004), The concept of Validity, Psychological
Review, 111, 4, 1061-1071.
Burt R.S. (1976), Interpretation confounding of unobserved variables in structural equation
models, Sociological Methods and Research, 5, 33-52.
Cadogan J. W. et Lee N. (2013), Improper use of endogenous formative variables, Journal of
Business Research, 66, 2, 233–241.
26
Cenfetelli R. et Bassellier G. (2009), Interpretation of formative measurement in information
systems research, MIS Quarterly, 33, 4, 689-707.
Chin W. (2010), How to write up and report PLS analysis, in V. Esposito Vinzi, W. W. Chin, J.
Henseler, H. Wang (coord.), Handbook of partial least squares, Londres, Springer, 655-690.
Churchill G. A. Jr. (1979), A Paradigm for Developing Better measures of Marketing Constructs,
Journal of Marketing Research, 16, 1, 64-73.
Coltman T., Devinney T. M., Midgley D. F. et Venaik S., (2008), Formative versus reflective
measurement models: Two applications of formative measurement, Journal of Business
Research, 61, 12, 1250-1262.
Crié D. (2005), De l’usage des modèles de mesures réflectifs ou formatifs dans les modèles
d’équations structurelles, Recherche et Applications Marketing, 20, 2, 5-27.
Diamantopoulos A. (2010), Reflective and formative metrics of relationship value: Response to
Baxter's commentary essay, Journal of Business Research, 63, 1, 91-93.
Diamantopoulos A. (2011), Incorporating formative measures into Covariance-Bases Structural
Equation Models, Mis Quarterly, 35, 2, 335-358.
Diamantopoulos A. et Riefler P. (2011), Using formative measures in international marketing
models: a cautionary tale using consumer animosity as an example, in Marko Sarstedt,
Manfred Schwaiger, Charles R. Taylor (ed.), Measurement and Research Methods in
International Marketing (Advances in International Marketing, Volume 22), Emerald Group
Publishing Limited, 11-30.
Diamantopoulos A, Riefler P. et Roth K.P. (2008), Advancing formative measurement models,
Journal of Business Research, 61, 12, 1203-1218.
Diamantopoulos A. et Siguaw J. A. (2006), Formative versus reflective indicators in
organizational measure development: a comparison and empirical illustration, British Journal
of Management, 17, 263–282.
Diamantopoulos A. et Winklhofer H. (2001), Index construction with formative indicators: an
alternative to scale development, Journal of Marketing Research, 38, 2, 269-277.
Edwards J.R (2011), The fallacy of Formative Measurement, Organizational Research Methods,
14, 2, 370-388.
Edwards J.R. et Bagozzi R.P. (2000), On the Nature and Direction of Relationships Between
Constructs and Measures, Psychological Methods, 5, 2, 155-174.
Fan X., Thompson B. et Wang L. (1999), Effects of Sample Size, Estimation Methods, and Model
Specification on Structural Equation Modeling Fit Indexes, Structural Equation Modeling, 6,
56-83.
27
Feinian C., Curran P., Bollen K., Kirby J. et Paxton P. (2008), An Empirical Evaluation of the Use
of Fixed Cutoff Points in the RMSEA Test Statistic in Structural Equation Models,
Sociological Methods and Research, 36, 462-494.
Finn A. et Wang L. (2012), Formative vs. reflective measures: Facets of variation, Journal of
Business Research, doi:10.1016/j.jbusres.2012.08.001.
Fornell C. et Bookstein F.L. (1982), Two Structural Equation Models: LISREL and PLS Applied
to Consumer Exit-Voice Theory, Journal of Marketing Research, 19, 4, 440-452.
Franke G., Preacher K. et Rigdon E. (2008), Proportional structural effects of formative indicators,
Journal of Business Research, 61, 12, 1229-1237.
Goodhue D. L., Lewis W. et Thompson R. (2012), Does PLS have advantages for small sample
size or non-normal data?, Mis Quarterly, 36, 3, 981-1001.
Hardin A., Chang J., Fuller M. et Torkzadeh, G. (2011), Formative measurement and academic
research: In search of measurement theory, Educational and Psychological Measurement, 71,
11, 281-305.
Hardin A., Macoulides G. A. (2011), A commentary on the use of formative measurement,
Educational and Psychological Measurement, 20, 10, 1-12.
Howell R.D., Breivik E. et Wilcox J.B. (2007a), Reconsidering Formative Measurement,
Psychological Methods, 12, 2, 205-218.
Howell R. D., Breivik E. et Wilcox J. B. (2007b), REPLY: Is Formative Measurement Really
Measurement? Reply to Bollen (2007) and Bagozzi (2007), Psychological Methods, 12, 2,
238-245.
Jarvis C.B., Mackenzie S.B. et Podsakoff P.M. (2003), A critical review of construct indicators
and measurement model misspecification in marketing and consumer research, Journal of
Consumer Research, 30, 2, 199-218.
Joreskog K.G. et Sorbom D. (1996), LISREL 8: User's reference guide, Chicago, SSI.
Kim G. et Shin B. et Grover V. (2010), Investigating two contradictory views of formative
measurement in information systems research, MIS Quarterly, 34, 2, 345-365.
Kirby J. et Bollen K.A. (2009), Using Instrumental Variable (IV) Tests to Evaluate Model
Specification in Latent Variable Structural Equation Models, Sociological Methodology, 39,
327-355.
Kirby J., Bollen K.A., Curran P.J., Paxton P.M. et Chen F. (2007) Latent Variable Models under
Misspecification: Two Stages Least Squares (2SLS) and Maximum Likehood (ML)
Estimators, Sociological Methods and Research, 36, 46-86.
28
MacCallum, R.C. et Browne M.W. (1993), The use of causal indicators in covariance structure
models: Some practical issue, Psychological Bulletin, 114, 4, 533-541.
MacKenzie S.B., Podsakoff P.M. et Jarvis C.B. (2005), The problem of measurement model
misspecification in behavioral and organizational research and some recommended solutions,
Journal of Applied Psychology, 90, 4, 710-730.
Paxton P., Curran P. J. et Bollen K. A. (2001), Monte Carlo experiments: design and
implementation, Structural Equation Modeling, 8, 287–312.
Pearl J. (2009). Causality: Models, Reasoning, and Inference. New York: Cambridge University
Press, seconde édition.
Petter S., Straub D. et Rai A. (2007), Specifying formative constructs in Information systems
research, MIS Quarterly, 31, 4, 623-656.
Rigdon E. E. (2012), Comment on “Improper use of endogenous formative variables”, Journal of
Business Research, http://dx.doi.org/10.1016/j.jbusres.2012.08.005.
Ringle C.M., Götz O, Wetzels M. et Wilson B. (2009), On the Use of Formative Measurement
Specifications in Structural Equation Modeling: A Monte Carlo Simulation Study to Compare
Covariance-Based and Partial Least Squares Model Estimation Methodologies, papier de
recherche, Research Memoranda from Maastricht (METEOR).
Ringle C. M., Sarstedt M. et Straub D. W. (2012), A critical look at the use of PLS-SEM in Mis
Quarterly, Mis Quarterly, 36, 1, 3-14.
Rossiter J.R. (2002), The C-OAR-SE Procedure For Scale Development in Marketing,
International Journal of Research in Marketing, 19, 305-335.
Steiger J.H. (2007), Understanding the limitations of global fit assessment in structural equation
modeling, Personality and Individual Differences, 42, 893-98.
Treiblmaier, H., Bentler, P. M. et Mair, P. (2010). Formative constructs implemented via common
factors. Structural Equation Modeling, 18, 1-17.
Tenenhaus M. et Hanafi M. (2010), A bridge between PLS path modelling and multi-block data
analysis, in V. Esposito Vinzi, W. W. Chin, J. Henseler, H. Wang (coord.), Handbook of
partial least squares, Londres, Springer, 99-124.
Tenenhaus M., Vinzi V.E., Chatelin Y.-M. et Lauro C. (2005), PLS Path Modeling,
Computational Statistics and Data Analysis, 48, 159-205.
Tung B. et Carlson J. (2013), modeling a formative measure of relationship quality and its effects:
evidence from the Hong Kong retail banking industry, Services Marketing Quarterly, 34, 2,
139-158.
29
Vinzi V.E., Trichera L. et Amato S. (2010), PLS Path Modeling: From Foundations to Recent
Developments and Open Issues for Model Assessment and Improvement, in V. Esposito
Vinzi, W. W. Chin, J. Henseler, H. Wang (coord.), Handbook of partial least squares,
Londres, Springer, 47-82.
Wetzels M., Odekerken-Schröder G. et Van Oppen C. (2009), Using PLS path modeling for
assessing hierarchical construct models: guidelines and empirical illustration, MIS Quarterly,
33, 1, 177-195.
Wilcox JB, Howell RD et Breivik E. (2008), Questions about formative measurement, Journal of
Business Research, 61, 12, 1219–1228.
30
ANNEXES
A 1 : Synthèse des principales expérimentations mentales pour examiner les hypothèses
théoriques et analyses statistiques liées a un construit mesure formativement.
Tableau 1
31
A2 : Processus de développement et de validation d’un modèle de mesure formatif dans le
cadre de LISREL.
Tableau 2
32
Tableau 1 : Estimation d’un modèle de mesure formatif (repris de Centefelli et Bassellier,
2009, et complété).
Multicolinéarité entre Cela peut créer une Il faut essayer de LISREL et PLSPM
les indicateurs instabilité dans retirer un ou des
l'estimation des indicateurs sans
coefficients et les tests affecter le sens
de significativité conceptuel du
construit.
Dans le cas contraire,
il faut examiner la
possibilité de
regrouper les
indicateurs partageant
le même contenu
Chacun de ces
contenus forme un
construit de premier
ordre du construit de
second ordre d’intérêt.
Co-occurence d’une Il est possible qu’un - Il faut évaluer les LISREL et PLSPM
corrélation simple construit corrélé conséquences de la
33
positive et d’une positivement avec le suppression de la
corrélation partielle construit, une fois mesure considérée,
négative avec le inclus dans le modèle particulièrement sur le
construit (en de mesure ait un poids contenu du construit
contrôlant les autres négatif. Cela peut et sur la stabilité des
variables du modèle arriver si les paramètres du modèle
de mesure) indicateurs de mesure de mesure.
partagent une variance
commune élevée.
34
Tableau 2 : Processus de développement et de validation d’un modèle de mesure formatif
dans le cadre de LISREL.
35
réflectives et ou des • Diamantopoulos
construits réflectifs (2011)
indépendants • Kim et alii (2010)
• S’assurer que les • Diamantoupolos
construits réflectifs ne (2011)
partage rien en
commun
indépendamment du
construit d’intérêt
auquel ils sont
exogènes.
• Choisir comme unité
de mesure un
indicateur réflectif ou
le lien entre le
construit et le un autre
construit endogènes
avec des mesures
réflectives
• Analyses C) Validité de construit • Bollen, (2011)
confirmatoires (prédictive et • Diamantopoulos
nomologique) (2011)
• comparaison des modèles • Kirby et alii (2007 et
rivaux
2009)
• Tester les différentes
• MacKenzie et alii
hypothèses et contraintes
induites par la spécification (2005)
retenue
36
pour vérifier la • Howell et alii
robustesse des (2008)
résultats dans
différents contextes
• L’instabilité des
paramètres estimés a
pour source potentielle
d’une mauvaise
spécification
37
Figure 1. Un modèle de mesure formatif d’un construit de premier ordre.
X1
X2 η ζ
X3
38
Figure 2. Un modèle de mesure réflectif d’un construit de premier ordre.
X1
η
X2
X3 δ3
39
Figure 3. a) Modèle MIMIC ; b) variable latente η liée à deux autres variables latentes η1 et
η2.
a) X1 Y1 δ1
X2 η
X3 Y2 δ2
ζ2 Y1 δ1
X1
b) η1
Y2 δ2
X2 η
η2 Y3 δ3
X3 ζ1
ζ3 Y4 δ4
40
Figure 4 : a) Modèle estimé avec le lien entre η et Y1 contraint ; b) Modèle estimé avec le lien
entre X1 et η contraint
X1
X1 1,0 0,15 Y1
0,15
1,0 Y1 0,5 0,5
0,5 0,5 X2 0,74 η
X2 0,11 η 0,5 Y2
0,5 Y2 0,69 0,13
0,10 0,89 X3
X3
ζ
ζ
41
Figure 5 : Modèle de base a) estimé avec LISREL (Chi 2 : 2,75, p value : 0,43,
RMSEA :0,000) ; b) estimé avec PLSPM (gof=0,252)
a) X1 Y1 δ1 Y1
0,31 0,31 b) X1 0,16 0,69
X2 0,19 η X2 η
0,10
0,37 0,30 0,63
X3 Y2 δ2 X3 0,20 Y2
0,18 0,20
X4 ζ
X4
42
Figure 6 : a) Modèle théorique ; b) Modèle mal spécifié estimé avec LISREL (Chi 2 : 2,23 p
value : 0.53, RMSEA : 0.008) ; c) Modèle mal spécifié estimé avec PLSPM (gof=0.47)
Z b)
a) 0,25
0,70
X1 Y1 Y1
0,00 0,50 X1 0,39 0,54
X2 0,25 η X2 η
0,40
0,25 0,50 0,50
X3 Y2 0,39 Y2
X3
0,25 0,50
X4 X4
c)
X1 Y1
0,26 0,81
X2 0,26 η
0,78
0,26 Y2
X3
0,33
X4
43
Figure 7 : Modèle sans X1 a) estimé avec LISREL (Chi2 :0,580, p value :0,748 ; RMSEA :
0,000) ; b) estimé avec PLSPM (gof=0,250)
a) X1 Y1 δ1 Y1
0,33 0,36 b) X1 0,16 0,66
X2 η X2 η
0,17 0,19
0,25 0,67
Y2 δ2 Y2
0,34 0,20
X4 ζ
X4
44
Figure 8 : Modèle avec une erreur de mesure a) estimé avec LISREL (Chi 2 : 2,42 p value :
0,489, RMSEA : 0,000) ; b) estimé avec PLSPM (gof=0,30)
a) X1 Y1 δ1 Y1
0,29 0,32 b) X1 0,15 0,80
X2 0,17 η X2 η
0,09
0,30 0,29 0,72
X3 Y2 δ2 X3
0,16 Y2
0,40 0,21
X4 ζ
X4
45
Figure 9 : a) Modèle théorique avec colinéarité des Xi ; b) estimé avec LISREL (Chi 2 : 3,20 p
value : 0,36, RMSEA : 0,011) ; c) estimé avec PLSPM (gof=0,251)
X1 Y1 δ1 b) X1 Y1
0,25 0,30 0,30 0,20
X2 0,25 η X2 η
-0,20
0,25 0,30 0,32
X3 Y2 δ2 X3
0,48 Y2
0,25 0,34
X4 ζ
X4
c)
X1 Y1
0,11 0,59
X2 -0,06 η
0,85
X3 0,18 Y2
0,12
X4
46
Figure 10 : a) Modèle théorique avec une liaison fallacieuse ; b) modèle estimé avec
LISREL (Chi 2 : 11,97 p value : 0,007, RMSEA : 0,077) ; c) modèle estimé avec PLSPM
(gof=0,46)
0,40
X1 Y1 δ1 Y1
0,20 0,50 b) X1 0,66 0,54
X2 0,20 η X2 η
0,45
0,20 0,50 0,43
X3 Y2 δ2 X3
0,33 Y2
0,20 0,34
X4 ζ
X4
c)
X1 Y1
0,40 0,81
X2 0,28 η
0,76
0,22 Y2
X3
0,22
X4
47
Figure 11 : a) Construit endogène avec des mesures formatives qui pose le paradoxe de la
mauvaise spécification du modèle de mesure ; b) Construit avec des mesures formatives
endogène qui pose le paradoxe de la variable latente formative non directement influencée par
d’autres variables latentes.
a) e1 η
a) Y1
ζ1
e2 Y2
e3 Y3 η1
e4 Y4 X1 X2 X3
δ1
e1 Y1
b) a)
X1
e2 Y2
δ2
e3 Y3 η1 X2 η
e4 Y4
X3
ζ1
δ3
48
Figure 12 : Modèle de base avec Y3 et Y4 a) estimé avec LISREL (Chi2 :3,53, p value : 0,31;
RMSEA : 0,018) ; b) estimé avec PLSPM (gof=0,252)
a) X1 Y3 δ1 Y3
0,43 0,22 b) X1 0,20 0,80
X2 0,47 η X2 η
0,22
0,08 0,41 0,68
X3 Y4 δ2 X3
0,05 Y4
0,28 0,14
X4 ζ
X4
49