Vous êtes sur la page 1sur 52

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/256081754

Les variables latentes formatives avec LISREL et PLSPM

Conference Paper · January 2012

CITATIONS READS

0 1,625

2 authors:

Mouloud Tensaout Hervé Guyon


Université du Maine Université de Bretagne Occidentale
29 PUBLICATIONS   32 CITATIONS    24 PUBLICATIONS   103 CITATIONS   

SEE PROFILE SEE PROFILE

Some of the authors of this publication are also working on these related projects:

FDI location View project

FDI location View project

All content following this page was uploaded by Hervé Guyon on 22 May 2014.

The user has requested enhancement of the downloaded file.


Les variables latentes formatives avec LISREL et PLSPM

Mouloud Tensaout
Maître de Conférences
ARGUMANS-GAINS
Université du Maine, Olivier Messiaen 72085, Le Mans
Email : mouloud.tensaout@univ-lemans.fr

Hervé Guyon
Maître de Conférences
PESOR,Université Paris Sud
IUT de Sceaux, 8 Avenue de Cauchy, 92 330 Sceaux
Email : herve.guyon@u-psud.fr
Les variables latentes formatives avec LISREL et PLSPM

RESUME
Les mesures formatives d’un construit sont maintenant usuelles dans les applications
marketing. Dans cet article, nous discutons des principales faiblesses soulevées dans la
littérature concernant à la fois leurs opérationnalisations (niveau conceptuel) et le processus
de validation (niveau empirique). La contribution principale de cet article est d’illustrer sur de
jeux de données simulées les implications pratiques de ces critiques sur l’interprétation d’un
construit mesuré formativement. Plus précisément nous examinons en détail les critiques
adressées sur les hypothèses auxiliaires qui sous–tendent la spécification de ce type de
mesures. Ainsi, nous relâchons une à une les hypothèses jugées peu réalistes ou fragiles. Nous
terminons par des recommandations quant au développement et à l’usage des mesures
formatives dans les applications marketing.

Mots clés : Analyse de la covariance, PLS, Mesures formatives, Modèles d’équations


structurelles, Validation.

Latent variables with LISREL and PLSPM

ABSTRACT
The formative measures of a construct are usual in the marketing applications. In this article,
we discuss main weaknesses raised in the literature concerning at the same time their
operationalization (abstract level) and the process of validation (empirical level). The main
contribution of this article is to illustrate with data simulations the practical implications of
these criticisms on the interpretation of a construct measured formatively. More exactly we
examine in detail the criticisms sent on the auxiliary hypotheses which underlie the
specification of this type of measures. So, we release one by one the hypotheses considered
little realistic or fragile. We end with recommendations as for the development and for the
formative measures in the marketing applications.
Key words: Formative measurement, LISREL, PLS, Structural Equation Model, Validation.
INTRODUCTION
Les indicateurs de mesures formatifs d’un construit1 remontent aux travaux en sociologie de
Blalock (1971).Contrairement aux mesures réflectives définies comme les manifestations
d’un construit (Figure 1), les mesures formatives sont vues comme les causes de la genèse du
construit (Figure 2) (Fornell et Bookstein, 1982 ; Bollen et Lennox, 1991 ; MacCallum et
Browne, 1993). Si les échelles de mesure ont été pendant tout un temps quasiment
exclusivement réflectives, s'appuyant sur le protocole de Churchill (1979), depuis les articles
de Diamantopoulos et Winklhofer (2001) et Jarvis et alii (2003), la production scientifique
comporte nombre de travaux utilisant des mesures formatives. La distinction entre construits
réflectifs et construits formatifs semble être clarifiée depuis l'article de Jarvis et alii (2003), et
pour les lecteurs de Recherche et Applications en Marketing par l'article de Crié (2005).
Pourtant depuis ces publications la discussion sur les modèles de mesures formatifs dans
la littérature académique est prolixe et soulève de nouveaux débats. Psychological Methods
(2007), Journal of Business Research (2008) et MIS Quaterly (2011) ont par exemple fait
récemment des numéros spéciaux sur ces construits mesurés formativement.
Ces mesures formatives renvoient en premier lieu aux questions conceptuelles traitant du
statut ontologique d’un construit (Edwards et Bagozzi, 2000 ; Rossiter, 2002 ; Borsboom et
alii, 2003 ; Borsboom et alii, 2004 ; Bagozzi, 2007 et 2011; Howell et alii, 2007a ; Howell et
alii, 2007b ; Diamantopoulos et alii, 2008). Bagozzi (2011) revient longuement sur les
fondements philosophiques distinguant les construits formatifs et réflectifs. Il souligne que le
sens ontologique du construit mesuré formativement est entièrement donné par ses indicateurs
formatifs alors que celui d’un construit représenté par des mesures réflectives existe
indépendamment de ses indicateurs réflectifs. Nous pouvons illustré ce débat sur l’orientation
marché qui peut être mesurée par ses manifestations (perspective culturelle) ou par ses causes
(perspective comportementale) (Coltman, et alii, 2008).
Mais indépendamment de la légitimité ontologique d’un construit, un examen critique du
processus de développement du modèle de mesure formatif est crucial, notamment sur les
difficultés d’estimation et l’ambiguïté d’interprétation de ces mesures formatives
particulièrement discutées dans cadre de l’analyse de covariance (Howell et alii, 2007a), que
nous associerons à l'algorithme le plus connu LISREL (équivalent à AMOS, SEPATH sous
Statistica, proc CALIS sous SAS, package SEM sous R, EQS, …). L’approche non
paramétrique Partial Least Square Path Modelling (PLSPM) est alors apparue comme une

1
Un construit est une entité non observable.

1
solution alternative car jugée moins contraignante et plus robuste sur des échantillons de
faibles tailles et à la violation de l’hypothèse de normalité de la distribution de données. Son
succès est aussi facilité par l’existence de nombreux logiciels (SMARTPLS, le module
PLSPM de XLSTAT, PLS GRAPH, le package plssem sous R, SPAD, …). La discussion a
donc légitimement dérivé dernièrement sur la pertinence de l’approche PLSPM pour les
modèles structurels intégrant des mesures formatives (Kim. et alii, 2010 ; Diamantopoulos,
2011 ; Ringle, 2012 ; Goodhue et alii, 2012). Toutes ces discussions posent in fine la
légitimité d’utiliser les mesures formatives (Hardin et Marcoulides, 2011 ; Edwards, 2011).
Comme le souligne Diamantopoulos (2011), l’introduction de mesures formatives est
« considérablement » plus compliquée à gérer sur le plan méthodologique que les modèles
n’intégrant que des mesures réflectives. Il n’est pas alors étonnant de voir les experts reconnus
se diviser entre les tenants du modèle de mesure formatif (Bollen, 2007, Diamantopoulos,
2011, Jarvis et alii,, 2003) et les opposants (Edwards, 2011 ; Bagozzi, 2011, Howell et alii,
2008 ; Borsboom, 2003 et 2004).
Il est difficile pour un chercheur non-expert d’arriver à synthétiser l’ensemble des
connaissances et des discussions entre les tenants et les opposants de ces mesures qui sont
souvent argumentées au niveau conceptuel sans réellement expliciter leurs conséquences
concrètes au niveau empirique. D’où des interrogations légitimes sur la bonne conduite à tenir
lorsque un praticien souhaite développer des mesures formatives pour un construit d’intérêt.
Notre travail tente justement de combler cette lacune. Il se veut donc un guide pédagogique
de ces discussions qui vont au-delà des débats concernant la distinction entre des mesures
formatives et réflectives (Edwards et Bagozzi, 2000, Diamantopoulos, 2001, Jarvis et alii,
2003, Rossiter, 2002) synthétisés dans Recherche et Applications en Marketing par Crié
(2005). L’objectif ici n’est pas de revenir sur cette discussion mais d’apporter un éclairage
nouveau et de proposer un cadre pratique pour le développement de ces mesures formatives.
Notre travail se propose d'illustrer, à l’aide des simulations telles que préconisées par Paxton
et alii (2001)2, la portée des débats actuels pour des praticiens non-experts en statistique
mathématique. Pour ce faire, nous ne développerons pas les aspects techniques, nous
renverrons à la lecture abondante les lecteurs soucieux d’approfondir certains de ces aspects.
Nous discuterons essentiellement des problèmes liés à la validation empirique des mesures
formatives en apportant les moyens de contourner, quand cela est possible, certains problèmes
fréquents. Nous proposerons in fine un guide de bonnes pratiques pour l’usage ce type de

2
Il est à noté que les exemples utilisés dans la littérature repose trop souvent sur des jeux données sujettes à
caution ( Cf. Bollen, 2007, les critiques adressées à ce type d’approche).

2
mesure, cependant il n'y pas de réponses "clé en main", chaque cas particulier peut soulever
des questions différentes.
Cet article est organisé en trois parties. La première partie revient rapidement sur les
hypothèses associées à spécification d’un modèle de mesure formatif, puis pose la
formalisation des mesures formatives dans le cadre de LISREL et de PLSPM. Une deuxième
partie discute des problèmes d’identification et d’estimation avec LISREL et PLSPM. Une
troisième partie illustre par des exemples les problèmes inhérents à l’opérationnalisation du
modèle de mesure formatifs avec LISREL et PLSPM. Pour conclure, nous apporterons des
recommandations aux utilisateurs de mesures formatives sur leurs usages dans les applications
empiriques en marketing.
Figure 1.
Figure 2.

DEVELOPPEMENT D’UN MODELE DE MESURE FORMATIF


C’est sans doute l’article original de Diamantopoulos et Winklhofer (2001) qui a suscité le
plus d’intérêt dans la littérature sur le développement des mesures formatives. Le grand
mérite de ces auteurs est d’avoir montré que dans les applications marketing, certaines
mesures supposées réflectives sont en réalité des mesures formatives. Cette mauvaise
spécification du modèle de mesure utilisé dans les applications empiriques peut biaiser les
paramètres estimés du modèle structurel et augmenter le risque d’erreur de type I (résultats
faussement positifs) (Jarvis et alii, 2003). Ce débat est aujourd’hui bien connu et la plupart
des chercheurs en marketing développant des mesures formatives se réfèrent à ces travaux.
Cependant récemment un certain nombre de chercheurs, remettent en cause même l’usage de
ce type de mesures comme Edwards (2011) et Bagozzi (2007, 2011), alors que dans un passé
récent ils soutenaient leurs développement dans les applications empiriques (Edwards et
Bagozzi, 2000). Nous reprenons en résumé leur arguments dans la première partie à partir des
hypothèses dites « auxiliaires » qui sous-tendent les mesures formatives, pour ensuite discuter
succinctement des fondements méthodologiques liées à LISREL et PLSPM.

Hypothèses formelles entre le construit et ses indicateurs formatifs


Le processus de développement du modèle de mesure formatif pour représenter un construit
(figure 2) repose sur l’examen d’un ensemble d’hypothèses formelles sur les liens entre le
construit η et ses indicateurs Xi. Ces principes et hypothèses constituent la théorie auxiliaire
qui établit la correspondance entre le construit et ses indicateurs. Nous rappelons de façon très
3
synthétique les travaux de Jarvis et alii (2003) et de Petter et alii (2007), et renvoyons à
l’article de Crié (2005) pour un développement plus exhaustif. Nous reviendrons sur certaines
de ces hypothèses dans la seconde partie.
Avec un construit mesuré formativement, le sens de causalité va du construit aux mesures ; les
indicateurs formatifs ne sont pas interchangeables ; les indicateurs ne partagent pas forcément
un contenu identique ou similaire ; par contre les indicateurs doivent couvrir l’exhaustivité du
sens conceptuel du construit, donc supprimer un indicateur peut altérer le domaine conceptuel
du construit ; la relation entre le construit et les mesures est linéaire ; le construit est
unidimensionnel ; les mesures formatives ne comportent pas de terme d’erreur. D’autres
implications sont induites par une telle modélisation comme celles portant sur les contraintes
de proportionnalité sur laquelle nous reviendrons ultérieurement. Nous constatons donc que
ces hypothèses sur les relations épistémiques entre le construit et ses mesures formatives
contraignent fortement le modèle de mesure. Mais ce qui complique encore les choses est que
la plupart d’entre elles sont difficilement testables et ne peuvent être posée que par une
argumentation théorique (le sens de la causalité, la linéarité, l’exhaustivité, et l’absence du
terme d’erreur).
Ces hypothèses sont jugées par de nombreux auteurs comme fragiles ou irréalistes et posent
la question de la légitimité des mesures formatives à représenter un construit (Edwars, 2011 ;
Borsboom et alii, 2003 ; Bagozzi, 2011 ; Howell et alii, 2007a). Nous discuterons en
substance dans la suite de cet article des principales objections : l’absence de l’erreur liée à un
indicateur formatif, la dépendance des mesures formatives au modèle structurel spécifié.
Bagozzi (2011) ne récuse pas le principe d’un construit d’être appréhendé par des mesures
formatives, mais le sens d’un tel construit reste pour lui le plus souvent ambigu. Borsboom et
alii (2003 et 2004) considèrent que seuls des construits réflectifs doivent être utilisés si on se
place d’un point de vue réaliste et pour lui un modèle de mesure formatif pour représenter un
construit est clairement associé aux approche instrumentaliste.
Cependant, comme le discutent la plupart des auteurs, il existe des situations dans lesquelles,
il est plus facile de disposer des mesures formatives que des mesures réflectives. Bollen
(2007) cite comme exemples : la valeur d’un bien immobilier qui est déterminée par sa
surface habitable, son emplacement, sa date de construction etc. ; le construit SES (statut
économique et social) qui déterminé par le revenu, la CSP, et l’éducation ; ou encore l’état
d’ébriété d’une personne qui est déterminé par les quantités d’alcool consommées. En
marketing plusieurs construits sont plus facilement mesurés par leurs causes, comme la

4
qualité d’un service (Tung et Carlson, 2013), l’orientation marché, l’animosité du
consommateur (Diamantopoulous et Riefler, 2011) etc.

Les opérationnalisations avec LISREL et PLSPM


Cette phase de spécification du modèle de mesure est essentielle pour la validité faciale et de
la validité de contenu. Nous partons du postulat que la définition conceptuelle du construit
peut être opérationnalisé avec des mesures formatives. Nous présentons maintenant le
processus de développement de ces mesures qui s’appuie sur une théorie auxiliaire (Bagozzi,
2007).
Afin de mieux de comprendre les implications pratiques de ces hypothèses auxiliaires, nous
présentons les deux principales spécifications du modèle formatif qui correspondent aux deux
approches traditionnelles développées dans la littérature sur les MES, à savoir LISREL et
PLSPM. Nous posons les équations car elles impliquent un sens différent au construit avec
LISREL ou avec PLSPM.

Le cadre d’analyse de LISREL


Dans le cadre de LISREL, le construit mesuré formativement est défini comme une variable
latente composite η (VLC) qui est une combinaison linéaire de ses mesures Xi et d’un terme
d’erreur :
η = γ 1 X 1 + γ 2 X 2 + γ 3 X 3 + ζ (1),
(1) ou sous forme matricielle : η= ΓX+ζ

Le terme d’erreur représente les autres facteurs non pris en compte car jugés peu importants
pour altérer la signification du construit. LISREL bénéficie d’indice de fiabilité du modèle,
néanmoins, il faut garder à l’esprit que l’interprétation de ces indices reste fragile. En effet,
lorsque ces indices rejettent le modèle, il est vraisemblable que le modèle doit être
légitimement rejeté. Par contre dans le cas d’indices satisfaisants, le modèle n’est pas
forcement correcte (comme nous l’illustreront par la suite par des exemples). D’où le risque
important d’accepter un modèle de mesure formatif mal spécifié en se basant uniquement sur
ces indicateurs statistiques (RMSEA, GFI, …). Nous illustrerons ce point par des exemples
dans la troisième partie de ce travail.

Le cadre de la modélisation PLSPM


Dans le cadre de la modélisation PLSPM, le construit est supposé déterminé entièrement par
ses indicateurs de mesures et en conséquence aucune autre cause n’impacte la variance du

5
construit (Tenenhaus et alii, 2005 ; Cenfetelli et Basselier, 2009). Contrairement à LISREL,
dans l’approche PLSPM le construit est défini comme une variable composite (VC) et
n’incorpore pas l’erreur de mesure.
C= w1 X1 + w2X2+ w3 X3 + w4 X4 (2)
Cette hypothèse complique davantage la validation du modèle de mesure (Diamantopoulos,
2011 ; Hardin et Marcoulides, 2011 ; Bollen, 2011). Mais, d’un point de vue pratique
l’élimination du terme d’erreur est aussi commode dans la phase d’estimation du modèle
formatif (absence de cadre paramétrique qui permet de relâcher bien des hypothèses
contraignantes avec LIREL), et est à l’origine du succès de l’approche PLSPM (Ringle et alii,
2012).
Nous présentons maintenant les étapes d’identification et d’estimation du modèle de mesure
nécessaires nécessaire pour examiner la validité de construit (validités prédictive et
nomologique). Rappelons le cette phase empirique de la validation d’un modèle de mesure est
au cœur des controverses récentes.

IDENTIFICATION ET ESTIMATION DU MODELE DE MESURE FORMATIF


L’estimation des paramètres du modèle de mesure spécifié nécessite au préalable son
identification. Cette étape d’identification est effectuée uniquement dans le cadre de LISREL
(Bollen et Davis, 2009a et 2009b). Par contre avec LISREL et PLSPM nous aurons des soucis
dans la phase d'estimation.

Dans le cadre de LISREL


Récemment Bollen et Davis (2009a et 2009b) ont proposé un ensemble de règles à satisfaire
pour identifier les paramètres d’un modèle de mesure formatif.
La règle deux variables émises
Cette condition nécessaire mais non suffisante impose l’ajout de deux variables endogènes à
la variable latente η mesurée formativement. Concrètement, nous pouvons soit développer
des mesures réflectives η, soit spécifier d’autres construits avec des mesures réflectives
(Bollen et Davis, 2009a) (figure 3a ou 3b), ou une combinaison des deux. Par exemple, le
modèle illustré par la figure 3a qualifié de MIMIC3 est identifié (Joreskog et Sorbom, 1996).
Mais il faut s’assurer que théoriquement ces nouvelles variables ne sont liées qu'au travers de
la variable latente formative. Cette hypothèse dite d’indépendance locale signifie que les

3
« Multi-Indicateurs (réflectifs) –Multi-Causes (indicateurs formatifs) »

6
deux variables Y1 et Y2 sont conditionnellement indépendantes par rapport à la variable
η, sinon le cadre mathématique obligatoire n'est plus respecté et les résultats seront biaisés.
C'est une contrainte forte et difficilement testable dans la pratique. Nous reviendrons sur ce
point. Enfin ce schéma d’identification induit des contraintes de proportionnalité (voir plus
loin).
Figure 3.

Notons qu'il n'est malheureusement pas rare de voir des articles spécifiant un modèle de
mesure formatif sans que ce dernier ait des liaisons avec au moins deux autres mesures
réflectives ou deux variables latentes endogènes avec des mesures réflectives. Théoriquement
un tel modèle n'est pas identifiable par LISREL. Pour y parvenir, des contraintes
supplémentaires spécifiées a priori sont nécessaires (en fixant une valeur nulle à certains
paramètres ou à celle de l'erreur du construit). Mais, une telle variable formative ainsi
spécifiée (c’est-à-dire sans deux liaisons avec des variables endogènes) est intégrable dans
n’importe quel modèle structurel car qu’elle soit ou pas présente, cela ne change rien au
modèle. C'est pourquoi on la qualifie de "variable fantôme". Mais en aucun cas on peut
prétendre avoir mesuré ce construit, il est purement artificiel et sans aucune validité
psychométrique (MacCallum et Browne, 1993 ; Diamantopoulos et Siguaw, 2006 ;
MacKenzie et alii, 2005 ; Bagozzi, 2007).

Les contraintes de proportionnalités.


Ce schéma d’identification (figure 3), qui nécessite l’ajout de variables endogènes, conduit
implicitement à imposer des contraintes sur les paramètres du modèle de mesure (Franke et
al., 2008). Formellement, il est facile de montrer que dans la figure 3b lorsque la variable η
influence par exemple 2 fois plus ηl que η2, alors chaque mesure formative impacte aussi
dans la même proportion η1 et η2. Ainsi X1 influence deux fois plus η1, via η, que η2.

La règle de normalisation des variables latentes


La norme d’une variable latente est arbitraire, on peut fixer à « 1 » l’un des paramètres liant le
construit à l’une de ses mesures ou à un autre construit ; une autre option consiste à fixer à
« 1 » la variance du construit ou la variance résiduelle de la variable latente. Mais selon le
choix de calibration choisit, les résultats diffèrent. Nous illustrons ce problème par deux
estimations issues d’un même jeu de données.

7
Figure 4

Quel que soit le choix de la normalisation, les résultats standardisés donneront les mêmes
estimations. Il ne faut donc impérativement analyser que les résultats standardisés pour
comparer les coefficients. La contrainte est que seul le logiciel Mplus donne des intervalles de
confiance de ces estimations standardisées. Donc la procédure conseillée sera de vérifier par
bloc (c’est-à-dire par variable latente) la significativité des coefficients non-standardisés, puis
d’analyser les coefficients standardisés de tout le modèle (en ne retenant que les coefficients
significatifs).

L’hypothèse de normalité des données


Avec LISREL, le relâchement de la contrainte de normalité des distributions des données est
sans graves conséquences sur les paramètres estimés des mesures réflectives si l’aplatissement
et l’asymétrie ne sont pas trop éloignés de leurs valeurs théoriques. Mais ce n’est pas le cas
dans le cas des mesures formatives : leurs distributions doivent être impérativement
gaussiennes (Ringle et alii, 2009). Il faudra donc impérativement faire des tests de normalités
des distributions des indicateurs formatifs Xi avant toute chose.

Dans le cadre de l’approche PLSPM


Nous avons souligné que cette méthode non paramétrique est moins contraignante pour
estimer le modèle de mesure. Cette approche connaît ainsi un succès pour estimer un MES en
raison de sa capacité à surmonter les difficultés rencontrées avec LISREL (identification,
solution impropre, convergence, taille de l’échantillon, distribution des variables). Nous ne
discutons pas de tous les aspects de PLSPM (et de ses extensions récentes), mais uniquement
de sa capacité à modéliser un modèle formatif d’une variable latente (Cf. Vinzi et alii, 2010
pour un développement exhaustif).

Identification
Dans cette approche, l’étape de l’identification ne se pose pas. En effet, PLSPM possède la
propriété de pouvoir estimer un modèle de mesure formatif d’une variable latente même si
celle-ci n'est pas reliée à des mesures réflectives ou à d’autres construits endogènes. Mais un
tel modèle de mesure estimé isolément ne sera en fait que la première composante principale
de ses indicateurs formatifs. Le résultat serait identique si nous spécifions un modèle de
mesure réflectif ! Or ces derniers doivent satisfaire l’hypothèse fondamentale d’indépendance
8
locale des mesures réflectives de la théorie classique du test. Pour rappel celle-ci stipule que
la corrélation entre les manifestes doit être forte car elle a pour seule source celle du construit.
Ce principe n’est pas exigé pour des indicateurs formatifs qui sont généralement présumés
peu corrélés. De même, avec PLSPM, une variable latente peut n’être reliée qu'à un seul autre
variable latente (formative ou réflective), mais là aussi nous retrouvons un cas particulier de
ce que l'on nomme l'analyse multi-blocks (Tenenhaus et Hanafi, 2010). Donc PLSPM
n'apporte réellement d'intérêts par rapport aux outils statistiques usuels que lorsque le modèle
formatif est relié à au moins deux autres variables latentes ou mesures dans le modèle.

Contraintes sur les covariances


L’algorithme PLSPM impose a priori que les corrélations entre les mesures du modèle
formatif estimé soient libres4. Par conséquent, lorsque nous souhaitons, pour des raisons
théoriques, contraindre certaines de ces corrélations (p.e. à 0), les estimations du modèle
fournies par PLSPM sont alors biaisées (Cenfetelli et Bassellier, 2009).

La qualité d’ajustement
Le cadre non paramétrique de PLSPM ne fournit pas véritablement d'indices d’ajustement du
modèle spécifié aux données ni de seuils pour le rejet ou non d’une hypothèse portant sur les
propriétés souhaitées d’une mesure valide. Notons que Tenenhaus et alii (2005) ont discuté
d’index globaux de qualité, comme le « gof5 », (Ringle et alii, 2012). Mais ces derniers n’ont
pas de propriétés paramétriques connues, comme ceux de l’approche du maximum de
vraisemblance utilisée dans LISREL. Enfin, le recours à des indices d’ajustement non
paramétriques6 fournis par la méthode PLSPM ne permet pas de comparer des modèles
rivaux.

LE PROCESSUS DE VALIDATION D’UN MODELE DE MESURE


Le processus de validation diffère sensiblement de celui d’un modèle de mesure réflectif.
Nous présentons en annexe (annexe A1) une synthèse des principales expérimentations
mentales pour examiner certaines hypothèses théoriques et des analyses statistiques afin de
tester d’autres hypothèses. Notre synthèse est essentiellement tirée de l’article de Centefelli et

4
Ce n’est pas le cas avec LISREL
5
Pour PLSPM, Wetzels et alii (2009) proposent des seuils en fonction du GOF pour juger de la validité d’un
modèle (rejet) : un seuil minimum de 0,25 est jugé acceptable.
6
Il faut comparer ses indices souvent à des seuils ad hoc pour juger de la qualité d’ajustement du modèle aux
données. C’est aussi le cas pour certains indices non paramétriques (mais pas tous) fournis par LISREL.

9
Bassellier (2009). Nous discutons maintenant à l’aide de simulations afin d’illustrer la
fragilité de ce processus de validation. Il est aussi important de signaler que nos discussions
sont menées sur un construit de premier ordre mesuré avec des indicateurs formatifs. Mais
elles restent valides aussi dans le cas d’un construit second ordre mesuré formativement. Dans
ce dernier cas, il suffit de remplacer dans les équations 1 et 2 les indicateurs Xi par des
variables latentes ξi .

Description des simulations


Nous l’avons souligné plus haut que chacune des deux modélisations (LISREL et PLSPM)
repose sur un nombre d’hypothèses très contraignantes dont certaines sont difficiles à
satisfaire (exhaustivité, absence d’erreur de mesure). Afin de faciliter la compréhension de
notre discussion sur les fragilités des hypothèses qui sous-tendent un modèle de mesure
formatif, nous construisons des jeux des données simulées à partir d’un modèle de mesure
théorique d’une latente formative avec 4 indicateurs formatifs indépendants et 2 mesures
réflectives pour des besoins d’identification (cf. plus haut). L’ensemble des jeux des données
sont simulées avec un échantillon de 500 individus par le logiciel R qui permet de travailler
sur les mêmes jeux de données avec LISREL (package sem) et PLSPM (package sempls). Les
estimations des intervalles de confiance des paramètres sont obtenues sur la base de 1000
réplications Boostrap. Dans tous les modèles, pour éviter les problèmes de colinéarité mais
aussi pour ne pas alourdir le schéma du modèle théorique, les covariances entre les indicateurs
formatifs sont nulles sauf indication contraire.
Nous construisons de prime abord un modèle de mesure formatif valide. Le poids γi de
chacune des mesures formatives est fixé à 0,25. Enfin, les coefficients entre la variable
latente et les mesures réflectives sont de 0,30. Il va de soi que ces corrélations sont faibles
pour des mesures réflectives valides, néanmoins ces mesures sont ajoutées uniquement pour
des besoins d’identification du modèle de mesure formatif qui nous intéresse ici. Enfin ce
modèle de mesure est théoriquement valide et respecte donc les contraintes de
proportionnalités.
Les résultats des estimations de ce modèle avec LISREL et PLSPM sont donnés par la figure
5. Il est à noter que tous les coefficients estimés sont significatifs (figure 5). Un premier
constat qu’il convient de rappeler est que les estimations obtenues par PLSPM et LISREL
divergent sensiblement, PLSPM apportant un poids supérieur aux variables réflectives. Cette
distorsion de PLSPM envers les variables manifestes (réflectives) est connue.

10
Proportionnellement les Xi jouent le même rôle avec LISREL et PLSPM, mais le praticien
verrait à tord dans le modèle avec PLSPM un rôle plus important des variables réflectives.
Figure 5

Ce constat rappelé, ce qui nous intéresse maintenant porte sur les débats et les controverses
sur les difficultés d’interprétation de la variable latente η mesurée formativement. Nous
examinons les implications pratiques de ces critiques en relâchant l’une ou plusieurs
hypothèses auxiliaires qui sous-tendent le modèle de mesure car jugées peu plausibles. Pour
certaines hypothèses nous ferons des simulations ad hoc car incompatibles avec ce modèle de
base

L’importance du terme d’erreur de la latente formative


Seul LISREL modélise le modèle avec un terme d’erreur associé à la variable latente
formative. PLSPM n’intègre pas d’erreur de mesure de la latente. Dans le cadre de LISREL,
Diamantopoulos (2006) a longuement discuté le rôle et l’interprétation du terme d’erreur
ζ dans le processus de validation du modèle de mesure formatif. Il est maintenant admis que
ce terme ne peut représenter que les autres indicateurs jugés secondaires sans impact réel sur
la signification du construit, qui doivent être comme dit précédemment indépendant des
indicateurs inclus dans le modèle. Cette hypothèse d’exogénéité des erreurs est cruciale pour
l’utilisation des méthodes de régression. Ainsi, la minimisation de ce terme d’erreur est le
point clé pour juger de la validité du modèle spécifié. En conséquence une variance de ce
terme d’erreur ζ faible et des indicateurs significatifs avec des signes attendus sont
nécessaires dans le processus de validation. Lorsque la variance est jugée importante7, alors
un réexamen des mesures retenues est fortement recommandé. Si en plus les signes et/ou des
indicateurs sont non significatifs alors une nouvelle définition du contenu doit être entreprise.
Enfin le cas d’une variance faible et des indicateurs non significatifs peuvent indiquer une
forte colinéarité entre des indicateurs formatifs.
Il reste à déterminer les causes qui peuvent violées cette hypothèse d’exogénéité. La
littérature économétrique cite trois sources : l’erreur de mesure, omission d’une variable

7
D’après Diamantopoulos se référant aux travaux de Cohen (1978) pour juger de l’importante de l’ampleur de la
taille de l’effet, une variance expliquée du terme de l’erreur ζ de plus 25% est jugée excessive.

11
importante et la simultanéité entre des variables8. Dans ce qui suit, nous discutons en détail les
implications empiriques de chacune de sources sur le processus de validation et les moyens
d’y remédier.

L’exogénéité de l’erreur de la variable latente


Nous l’avons souligné plus haut que l’estimation du MES par les méthodes de régression
exige est que le terme d’erreur de la variable latente ne soit pas corrélé avec les mesures Xi
retenues (hypothèse d’exogénéité). Cette condition implique concrètement que les facteurs
influençant η omis dans le modèle doivent impérativement être indépendant des variables Xi
introduites, sous peine d’avoir des résultats biaisés. Cette condition est satisfaite lorsque les
mesures formatives sont exhaustives et ne comportent pas d’erreur de mesure (voir plus loin).
Nous ne souhaitons pas ici illustrer le problème de la simultanéité, mais examiner un exemple
plus classique en marketing qui consiste à spécifier une mesure formative X1, alors qu’elle
ne l’est pas car liée à une autre mesure formative omise Z (figure 6). Supposons que le
praticien ne retient que X1, X2, X3 et X4 pour définir le construit η et n'intègre pas la variable
Z dans son modèle, l’hypothèse d’exogénéité est violée et les résultats seront biaisés. En effet,
ζ (erreur de la variable latente, cf. équation 1) correspond à tous les autres facteurs influençant
η non intégrés dans le modèle (dont Z). Or théoriquement ζ doit être indépendant des
facteurs intégrés. Or ici, ζ n'est pas indépendant de X1 puisque Z influence X1 et Z9 est
intégré dans ζ. C'est ce que l'on appelle la "non exogénéïté" de l'erreur, problème très fréquent
souvent ignoré qui entraîne des conclusions fausses. Concrètement, X1 apparaîtra influencer
significativement η (figure 6b et 6c) à tort (figure 6a). De nouveau les indices d’ajustement
ne permettent de déceler ce problème. Ainsi, ce problème d’endogéniété ne peut être discuté
que théoriquement à partir de la définition du construit et des indicateurs retenus. Il est donc
important d’avoir cette réflexion pour le développement de ces mesures car aucun test
statistique ne permet de détecter une telle mauvaise spécification, à moins de développer
plusieurs modèles rivaux.
Figure 6

En conséquence, la seule solution pour éviter ce problème est de justifier théoriquement que
nos indicateurs formatifs sont des causes directes et exhaustifs de la formative. Il reste le

C’est le cas lorsque la variables dépendante, ici η et une variable explicative , ici Xi, sont déterminées
8

simultanément ( comme pour l’offre et de la demande d’un bien).


9
La variable Z omise est qualifiée dans la littérature de « variable confondante».

12
problème de l’absence de l’erreur de mesure. Nous examinons ci-dessous ces deux points :
exhaustivité des mesures et absence d’erreur de mesure.

Des mesures exhaustives


L’une des conditions essentielles pour la validité de contenu d’un modèle de mesure formatif
est de s’assurer que l’ensemble des causes du construit d’intérêt sont identifiées. Par
définition, l’omission de l’une d’entre elles (Xi) peut altérer la signification du construit
postulée a priori. Selon Diamantopoulos (2011), l’omission d’une des causes importantes du
construit peut conduire à altérer le contenu du construit et donc son interprétation.
Néanmoins, dans le cadre de LISREL, cette définition est moins stricte en incluant un terme
d’erreur ζ qui représente d’autres causes jugées peu importantes (équation 1). La seule
condition exigée est que ce terme d’erreur ne soit pas corrélé avec les mesures Xi retenues
(hypothèse d’exogénéité, nous y reviendrons plus bas). Pour illustrer ces propos, nous avons
éliminé l’indicateur formatif X3 (le plus influent). Nos variables Xi ne sont pas corrélées donc
les coefficients estimés ne seront pas beaucoup modifiés. Ce cadre de covariances nulles
permet de ne pas considérer que l’information enlevée (ici X3) se transmet via les autres
indicateurs conservés dans le modèle (X1, X2 et X4). Ce qui est remarquable ici (figure 7)
c’est que les indices d’ajustement des modèles estimés restent très satisfaisants (RMSEA=0 ;
gof=0.25). Sur la base de ces résultats, un praticien jugerai que ce modèle de mesure est
valide alors qu’il est incorrectement spécifié (la variable X3 est supprimée).
Ainsi la validité de contenu d’un modèle de mesure formatif, ne peut être examinée que sur la
base de la définition conceptuelle du construit et le jugement par les paires.
Figure 7

L’absence de l’erreur de mesure


Comme les montres les équations 1 et 2, les mesures formatives ne comportent pas d’erreur
de mesures. Nous l’avons souligné plus haut, bien que cette hypothèse soit jugée peu réaliste
dans la pratique notamment lorsque les mesures sont obtenues par un questionnaire (Edwards,
2011), cette hypothèse est maintenue pour les besoins d’estimation du modèle de mesure par
les méthodes de régression. Dans le cas contraire, l’estimation nécessite alors des méthodes
d’estimation plus complexes comme le recours aux variables instrumentales (Kirby et Bollen,
2009). Donc concrètement, les mesures formatives sont présumées exactes, sans erreur
possible alors que le plus souvent ce n'est pas le cas. Par conséquent il faut s’attendre à des
paramètres estimés biaisés. Afin d’illustrer l’importance de ce biais nous avons repris le
13
modèle de base (figure 5) et ajouté des erreurs aux mesures des indicateurs formatifs Xi
(erreurs représentants 10% des variations des mesures). Nous avons ensuite estimé ce
nouveau modèle de mesure (figure 8). Nous constatons que les poids estimés des indicateurs
diffèrent significativement par rapport à leurs valeurs initiales (figure 5), la variable la plus
importante apparaît être X4, et X2 a un coefficient non-significatif ce qui amènerait à retirer
cette variable du modèle. Les indices d’ajustement sont toujours très satisfaisants.
Figure 8

Cet exemple illustre l’importance de cette hypothèse implicite d’absence d’erreur pour les
indicateurs formatifs. Pour répondre à ce problème, Edwards (2011) préconise tout
simplement une reformulation du modèle formatif dans laquelle chacune des mesures devient
une manifestation (mesure réflective) d’un construit de premier ordre. Pour Edwards (2011),
le recours aux mesures réflectives permettrait de s’affranchir du problème d’interprétation.
Cependant cette formulation souffre, au-delà d’un problème d’interprétation puisque la
variable latente formative semble devenir une variable latente réflective, de devoir imposer les
erreurs des indicateurs, c’est à dire choisis arbitrairement par le praticien. Cette procédure
proposée par Edwards a été très peu utilisée et demanderait d’autres investigations à partir
d’exemples ou simulations. En effet, sur nos données, en entrant l’erreur réelle des indicateurs
(puisque nous la connaissons ici exactement), les résultats sont surprenants puisque le
coefficient de X1 devient significativement négatif. Bien évidemment la modélisation
proposée par Edwards est impossible avec PLSPM.
En conclusion, seuls des indicateurs dont on sait qu’ils sont susceptibles de n’intégrer qu’une
faible erreur de mesure doivent être utilisés.

La gestion de la multi-colinéarité
Bien que théoriquement aucune contrainte ne soit imposée sur les covariances entre les
mesures formatives, une forte colinéarité peut induire une instabilité des paramètres du
modèle de mesure particulièrement dans le cadre de LISREL et de l’approche PLSPM. C'est
un problème usuel avec la régression multiple. Dans ce cas les paramètres estimés sont
instables. La colinéarité peut être jugée excessive par le calcul d’un VIF généralement
supérieur à 10. Il est préconisé dans ce cas de supprimer les indicateurs « redondants » tout en
s’assurant que la signification postulée a priori du construit n’est pas altérée.
Nous illustrons ce problème par une simulation qui reprend le même cadre que la génèse du
modèle de base posé figure 5, mais ici nous avons imposé que les indicateurs formatifs soient

14
fortement corrélés (corrélations de 0,9), avec toujours des poids théoriques des différents
indicateur identiques sur la latente. Le modèle théorique est figure 9a, nous estimons les
paramètres sous LISREL (figure 9b) et sous PLSPM (figure 9c). Nous voyons que la
colinéarité entre les quatre indicateurs formatifs amène des résultats fortement biaisés : X2
semble influencer η de façon négative. Les indicateurs de fiabilités amèneraient pourtant le
praticien à valider ce modèle. Il faut donc absolument vérifier la colinéarité potentielle des
indicateurs formatifs.
Figure 9

Le rôle médiateur du construit et les contraintes de proportionnalité


Une hypothèse encore plus contraignante est l’hypothèse explicite qui stipule que les
indicateurs formatifs déterminent uniquement la variable latente formative. Concrètement,
cette propriété interdit que l’un des indicateurs formatif Xi du construit η puisse avoir un effet
causal sur les variables endogènes Y1 ( ou η1) et Y2 (ou η2) qui ne soit pas médiatisé par la
variable latente η . Cela se traduit par des contraintes de proportionnalités (Bollen et Davis,
2009b ; Diamantopoulos, 2011 ; Franke et alii, 2008). Il convient donc de s’assurer que la
variable latente est la seule variable médiatrice entre ses indicateurs et ses effets sur d’autres
variables latentes endogènes. Une des solutions (proposée par Bollen et Davis, 2009b ; Franke
et alii 2008) est d’utiliser les « modifications d’indice » (implanté dans tous les logiciels
identiques à LISREL) qui révèleront si un lien « oublié » entre les indicateurs formatifs et
d’autres variables (en dehors de la latente formative) sont significatifs (un seuil de 4 de
l’amélioration du test d’ajustement chi 2 est généralement utilisé). Si tel est le cas, le modèle
est alors mal spécifié… et il est crucial de ne pas ajouter ce lien en plus, mais il faut
impérativement reconsidérer la définition de la latente formative. Le schéma ci-dessous
(figure 10a) illustre par la flèche en pointillée une relation théoriquement interdite entre une
mesure formative et une autre variable endogène. Nous avons généré des données avec un tel
modèle théorique et estimé ce modèle en faisant abstraction du lien entre X1 et Y1. Les
modèles estimés sous LISREL (figure 10b) et PLSPM (10c) donnent des résultats biaisés : X1
semble avoir un poids plus important qui est la conséquence du lien entre X1 et Y1 non
introduit dans le modèle estimé. Le gof sous PLSPM apparait très bon, le RMSEA sous
LISREL est acceptable (<0.08). Seul LISREL permet de vérifier que les règles de
proportionnalités sont respectées (par les tests sur les modifications d’indices). Dans notre
exemple, le logiciel informe que le lien entre X1 et Y1 apporterait une modification

15
significative de la fiabilité du modèle (MI=9,41). Cela nous alerte sur la mauvaise
spécification du modèle illustré par la figure 5b, test impossible à faire avec PLSPM.
Figure 10

Le cas d’un construit endogène


La littérature académique discute essentiellement des construits exogènes avec des mesures
formatives. En réalité, ce construit peut être aussi endogène, c'est-à-dire lui-même impacté par
d’autres construits réflectifs ξ exogènes qui ne sont pas ses antécédents (figure 11a). Cette
situation complique d’avantage les choses car cette fois la variable latente formative est
déterminée à la fois par ses mesures et par d’autres construits exogènes. Cette spécification
pose d’importantes questions conceptuelles. Pour rappel, les mesures formatives représentent
l’ensemble des causes du construit. Comment alors ξ peut influencer η sachant que cette
dernière est essentiellement déterminée par ses indicateurs ? Si tel est le cas, cela reviendrait à
considérer que les indicateurs formatifs ne représentaient pas l’exhaustivité des causes de
η... et donc que le modèle de mesure est mal spécifié. Cadogan et Lee (2013) et Auteurs
(2013) proposent une solution pour éviter ce « paradoxe » qui consiste à spécifier des
relations causales entre les antécédents ξ et les indicateurs de mesures Xi de η (figure 11b).
Mais comme l’explique alors Rigdon (2012), on ne peut considérer que ξ influence η car cela
reviendrait à considérer que l’erreur de la latente, qui représente entre autres l’influence de
ξ sur η, serait liée aux indicateurs de η (cf le point précédent sur l'exogénéité de l'erreur).
Nous nous trouvons devant un autre paradoxe : une latente formative ne pourrait pas être
intégrée comme une variable endogène d’autres variables latentes dans un MES. La
discussion à ce sujet est à peine initiée dans la littérature académique, mais la prudence veut
de ne pas utiliser de latentes formatives endogènes dans des MES. Ce point renvoie donc à
une lecture critique de bien des travaux où les praticiens utilisent sans précautions des
variables latentes formatives endogènes.
Figure 11

La gestion des covariances des indicateurs formatifs


Théoriquement, les indicateurs formatifs peuvent être corrélés entre eux. Avec LISREL, la
gestion des covariances pose problème. Le nombre de covariances augmente
exponentiellement en fonction du nombre de mesures formatives, or l’exhaustivité de la
mesure implique le plus souvent un nombre important d’indicateurs (avec quatre indicateurs

16
formatifs nous avons six covariances à estimer ; avec six indicateurs le nombre de covariances
à estimer monte à quinze). De plus, les indicateurs formatifs peuvent covarier avec d’autres
variables exogènes du modèle. Ceci rend l’estimation délicate dès que le modèle devient
important (le nombre de paramètres à estimer devient trop important). Une méthode avec
LISREL pour contrôler les covariances est de suivre la pratique suivante (MacCallum et
Browne, 1993 ; Jarvis et alii 2003) : estimer toutes les covariances entre tous les construits
latents exogènes et les variables manifestes, puis estimer une série de modèles
hiérarchiquement liés (nichés) qui permettent de libérer des covariances (en les spécifiant
nulle). Pour tester si une covariance peut être retirée, il suffit sous LISREL de comparer les
Chi2 entre les deux modèles (qui sont nichés) et de faire un test du Chi2 à un degré de liberté.
Comme le praticien aura essayé de prendre des indicateurs non-corrélés, il pourra
certainement vérifier que certaines covariances peuvent être retirées, ce qui réduira le nombre
de paramètres à estimer et rendra l'ensemble des résultats plus fiables. Cette démarche n’est
faisable que sous LISREL, mais PLSPM ne souffre pas de ce problème car l’algorithme
n’estime pas le modèle d’un bloc. Par contre avec PLSPM, nous ne pouvons pas spécifier des
corrélations nulles entre des indicateurs.

L’interprétation confondante
Ce problème est très clairement le plus important mis en avant par les opposants aux modèles
formatifs. De nombreux travaux empiriques montrent que le choix des construits endogènes
η1 et η2, nécessaire à l’identification du MES mais aussi pour les besoins de l’étude
formatif, peut altérer la signification du construit η. Ce phénomène a été mis en évidence
dans la littérature récente à la fois dans le cadre de LISREL aussi bien que dans l’approche
PLSPM (Wilcox et alii 2008, Howell, et alii, 2007a, Kim et alii, 2010, Diamantopoulos,
2011, Auteurs, 2011). Il est désigné sous le terme d’ « interprétation confondante ». Nous
souhaitons faire une présentation de ce phénomène qui est à l’origine de vifs débats entre les
tenants et les opposants au modèle formatif.
Dans un MES, l’interprétation confondante désigne la situation dans laquelle l’ajout ou la
suppression d’une relation structurelle entre le construit η et d’autres construits ηi du MES
modifie significativement les valeurs des paramètres du modèle de mesure (formatif ou
réflectif) du construit η, et par là altère sa signification postulée a priori, avant son estimation
par le chercheur. Wilcox et alii (2008) illustre ce problème à partir du construit « statut
socioéconomique » (SES) (Wilcox et alii, 2008). Supposons que le SES d’un individu est

17
défini a priori en fonction de son éducation, le revenu et l’emploi occupé (mesures
formatives). On peut souhaiter par exemple déterminer l’impact du SES sur le mode vie et sur
l’état de santé des individus (Modèle structurel I). Dans une seconde étude on peut souhaiter
estimer l’influence du SES sur le style de vie et l’orientation idéologique (Modèle structurel
II). Nous parlons d’interprétation confondante lorsque après l’estimation du modèle I et du
modèle II, la force et le sens des relations entre le construit SES et ses mesures formatives
changent d’un modèle à un autre. Par exemple, le paramètre liant l’éducation au SES peut
devenir non significatif dans le modèle II. En conséquence, la définition initiale, qui consiste à
postuler que l’éducation est l’une des causes du SES, est invalidée. Ainsi d’un modèle à
l’autre le construit SES n’a pas la même signification. Ce qui est problématique pour toute
généralisation de nos résultats impliquant le SES. Ce type de situation est caractérisé par Burt
(1976) d’interprétation confondante.
Howell et alii (2007a) ont montré, sur des données simulées et réelles, que les paramètres du
modèle de mesure formatif d’un construit estimé par LISREL changent fortement selon les
variables endogènes incluses dans le MES pour son identification. Ils montrent aussi que les
paramètres des mesures réflectives sont moins sensibles à l’ajout/suppression des variables
endogènes. D’autres auteurs confirment ces résultats (Bagozzi, 2007 ; Kim et alii, 2010),
tandis que Bollen (2007) récuse ce diagnostic en soulignant que la source de cette
interprétation confondante a pour source principale la mauvaise spécification du MES. Pour
Bollen (2007) lorsque le modèle formatif est bien spécifié, c’est-à-dire lorsque le chercheur
possède des mesures réflectives ou des construits de premier ordre valides nécessaires à
l’identification du modèle de mesure, alors les poids des mesures formatives sont peu
sensibles aux variables endogènes incluses pour l’identifier (il n’y a donc pas d’interprétation
confondante). Howell et alii (2007a et 2007b) reconnaissent cet argument de Bollen, tout en
s’interrogeant sur les moyens de détecter les sources d’une telle mauvaise spécification.
Diamantopoulos (2011) récuse aussi la critique de Howell et alii (2007a) en insistant sur le
fait qu’un modèle, et les construits inhérents, est toujours contextualisé. L’interprétation
confondante n’étant que l’illustration de cette contextualisation.
La discussion sur l’interprétation confondante reste un point de central de discussion dans la
littérature académique qui oppose les tenants et les opposants aux construits mesurés
formativement. Nous examinons les arguments des uns et des autres en reprenant le modèle
de base (figure 5). Nous modifions ce modèle en mettant deux nouvelles variables réflectives
endogènes Y3 et Y4 à la place de Y1 et Y2 (figure 12). η a théoriquement la même
signification dans les deux modèles (figure 5 et figure 12) car η est estimé formativement par

18
les mêmes Xi exogènes. Or nous voyons que les indicateurs formatifs ont des coefficients
différents dans les deux modèles, et ceci avec LISREL et PLSPM. Notamment, la variable X3
qui était la plus influente dans le modèle initial (figure 5) devient ici non significative (figure
11) et un praticien la retirerait de son modèle. Comment dès lors considérer avoir le même
construit η dans les deux modèles (figure 5 et 12) ?
Figure 12

Cependant la discussion sur l'interprétation confondante se prolonge dans la littérature


académique. On peut supposer que si les liens entre la latente formative et les variables
réflectives sont fortes, le risque d'interprétation confondante est faible (Bollen, 2007 ;
Auteurs, 2011). Concrètement, le praticien devra idéalement s'assurer de la stabilité de ses
coefficients reliant les indicateurs formatifs au construit d’intérêt avec différentes variables
réflectives endogènes, en spécifiant différents modèles et en les comparant. Ceci alourdit
considérablement le recueil de données car il faut non plus deux indicateurs réflectifs, mais au
moins quatre pour cette phase de validation. S'il ne peut avoir un tel spectre de variables
endogènes, il devra s'assurer que les liens entre la latente formative et les réflectives sont
élevés (SMC important sous LISREL), ce qui diminuera le risque d'interprétation confondante
(auteurs, 2011). Une autre solution sera de justifier à partir des remarques de Diamantopoulos
(2010) du caractère contextuel de son étude et des liens trouvés.

DISCUSSION GENERALE
Nous avons soulignés que le des débats sur la légitimité de l’usage d’un modèle de mesure
formatif d’un construit ont fait l’objet de nombreuses publications (Bagozzi 2007 ; Bollen
2007 ; Howell et alii, 2007a, 2007b ; Petter et alii, 2007 ; Wilcox et alii, 2008 ; Baxter, 2009 ;
Wetzels et alii, 2009 ; Diamantopoulos, 2010 ; Kim et alii, 2010 ; Bollen, 2011 ;
Diamantopoulos, 2011 ; Hardin et Marcoulides, 2011 ; Bagozzi, 2011). Notre travail a
montré qu’effectivement le développement des mesures formatives nécessite un ensemble de
conditions très difficiles à satisfaire : absence d’erreur de mesure, exhaustivité des mesures,
indépendance locale des variables exogènes. A ces difficultés s’ajoutent celles communes à
tout travail de modélisation comme, l’équivalence observationnelle, l’omission de variables
importante comme les variables confondantes etc.
Les opposants aux modèles formatifs pointent que les bases théoriques et conceptuelles du
modèle de mesure formatif sont fragiles, notamment l’absence de l’erreur de mesure,
l’hypothèse d’exhaustivité des mesures, et les contraintes de spécification des mesures
19
nécessaires à l’identification. Nos simulations montrent à l’évidence que le développement
d’un modèle formatif valide est une tâche difficile et peut donc conduire à des résultats
fallacieux. PLSPM n’est pas moins sensible à l’omission de mesures importantes, à la
colinéarité et à l’interprétation confondante que LISREL.
D’autres travaux vont plus loin et proposent d’autres opérationnalisations des mesures
formatives. Nous revenons ci-dessous rapidement sur ces propositions après avoir synthétisé
nos remarques précédentes.

Solutions alternatives
Ces alternatives en commun l’objectif d’estimer les poids des mesures formatives en évitant
les difficultés rencontrées avec LISREL et PLSPM. L’idée principale est de développer une
méthode qui permette d’approximer ces poids en estimant isolément le modèle formatif. Nous
renvoyons aux articles de ces auteurs pour des développements exhaustifs de ces modèles.

L’opérationnalisation de Hardin et alii (2011)


Cette approche est simple, le praticien est invité à déterminer les poids des indicateurs en
s’appuyant sur d’autres études empiriques qui ont utilisé le même modèle formatif dans
différents contextes. Les techniques méta-analytiques sont alors utilisées pour calculer une
moyenne pondérée des poids reportés pour chaque mesure formative. Cette démarche apparaît
séduisante mais en fait elle se heurte à notre avis à d’autres problèmes. En effet, elle est en
partie circulaire car elle laisse le soin à d’autres études empiriques de juger de la validité des
indicateurs. Elle est par ailleurs coûteuse puisque nous ne savons pas le nombre d’études
requises pour stabiliser les poids indicateurs. Elle est enfin risquée lorsque nous connaissons
les limites de la méta-analyse qui n’est rien d’autre qu’une synthèse des travaux empiriques
conduits dans divers contextes et avec diverses méthodologies. Il n’y a rien qui justifie la
transportabilité des résultats reportés par une étude dans une autre étude (Pearl, 2009). Cette
approche ne sera efficiente que dans le cadre de construits formatifs ayant eu une réelle
validation académique.

L’opérationnalisation de Treiblmaier et alii (2010)


Ces auteurs proposent aussi d’estimer le modèle formatif séparément du modèle structurel.
Mais ils proposent une solution originale pour estimer a priori les poids des indicateurs
formatifs. La solution préconisée par ces auteurs comporte deux étapes : 1/ la variable latente
est égalisée à une partie déterministe plus un terme aléatoire. La variable composite est

20
ensuite partitionnée pour obtenir des composantes factorielles Pi en fonction des indicateurs
de mesure. 2/ la seconde étape consiste à déterminer un facteur commun F aux différentes
composantes Pi, par une analyse confirmatoire.
Nous constatons que cette approche contourne certaines difficultés liées aux mesures
formatives (identification, interprétation confondante, erreur de mesure) en construisant de
nouveaux indicateurs réflectifs de F. Elle évite aussi l’une des critiques adressée à l’approche
PLSPM qui n’inclut pas le terme d’erreur. Dans son esprit elle est proche de la proposition
d’Edwards (2011) qui consiste à construire un modèle formatif de second ordre (Figure 5)
mais en sauvegardant le nombre de degrés de liberté.
Cependant cette spécification soulève un problème de taille qui est celui de l’examen de la
validité des mesures. En premier, elle est ad hoc, une partition donnée conduira à des
résultats différents. Comment alors choisir la meilleure partition des indicateurs pour
déterminer les composantes Pi. En second, si l’inclusion de la variable F dans un modèle
structurel fourni des indices d’ajustement jugés faibles et/ou des signes non attendus et des
paramètres non significatifs, alors il sera difficile de déterminer la source du rejet du modèle :
la partition des indicateurs Xi, le calcul des composantes, les relations structurelles
supposées, ou un mélange des trois ?
Néanmoins cette formalisation est très séduisante et prometteuse, mais elle demande à être
consolidée par d'autres travaux.

LISREL ou PLSPM
L’approche de LISREL semble perdre du terrain en faveur de l’approche PLSPM pour
modéliser les construits formatifs. Mais c’est sous-estimer les avantages de LISREL,
particulièrement pour comparer des modèles nichés (Diamantopoulos, 2011 ; Bollen, 2011).
Or, le processus de validation du modèle formatif nécessite de tester plusieurs hypothèses
rivales afin de minimiser les risques d’une mauvaise spécification. Cette flexibilité à examiner
différentes hypothèses théoriques n’a pas d’équivalent dans l’approche PLSPM. PLSPM étant
non-paramétrique, il peut apporter des réponses dans des situations où LISREL n’est pas
fonctionnelle. Le cadre non paramétrique de PLSPM, qui est un avantage par rapport à
LISREL, fragilise a contrario l’usage de modèles formatifs, car la stabilité de ses coefficients
dépend de la bonne spécificité du modèle global, information que PLSPM ne peut pas fournir
au chercheur. Même si les tests d’ajustement fournis par LISREL ont une puissance statistique
faible, ils constituent néanmoins des indicateurs précieux lors de la phase de validation (Fan
et alii, 1999 ; Steiger, 2007 ; Feinian et alii, 2008). De plus, comme discuté précédemment, le

21
statut d’une variable composite (formative) avec PLSPM reste conceptuellement très
problématique et est la raison essentielle de son rejet comme solution alternative à LISREL
pour différents auteurs.
Par ailleurs, l’algorithme de PLSPM peut faire penser que PLSPM serait moins sensible aux
violations des hypothèses de LISREL sur les distributions d’erreurs, à la taille de l’échantillon
et à une mauvaise spécification du MES. Bien que les travaux sur ces points soient rares,
plusieurs simulations ont montré que PLSPM n’était pas moins sensible (Petter et alii, 2007 ;
Cenfetelli et Bassellier, 2009 ; Ringle et alii, 2009). Avec des construits formatifs il faudra
avoir des indicateurs gaussiens comme avec LISREL, et une taille d’échantillon assez grande.
Ce n'est qu'avec des construits réflectifs que PLSPM peut relâcher ces hypothèses.
Au final, PLSPM ne semble guère apporter des réponses efficientes aux problèmes rencontrés
avec les construits formatifs avec LISREL. De plus, et de façon plus fondamentale, le statut
d’une variable latente composite avec PLSPM reste conceptuellement très problématique car
nous travaillons avec un index (simple combinaison linéaire des variables manifestes, voire
précédemment). La question fondamentale qui se pose avec cette approche est de savoir si
nous estimons une mesure formative d’un construit avec un tel index ? Un certain nombre
d’auteurs récusent ainsi l’usage de PLSPM avec des mesures formatives car pour eux un
index ne peut prétendre être une estimation d’un construit par des mesures formatives à cause
de l’absence du terme d’erreur de la variable latente (Diamantopoulos, 2011 ; Hardin et
Marcoulides, 2011). Hardin et Marcoulides (2011) alertent d’ailleurs les chercheurs sur
l’engouement, non justifié pour ces auteurs, pour PLSPM pour estimer des modèles avec des
mesures formatives.

Recommandations
Comme nous l'avons souligné à plusieurs reprises, le développement d'un modèle de mesure
dans un MES se heurtent à des obstacles difficilement contournables. Notre première
recommandation qui peut paraître paradoxal dans cette rubrique est que chaque fois que cela
est possible, il est préférable de développer des mesures réflectives valides. Mais, il existe des
situations dans lesquelles le praticien possède des mesures formatives et il serait dommage de
ne pas s’en servir dans les applications empiriques. Aussi, pour les chercheurs ne pouvant
éviter d’utiliser un modèle de mesure formatif sans vouloir avoir recours aux méthodes
proposées par Hardin et alii (2011) ou Treiblmaier et alii (2010) (discuté ci-dessus), nous
résumons les précautions à prendre que nous résumons en annexes (annexe A2) par un
tableau.
22
Avec LISREL ou PLSPM, le praticien devra s'assurer que les indicateurs retenus de la
variable latente formative sont exhaustifs (on n'oublie pas un indicateur important), qu'ils sont
peu colinéaires et gaussiens. Il devra s'assurer d'avoir un échantillon important (au moins 300
personnes). Comme les mesures formatives sont généralement issues de questionnaires, elles
comportent par nature une erreur de mesure, donc il faudra s’assurer par une réflexion en
amont que nos indicateurs intègrent qu’une très faible erreur potentielle. Il devra s'assurer que
ces indicateurs formatifs n'expliquent pas directement les autres variables endogènes entrées
dans le modèle car le construit formatif doit impérativement médiatiser l'influence de ses
indicateurs formatifs sur les autres variables endogènes. Il faudra vérifier que les coefficients
des indicateurs formatifs ne changent pas significativement lorsque l'on modifie les variables
réflectives endogènes (en s'assurant que ces dernières sont fortement liées au construit
d’intérêt). Il faudra aussi vérifier que les contraintes de proportionnalités sont respectées, car
elles sont essentielles dans le processus de validation empirique (ce qui peut se faire avec les
tests sur les modifications d’indices sous LISREL mais impossible avec PLSPM).
Avec LISREL, il est conseillé d'essayer de retirer des covariances entre les indicateurs
formatifs (par des tests sur des modèles nichés). Il faut impérativement lier le construit mesuré
formativement à au moins deux autres variables (ou construit) réflectifs endogènes, en
s'assurant que ces dernières n'ont pas de liens indépendamment de ce construit (faisable
uniquement par une réflexion théorique). Il faudra de plus ne retenir que les coefficients
standardisés après analyse de leur significativité pour les praticiens n’utilisant pas Mplus.
PLSPM ne devra être choisit que lorsque LISREL n'est pas utilisable, ne serait-ce que parce
qu’aucune erreur de mesure de la variable latente n'est intégrable dans PLSPM. En fait, les
cas où PLSPM est préférable à LISREL sont rares. Si l'échantillon est faible ou les données
non-gaussiennes, PLSPM n'est pas moins sensible que LISREL pour des construits formatifs.
Donc PLSPM devra n'être utilisé que lorsque le nombre de variables intégrées est trop
important pour LISREL, en s'assurant un échantillon important et des données gaussiennes
pour les indicateurs formatifs.

CONCLUSION
Notre conclusion se veut donc une mise en garde sur le recours aux mesures formatives. Il
existe un faisceau de preuves empiriques et d’arguments théoriques qui soulignent les
difficultés à modéliser de ce type de mesures. Si cette discussion est amorcée sur le plan
épistémologique (Borsboom et alii, 2003 ; Bagozzi, 2011), elle semble avoir eu peu d’échos
sur le terrain de l’opérationnalisation des construits formatifs (Finn et Wang, 2012). En
23
considérant l’ensemble des problèmes épistémologiques et méthodologiques liés aux modèles
formatifs, nous nous associons aux conclusions de Bagozzi (2007) qui indique que la relation
entre des mesures formatives et le construit « n’est pas seulement conceptuellement ambiguës
mais aussi empiriquement ambiguës » (p 234), l’auteur ajoutant : « Personnellement, je ne
pense pas que le sens d’un construit mental puisse être aussi interprétable et utilisable dans
une forme formative que dans une forme réflective. » (p 234). Ce constat s’applique aussi bien
à LISREL qu’à l’approche PLSPM. Hardin et Marcoulides (2011) rappellent les divergences
entre les défenseurs (Bollen, 2007, Jarvis et alii, 2003 ; Diamantopoulos et alii, 2008, 2011) et
les opposants à ce type de mesures (Bagozzi, 2007 ; Howell et alii, al.2007a ; Edwards, 2011).
Pour Hardin et Marcoulides : “La prudence conseillerait de suspendre temporairement
l’usage de mesures formatives” (p 1) en attendant que la recherche ait tranché sur la
pertinence de leur usage. Dans l’attente de futurs résultats, nous préconisons nous aussi le
développement des mesures réflectives lorsque cela est possible car moins sujette que les
mesures formatives aux problèmes d’identification, d’erreur de mesure et d’interprétation.
Concernant l’approche PLSPM comme solution alternative à LISREL, il semble que les
avantages attendus sont loin d’être atteints. Cependant des auteurs pointent les avantages de
PLSPM pour certains modèles avec des construits formatifs. En effet comme le soulignent
Ringle et alii (2012), PLSPM est la seule méthode utilisable lorsque nous avons des données
secondaires de tailles faibles, avec parfois seulement un ou deux indicateurs disponible, et de
surcroit sans la possibilité de recourir à des indicateurs réflectifs (pas données disponibles),
le chercheur n'a plus alors le choix. Cependant, Ringle et alii (2012) préconisent lorsque cela
est possible la validité d’un modèle formatif par le modèle de redondance proposé par Chin
(2010), qui s’appuie sur le même construit mesuré réflectivement. N’est-il pas plus valide
alors d’utiliser le modèle de mesure réflectif utilisé dans le modèle de redondance pour le
MES ? Si les données pour les indicateurs réflectifs ne sont pas disponibles, la prudence
semble valoir comme le souligne Hardin et Marcoulides (2011) car PLSPM demande
certainement d’autres travaux académiques avant de pouvoir apparaître comme une
alternative fiable à LISREL pour de tels cas.
L’objet de notre discussion n’est pas de récuser l’usage des mesures formatives. Bagozzi
(2011 p 275) dit « les mesures formatives et les construits formatifs ont une place dans la
recherche, mais c’est crucial de reconnaître que leurs applications sont limités à quelques
modèles bien définis ». Si donc un chercheur ne peut éviter de devoir développer un modèle
de mesure formatif, il lui faudra valider toutes les hypothèses nécessaires à une telle
formalisation, que nous synthétisons dans l’annexe A2, dont seules quelques-unes sont
24
testables empiriquement. C’est avant tout la théorie qui justifiera un tel modèle, avec de
faibles moyens statistiques pour le valider empiriquement.

25
REFERENCES BIBLIOGRAPHIQUES

Auteurs (2011)
Auteurs (2013)
Bagozzi R. P. (2007), On the Meaning Formative Measurement and How It Differs From
Reflective Measurement: Comment on Howell, Breivik, and Wilcox (2007), Psychological
Methods, 12, 2, 229-237.
Bagozzi R.P. (2011), Measurement and meaning in information systems and organizational
research: methodological and philosophical foundations, Mis Quarterly, 35, 2, 261-292.
Baxter R. (2009), Reflective and formative metrics of relationship value: a commentary essay.
Journal of Business Research, 62, 12, 1370-1377.
Blalock H.M. (1971), Causal models involving unobserved variables in stimulus-response
situations, In H. M. Blalock (Ed.), Casual models in the social sciences, Chicago, IL: Aldine
Atherton, 335-347.
Bollen K.A. (2007), Interpretational Confounding Is Due to Misspecification, Not to Type of
Indicator: Comment on Howell, Breivik, and Wilcox (2007), Psychological Methods, 12, 2,
219-228.
Bollen K. A. (2011), Evaluating effect, composite, and causal indicators in Structural Equation
Models, Mis Quarterly, 35, 2, 359-372.
Bollen K.A. et Davis W.R. (2009a.), Causal Indicator Models: Identification, Estimation, and
Testing, Structural Equation Modeling, 16, 498-522.
Bollen K.A. et Davis W.R. (2009b), Two Rules of Identification for Structural Equation Models,
Structural Equation Modeling, 16, 523-36.
Bollen K.A., et Lennox, R. (1991), Conventional wisdom on measurement: A structural Equation
Perspective, Psychological Bulletin, 110,305-314.
Borsboom D., Mellenberghet Van Heerden J. (2003), The Theoretical Status of Latent Variables,
Psychological Review, 110, 2, 203-219.
Borsboom D., Mellenbergh G.J. et Van Heerden J. (2004), The concept of Validity, Psychological
Review, 111, 4, 1061-1071.
Burt R.S. (1976), Interpretation confounding of unobserved variables in structural equation
models, Sociological Methods and Research, 5, 33-52.
Cadogan J. W. et Lee N. (2013), Improper use of endogenous formative variables, Journal of
Business Research, 66, 2, 233–241.

26
Cenfetelli R. et Bassellier G. (2009), Interpretation of formative measurement in information
systems research, MIS Quarterly, 33, 4, 689-707.
Chin W. (2010), How to write up and report PLS analysis, in V. Esposito Vinzi, W. W. Chin, J.
Henseler, H. Wang (coord.), Handbook of partial least squares, Londres, Springer, 655-690.
Churchill G. A. Jr. (1979), A Paradigm for Developing Better measures of Marketing Constructs,
Journal of Marketing Research, 16, 1, 64-73.
Coltman T., Devinney T. M., Midgley D. F. et Venaik S., (2008), Formative versus reflective
measurement models: Two applications of formative measurement, Journal of Business
Research, 61, 12, 1250-1262.
Crié D. (2005), De l’usage des modèles de mesures réflectifs ou formatifs dans les modèles
d’équations structurelles, Recherche et Applications Marketing, 20, 2, 5-27.
Diamantopoulos A. (2010), Reflective and formative metrics of relationship value: Response to
Baxter's commentary essay, Journal of Business Research, 63, 1, 91-93.
Diamantopoulos A. (2011), Incorporating formative measures into Covariance-Bases Structural
Equation Models, Mis Quarterly, 35, 2, 335-358.
Diamantopoulos A. et Riefler P. (2011), Using formative measures in international marketing
models: a cautionary tale using consumer animosity as an example, in Marko Sarstedt,
Manfred Schwaiger, Charles R. Taylor (ed.), Measurement and Research Methods in
International Marketing (Advances in International Marketing, Volume 22), Emerald Group
Publishing Limited, 11-30.
Diamantopoulos A, Riefler P. et Roth K.P. (2008), Advancing formative measurement models,
Journal of Business Research, 61, 12, 1203-1218.
Diamantopoulos A. et Siguaw J. A. (2006), Formative versus reflective indicators in
organizational measure development: a comparison and empirical illustration, British Journal
of Management, 17, 263–282.
Diamantopoulos A. et Winklhofer H. (2001), Index construction with formative indicators: an
alternative to scale development, Journal of Marketing Research, 38, 2, 269-277.
Edwards J.R (2011), The fallacy of Formative Measurement, Organizational Research Methods,
14, 2, 370-388.
Edwards J.R. et Bagozzi R.P. (2000), On the Nature and Direction of Relationships Between
Constructs and Measures, Psychological Methods, 5, 2, 155-174.
Fan X., Thompson B. et Wang L. (1999), Effects of Sample Size, Estimation Methods, and Model
Specification on Structural Equation Modeling Fit Indexes, Structural Equation Modeling, 6,
56-83.

27
Feinian C., Curran P., Bollen K., Kirby J. et Paxton P. (2008), An Empirical Evaluation of the Use
of Fixed Cutoff Points in the RMSEA Test Statistic in Structural Equation Models,
Sociological Methods and Research, 36, 462-494.
Finn A. et Wang L. (2012), Formative vs. reflective measures: Facets of variation, Journal of
Business Research, doi:10.1016/j.jbusres.2012.08.001.
Fornell C. et Bookstein F.L. (1982), Two Structural Equation Models: LISREL and PLS Applied
to Consumer Exit-Voice Theory, Journal of Marketing Research, 19, 4, 440-452.
Franke G., Preacher K. et Rigdon E. (2008), Proportional structural effects of formative indicators,
Journal of Business Research, 61, 12, 1229-1237.
Goodhue D. L., Lewis W. et Thompson R. (2012), Does PLS have advantages for small sample
size or non-normal data?, Mis Quarterly, 36, 3, 981-1001.
Hardin A., Chang J., Fuller M. et Torkzadeh, G. (2011), Formative measurement and academic
research: In search of measurement theory, Educational and Psychological Measurement, 71,
11, 281-305.
Hardin A., Macoulides G. A. (2011), A commentary on the use of formative measurement,
Educational and Psychological Measurement, 20, 10, 1-12.
Howell R.D., Breivik E. et Wilcox J.B. (2007a), Reconsidering Formative Measurement,
Psychological Methods, 12, 2, 205-218.
Howell R. D., Breivik E. et Wilcox J. B. (2007b), REPLY: Is Formative Measurement Really
Measurement? Reply to Bollen (2007) and Bagozzi (2007), Psychological Methods, 12, 2,
238-245.
Jarvis C.B., Mackenzie S.B. et Podsakoff P.M. (2003), A critical review of construct indicators
and measurement model misspecification in marketing and consumer research, Journal of
Consumer Research, 30, 2, 199-218.
Joreskog K.G. et Sorbom D. (1996), LISREL 8: User's reference guide, Chicago, SSI.
Kim G. et Shin B. et Grover V. (2010), Investigating two contradictory views of formative
measurement in information systems research, MIS Quarterly, 34, 2, 345-365.
Kirby J. et Bollen K.A. (2009), Using Instrumental Variable (IV) Tests to Evaluate Model
Specification in Latent Variable Structural Equation Models, Sociological Methodology, 39,
327-355.
Kirby J., Bollen K.A., Curran P.J., Paxton P.M. et Chen F. (2007) Latent Variable Models under
Misspecification: Two Stages Least Squares (2SLS) and Maximum Likehood (ML)
Estimators, Sociological Methods and Research, 36, 46-86.

28
MacCallum, R.C. et Browne M.W. (1993), The use of causal indicators in covariance structure
models: Some practical issue, Psychological Bulletin, 114, 4, 533-541.
MacKenzie S.B., Podsakoff P.M. et Jarvis C.B. (2005), The problem of measurement model
misspecification in behavioral and organizational research and some recommended solutions,
Journal of Applied Psychology, 90, 4, 710-730.
Paxton P., Curran P. J. et Bollen K. A. (2001), Monte Carlo experiments: design and
implementation, Structural Equation Modeling, 8, 287–312.
Pearl J. (2009). Causality: Models, Reasoning, and Inference. New York: Cambridge University
Press, seconde édition.
Petter S., Straub D. et Rai A. (2007), Specifying formative constructs in Information systems
research, MIS Quarterly, 31, 4, 623-656.
Rigdon E. E. (2012), Comment on “Improper use of endogenous formative variables”, Journal of
Business Research, http://dx.doi.org/10.1016/j.jbusres.2012.08.005.
Ringle C.M., Götz O, Wetzels M. et Wilson B. (2009), On the Use of Formative Measurement
Specifications in Structural Equation Modeling: A Monte Carlo Simulation Study to Compare
Covariance-Based and Partial Least Squares Model Estimation Methodologies, papier de
recherche, Research Memoranda from Maastricht (METEOR).
Ringle C. M., Sarstedt M. et Straub D. W. (2012), A critical look at the use of PLS-SEM in Mis
Quarterly, Mis Quarterly, 36, 1, 3-14.
Rossiter J.R. (2002), The C-OAR-SE Procedure For Scale Development in Marketing,
International Journal of Research in Marketing, 19, 305-335.
Steiger J.H. (2007), Understanding the limitations of global fit assessment in structural equation
modeling, Personality and Individual Differences, 42, 893-98.
Treiblmaier, H., Bentler, P. M. et Mair, P. (2010). Formative constructs implemented via common
factors. Structural Equation Modeling, 18, 1-17.
Tenenhaus M. et Hanafi M. (2010), A bridge between PLS path modelling and multi-block data
analysis, in V. Esposito Vinzi, W. W. Chin, J. Henseler, H. Wang (coord.), Handbook of
partial least squares, Londres, Springer, 99-124.
Tenenhaus M., Vinzi V.E., Chatelin Y.-M. et Lauro C. (2005), PLS Path Modeling,
Computational Statistics and Data Analysis, 48, 159-205.
Tung B. et Carlson J. (2013), modeling a formative measure of relationship quality and its effects:
evidence from the Hong Kong retail banking industry, Services Marketing Quarterly, 34, 2,
139-158.

29
Vinzi V.E., Trichera L. et Amato S. (2010), PLS Path Modeling: From Foundations to Recent
Developments and Open Issues for Model Assessment and Improvement, in V. Esposito
Vinzi, W. W. Chin, J. Henseler, H. Wang (coord.), Handbook of partial least squares,
Londres, Springer, 47-82.
Wetzels M., Odekerken-Schröder G. et Van Oppen C. (2009), Using PLS path modeling for
assessing hierarchical construct models: guidelines and empirical illustration, MIS Quarterly,
33, 1, 177-195.
Wilcox JB, Howell RD et Breivik E. (2008), Questions about formative measurement, Journal of
Business Research, 61, 12, 1219–1228.

30
ANNEXES
A 1 : Synthèse des principales expérimentations mentales pour examiner les hypothèses
théoriques et analyses statistiques liées a un construit mesure formativement.

Tableau 1

31
A2 : Processus de développement et de validation d’un modèle de mesure formatif dans le
cadre de LISREL.

Tableau 2

32
Tableau 1 : Estimation d’un modèle de mesure formatif (repris de Centefelli et Bassellier,
2009, et complété).

Estimation d’un Menaces Prescription Cadre d’application


modèle de mesure
formatif

Distributions des Lorsque les Méthodes non LISREL et PLSPM


variables distributions sont non paramétrique ou
gaussiennes, les robuste à une
paramètres estimés déviation d’une
peuvent être fortement distribution
biaisés. gaussienne
d’estimation

Multicolinéarité entre Cela peut créer une Il faut essayer de LISREL et PLSPM
les indicateurs instabilité dans retirer un ou des
l'estimation des indicateurs sans
coefficients et les tests affecter le sens
de significativité conceptuel du
construit.
Dans le cas contraire,
il faut examiner la
possibilité de
regrouper les
indicateurs partageant
le même contenu
Chacun de ces
contenus forme un
construit de premier
ordre du construit de
second ordre d’intérêt.

Co-occurence d’une Il est possible qu’un - Il faut évaluer les LISREL et PLSPM
corrélation simple construit corrélé conséquences de la

33
positive et d’une positivement avec le suppression de la
corrélation partielle construit, une fois mesure considérée,
négative avec le inclus dans le modèle particulièrement sur le
construit (en de mesure ait un poids contenu du construit
contrôlant les autres négatif. Cela peut et sur la stabilité des
variables du modèle arriver si les paramètres du modèle
de mesure) indicateurs de mesure de mesure.
partagent une variance
commune élevée.

Contribution absolue Un indicateur peut Il faut essayer de LISREL et PLSPM


et relative de avoir un lien relatif conserver tous les
l’indicateur au faible (poids faible) et indicateurs avec des
construit (la un lien absolu fort au liens significatifs.
contribution absolue construit (corrélation Si un indicateur ne
mesure le lien lorsque simple forte). semble pas redondant
l’indicateur est pris avec les autres, il doit
seul ; la contribution être conservé même si
relative relate le lien son poids est faible
lorsque tous les (voire non
indicateurs du significatif).
construit sont
présents)

34
Tableau 2 : Processus de développement et de validation d’un modèle de mesure formatif
dans le cadre de LISREL.

Phases de développement Processus de validation Références


• Définition conceptuelle A) Validité faciale • Jarvis et alii (2003)
du construit • Jugement par les paires • Rossiter (2002)
(comité d’experts) • Bagozzi (2011)
• S’assurer que le contenu
• Edwards (2011)
délimité peut être
appréhendés par des • Mackenzie et alii
mesures formatives (2005)
• S’assurer de
l’unidimensionnalité du
construit

• génération des mesures B) Validité de contenu : • Centefelli et


formatives • S’assurer qu’elles sont Bassellier (2009)
exhaustives
• MacKenzie et alii
• S’assurer que la suppression
(2005)
de l’une d’elle n’altère pas
la signification du construit • Jarvis et alii (2003)
• Effectuer des
expérimentations mentales
pour s’assurer des liens de
causalité entre les mesures
et le construit

• Spécification de la • Inclusion ou pas du terme • Diamantopoulos


d’erreur
relation entre le (2006, 2011)
• Lorsque le construit est
construit et ses mesures • Bollen (2011)
endogène, ses
• Spécification de la • Bagozzi (2007)
indicateurs doivent être
relation entre le • Edwards (2011)
spécifiés comme des
construit et d’autres • Codogan (2013)
variables médiatrices
construits (modèle
entre le construit et les
structurel)
autres construits.

• Identification • Avec Lisrel inclure • Bollen et Davis


/Estimation des mesures (2009a et 2009b)

35
réflectives et ou des • Diamantopoulos
construits réflectifs (2011)
indépendants • Kim et alii (2010)
• S’assurer que les • Diamantoupolos
construits réflectifs ne (2011)
partage rien en
commun
indépendamment du
construit d’intérêt
auquel ils sont
exogènes.
• Choisir comme unité
de mesure un
indicateur réflectif ou
le lien entre le
construit et le un autre
construit endogènes
avec des mesures
réflectives
• Analyses C) Validité de construit • Bollen, (2011)
confirmatoires (prédictive et • Diamantopoulos
nomologique) (2011)
• comparaison des modèles • Kirby et alii (2007 et
rivaux
2009)
• Tester les différentes
• MacKenzie et alii
hypothèses et contraintes
induites par la spécification (2005)
retenue

• Tester les règles de


proportionnalité
(uniquement sous LISREL)

• Interprétation • Effectuer d’autres • Diamantopoulos


confondante analyses avec d’autres (2011)
construits endogènes • Bollen (2007)

36
pour vérifier la • Howell et alii
robustesse des (2008)
résultats dans
différents contextes
• L’instabilité des
paramètres estimés a
pour source potentielle
d’une mauvaise
spécification

37
Figure 1. Un modèle de mesure formatif d’un construit de premier ordre.

X1

X2 η ζ

X3

38
Figure 2. Un modèle de mesure réflectif d’un construit de premier ordre.

X1

η
X2

X3 δ3

39
Figure 3. a) Modèle MIMIC ; b) variable latente η liée à deux autres variables latentes η1 et
η2.

a) X1 Y1 δ1

X2 η

X3 Y2 δ2

ζ2 Y1 δ1
X1
b) η1
Y2 δ2
X2 η
η2 Y3 δ3
X3 ζ1
ζ3 Y4 δ4

40
Figure 4 : a) Modèle estimé avec le lien entre η et Y1 contraint ; b) Modèle estimé avec le lien
entre X1 et η contraint

X1
X1 1,0 0,15 Y1
0,15
1,0 Y1 0,5 0,5
0,5 0,5 X2 0,74 η
X2 0,11 η 0,5 Y2
0,5 Y2 0,69 0,13
0,10 0,89 X3
X3
ζ
ζ

41
Figure 5 : Modèle de base a) estimé avec LISREL (Chi 2 : 2,75, p value : 0,43,
RMSEA :0,000) ; b) estimé avec PLSPM (gof=0,252)

a) X1 Y1 δ1 Y1
0,31 0,31 b) X1 0,16 0,69
X2 0,19 η X2 η
0,10
0,37 0,30 0,63
X3 Y2 δ2 X3 0,20 Y2
0,18 0,20
X4 ζ
X4

42
Figure 6 : a) Modèle théorique ; b) Modèle mal spécifié estimé avec LISREL (Chi 2 : 2,23 p
value : 0.53, RMSEA : 0.008) ; c) Modèle mal spécifié estimé avec PLSPM (gof=0.47)

Z b)
a) 0,25
0,70

X1 Y1 Y1
0,00 0,50 X1 0,39 0,54
X2 0,25 η X2 η
0,40
0,25 0,50 0,50
X3 Y2 0,39 Y2
X3
0,25 0,50
X4 X4

c)
X1 Y1
0,26 0,81
X2 0,26 η
0,78
0,26 Y2
X3
0,33
X4

43
Figure 7 : Modèle sans X1 a) estimé avec LISREL (Chi2 :0,580, p value :0,748 ; RMSEA :
0,000) ; b) estimé avec PLSPM (gof=0,250)

a) X1 Y1 δ1 Y1
0,33 0,36 b) X1 0,16 0,66
X2 η X2 η
0,17 0,19
0,25 0,67
Y2 δ2 Y2
0,34 0,20
X4 ζ
X4

44
Figure 8 : Modèle avec une erreur de mesure a) estimé avec LISREL (Chi 2 : 2,42 p value :
0,489, RMSEA : 0,000) ; b) estimé avec PLSPM (gof=0,30)

a) X1 Y1 δ1 Y1
0,29 0,32 b) X1 0,15 0,80
X2 0,17 η X2 η
0,09
0,30 0,29 0,72
X3 Y2 δ2 X3
0,16 Y2
0,40 0,21
X4 ζ
X4

45
Figure 9 : a) Modèle théorique avec colinéarité des Xi ; b) estimé avec LISREL (Chi 2 : 3,20 p
value : 0,36, RMSEA : 0,011) ; c) estimé avec PLSPM (gof=0,251)

X1 Y1 δ1 b) X1 Y1
0,25 0,30 0,30 0,20
X2 0,25 η X2 η
-0,20
0,25 0,30 0,32
X3 Y2 δ2 X3
0,48 Y2
0,25 0,34
X4 ζ
X4

c)
X1 Y1
0,11 0,59
X2 -0,06 η
0,85
X3 0,18 Y2
0,12
X4

46
Figure 10 : a) Modèle théorique avec une liaison fallacieuse ; b) modèle estimé avec
LISREL (Chi 2 : 11,97 p value : 0,007, RMSEA : 0,077) ; c) modèle estimé avec PLSPM
(gof=0,46)
0,40

X1 Y1 δ1 Y1
0,20 0,50 b) X1 0,66 0,54
X2 0,20 η X2 η
0,45
0,20 0,50 0,43
X3 Y2 δ2 X3
0,33 Y2
0,20 0,34
X4 ζ
X4

c)
X1 Y1
0,40 0,81
X2 0,28 η
0,76
0,22 Y2
X3
0,22
X4

47
Figure 11 : a) Construit endogène avec des mesures formatives qui pose le paradoxe de la
mauvaise spécification du modèle de mesure ; b) Construit avec des mesures formatives
endogène qui pose le paradoxe de la variable latente formative non directement influencée par
d’autres variables latentes.

a) e1 η
a) Y1
ζ1
e2 Y2
e3 Y3 η1

e4 Y4 X1 X2 X3

δ1
e1 Y1
b) a)
X1
e2 Y2
δ2
e3 Y3 η1 X2 η
e4 Y4
X3
ζ1

δ3

48
Figure 12 : Modèle de base avec Y3 et Y4 a) estimé avec LISREL (Chi2 :3,53, p value : 0,31;
RMSEA : 0,018) ; b) estimé avec PLSPM (gof=0,252)

a) X1 Y3 δ1 Y3
0,43 0,22 b) X1 0,20 0,80
X2 0,47 η X2 η
0,22
0,08 0,41 0,68
X3 Y4 δ2 X3
0,05 Y4
0,28 0,14
X4 ζ
X4

49

View publication stats

Vous aimerez peut-être aussi