Académique Documents
Professionnel Documents
Culture Documents
THESE
Pour l’obtention du titre de
Fatma FOURATI
JURY
Directeurs de thèse : Monsieur Smaïl GOUMEZIANE
Professeur, Université Paris Dauphine
Monsieur Michel KALIKA
Professeur, Université Paris Dauphine
Rapporteurs : Monsieur Moez LIMAYEM
Professeur, HEC Lausanne
Monsieur Marc FAVIER
Professeur, IUT 2 GEA Grenoble
Suffragant : Monsieur Jean DESMAZES
Professeur, IAE de Tours
INVITES
Monsieur Emmanuel MONOD Monsieur Bernard GOLDFARB
Professeur, Université Paris Dauphine Professeur, Université Paris Dauphine
À mes parents,
À ma sœur et mon frère,
Aux mémoires de mon grand-père, ma tante et mon oncle.
Remerciements
Remerciements
Cette thèse n’aurait pu aboutir sans les implications multiformes de tous ceux qui m’ont
accompagnée tout au long de ces années de recherche. Les remerciements présentés ci-dessous
leur expriment toute ma reconnaissance.
Tout d’abord, je tiens à remercier mes deux directeurs de thèse, Messieurs Smaïl Goumeziane
et Michel Kalika, Professeurs à l’Université de Paris Dauphine, qui ont dirigé avec rigueur,
patience et confiance, cette recherche en me prodiguant conseils et encouragements, tout en me
laissant une grande liberté dans mes choix théoriques et méthodologiques.
Mes remerciements vont aussi à Messieurs Moez Limayem, Professeur à HEC Lausanne, et
Marc Favier, Professeur à l’IUT 2 GEA Grenoble, qui ont accepté la lourde tâche de
rapporteurs de cette thèse.
Je n’oublie pas non plus, Monsieur Bernard Goldfarb, Professeur à l’Université Dauphine, qui
m’a aimablement accueilli pour valider les résultats statistiques de ce travail, ainsi que
Monsieur Emmanuel Monod, Professeur à l’Université Paris Dauphine, qui m’a facilité l’accès
au terrain.
Merci également à Madame Catherine Pardoux, Professeur à l’Université Dauphine, qui a bien
voulu m’orienter dans le traitement et l’interprétation des données empiriques de cette étude.
Ensuite, mes remerciements s’adressent à tous les professionnels qui ont permis l’accès à
diverses informations, ou qui ont donné de leur temps pour répondre à mes interviews :
Messieurs Ahmed Fourati, Georges Chabert, Alessandro Zanasi, Jean François David, Georges
Miss Nseké, …
J’adresse mes remerciements aux Professeurs Andrew Schwarz, Detmar Straub, Lassaâd
Mezghani pour le temps qu’ils m’ont consacré et la pertinence de leurs conseils.
Je ne peux non plus oublier l’assistance de tout le personnel du CREPA et de la bibliothèque de
l’Université Paris Dauphine, et notamment : Madame Ana Drumea, secrétaire du CREPA, qui a
toujours accepté avec un grand plaisir et une infinie patience, de répondre à mes questions
parfois inintelligibles ; Madame Nathalie Perrichon, ingénieur statisticien du CREPA, toujours
disponible pour résoudre les problèmes liés au fonctionnement du laboratoire ; et spécialement
Isabelle, notre documentaliste.
Pour finir, je tiens à remercier toute ma famille, mes proches et amis : tout d’abord, mon père et
ma mère, qui ont financé ce travail de recherche et m’ont toujours encouragée et entourée de
leur affection tout au long de ces années, et à qui je dédie cette thèse ; ensuite ma sœur Samia,
mon frère Ali et mon fiancé Noamen ; enfin, Mustapha & Juliette, Ahmed & Rim, Olfa,
Jacqueline, Olga, Rim, Chiraz, Najoua, Lobna, Béatriz, Riham, Hayet, Linda, Monia, Nihel,
Nabila, Latéfa Loréa, Hanen, Judith, Marie, Safiétou, Sabrina, Aïcha, Fatma, Raphaël,
Anthony, Mohamed, Soufiane, Hatem, Lotfi, Mondher, Ilyèss, … pour leur soutien et leur aide.
L’université n’entend donner aucune approbation ni improbation aux opinions émises dans
cette thèse : ces opinions doivent être considérées comme propres à leur auteur.
Sommaire
REMERCIEMENTS................................................................................................................... 1
SOMMAIRE ............................................................................................................................. 2
INTRODUCTION GENERALE ................................................................................................... 3
PARTIE 1................................................................................................................................ 11
PRESENTATION DU CADRE THEORIQUE DE LA RECHERCHE........................... 11
CHAPITRE 1...................................................................................................................... 12
PROCESSUS DE VEILLE STRATEGIQUE ET SYSTEMES D’INFORMATION : EVOLUTION DES
CONCEPTS THEORIQUES ....................................................................................................... 12
CHAPITRE 2...................................................................................................................... 49
TECHNOLOGIE DES AGENTS INTELLIGENTS : CARACTERISTIQUES ET APPLICATIONS ...... 49
CHAPITRE 3...................................................................................................................... 89
DIMENSIONS THEORIQUES DE L’INTERACTION HOMME-MACHINE DANS LE MANAGEMENT
DES SYSTEMES D’INFORMATION .......................................................................................... 89
Aguilar (1967) fut le pionnier de la recherche sur la veille stratégique, il définit ce concept
comme étant la récolte d’informations externes à l’entreprise sur les événements et tendances
de l’environnement.
Par ce processus, la veille stratégique anticipe sur ce qui se passe à l’extérieur de l’entreprise.
Aussi faut-il être capable de détecter et d’utiliser toutes informations ou signaux, mêmes les
plus faibles (signaux d’alerte précoces) venant de l’environnement, notamment des acteurs
susceptibles d’influencer le devenir de l’entreprise par leurs stratégies, décisions et actions.
Pourtant les dirigeants sont confrontés à un paradoxe : alors même qu’ils sont noyés
d’informations, ils éprouvent des difficultés à identifier et à acquérir la « bonne information »
dont ils ont besoin pour prendre leur décision.
Dès lors, la veille stratégique s’est dotée d’outils plus performants ayant pour fonctions
d’identifier les centres d’intérêts des usagers de la veille et de faciliter l’analyse et la diffusion
de l’information et des connaissances. Générant des informations de plus en plus pertinentes,
ces outils semblent susceptibles d’influencer le processus de la prise de décision dans
l’entreprise. Or, malgré ce rôle de plus en plus important joué par la veille stratégique, peu de
recherches ont traité de l’interaction entre les outils de la veille et leurs utilisateurs.
4
Introduction générale
Dans les deux groupes, le processus de veille a notamment recours à une famille d’outils,
appelés les agents intelligents (Lesca et Chokron, 2000). Dans notre étude, nous
conceptualisons ces agents intelligents, dans le but d’étudier l’impact de leur utilisation dans
plusieurs domaines d’application.
Reix et al. (2002) ont distingué cinq grands domaines d’application de l’outil informatique :
Dans notre étude, ces agents intelligents sont davantage traités sous l’angle informationnel
(gestion des données, des informations…), sous l’angle fonctionnel (recherche, stockage,
traitement automatique des informations…) ou sous l’angle décisionnel (assistance dans le
management stratégique, dans le e-commerce et dans d’autres activités d’aide à la décision).
5
Introduction générale
- Il est d’ordre pratique car il faudra chercher les fonctionnalités des agents
intelligents et leurs utilités perçues dans les organisations.
Ainsi, notre recherche s’attachera à caractériser les liens existants entre les Agents Intelligents
(AI) de la veille stratégique et l’intention de les utiliser au niveau des différentes directions
organisationnelles. Dans ce cadre, il faudra en particulier tenir compte des interactions qui
auront lieu tout au long du processus d’utilisation, d’une part, entre les
concepteurs/fournisseurs de cette technologie-agents et les directeurs/managers. Et, d’autre
part, entre les utilisateurs et les agents logiciels.
En effet, ces liens ont évolué dans le temps. A l’origine, l’attention avait été focalisée sur
l’amélioration des Systèmes d’Information (SI) que pouvait entraîner l’utilisation des agents
intelligents. Ce fut notamment le cas lors de recherche de grandes quantités d’informations.
Puis, avec l’arrivée d’agents de « data mining » de plus en plus sophistiqués (les systèmes
autonomes, par exemple), l’attention s’est portée sur la capacité d’extraire automatiquement la
connaissance utile parmi une masse importante d’informations (Nabeth et al., 2003).
Dès lors, au plan théorique, le rôle des agents a été pris en compte dans la mise en œuvre des
systèmes de gestion de la connaissance. Du point de vue du management des organisations,
cette évolution a entraîné un premier questionnement à deux dimensions :
- Technique : quel est l’état de la faisabilité des agents cognitifs2 (ou intelligents) y
compris dans leur dimension expérimentale ?
- Managériale : comment intégrer les agents cognitifs au sein des systèmes de gestion
de la connaissance ?
Partant des défis posés à la gestion des connaissances, Nabeth et al. (2003) se sont concentrés
sur la seconde dimension, avec le souci de répondre à trois besoins des systèmes de gestion de
la connaissance pour le futur (y compris ceux relatifs à la mise en œuvre d’agents cognitifs) :
- Offrir un soutien actif à la dynamique des échanges au sein des organisations dans le
but de dépasser l’aspect purement documentaire des systèmes actuellement en cours
2
Un agent cognitif est défini ici par « sa grande capacité de représentation de son environnement d’action et par
une certaine capacité de raisonnement » (Nabeth et al., 2003)
6
Introduction générale
Par ailleurs, notre étude traitant des agents intelligents en tant qu’outil spécifique de la
veille stratégique, un second questionnement double s’est imposé du point de vue du
management des systèmes d’information :
- Technique : quel est l’état de la faisabilité des agents intelligents, au sein des
organisations ?
Quant à la seconde dimension, nous mettons l’accent sur l’interaction Agent Humain/Agent
Logiciel, en nous inspirant des travaux sur l’Interaction Homme-Machine (Beard & Peterson,
1988 ; Hewett et al., 1992 ; Zhang et al., 2002 ; Carey et al. 2004 ; Zhang, 2004 ; Zhang et al.,
2005…).
A travers ces questionnements nous cherchons à mieux comprendre la nature des relations
entre les deux parties (Agent Humain/Agent Logiciel). Pour ce faire, nous mobilisons un
cadre conceptuel qui intègre deux champs de recherche : Management des Systèmes
d’Information et Interaction Homme-Machine. Au plan de la méthode, cela nous a facilité le
traitement de la question de l’interaction entre les deux agents. Enfin, grâce à ce champ, nous
avons pu progresser dans notre étude sur l’impact de l’utilisation des agents intelligents sur la
veille stratégique à travers:
Il n’en demeure pas moins que la gestion des informations pose trois défis importants relatifs
à trois besoins essentiels :
- Mesurer la perception qu’ont les utilisateurs des agents intelligents dans le but de
découvrir les nouveaux aspects attribués à cette technologie
7
Introduction générale
Dès lors, à partir de ces trois défis, notre démarche cherchera à répondre à trois questions de
recherche essentielles :
1. Comment peut-on faire le choix entre les différents agents intelligents pour collecter,
traiter et diffuser les informations ?2. Quelles sont les caractéristiques de l’utilisation
des agents intelligents et comment sont-ils intégrés dans le processus de la veille
stratégique ?3. Quel est l’impact de l’utilité perçue de la technologie des agents
intelligents sur l’intensité d’utilisation ?
Pour répondre à l’ensemble de ces questionnements, nous avons structuré notre approche en
deux parties. La première partie est composée de trois chapitres :
Le chapitre 1 explicite le cadre conceptuel et la nature des relations qui lient les trois concepts
clés que sont la Veille Stratégique, les Technologies des Systèmes d’Information (TSI) et les
Agents Intelligents (AI).
8
Introduction générale
Le chapitre 5 est réservé à deux types d’anayses, la première est descriptive et la deuxième est
exploratoire. Dans la première analyse nous avons testé l’homogénéité de l’échantillon (nous
avons utilisé SPSS). Dans la deuxième analyse, nous avons réduit le nombre d’items grâce à
l’analyse en composantes principales. Nous avons fait recours aussi à une classification des
utilisateurs des agents intelligents. Ces deux traitements sont faits sous SPAD. Enfin, une
analyse de variance a été mise en place afin de mesurer l’influence entre les caractéristiques
de la tcehnologie sur les variables des deux modèles d’évaluation de systèmes d’information
intégrés (ce traitement est fait sous SPSS).
9
Introduction générale
Utilisation Choix
SI TSI AI
Impact
Veille Utilisateur
stratégique
Domaines d’application
Organisation
Impact
Décision
Objet de la recherche :
Conceptualisation et fonctionnement des Agents Construction du modèle
Intelligents (AI): théorique
- Etude des relations : AI/Utilisateurs,
AI/Organisation, et AI/Décision
- Niveaux d’analyse : Technologique, Individuel,
inter-organisationnel.
Représentation théorique
Terrain de la recherche
Perspective :
Impact des AI sur la perception des
Résultats de la recherche utilisateurs :
- Impact de l’adéquation Technologie/Tâche
sur le degré d’utilisation des AI.
- Impact de l’Adéquation Technologie/Tâche
sur l’acceptation de cette technologie.
- Impact de l’acceptation des AI sur le degré
d’utilisation des AI.
10
PARTIE 1
Nous commençons notre recherche par la formulation d’une grille de lecture qui étudie
l’impact des Systèmes de Traitement de l’Information (STI) sur la veille stratégique. Ensuite,
la détermination des facteurs clés de succès de l’acceptation de l’utilisation des technologies
d’accès et de traitement automatique de l’information sous une perspective individuelle.
Ainsi, nous essayons dans un premier chapitre de caractériser d’une part le lien entre la veille
stratégique et les systèmes d’information. Et d’autre part, le lien entre les STI et le processus
de prise de décision. D’où la nécessité d’un processus de veille stratégique qui fait intervenir
des acteurs. Ces derniers mettent en mouvement les systèmes d’information.
Enfin, nous présentons dans un troisième chapitre, le rôle important de l’interaction homme-
machine dans le management des systèmes d’information. Nous évoquons les différents
modèles de base traités par la littérature des systèmes d’information pour pouvoir construire le
modèle théorique de cette recherche.
CHAPITRE 1
Hambrick D.C., «Environment, Strategy and Power Within Top Management Teams»,
Administrative Science Quarterly, 26 (2),1981.
Chapitre 1
Introduction
Ce chapitre a pour objet de définir plusieurs concepts théoriques afin de mieux comprendre
l’appellation de chaque concept ainsi que son évolution au cours de ces dernières années.
Dans une première section, nous définissons les notions proches de la veille stratégique. La
multiplicité des notions nous incite à définir, en premier lieu, trois notions principales :
« Competitive Intelligence », « Business Intelligence » et Veille Stratégique (Lesca, 2004)
pour éviter la confusion entre ces derniers. En deuxième lieu, nous définissons le traitement
de l’information et des systèmes d’information.
Dans une deuxième section, nous présentons les systèmes de traitement de l’information et le
processus de veille afin d’exposer les TIC comme outils de la veille stratégique et le lien entre
ces outils, l’information et le processus de prise de décision.
1. Foisonnement terminologique
Avant d’en arriver à une définition faisant plus ou moins référence en la matière, les
chercheurs ont multiplié à la fois les notions proches de la veille stratégique et accentué la
complexité de celle-ci selon les tâches qui lui sont attribuées.
Ainsi, au cours des cinquante dernières années, les chercheurs ont tour à tour parlé de
l’intelligence organisationnelle (Wilenski, 1967 ; Choo, 1997), d’intelligence d’affaire (Gilad
et Gilad, 1988), d’intelligence d’entreprise (Lesca et Chokron, 2000). Puis on est arrivé aux
concepts de Competitive Intelligence et de Business intelligence.
Parallèlement, depuis la fin des années 1990, la veille stratégique évolue dans sa définition
selon les phases qu’elles couvrent (Vedder, Vanecek, Guynes, Capel, 1999 ; Lesca, 2001 ;
Rouach, Santi, 2001) et selon les tâches qui lui sont attribuées. Aguilar (1967) indiquait un
processus d’assistance à l’identification et à la compréhension des menaces et des
opportunités stratégiques. Abramson (1997) considérait quant à lui que ce processus consistait
à rechercher, interpréter et transformer des informations intelligentes utiles à l’action des
13
Chapitre 1
décideurs. Entre ces deux auteurs, une dizaine de chercheurs (dont Morin, 1985 ; Jakobiak,
1989 ; Thietart, 1990 ; Marmuse, 1992 ; Walls et al. 1992; Lesca H, 1986-1994…) ont
apporté leur contribution à la définition de la veille stratégique.
En tout état de cause, quelle que soit la terminologie employée, toutes ces notions expriment
le fait que le processus d’intelligence ou de veille stratégique est un processus volontariste par
lequel l’entreprise traque, assimile et diffuse de l’information en provenance de son
environnement externe en vue de son utilisation pour l’action. C’est aussi un processus dans
lequel des acteurs (les Hommes et leur interaction avec la machine) mettent en mouvement,
de façon volontaire et selon des objectifs, les systèmes d’information. On passe ainsi d’un
processus d’information à celui d’utilisation, et de l’utilisation à l’action.
Utilisation Choix
SI TIC AI
Impact
Utilisateur
Veille stratégique Domaines
d’application
Organisation
Décision Impact
Ce foisonnement terminologique n’en a pas moins conduit vers l’émergence de trois concepts
principaux, toujours en « concurrence » : la Competitive intelligence, la Business intelligence,
la Veille stratégique.
14
Chapitre 1
15
Chapitre 1
Planification et Direction
Dans la phase de collecte des données, diverses techniques sont appliquées comme la
surveillance de l’environnement. Elle concerne la collecte des informations primaires et
secondaires dans les domaines politique, économique, technologique et social (Shaker &
Gembicki, 1999 ; Teo, Choo, 2001). L’information primaire est une information qui n’est pas
retraitée par un intermédiaire. L’information secondaire est l’information disposée par un
intermédiaire (Isaac, 2003). La première catégorie regroupe les nouveaux produits ou services
des entreprises, les réactions des clients sur les produits des concurrents observées sur les sites
de distributeurs ou dans les forums de discussions en ligne… Ces sites forment une source
importante pour la veille commerciale et concurrentielle. Dans la deuxième catégorie
d’informations, on trouve des bases de données dédiées à la veille, rapports financiers sur les
entreprises…(Financial Times, Bloomberg…).
Ces approches de collecte intègrent des interviews personnelles et des ressources en ligne.
L’obtention de l’information matérielle en ligne est assistée par les méta-moteurs de
recherche et les agents intelligents utilisés pour fouiller les données à travers Internet
(Joureston, 2000; Shaker & Gembicki, 1999). Vu la difficulté à collecter ces informations, ces
outils basés sur des technologies Internet sont au service de la traque de l’information sous ses
différentes formes.
3
Pour plus de details voir l’article de FOURATI F., « Measuring user satisfaction with Intelligent Agents: An
exploratory study », Presented at sixth international conference on data mining, text mining and their business
applications, Skiathos, Greece, May 25-27, 2005, published in Data Mining VI, ISSN 1743-3517, pp. 389-398,
WIT Transactions on Information and Communication Technologies, Vol. 35, 2005, WIT Press.
www.witpress.com
16
Chapitre 1
Pour traiter le problème de recherche des ressources via Internet, Burwell (1999) fournit une
batterie d’outils pour l’intelligence compétitive et intègre la notion de « l’information faible ».
Cette information est statistiquement non intelligente, collectée auprès des sources non-
traditionnelles comme les pages éditoriales et les groupes de discussion en ligne. Les
utilisateurs du net sont des exemples de groupes de discussion en ligne pour collecter les
opinions (Burwell, 1999; Kassler, 2000). Les moteurs de recherche comme HotBot, Altavista
et Google affirment ce que Kassler (2000) appelle le « lien inverse consulté » en rapport avec
les sites web de la firme. Les liens indiquent à la fois les liens officiels et non-officiels des
relations. De plus, la prolifération d’Internet est le résultat d’une grande attention ciblée sur la
collecte des données, le développement des processus analytiques appropriés à l’intelligence
compétitive (Intelligence compétitive citée dans le chapitre 3 de Reid, 20044) et la
formulation de la stratégie partenariale (Fleisher & Bensoussan, 2003).
L’intelligence compétitive est définie comme l’ensemble des moyens à multi-facettes par
lesquels l’information est interprétée pour produire de l’intelligence pour l’action
organisationnelle (Fleisher & Bensoussan, 2000).
Elle fournit des techniques abondantes comme l’analyse des profils des compétiteurs qui
permettent aux organisations d’analyser des forces et des faiblesses des concurrents actuels et
potentiels dans le but d’identifier les opportunités et les menaces. (C’est l’approche du
positionnement stratégique de Porter). Le tableau 1 présente un sommaire des techniques
analytiques pour le profil des compétiteurs.
Profil des compétiteurs Fournit une image des forces (Whitehead, 2002);
et faiblesses des concurrents (Fleisher &
actuels et potentiels. Bensoussan, 2003)
4
Edna O.F. Reid, Using Web Link Analysis to Detect and Analyze Hidden Web Communities, (Chapter 3),
Information and Communications Technology for Competitive Intelligence, Edited by Drik Vriens, Idea Group,
2004.
17
Chapitre 1
Tableau 1. Les techniques d’analyse des compétiteurs (Edna O.F. Reid, 2004)
Les systèmes du « Business Intelligence » combinent la collecte des données, le stockage des
données et le management des connaissances en utilisant des outils analytiques pour présenter
l’information compétitive, complexe et interne aux planificateurs et aux preneurs de décision.
(Negash, 2004).
18
Chapitre 1
Dans cette définition implicite (peut-être idéale), les systèmes du « Business Intelligence »
fournissent une information actionnable délivrée au bon moment, au bon endroit et sous la
bonne forme pour aider les preneurs de décision. La « Business Intelligence » aide dans la
prise de décision opérationnelle et stratégique. Il représente une évolution naturelle de séries
de systèmes antérieurs désignés pour assister la prise de décision. (Negash, 2004)
L’intelligence des affaires est une approche stratégique pour le ciblage, la traque, la
communication et la transformation des signaux faibles en informations actionnables sur les
quelles la prise de décision stratégique est basée. (Rouibah et Ould-Ali, 2002)
Lesca (2001) définit la veille stratégique comme : « le processus collectif continu par lequel
un groupe d’individus traquent, de façon volontariste, et utilisent des informations à caractère
anticipatif concernant les changements susceptibles de se produire dans l’environnement
extérieur de l’entreprise dans le but de créer des opportunités d’affaires et de réduire les
risques et l’incertitude en général. »
Selon Lesca (2003), la veille signifie être éveillé, être en état de réceptivité, être prêt à
détecter quelque chose qui pourrait se produire sans que l’on sache exactement ni quoi ni où.
Cet auteur définit la veille anticipative stratégique – intelligence collective, comme étant un
processus collectif et proactif, par lequel des membres de l’entreprise traquent (perçoivent ou
provoquent et choisissent) de façon volontariste et utilisent des informations pertinentes
concernant leur environnement extérieur et les changements pouvant s’y produire.
Dans l’expression « veille anticipative stratégique », le mot « stratégique » est utilisé pour
signaler que cette veille a pour mission de fournir aux décideurs des informations utiles dans
certaines situations.
- Ciblage de l’environnement à surveiller : dans cette phase l’entreprise doit cibler les
domaines sur lesquels elle veut agir en priorité.
- Traque des signaux faibles : il s’agit de désigner les capteurs d’informations, de leur
attribuer des missions de collecte et de leur fournir les méthodes et outils de cette
activité.
19
Chapitre 1
(5) Mémorisation
Base de connaissance
(4) Circulation
(2) Traque
(1) Ciblage
En fait, depuis la années 1960, nous notons une évolution continue de la définition du
processus de la veille stratégique. Cette évolution montre l’importance de cette fonction
puisque chaque auteur lui attribue de plus en plus de tâches à assurer. Nous reprenons l’étude
faite par Rouibah (1998) dans ses travaux de recherche et nous montrerons par la suite
l’évolution à la fin des années 90 et au début du 21ème siècle.
20
Chapitre 1
21
Chapitre 1
Le concept de l’intelligence des affaires est synonyme de celui de la veille stratégique du fait
qu’il est considéré comme étant une approche systématique dans laquelle l’entreprise doit être
vigilante quant aux signaux d’avertissement de son environnement extérieur afin d’anticiper
les menaces et les opportunités de ses affaires. Quant à la « competitive intelligence », elle est
considérée comme une branche spécialisée de l’intelligence des affaires.
22
Chapitre 1
Le sens du terme « information » est plus large que dans la théorie de l’information de Claude
Shannon où l’acceptation en est strictement numérique, statistique.
Shannon (1975) a déterminé que l’information est une grandeur observable et mesurable.
C’est un concept physique relationnel.
L’information est plutôt qu’une priorité physique de l’univers, une construction du cerveau
humain en terme de relations économiques, sociales et humaines.
- L’émetteur et le récepteur d’un message ont un répertoire commun, un code qui leur
permet de transmettre un message codé sur un canal sous forme de signes
décomposables en unités d’information appelées bits.
- La redondance permet de se prémunir contre le bruit. Elle est constituée par les mots
inutiles à la transmission des informations.
Il apparaît que les approches issues de la théorie de l’information (ou théorie du signal),
théorie qui était au fondement du développement de ces TIC, ne semblent pas pertinentes dès
23
Chapitre 1
lors qu’on tente de comprendre le rôle, le pouvoir, l’idéologie, les effets de l’information
(Guyot et co-auteurs, 2004)
24
Chapitre 1
Caractéristiques de la La tâche de
tâche l’environnement
P1 P2
Numérisation Compétitivité
de la firme
P3
Interdépendance de la
tâche
Commençons par l’explication de chacune de ces trois dimensions pour aboutir aux
propositions :
- Caractéristiques de la tâche :
Les tâches doivent être différenciées par certaines caractéristiques. La caractéristique la plus
importante est celle qui est liée à sa simplicité ou sa complexité (Daft, 1992). Lorsqu’une
tâche est très simple et routinière, elle ne présente pas beaucoup de problèmes. Donc les
problèmes inhérents à cette tâche de routine sont bien compris et possibles à prévoir. Par
contre, si la tâche devient de plus en plus complexe, il est difficile de comprendre ou de
prévoir les problèmes à l’avance. Par conséquent, les caractéristiques de la tâche affectent la
méthode de production (Brown, 2001).
25
Chapitre 1
Les firmes et leurs partenaires peuvent trouver que l’interactivité est plus facile quand
l’information est dans son format numérique.
D’où la première proposition (P1) : L’efficacité de la numérisation en tant que e-stratégie doit
être contingente avec les caractéristiques de la tâche. Toutes choses égales par ailleurs, plus la
tâche est complexe et non routinière, plus la numérisation augmente la compétitivité de la
firme.
- Tâche de l’environnement :
Internet a crée des changements profonds. En premier lieu, les produits deviennent obsolètes
d’une façon rapide (produits électroniques). Par conséquent, la réduction du cycle de temps
devient un facteur critique déterminant la productivité et la compétitivité (Wetherbe, 1996).
Quand la tâche de l’environnement est dynamique et rapide dans les industries high-tech, la
quantité de l’information requise dans l’environnement est significative et donc la
numérisation, en tant que façon d’accroître les capacités de traitement de l’information,
semble accroître la compétitivité de la firme. D’où la deuxième proposition (P2):
L’efficacité de la numérisation en tant que e-stratégie doit être contingente avec la tâche de
l’environnement. Toutes choses égales par ailleurs, plus la tâche de l’environnement est
dynamique et rapide, plus la numérisation augmente la compétitivité de la firme.
- Interdépendance de la tâche :
Cette dimension nécessite la coordination et la résolution de problème. Plus grand est le degré
d’interdépendance de la tâche, plus grand sont les besoins en traitement de l’information.
Avec l’ère d’Internet, beaucoup plus d’attention est accordée à l’intégration virtuelle. Cette
intégration permet aux firmes de se concurrencer ensemble en groupes.
26
Chapitre 1
Rhee a exploré les conditions dans lesquelles la numérisation peut accroître la compétitivité
de la firme, en utilisant la perspective de traitement de l’information. Cette étude peut être
développée dans d’autres recherches.
Nous proposons une seconde définition plus large du système d’information donnée par Reix
(1995) : « Un système d’information est un ensemble structuré de ressources humaines,
matérielles et logicielles, de données, de procédures et de réseaux de communication qui
recueille, transforme, stocke et diffuse l’information au sein d’une organisation, et dont la
finalité est d’assister les êtres humains dans les fonctions d’exécution, de gestion et de prise
de décision ».
Cette définition traite d’autres aspects avec la finalité d’assister les êtres humains dans leurs
différentes fonctions.
Ceux-ci constituent une interface entre un ordinateur et une ou plusieurs personnes (S.I.A.D.
Individuel ou S.I.A.D.I.; et S.I.A.D. de Groupe ou S.I.A.D.G.).
27
Chapitre 1
Dans tous les cas de figure, le système implanté en machine joue le rôle d’amplificateur
cognitif, mettant l’accent sur une ou plusieurs phases du processus de décision.
Videl et Lacroux (2000) introduisent leur article par une perspective historique pour montrer
que les affirmations de Gorry et Scott-Morton (1971) et de Simon (1980) ne sont pas des
constats isolés. Le tableau 4 récapitule l’histoire des systèmes d’information depuis les années
80 :
1987 Tardieu L’approche par les besoins en information qui est toujours
Theys l’approche dominante en SI.
1989 Nunamaker L’aide à la décision avec des ordinateurs est une tâche très
difficile.
5
SAD : Système d’Aide à la Décision
28
Chapitre 1
1992 Whitaker Les GDSS laissent de côté la dimension essentielle qui les
différencie des SAD : le support a une activité de groupe.
1995 Er, Ng Les premiers résultats expérimentaux sur les effets des
GDSS sur les processus de décision de groupe sont plutôt
décevants.
1995 Massey Les chercheurs sur les GDSS accordent trop peu
Clapper d’attention à la phase de définition des problèmes, de
création de sens.
D’après cet historique, tout au long des 20 dernières années, les différents auteurs ne peuvent
que constater l’inaptitude des SAD à assister d’une manière efficace les dirigeants. On est
confronté à un paradoxe des SAD : à la fois de plus en plus présents dans la vie des
organisations mais conservant un rôle peu efficace dans les processus de décision des
managers.
29
Chapitre 1
La dimension collective du processus de décision a été ignorée par les chercheurs en GDSS.
De plus, il est nécessaire de tenir compte de la dimension sociale/politique de la résolution des
problèmes.
La notion de système d’information peut être définie comme la combinaison de divers types
de bases de données accessibles à travers divers types de consultation interactive avec
l’utilisation de divers types de logiciels.
Une variété de technologies électroniques est valable pour fournir aux groupes de prise de
décision un support à différents niveaux. En nous référant à la recherche nous pouvons
trouver cette classification de groupes : Group Support Systems (GSS), Group Decision
Support Systems (GDSS), Group Communication Support Systems (GCSS), Computer-
Supported Collaborative Work (CSCW), Electronic Meeting Systems (EMS), et Computer-
Mediated Communications (CMC). (Saunders & Miranda, 1998).
L’étude élaborée par Saunders & Miranda s’est focalisée beaucoup plus sur le GSS qui fournit
un support électronique aux individus et aux groupes par le biais de lien entre les ordinateurs
et les bases de données. Ces auteurs ont examiné l’acquisition de l’information dans deux
environnements différents, l’un est traditionnel et l’autre est électronique dans le but
d’explorer l’influence des modèles de groupes d’acquisition d’information sur la qualité de
décision.
30
Chapitre 1
Ces auteurs ont essayé de comprendre l’acquisition de l’information à travers les phases de
processus de décision en se référant aux modèles de Simon (1965) et Mintzberg et al. (1976) ;
tout en intégrant ces trois variables à savoir le décisionnel, l’acquisition de l’information et les
composants contextuels. Chacune de ces variables a un impact dynamique sur l’acquisition de
l’information durant le processus de prise de décision.
H1 : Les groupes utilisant GSS pourront accéder à l’information plus fréquemment que
les groupes de rencontre traditionnels. (Utilisation du GSS / Fréquence d’accès à
l’information)
H2 : Les groupes GSS peuvent accéder à l’information plus fréquemment dans la phase
d’identification que les groupes de rencontre traditionnels. (Utilisation du GSS / Modèles
d’accès à l’information)
H3 : Les groupes résolvant les tâches intellectives pourront moins bien accéder à
l’information dans la phase d’identification que les groupes résolvant les tâches de conflits
cognitives associées aux principes moraux. (Type de tâche / Modèles d’accès à l’information)
H4 : Les groupes qui ont accès à l’information en avance dans le processus de prise de
décision pourront prendre les bonnes décisions plus vite que ceux qui ont accès à
l’information en retard. Cela est dû au cycle de vie court de l’information. (Modèles d’accès à
l’information / Qualité de décision)
La première, la troisième et la quatrième hypothèse ont été confirmées par ces auteurs. Seule
la deuxième hypothèse n’a pas été confirmée.
Avec le groupe GSS, chaque membre peut penser et travailler individuellement en utilisant les
bases de données et en échangeant les idées, à travers les discussions…Le feedback à travers
ces membres est très rapide. L’échange de l’information dans ce contexte est idéal du fait que
les membres de ce groupe ont un accès direct aux différentes sources d’informations.
31
Chapitre 1
1. L’infrastructure technologique.
3. La base de la veille stratégique ; elle est liée à la façon d’organiser et pourquoi pas à
la façon de veiller.
Les outils de la veille stratégique ont pour fonctions d’identifier les centres d’intérêt des
usagers de la veille et de faciliter la recherche, l’analyse et la diffusion de l’information et des
connaissances.
32
Chapitre 1
Les types d’outils nécessaires aux fonctions de veille peuvent être identifiés mais le problème
qui se pose est l’examen de la performance de ces outils.
Un outil de veille est un outil qui génère une information correspondant à un profil d’intérêt.
Les technologies de « pull = tirer » sont indispensables au processus de collecte de
l’information qui est à la base des fonctions documentaires aussi bien que de veille.
La finalité des agents pull est d’aider l’utilisateur à mieux veiller un ou plusieurs sites web et,
éventuellement, les archives des forums de discussion ou des listes de diffusion qui
intéressent les utilisateurs. L’utilisateur commence sa requête en paramétrant un agent de type
pull à partir de mots clés ou d’expressions plus longues. La tâche est déléguée à cet agent
comme un moteur ou un méta-moteur. Cependant, l’utilisateur interagit avec le programme en
transformant la requête en fonction des résultats trouvés par l’agent. Nous citons à titre
d’exemple de ces agents : les agents d’alerte par e-mail et les agents d’alerte off-line6.
Un deuxième type d’outils émerge actuellement et s’appuie sur la technologie de push. Lors
de la diffusion de l’information, la technologie de « push = pousser » est intégrée en fonction
de profils d’intérêt dans un contexte de veille.
Cette technologie adaptée au cadre d’une démarche de veille a pour but de se tenir informé
des évolutions d’un sujet déjà connu. Elle peut s’inscrire dans une démarche de recherche
d’informations visant à combler un manque ponctuel.
6
Voir Annexe n°1_CH1
33
Chapitre 1
Les agents intelligents sont définis comme étant des programmes capables de réagir et de
s’adapter à leur environnement. Ils peuvent prendre des décisions et enrichir eux-mêmes leur
propre comportement sur la base d’observations qu’ils effectuent lors des actions pour
7
Lieberman, “An automated channel surfing interface agent for the Web”, in Proceedings of the 5th International
WWW Conference, Paris, 1996.
8
Jaczynski et Trousse, 1997
9
Corvaisier et al., « Information retrieval on the WWW using a decision making system », in actes de la
conférence « Recherche d’information assistée par ordinateur » (RIAO 97), 1997.
10
Voir Annexe n°1_CH1.
34
Chapitre 1
lesquelles ils sont programmés. Les agents peuvent intervenir à tous les niveaux de
l’architecture de veille, aussi bien pour la surveillance et le traitement que pour la diffusion.
Les agents intelligents peuvent fournir des services personnalisés en surveillant les types
d’informations demandées par un utilisateur et en leur envoyant des informations leur étant
reliées par courrier électronique ou sur une page Web personnelle. Exemples d’agents :
AgentSoft, InfoMagnet, Lalo et Seagate Software.
Au cours des années 90, il y eut une mobilisation de la part des chercheurs pour définir la
notion d’agent intelligent. La difficulté de définir cette notion réside dans le fait qu’elle peut
faire partie de différents champs de recherche.
Auteurs Définitions
Smith, Les agents « intelligents » sont des programmes informatiques
Cypher et Spohrer (1994) mobiles.
Russel et Norvig (1995) Pour ces auteurs, l’agent intelligent est une entité logicielle
persistante, dédiée à des buts spécifiques.
Maes (1994) L’agent intelligent est tout objet percevant son environnement à
travers des détecteurs et agissant sur cet environnement grâce à
des actionneurs (Robot).
Franklin et Graesser (1996) L’agent intelligent est un système situé dans un environnement et
appartenant à cet environnement qui le perçoit, agit sur lui en
poursuivant son propre objectif.
35
Chapitre 1
Parmi ces définitions, celle de Wooldridge et Jennings (1995) clarifie l’utilité de ces systèmes,
ainsi que leurs caractéristiques (cette partie sera détaillée dans le deuxième chapitre).
La façon de prendre une décision n’a pas pour seule importance d’aider à arrêter des choix
d’investissements, de gestion de stocks, de concession dans une négociation ou de stratégie à
long terme d’une entreprise.
Elle intéresse également les économistes, les sociologues et autres spécialistes des sciences
sociales pour représenter les comportements d’acteurs dans les systèmes qu’ils étudient.
On s’aperçoit ainsi que le mot décision désigne à la fois, en français, le produit de la réflexion
et le processus de réflexion ou de calcul lui-même, tandis que l’anglais sépare, à juste titre,
decision de decision-making. En même temps, le quadruplet – croyances, désirs, rationalité,
turbulence de l’environnement – ouvre sur une typologie possible des nombreux modèles de
la décision. Le terme « décision » est toujours lié aux « DSS : Systèmes d’aide à la décision ».
Une étude11 a été faite pour montrer la cohérence entre les centres de recherche en
management des systèmes d’information. Les auteurs de cette étude ont cherché à trouver des
signes de recherche cumulatives, en sélectionnant les termes DSS et décision. Ils ont trouvé
que les articles produits sur ce sujet entre 1990-1994 sont plus importants qu’entre 1995-
2000. Dans la première période, ils ont noté la construction de théorie là où il y a l’utilisation
des résultats antérieurs pour étendre les idées futures à travers le test et la discussion de
théories. Dans la deuxième période, ces auteurs ont marqué la production faible de
publications et l’absence de construction de théorie. Malgré l’évolution rapide du terme
« DSS », le terme « décision » est plus riche en terme de connexions aux autres notions. De ce
fait, ces auteurs ont essayé de montrer l’évolution de ce terme en étudiant le lien entre
« GDSS » et groupe, ainsi qu’entre « GSS » et groupe. Nous remarquons que la notion de
décision a été séparée du terme Système d’aide. Les résultats de cette étude sont résumés dans
ce tableau :
11
T.J. Larsen & L.Levine, “ Searching for management information systems : coherence and change in the
discipline”, Information Systems Journal, Vol.15, n°4, Oct 2005.
36
Chapitre 1
Dans notre étude, nous nous sommes focalisés sur l’application des technologies d’accès et de
traitement de l’information en tant que systèmes intelligents afin de montrer le lien entre la
qualité et l’utilité perçue de ces systèmes et l’intention de leur utilisation dans le processus de
prise de décision. Dans cette première sous-section nous limitons notre étude de présenter le
modèle de Simon pour adopter les phases du processus de prise de décision dans notre modèle
théorique.
Herbert Simon a proposé, dans plusieurs articles et ouvrages des années soixante et soixante-
dix, un schéma de la prise de décision. Ce modèle distingue trois phases du processus de
décision :
- Une phase de choix d’un mode d’action particulier parmi les actions possibles: c’est
la phase de sélection;
37
Chapitre 1
- Les décisions ne sont pas toutes de même nature ni de même niveau. Certaines
décisions sont dites « programmables » : Il s’agit de la présence d’un automate,
correctement informé et programmé, est en mesure de les prendre aussi bien que
l’homme lui-même, et dont la capacité est singulièrement limitée. Notamment, des
ensembles humains ou des interfaces hommes-machines sont concernés, les
décisions sont dites «non-programmable». Les phases d’intelligence et de conception
sont véritablement les phases clés du processus de décision.
Aussi, dans le modèle S.T.I., les trois phases de la décision ne se présentent-elles pas de façon
linéaire, mais en boucles. De nombreuses itérations sont nécessaires, au vu de la faible
capacité cognitive des hommes et de la complexité des problèmes de décision. (H. Simon).
Par ailleurs, le processus de décision est mis en œuvre, dans une organisation, par un système
de décision, lui-même complexe et dont l’action du décideur peut donner une représentation
dégradée et être une source d’erreurs de décision si elle conduit à ignorer les difficultés de
communication et de coordination.
38
Chapitre 1
Comme nous l’avons déjà défini dans les sections précédentes, « l’information est une
différence qui produit une différence » écrit Bateson. Selon Rowe et Marciniak (1997), la
première différence est une donnée, un signal ou un ensemble de données perçues en même
temps. La seconde différence est de l’ordre de la représentation mentale d’une connaissance
ou d’un problème. L’information résulte de la transformation d’une donnée. La connaissance
résulte de la transformation d’une information.
Connaissance Compréhension
Information Signification
Donnée Faits
L’information dépend donc de l’individu récepteur. Elle n’existe pas en soi, elle est
conditionnée par la représentation mentale d’un sujet.
« Informer c’est fournir des représentations pour résoudre des problèmes » (Reix, 1995)
La prise de décision peut être améliorée en ayant recours aux connaissances concernant
l’organisation, les produits, les marchés, l’industrie, le passé, le futur, …
Pour prendre de « bonnes » décisions, il faut que les dirigeants sachent faire la distinction
entre donnée et information.
Les données sont des symboles qui représentent ou décrivent des objets et des événements
ainsi que leurs caractéristiques.
12
www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm
39
Chapitre 1
Les informations se sont les données qui ont été traitées à travers une forme significative pour
le destinataire. Cette forme a une valeur réelle et perçue dans les décisions ou les actions
actuelles et/ou éventuelles.
Nous pouvons présenter le lien entre l’information et la décision après sa transformation dans
la figure 7 :
Décision Action
Les outils traditionnels de la prise de décision sont le hardware et le software. Ces derniers se
sont intégrés en croissance dans le package des systèmes ! ( Par exemple : Les systèmes de
réservations dans les agences de voyages, les systèmes de publication …)
Récemment, la conception des systèmes s’est focalisée à la fois sur l’efficience (atteindre un
objectif en exigeant les moindres ressources) et l’efficacité (parvenir un objectif intentionné).
Dans le monde réel des entreprises, l’information a un cycle de vie bien déterminé. Ce cycle
de vie peut être décomposé en quatre phases :
13
www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm
40
Chapitre 1
L’adoption généralisée des outils informatiques provoque une dépendance accrue des
entreprises vis-à-vis de leur infrastructure.
En effet, la qualité moyenne des outils informatiques s’est considérablement améliorée avec la
diffusion et la standardisation de ces produits et services.
41
Chapitre 1
œuvre dans sa conception, son exploitation et son financement au service des objectifs et des
contraintes propres à l’entreprise.
Il est essentiel pour l’entreprise d’optimiser en permanence le design de son infrastructure afin
de satisfaire au meilleur coût ses besoins et obligations.
Détaillons l’application de ces axes d’optimisation pendant les phases du cycle de vie de
l’information.
Cette capacité de saisie doit être accessible par tous les moyens utilisés pour capturer
l’information (PCs locaux ou distants, Web…).
Dès sa capture, l’information est susceptible d’être réutilisée, elle doit donc être
immédiatement disponible dans le cadre du système d’information de l’entreprise.
Cette disponibilité immédiate est la base même du concept d’entreprise temps réel. Elle
interdit les traitements traditionnels par lots créant un décalage entre la saisie de l’information
et sa prise en compte par l’ensemble du système d’information.
Enfin, dès leur saisie, les informations doivent être protégées selon des règles de
confidentialité correspondant à leurs degrés de sensibilité.
42
Chapitre 1
Durant cette période dont la durée est extrêmement variable, le stockage suppose la
disponibilité de volumes adaptés.
Ces informations doivent être accessibles par l’ensemble des logiciels et dispositifs utilisés
dans l’entreprise en respectant des règles de confidentialité.
Enfin, la sensibilité des données doit être tout particulièrement prise en compte dans les
opérations d’archivage afin de garantir la protection des données confidentielles sur de
longues périodes.
La dernière étape du cycle de vie de l’information est celle de la destruction. Elle ne doit pas
être négligée. Cette étape permet de libérer l’entreprise d’opérations complexes de maintien
des informations archivées et surtout de satisfaire bon nombre d’obligations légales prévoyant
la disparition d’informations sensibles.
43
Chapitre 1
Dans ce paragraphe, nous nous limiterons à expliciter la relation entre les applications de la
Business Intelligence (ou veille stratégique) et l’infrastructure technologique dans un cadre
pratique.
Longtemps, la Business Intelligence est resté confiné dans les hautes sphères dirigeantes des
entreprises. En fournissant des tableaux de bord à quelques responsables, les outils de
Business Intelligence servaient à piloter et à gérer. La démocratisation de ces outils, la volonté
de plus en plus courante de diffuser l’information au plus près des responsables à tous les
niveaux de l’entreprise font de la Business Intelligence le meilleur outil de gestion des
performances.
L’objet de ces applications est de fournir à chacun les informations lui permettant de gérer son
activité et donc d’atteindre ses objectifs et d’optimiser ses performances.
Outre la révolution organisationnelle induite par la mise en œuvre de ces outils, la Business
Intelligence a un impact considérable sur l’infrastructure technologique de l’entreprise.
A titre d’exemple, les milliards de lignes éditées chaque jour sur les tickets de caisse de
supermarchés constituent des masses précieuses d’informations mais aussi des volumes
gigantesques à extraire des systèmes opérationnels et à traiter.
L’une des particularités des outils de Business Intelligence est leur séparation des systèmes
opérationnels. Ce sont des outils qui touchent le niveau stratégique de l’organisation.
Cette scission a pour but d’éviter de pénaliser les systèmes opérationnels en leur demandant
d’assurer des traitements lourds (tris, extractions, calculs…). Cette séparation permet de
protéger des données opérationnelles en n’autorisant leur analyse qu’à posteriori. Il est donc
nécessaire d’extraire massivement les informations des systèmes opérationnels pour les
injecter dans des outils spécifiques de type datawarehouse et bases de données multi-
dimensionnelles. La fréquence de ces extractions doit être adaptée aux besoins d’analyse
(quotidienne, hebdomadaire, mensuelle…). Enfin, ces extractions doivent permettre la
constitution de séries de données historiques sur des périodes plus ou moins longues selon les
besoins. Ces volumes doivent être protégés non seulement à cause de leur taille mais à cause
de la sensibilité et de l’éventuelle confidentialité des informations qu’ils contiennent.
44
Chapitre 1
Une étude a été réalisée sur la mise en application d’un modèle théorique dans un terrain de
recherche concret qui concerne une approche d’évaluation d’un projet d’implantation d’un
data warehouse dans une organisation financière. Cette étude a identifié les impacts
organisationnels dus spécifiquement au data warehouse étudié et leur mise en relation avec le
contexte de changement organisationnel dans le but d’évaluer la performance et l’impact de
cet outil dans une perspective individuelle et organisationnelle. (Kefi, 2002 ; Kalika & Kefi,
2004)
Ce schéma montrera le positionnement des systèmes d’informations par rapport aux niveaux
organisationnels :
14
OLAP Council, Definitions, http://www.dssresources.com/glossary/olaptrms.html, 1997.
15
www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm
45
Chapitre 1
Donnée TPS
46
Chapitre 1
Conclusion
Le but de ce premier chapitre est de montrer l’évolution des concepts théoriques au cours de
ces dernières années afin d’éviter la confusion de définitions pour chaque concept ou
combinaison de termes.
Dans la première section de ce chapitre, nous avons commencé à définir la veille stratégique
et les différentes terminologies utilisées par les auteurs. Nous avons conclu que la veille
stratégique et l’intelligence des affaires sont synonymes, alors que l’intelligence compétitive
est une branche spécialisée de la veille stratégique parce qu’elle concerne le traitement de
l’information externe venant des compétiteurs…
Nous avons défini le concept de traitement de l’information parce que nous avons comme
cible de recherche les technologies d’accès et de traitement automatique de l’information.
Enfin, nous avons défini le concept des systèmes d’information pour vérifier si la veille
stratégique peut être considérée comme un système d’information. Lesca N. (2003) fait le
rapprochement entre les deux définitions pour déduire que la veille est un système
d’information. Dans notre étude nous séparons les deux notions du fait que le premier est un
processus alors que le second est un ensemble de matériels humains et non-humains. Ces deux
blocs ont presque les mêmes technologies de l’information à utiliser.
C’est pour cette raison que dans la deuxième section, nous avons essayé de montrer
l’utilisation des technologies de l’information comme outil de la veille stratégique. Ensuite,
nous avons abordé la question des TIC en tant que support du processus de prise de décision
en se focalisant sur le modèle de Simon. Ceci dans le but de voir l’impact des SIAD sur le
processus de prise de décision à savoir que les SIAD ne représentent qu’un exemple des TIC.
Cela est dû à l’apparition de différentes formes de technologie d’information. Les DSS se
limitaient auparavant aux bases de données, à la modélisation, et la fonctionnalité de
l’interface de l’utilisateur, mais les innovations technologiques peuvent attribuer aux DSS une
fonctionnalité plus puissante. Les DSS (Systèmes d’aide à la décision) ont soutenu les
preneurs de décision sous une perspective individuelle, mais ensuite ces technologies ont été
appliquées aux groupes de travail ou aux équipes et en particulier aux équipes virtuelles.
(Shim et al., 2002)
Au début des années 1990, quatre outils puissants ont émergé pour la conception des DSS.
47
Chapitre 1
Le premier nouvel outil pour l’assistance à la décision a été le data warehouses. Les deux
nouveaux outils qui ont émergé suite à l’introduction du data warehouses16 sont : Traitement
analytique sur-ligne (OLAP17 : On-Line Analytical Processing) et le data mining. Le
quatrième outil nouveau est la technologie associée avec WWW (World Wide Web).
LeWeb occupe un énorme intérêt dans ces dernières années et il peut avoir un grand impact
dans les prochaines années.
Les racines de conception du data warehouse sont liées aux technologies de bases de données.
Codd proposait un modèle de données relationnel pour les bases de données en 1970. Ce
modèle conceptuel a un grand impact à la fois sur les systèmes de traitement de transactions
des affaires et les systèmes d’aide à la décision.
Dans les années 1990, peu de data warehouses conçus ont existé. Les travaux de Inmon
(1992), Devlin & Kimball ont prédit que le data warehouse est une solution pour l’intégration
des données auprès de diverses bases de données opérationnelles afin d’assister la gestion de
prise de décision. Cet outil est un sujet orienté, intégré, à des moments variés, pour la
collection des données non volatiles (Inmon, 1992).
16
Ou entrepôt de données, est une collection de données structurées consolidant les informations issues de
différents systèmes opérationnels. Il est dédié à l’aide à la décision.
17
Englobe des outils de stockage et de manipulation de données multidimensionnelles.
18
Codd E.F. & Associates, « Providing OLAP to user-Analysts : An IT Mandate », a white paper, commissioned
by Arbor Software (now Hyperion Solutions) 1993.
48
CHAPITRE 2
Introduction
Dans ce deuxième chapitre, nous explicitons les caractéristiques et les applications de la
technologie de traitement automatique de l’information dans différents domaines.
Dans la première section de ce chapitre, nous tentons de définir les agents intelligents, de les
classifier selon leurs propriétés et leurs caractéristiques. Cette classification permet de mieux
comprendre le rôle des agents intelligents ainsi que leurs domaines d’applications.
Dans la deuxième section, nous essayons d’éclairer l’utilisation des agents intelligents à
travers la première phase d’exploration du terrain et les difficultés rencontrées suite à cette
phase.
Un agent est une entité logicielle ou physique à laquelle est attribuée une tâche. Il est capable
de l’accomplir de manière autonome et en coopération avec d’autres agents pour former un
Système Multi Agents (SMA). L’intelligence artificielle s’est focalisée sur la modélisation
des capacités intelligentes d’une unique entité pour résoudre des problèmes, il en a résulté une
première génération de programmes informatiques.
A partir de la fin des années 70, l’accent a été mis progressivement sur une résolution
distribuée de problèmes, par la coordination de certains nombre d’agents rationnels, c’est ce
qu’on a commencé à appeler des « SMA ». On utilise également le terme d’intelligence
artificielle distribuée (DAI) pour montrer l’opposition avec l’intelligence artificielle classique,
autarcique et centralisée. Un système multi agents est un ensemble organisé d’agents, cet
ensemble signifie que dans un système multi agents, il existe une ou plusieurs organisations
qui structurent les règles de cohabitation et de travail collectif entre agents (définition des
différents rôles, partages de ressources, dépendances entre tâches, protocoles de coordination,
de résolution de conflits…).
50
Chapitre 2
- (ligere ou legere) : savoir discerner des éléments, faire des choix (élire) parmi ces
éléments et les recueillir (ou encore les collecter) ;
- (IntelLigere) : savoir établir des liens entre eux pour former un ensemble signifiant.
L’idée de Negroponte (1970) est d’employer les agents comme une interface de tâches
humaines. Ce thème a été utilisé par les firmes spécialisées en informatique (HP, Apple,
Digital…) dès 1990 pour illustrer leur vision. Pour montrer l’enjeu des agents intelligents on a
eu recours aux sciences de gestion et aux approches cognitives.
L’intelligence d’un système dans un environnement complexe est définie par son temps de
réponse entre la détection du besoin exprimé de son client et la réponse adéquate à ce besoin
(Le Moigne, 1990).
Ferber (1995) définit l’agent comme étant une entité physique ou virtuelle agissant dans un
environnement, communiquant directement avec d’autres agents, possédant des ressources
propres, capable de percevoir partiellement son environnement, disposant d’une
représentation partielle de l’environnement, possédant des compétences. Son comportement
tend à satisfaire ses objectifs en tenant compte des ressources et des compétences dont il
dispose, et en fonction de sa perception, de ses représentations et des communications qu’il
reçoit.
D’après cette définition, nous comprenons que l’agent est à la fois une entité physique (il agit
dans le monde réel) et une entité virtuelle (composant logiciel, module informatique)
Récemment, Jennings, Sycara et Wooldridge (1998) définissent l’agent intelligent comme
étant un système informatique, autonome, social, réactif à l’environnement et pro-actif. Ce
système ou cet agent a trois aspects :
51
Chapitre 2
- D’agir : Cette action repose sur le fait qu’ils accomplissent des actions qui vont
modifier l’environnement des agents et donc leurs prises de décisions futures.
- De communiquer entre eux : C’est l’un des modes principaux d’interaction existant
entre les agents.
- D’être autonomes : Ils ne sont pas dirigés par des commandes venant de l’utilisateur
mais par un ensemble de tendances qui peuvent prendre la forme de buts individuels
à satisfaire.
- Agents utilisateurs : Ils encapsulent les bases de données héritées et les sources
d’informations. Leur rôle c’est d’interfacer les utilisateurs.
- Agents médiateur : Ils ont pour effet d’unifier les besoins informationnels aux
ressources existantes.
Côté et al. (2001) proposent une architecture multi agents conçue pour œuvrer sur des sources
hétérogènes situées dans un environnement dynamique. Ces auteurs font apparaître trois
couches abstraites de NetSA. Ces trois unités font référence à la technologie-agent et à
l’interaction entre ces agents. Ici on va voir la nature de médiation entre agent-agent.
19
KQML: Knowledge Query Manipulation Language
52
Chapitre 2
Le marché virtuel forme un domaine d’application de ces trois unités. En effet, les vendeurs
proposent des produits aux acheteurs qui contrôlent si la description correspond à leurs buts.
S’ils se mettent d’accord, ils commencent à négocier les prix en utilisant des règles données
par leurs supérieurs respectifs. Des systèmes d’intermédiaires proposés par Collins (1998) et
des agents de médiation cités par Kuokka (1998) ont été développés pour arbitrer le processus
de négociation. Ces intermédiaires reçoivent les requêtes d’un agent demandeur au moyen de
descriptions de produits et des offres, de la part des fournisseurs. Après avoir trouvé la
meilleure correspondance, l’agent médiateur peut se contenter de lancer le processus de
communication, restant en tant qu’arbitre ou intermédiaire de confiance entre les
protagonistes.
L’architecture décrit les composantes fonctionnelles d’un agent et la manière dont elles
interagissent. C’est la structure logicielle qui produit un ensemble d’actions sur
l’environnement ou sur les autres agents. Selon Shaw et al.(1995), la description fournie par
l’architecture est constituée de composants (correspondants aux fonctions) de l’agent et des
interactions entre ceux-ci (flux de données et de contrôle).
20
SQL: Structured Query Language
21
HTML: Hypertext Mark-up Language : langage informatique qui définit la syntaxe des pages Web.
53
Chapitre 2
La question qui mérite d’être posée est la suivante : Comment peut-on appliquer la « bonne »
architecture au problème spécifique ?
Müller (1997) répond à cette question en proposant onze axes directifs, essayons de les citer
afin de faire une comparaison avec ce qui se passe en pratique :
1er axe : Vérifier prudemment si on a vraiment besoin d’un agent ou d’un autre
programme qui peut faire la tâche pour résoudre le problème de l’application.
- Il est virtuel parce que les agents le perçoivent avec des capteurs logiciels et qu’ils
agissent en utilisant des programmes et autres modules.
- Il n’est pas déterministe : les agents agissent mais il n’y a aucune garantie de succès.
- Il ne peut pas être considéré comme épisodique : le passé doit être pris en compte
car il a une grande influence sur le présent particulièrement dans des interactions
commerciales.
- Il est fortement dynamique : les marchés, les bases de données et les sites WEB ne
cessent d’évoluer en reflétant l’activité humaine.
- Il doit être considéré comme continu car l’ensemble d’actions potentielles est infini.
2ème axe : Le fait d’avoir une architecture A utilisée avec succès pour construire
l’application de la classe P et non utilisée dans le traitement d’application de la classe Q, ne
signifie pas que A ne peut pas être appropriée pour traiter Q.
3ème axe : Si notre problème exige des agents hardware autonomes, et qu’on se rend
compte qu’on est mieux servi par un autre agent hybride, une approche purement réactive
peut être appliquée si on trouve une décomposition de notre système qui nous permet de
définir des agents simples (exemple : agents auto-organisateurs).
4ème axe : Si notre problème exige des agents software autonomes, l’utilisateur peut
choisir entre des architectures robustes comme par exemple dMARS22 et SOAR23.
5ème axe : Si notre problème exige des agents software assistants, et que l’architecture
de l’agent n’est pas définitive, le plus important c’est d’avoir un domaine de fonctionnalité. Il
22
dMARS ou PRS : Procedural Reasoning System
23
SOAR : State OperAter Result
54
Chapitre 2
6ème axe : Si notre problème exige des agents hardware assistants, et il n’y a aucun
système valable. La solution c’est de sélectionner une architecture et de l’étendre par l’ajout
d’une fonctionnalité nécessaire dans l’interaction Homme-Machine.
7ème axe : Si notre problème exige des multi agents software, et qu’on veut voir les
exemples présentés sous la catégorie des agents inter agissants. Cependant, s’il y a une grande
interopérabilité des exigences dans notre système (exemple : communication avec les
composantes des non-agents à l’intérieur de la firme) alors on peut courir le risque puisque
aucun système décrit facilement ne se conforme avec l’interopérabilité des normes (Ex.
CORBA comme mécanisme de liaison). Dans ce cas, on doit modifier le niveau de
communication.
8ème axe : Si notre problème exige des multi agents hardware, qu’on sélectionne l’une
des architectures ou systèmes d’agents hardware autonomes, qu’on coopère par nos
connaissances ou qu’on sélectionne l’une des architectures de coopération-centrée en les
élevant en raison de la nécessité de les interfacer à notre hardware, alors une architecture
comme INTERRAP peut être intéressante dans la mesure où elle peut être appliquée dans le
domaine des robots inter agissants.
9ème axe : Il faut faire la distinction entre un agent de recherche sur Internet et un robot.
La plupart des architectures utilisées ont un poids lourd sur le contrôle des robots. Si on fait
partie du domaine software, l’architecture choisie doit :
- produire un modèle de service affectant les agents pour vendre des services figurés à
travers les tâches.
10ème axe : Dans les applications intéressantes, on n’a pas recours aux architectures
purement réactives ou délibératives. Cependant, on est mieux servi par l’une des architectures
55
Chapitre 2
hybrides. Ces systèmes, PRS, RAPS ou SOAR, sont suffisamment stables et matures pour
être un bon choix adapté à chaque système de contrôle autonome.
Les approches d’agents réactives fournissent une forme d’adaptabilité à court terme basée sur
le feedback.
D’après les analyses faites sur les capacités disponibles au sein d’un agent par rapport à la
problématique de la coordination entre les agents, on peut rappeler une matrice organisant les
descriptions d’agents en architectures d’agents autonomes, d’agents inter agissants, d’agents
sociaux selon la vision de coordination. Ces trois architectures vont être combinées avec la
classification habituelle qui fera apparaître l’architecture d’agent réactif, d’agent délibératif, et
d’agent hybride sous une vision de raisonnement (Muller, 1997 ; Wooldridge , 1999).
On commence par la classification habituelle qui repose sur une vision raisonnement. De ce
fait, l’agent est considéré comme un système de raisonnement qui vise à déterminer les
actions possibles, à privilégier l’une d’elles et à la mettre en œuvre de manière efficace en
fonction de la situation actuelle de l’environnement ou des autres agents. On identifie trois
groupes d’architectures :
- Agent réactif : c’est une architecture dans laquelle les décisions d’action sont prises
au moment de l’exécution à partir de peu d’informations. L’exécution de l’action suit
le changement de l’environnement immédiatement, c’est à dire, il y aura un couplage
de l’action à la perception. Pour faciliter ce couplage ces architectures n’incluent pas
des représentations symboliques de l’environnement. Le mécanisme de décision est
simple du fait qu’il met l’accent sur la robustesse plutôt que sur l’optimum du
comportement.
56
Chapitre 2
On passe maintenant à la définition des trois types d’architectures sous une vision
coordination. Demazeau (2001) a proposé une approche appelée VOYELLES et qui consiste à
modéliser un SMA selon quatre facettes : Agent (A), Environnement (E), Interaction (I), et
Organisation (O).
- Agent inter agissant : il possède des capacités d’interaction avec les autres agents
du système. Il possèdera les descriptions des autres agents et sera capable de les
influencer. Cette architecture est constituée des fonctions exprimant les facettes A, I
et E.
En résumé, « l’architecture désigne la manière dont les ressources de l’agent sont organisées.
Elle retranscrit les interactions entre les différents composants qui traduisent le
57
Chapitre 2
Cet auteur donne l’exemple suivant : pour les agents réactifs, on peut définir un modèle
générique d’architecture qui contient trois modules : un module pour la perception, un module
qui retranscrit les compétences de l’agent (qui associe à chaque stimuli une action) et enfin un
module actions qui exécute les décisions de l’agent.
Dans la littérature, il existe d’autres typologies d’agents intelligents, nous pouvons citer celle
de Caglayan et Harrison (1998). Ces auteurs ont parlé des agents intelligents dans le monde
commercial et industriel. Pour eux, les agents peuvent être classifiés du point de vue de
l’utilisateur final.
- Les agents système : sont des agents d’interface qui aident dans l’utilisation du
système d’exploitation.
- Les agents d’application : sont des agents d’interface fournissant une aide à
l’utilisateur pour se servir d’une application particulière.
- Les agents de suite logicielle : sont des agents d’interface fournissant une aide à
l’utilisateur pour faciliter son travail avec des applications corrélées.
- Les agents de recherche du Web : sont des agents Internet qui fournissent des
services de recherche dans le Web à un utilisateur.
58
Chapitre 2
- Les agents serveurs du Web : sont des agents Internet résidant sur un site Web
spécifique pour fournir des services.
- Les agents de filtrage d’information : sont des agents Internet qui filtrent des
informations selon des critères spécifiés par l’utilisateur.
- Les agents de recherche documentaire : sont des agents Internet qui répondent par
un ensemble personnalisé d’information correspondant à la demande de l’utilisateur.
- Les agents de notification : sont des agents Internet indiquant à un utilisateur des
évènements qui pourraient l’intéresser.
- Les agents de service : sont des agents Internet fournissant des services spécialisés à
des utilisateurs.
- Les agents mobiles : sont des agents Internet se déplaçant d’un lieu à un autre afin
d’exécuter les tâches spécifiques d’un utilisateur.
- Les agents d’automatisation : sont des agents Intranet automatisant les tâches d’une
entreprise.
- Les agents de base de données : sont des agents Intranet fournissant des services
agent à l’utilisateur de bases de données.
- Les agents courriers de ressources : sont des agents Intranet réalisant l’allocation des
ressources dans les architectures client/serveur.
Les chercheurs et les praticiens utilisent la technologie des agents pour développer une vie
longue pour les agents de collecte des données qui sont intelligemment sélectionnés pour la
24
Workflow : « Succession d’activités à l’intérieur d’une organisation, s’enchaînant afin de produire un résultat
final. Les applications de travail coopératif permettant de définir différents workflows en fonction de
l’organisation et des outils mis en place. A chaque étape, une personne ou un groupe est responsable de la
réalisation d’une tâche donnée ». Edith Nuss, Le cyber Marketing, mode d’emploi, Ed. d’Organisation, 2000,
p.360.
59
Chapitre 2
• Agents Internet
Exemple : Les agents qui cherchent le Exemple : Ils sont utilisés dans le but de
meilleur prix pour une requête auprès des rechercher un marché en identifiant des
différents vendeurs ou agents qui prennent les modèles d’achat pour un produit spécifique ou
décisions d’achats pour un acheteur. dans le but d’une recherche scientifique en
testant les théories et les hypothèses
spécifiques.
60
Chapitre 2
• Agents robots
- Le développement des agents a été initialement fait dans la recherche robotique. Les
agents logiciels circulent à travers des robots autonomes et leur permettent
d’améliorer les tâches simples. Exemple : l’assemblement des tâches sur lignes
(Grouver et al., 1986)
- Les agents robots suivent des processus semblables qu’on peut trouver dans les
agents Internet.
- Tout en dépendant de l’application des agents Internet, les agents robots sont
caractérisés par un degré spécifié de flexibilité, pro-activité et d’une interaction
sociale définis par Wooldridge et Jennings (1998)
- Les agents robots ont un degré d’intelligence incorporé dans leurs logiciels.
Cette intelligence est utilisée pour naviguer à travers l’environnement (Lewis et
al. 1996).
- Les agents robots n’interagissent pas avec - Les agents à durée de vie longue exigent un
l’utilisateur mais ils se concentrent sur une niveau de persistance ce qui implique qu’ils
tâche clairement spécifiée et routinière ne font pas une remise en marche simple mais
Exemple : sondage d’une ligne de machines. qu’ils remettent l’état de l’agent avant la
(Lewis et al. 1996 ; Pardo-Castellote et al., terminaison anormale exigeant une revue
1995). antérieure des données collectées.
- En revanche, les agents de collecte des
données exigent l’interaction significative
avec l’utilisateur et doit s’adapter avec leur
comportement.
61
Chapitre 2
- La conception des agents robots se rapporte - Les agents Internet sont centrés sur les
à l’amélioration d’une tâche. (Pardo- données (data-centric); ils doivent acquérir,
Castellote et al., 1995; Coste-Maniere et al., interpréter et transférer les données en
1996) modifiant leur comportement basé sur les
données acquises. Ils n’améliorent pas
simplement une tâche répétitive.
- La littérature des robots sur la conception
des agents se concentre sur la programmation
des tâches individuelles et la manière dont ces
tâches interagissent avec les robots hardware.
Tableau 8. La différence entre les agents robots et les agents Internet
(Kauffman, et al. 2000)
• Bases de données à durée de vie longue
Les concepteurs des bases de données sont concernés par le ressaisissement des
transactions concurrentes à durée de vie longue (Bernstein et al., 1987). Les utilisateurs des
bases de données multiples peuvent accéder à une même base de donnée en même temps,
chaque utilisation sépare les transactions à durée de vie longue. Ceci est fréquemment
rencontré dans les bases de données qui fournissent une grande échelle d’ingénierie et les
applications de conception.
La tâche
de collecte Agent
des Sophistiqué
données
Figure 10. Les six caractéristiques d’un agent (Kauffman, et al. 2000)
La tâche de collecte des données est déterminée par l’importance de son application et décrit
le rôle de l’agent en lui-même. Ceci se traduit par les besoins et ou les capacités d’un agent
spécifique.
62
Chapitre 2
• Intelligence
C’est la capacité de l’agent à répondre aux requêtes, à prendre les décisions, et à tirer parti de
ses expériences ; capacités normalement associées à l’intelligence humaine. (Kauffman et al.,
2000)
Les agents intelligents utilisent des règles et des niveaux de règles hiérarchiques pour
interpréter les données et déterminer la façon de changer le comportement en s’adaptant à
l’environnement.
Jennings and Wooldridge (1998) montrent que les agents intelligents agissent à la place des
êtres humains experts, les agents intelligents sont pro-actives. Mais, il faut s’assurer que les
règles utilisées par l’agent pour interpréter les données sont correctes et en adéquation avec
les connaissances des experts avec des limites d’erreur tolérables.
Il faut noter que les AI n’ont pas le même degré d’intelligence que les experts humains. Ils ne
souffrent pas des limitations traditionnelles comme la fatigue, la surcharge cognitive ou les
biais qui peuvent affecter les processus de recherches de décision traditionnelles.
Searle oppose le fait que les machines manquent d’intentionnalité et par conséquent qu’un
programme ne peut suivre des instructions pour recevoir des symboles à l’entrée et générer
des symboles pour la sortie. Ces programmes n’ont aucune compréhension innée sur ce qu’ils
font.
63
Chapitre 2
Il pense que les partisans de l’IA qui essayent d’incorporer plus de qualités humaines dans les
machines doivent se justifier rationnellement.
En réponse à Searle, d’autres auteurs (Dennett, 1991) argumentent que tout problème a un
résultat final. Si le programme informatique peut imiter la pensée et l’action humaines sans
distinction, ce programme fait partie de l’intelligence artificielle forte.
En se basant sur les discours philosophiques de Searle (1990) et de Dennett (1991), il existe
différents niveaux d’intelligence artificielle qui peuvent être incorporés dans la conception de
l’agent. Ces niveaux sont regroupés sous trois catégories.
Premièrement, les agents sans intelligence sont nommés agents simples ou agents tout court.
Ils cherchent des données spécifiées auprès d’un site sans faire d’interprétations.
Deuxièmement, les agents avec de simples règles et qui suivent les entrées des utilisateurs ou
des experts. Il s’agit des agents experts. Ces derniers utilisent l’intelligence artificielle faible
dans laquelle ils suivent des règles qui sont toujours placées auprès des répertoires pour imiter
les actions de l’utilisateur normales ou nominales.
Troisièmement, les agents qui utilisent l’intelligence artificielle forte pour prendre l’initiative
d’action, pour avoir des croyances changeantes et pour avoir des motivations.
Actuellement, les agents Internet disponibles dans le commerce qui sont catégorisés en tant
qu’agents intelligents sont en réalité des agents simples ou experts. Ils sont des agents basés
sur des règles utilisant l’intelligence artificielle faible pour imiter le comportement humain.
Les développeurs de cette technologie ont besoin de savoir si le comportement humain mérite
d’être imité.
Les bases de connaissances qui incorporent des règles syntactiques peuvent être utilisées, de
ce fait elles nous conduisent à un comportement spécifique à l’agent basé sur les besoins du
chercheur.
64
Chapitre 2
L’intelligence est utilisée en particulier quand il s’agit d’une analyse lexique. Ceci implique
une vision du texte en forme libre afin d’identifier les mêmes caractéristiques d’un item
considéré comme étant expert auprès d’une description verbale (Plaunt et Norgard, 1998).
• Validation
La validation comprend aussi le choix large entre les caractéristiques de la qualité des
données (Wand et Wang, 1996) appliqué à la tâche. Exemple de choix propre et de sélection
de critères : âge, niveau d’agrégation, unités (US dollars ou British pounds)…
Contrairement aux agents valides qui améliorent la tâche, les agents non valides recherchent
simplement des données spécifiées.
Par exemple, si certaines procédures doivent être suivies pour que les données soient valides,
l’agent peut prendre une action appropriée même si ces règles sont détournées.
L’utilisation d’une base de donnée, une partie de la tâche validée peut être déléguée au
système de gestion de bases de données (Database Management System). En revanche, si la
base de données rejette une donnée invalide, l’agent a besoin d’être informé ou des
précautions spéciales méritent d’être prises dans l’analyse de la collecte des données.
En identifiant les données invalides, les agents valides peuvent traiter des données beaucoup
plus efficacement que les agents non-valides.
• Simultanéité
Les agents simultanés sont ceux qui accomplissent différentes tâches en même temps. En
revanche, les agents à processus unique sont des agents qui opèrent d’une façon séquentielle
et peuvent mener à bout une seule tâche à la fois. Un système qui peut assurer plus d’une
seule tâche à la fois peut ajouter l’efficacité à un programme en profitant de l’avantage des
cycles de l’unité de traitement central (« Central Processing Unit). D’autres programmes sont
conçus pour des réponses auprès des serveurs Web à distance. (Kauffman et al., 2000)
65
Chapitre 2
Les agents qui font le filetage ont un fil de contrôle central qui crée des processus permettant
à chacun de courir rapidement (agents threads)
Les agents de filetage récupèrent l’information auprès des sites Web. D’autres peuvent traiter
les données qui ont été déjà récupérées.
La simultanéité peut réduire le temps mis pour la collecte des données et produire de
l’efficacité dans la collecte des données.
Pour les tâches simples, les agents à processus unique sont adaptables grâce à la gestion des
processus multiples, et en particulier les agents de transaction typiques.
Pour des efforts de collecte des données ou pour la simultanéité de transaction des
informations entre les multiples sites, la simultanéité aura pour résultat des agents qui
recherchent les données plus rapidement que les agents à processus unique. La simultanéité
est spécialement importante pour des agents qui ont besoin de contrôler plus qu’un site Web
en même temps.
La mobilité est un élément de la capacité de l’agent pour améliorer la simultanéité. Les agents
stationnaires avancent dans un seul ordinateur. Les données sont collectées auprès des sites à
distance toujours à travers le protocole TCP/IP mais le traitement des données se génère sur
une machine locale.
Les agents mobiles sont créés par un agent de contrôle central, mais ils demandent du temps
pour réaliser des processus simultanément à la fois sur des sites locaux et à distance.
Il n’y a pas une règle standard pour le développement des agents mobiles.
• Ressaisissement
Il s’agit de la capacité de l’agent à supporter les situations qui interrompent son activité de
collecte de données, par exemple, lorsque des erreurs se produisent avec les connexions de
réseaux, avec les serveurs du Web à distance ou avec les systèmes de gestion de base de
données qui servent les agents intelligents. (Kauffman et al., 2000)
66
Chapitre 2
Klein et Dellarocas (1999) décrivent les interactions multi-agents quand les agents sont
difficiles à maintenir, à comprendre et à réutiliser car le comportement normatif simple des
agents devient obscur !!
Les agents de ressaisissement peuvent réparer toute interruption de collecte des données. Cet
agent montre de la persistance. L’agent qui ne fait pas de ressaisissement échouera dans son
travail avant la collecte des données antérieures.
L’agent semi-réparateur peut réviser les données collectées pour déterminer un point de
départ approprié pour la continuité de collecte des données.
• Surveillance
Les agents de veille traquent les événements. Ces agents font accès aux données d’une façon
périodique auprès du site Web apparent. (Kauffman et al., 2000)
La collecte des données est infaisable par les méthodes traditionnelles qui forcent les
individus à accéder au site Web manuellement, mais elle est simple par l’utilisation des agents
de veille.
- Les Agents de veille continue sont préposés à faire la course continue durant le
processus de veille.
- Les Agents de veille réguliers sont préposés à courir périodiquement et ils utilisent
des logiciels de programmation pour courir à temps spécifique durant chaque heure,
chaque jour et dans d’autres périodes de temps spécifiées.
• Interactivité
L’interactivité signifie dans quelle mesure l’agent est capable de modifier son comportement
basé sur les données collectées :
67
Chapitre 2
avec d’autres pages, ou entrer des données dans les champs dans le but d’obtenir des
données désirées.
La différence entre interactivité et intelligence est que les agents intelligents prennent des
décisions en se basant sur des données qui sont collectées et sur l’interaction avec l’expert ou
l’utilisateur que les agents veulent simuler. Alors que les agents interactifs interviennent dans
le stade des procédures pré-déterminées en se basant sur les données collectées. (Kauffman et
al., 2000)
Donnons plus de détail sur la notion d’interactivité qui semble une propriété fondamentale
aux agents d’aide à la décision (Spiekermann et Parashiv, 2002).
Nous avons présenté dans cette section trois classifications25 des agents intelligents. Pour
mieux comprendre le rôle des agents intelligents dans la vie « réelle », nous consacrons une
sous-section pour montrer le rôle des agents médiateurs dans le e-commerce.
Les agents software sont des programmes à qui on peut déléguer une tâche. Ils sont qualifiés
pour être personnalisés, en course continue et semi autonomes. Ces qualités permettent à
l’agent d’être utilisé pour une large variété d’informations. (Maes, 1994)
25
1ère classification proposée par Müller, 1997.
ème
2 classification proposée par Caglayan et Harrison, 1998.
3ème classification proposée par Kauffman et al., 2000.
68
Chapitre 2
Les agents software jouent un rôle croissant dans le commerce électronique en tant que
médiateurs.(Bailey et Bakos, 1997).
Guttman, Moukas et Maes (1998) ont exploré le rôle de ces agents, leurs technologies, et
comment ils peuvent être reliés au commerce électronique dans ses trois principales formes :
B to B, B to C et C to C.
Ces auteurs ont présenté un modèle dans le contexte du commerce électronique qui est inspiré
des recherches faites sur le comportement d’achat du consommateur en marketing
traditionnel.
Service
Identification Recherche Recherche Négociation Achat et après-vente et
du Besoin du produit du vendeur livraison évaluation
Figure 11. Les six étapes du processus d’achat en ligne (Guttman et al., 1998)
Ces auteurs se sont inspirés des modèles classiques proposés dans la littérature marketing
(Nicosia, 1966 ; Howard et Sheth, 1969 ; Engel et al., 1993 ; Bettman, 1979) pour décrire les
étapes d’un processus sur l’Internet.
Le consommateur est stimulé à travers l’information sur le produit. C’est le stade nommé par
la reconnaissance d’un problème (Engel et Blackwell, 1982)
L’utilisation des agents électroniques dans cette étape est adaptée pour les achats répétitifs
(par exemple, un approvisionnement) ou les achats prévisibles (par exemple, une habitude),
26
Les étapes représentent une approximation et une simplification de comportements complexes et ne sont pas
linéaires ou itératives (Guttman & al., 1998). Par exemple, le consommateur peut choisir le vendeur avant la
marque de produit ou choisir le vendeur en fonction du résultat du processus de négociation.
69
Chapitre 2
puisque dans ces deux cas les agents peuvent analyser des données historiques pour
déterminer le moment précis où leur intervention est souhaitable (Maes et al., 1999)
- Recherche du produit :
- Recherche du vendeur :
Ce stade combine une série de considérations auprès de l’étape précédente avec l’information
spécifique aux marchands.
Le modèle proposé par Engel et Blackwell recoupe ces deux stades d’une façon orthogonale
au niveau de la recherche de l’information et de l’évaluation des alternatives. Ce stade
cherche à savoir à qui vendre.
- Négociation :
Comment peut-on déterminer les termes de la transaction ? Elle varie dans le temps et dépend
de la complexité du marché. Dans les marchés de détail traditionnels, les prix et les autres
aspects de transaction sont fixés par la négociation.
Dans d’autres marchés (automobiles, marchés locaux…), la négociation de prix et des autres
aspects sont intégrés au produit et au courtage entre les marchands.
Les modèles de comportement d’achat des consommateurs traditionnels n’ont pas identifié ce
stade explicitement. Ce stade de négociation est comparable au stade de décision ou de choix
de décision trouvés dans d’autres modèles.
- Achat et la livraison :
Ce stade signale la terminaison du stade de la négociation. Dans d’autres cas, les options de
paiement sont valables (cash seulement) et les options de livraison peuvent influer sur le
produit et le courtage entre les marchands.
70
Chapitre 2
- Evaluation après-achat :
La littérature des agents intelligents a toujours posé le problème de typologie. C’est pourquoi
dans chaque sous-partie de cette section on voit une classification des agents différente l’une
de l’autre.
Guttman, Moukas et Maes (1998) ont proposé une taxinomie qui utilise comme critère de
classification l’étape de processus d’achat sur laquelle les agents interviennent. Les trois
principaux rôles que ces entités virtuels pourraient assurer auprès d’un consommateur dans le
cadre d’un processus d’achat sont la recommandation de produits, la comparaison des offres
de différents vendeurs et la détermination des termes d’une transaction. Ces trois fonctions
sont remplies respectivement par des agents de recommandation, des agents de recherche et
des agents de négociation. (Paraschiv, 2004)
Ces agents peuvent jouer un double rôle d’une transaction. Ils se mettent à la place d’un
vendeur ou d’un négociateur. L’agent négociateur propose la liste des vendeurs potentiels. Il
exige un tarif sur les sites consultés, il laisse une date limite de réponse à ses requêtes. Pour
gérer les réponses envoyées, il trie par ordre croissant ces réponses pour établir un lien pour le
demandeur. L’agent vendeur apprend à connaître le client en examinant ses achats en lui
posant des questions complémentaires. Cet agent va avoir des connaissances sur son client et
sur d’autres clients. Ensuite, il commence à comparer les profils des clients entre eux. Il
analyse les achats des clients les plus proches. Il sélectionne les articles les plus achetés par
cette catégorie de clientèle.
Cette technologie est encore émergente, ses applications sont encore très verticales et
relativement peu nombreuses. Les perspectives de croissance justifient de suivre
attentivement cette nouvelle technologie dont l’étendue dépasse le simple domaine du data
mining.
Suite à cette grille de lecture sur la technologie des agents intelligents, nous proposons un
premier modèle théorique et nous commençons à explorer le terrain par le biais des entretiens
semi-directifs, afin de comprendre la place de cette technologie dans le processus de la veille
startégique.
71
Chapitre 2
Agent
Avec les
Tâches Connaissances Apprentissag Avec autres
à priori e l’utilisateur utilisateurs
72
Chapitre 2
Dans leur modèle, Caglayan et Harrison ont simplifié la présentation de la structure d’un
agent en montrant trois niveaux de compétences :
L’interface est la couche entre l’utilisateur et le système qui facilite la communication entre
agent humain et ordinateur. Elle est considérée comme un canal de communication pour
l’utilisateur. Les théories de l’activité soulignent l’asymétrie existant entre les hommes et les
objets. L’approche anthropocentrique proposée par Lomov (1975, 1977) considère les
relations entre l’homme et la machine comme des relations entre « le sujet de travail » et
« l’outil (moyen) de travail ».
- Mesurer l’efficacité des techniques utilisées par l’humain dans les situations de
résolution des problèmes ( La plupart des études se focalisent sur l’interaction entre
utilisateurs et ressources du WEB).
73
Chapitre 2
Selon cette perspective, la cognition n’est plus envisagée comme un processus de traitement
de l’information, mais comme engageant des processus de coopération et de collaboration
entre l’humain et son environnement physique et social.
Elle est appréhendée comme un processus distribué et situé dont l’objet est la perception de
l’environnement et dont les dimensions sont physiques, mentales et sociales.
Cette dernière approche utilise la notion de tâche pour analyser un système cognitif composé
d’individus et d’outils techniques en interaction.
En se référant à cette base théorique, nous nous proposons de mesurer le concept d’interaction
sur trois niveaux :
74
Chapitre 2
75
Chapitre 2
Nombre de
canaux de
communication
Nombre de
Recherche de requêtes Interaction
l’information formulées H-SMA
(traque) - Perception du
SMA par
Contrôle mutuel l’utilisateur Qualité de l’information
entre les deux - Communication traquée
parties
Besoin en
information
Exploitation de
l’information Degré de
(traitement) connaissance de Interaction
l’information Agent-Agent
- Communication
- Décision non-
Type de Qualité de l’information
humaine
participants traitée
- Action
Enchaînement
des messages
Modes de
Communication de communication
l’information à son Interaction SMA-H
usager - Communication Qualité de l’information
(transmission) - Décision humaine transmise
- Action
Résultats issues
de l’échange de
l’information
Cette interaction traduit la relation entre l’utilisateur et l’agent logiciel. Elle comprend des
agents interagissant avec l’utilisateur pour l’aider à réaliser une tâche précise. Le langage de
76
Chapitre 2
l’utilisateur est transformé en actes du langage KQML (pour faciliter la communication avec
les agents).
On emprunte à la théorie de l’activité l’analyse qui distingue les motifs, buts et tâches de
l’utilisateur. La présence des agents n’explique pas toutes les transformations dans les
rapports entre l’homme et son environnement. C’est l’existence de motifs, buts et tâches qui
déterminent l’angle sous lequel l’un ou l’autre agent est perçu et qui peut changer le
fonctionnement des systèmes. Le bon fonctionnement du système dépend de l’agent humain.
A ce niveau, les agents assistants interagissent et agissent avec les autres agents. Les agents
assistants apportent une adaptation au profil de l’utilisateur et une capacité à anticiper leurs
besoins (automatiser certaines tâches, rappeler certaines informations utiles…). Ceci peut se
transposer dans le domaine du collectif.
Cette interaction va former un système multi-agent. C’est un système distribué composé d’un
ensemble d’agents. Il est conçu et implanté comme un ensemble d’agents interagissant selon
des modes de coopération. Il diffère de celui de l’intelligence artificielle qui simule dans une
certaine mesure les capacités du raisonnement humain.
La question qui se pose alors est de déterminer comment permettre aux agents de
communiquer.
77
Chapitre 2
Selon Abric (1999), la communication est « l’ensemble des processus par lesquels
s’effectuent les échanges d’informations et de significations entre des personnes dans une
situation sociale donnée »
La notion d’interaction prend place à l’intérieur des agents, via leur faculté de perception, de
communication et d’action.
- la perception ;
- la communication ;
- et l’action.
Le Système Multi-Agent (SMA) peut utiliser ses connaissances sur les autres agents pour
coordonner leurs actions, pour mieux anticiper le futur ou pour atteindre les objectifs d’une
manière collaborative.
Après l’extraction de l’information pertinente des bases de données ou autres, il y aura la re-
direction de cette information vers l’unité de traitement de l’information et par la suite vers
l’unité de communication avec l’utilisateur. Il s’agit d’un processus itératif.
78
Chapitre 2
Ce premier modèle théorique, bien que riche est cependant limité. D’une part, il est riche
parce qu’il a attiré l’attention des chercheurs sur des aspects essentiels. D’autre part, il est
essentiellement technique et manque de bases théoriques. Il a donc été critiqué, ce qui a
ouvert d’autres pistes de recherche.
La première critique à ce modèle est que les phases de traitement de l’information (recherche,
exploitation, communication) peuvent intervenir à chaque type d’interaction homme/agent
intelligent. Ce modèle peut être scindé en deux niveaux :
Par ailleurs, nous intégrons dans notre démarche, un ensemble de critiques mentionnées par
Mme Véronique Guilloux28 spécialiste dans le domaine des agents intelligents :
- « - Par rapport à la collecte des informations en front office avec un utilisateur (c’est
le cas d’un moteur de recherche) on a effectivement une interface utilisateur ; et en
back office avec un système multi-agent (relation inter-agents électroniques). Il n’y a
pas d’interface avec un utilisateur humain puisque c’est l’étude du processus de
plusieurs agents électroniques qui se coordonnent par rapport à un objectif.
Les systèmes multi-agents ont fait l’objet de travaux au MIT et requièrent une compétence
informatique et des expérimentations peu difficiles à mettre en place.
- Par rapport à la diffusion (via par exemple Intranet), on retrouve bien la relation
utilisateur/agent d’intermédiaire. Ne faut-il pas choisir un des deux niveaux ?
Il est préférable de se centrer sur la diffusion et inclure des variables de résultats (effets sur la
prise de décision) puisque le thème abordé touche de près le knowledge Management.
Le terme « agent intelligent » employé est donc ambigu. Les fameux smart agents sont plus
des prototypes qu’une réalité managériale. Le terme agent doit être défini par rapport à la
réalité managériale. Par exemple sur les Intranets, quels sont les types d’agents ? Il existe des
27
Son adresse site : http://Veronique.Guilloux.free.fr (Maître de Conférences à l’Université Paris XII)
28
Son adresse site : www.davidjf.com (Ex-IBM)
79
Chapitre 2
En conclusion, notre approche par le premier modèle théorique nous confirme que le thème
est d’actualité mais peut être faut-il recentrer notre réflexion soit sur l’étude des agents en
back office (système multi-agents), soit sur l’étude de la relation agent-utilisateur (On
emploiera d’ailleurs le terme « agents électroniques » plutôt que celui d’« agents
intelligents », car on peut se demander quel est leur niveau d’intelligence ?)
Peut-être faut-il dans un premier temps connaître le panorama des agents utilisés par les
knowledge managers ou les cellules veilles des grandes entreprises. »
Toutes ces remarques consistantes nous ont encouragé à plus creuser davantage à la fois dans
le courant des agents intelligents et dans la littérature abondante des systèmes d’information
avec en perspective la construction d’un second modèle théorique.
La phase d’xploration du terrain a deux objectifs. Le premier est de lancer des investigations
sur le contexte de l’utilisation des outils de la veille stratégique en général. Le second objectif
est de chercher le domaine d’application des AI en tant qu’outils de la veille stratégique afin
de montrer leur utilisation dans le processus organisationnel et managérial.
Six entretiens semi-directifs (auprès de responsables et de directeurs) ont été réalisés, ils sont
utiles parce que :
Deux guides d’entretiens ont été construits. Les thèmes abordés dans ces guides dépendent de
l’utilisation ou non des répondants de la technologie des agents intelligents. Le premier guide
est posé à des responsables de la veille stratégique mais qui ne connaissent pas et n’utilisent
pas la technologie des AI et le second est destiné aux connaisseurs et aux utilisateurs de cette
technologie. La durée moyenne de ces entretiens est d’une heure et demi.
80
Chapitre 2
- Trois entretiens semi-structurés ont été menés avec trois responsables de la fonction
de la veille stratégique. Ces responsables appartiennent à trois secteurs d’activité
différents (télécommunications, informatique et de service). Ils n’ont jamais utilisé
les agents intelligents mais ils ont utilisé d’autres outils de la veille stratégique. Les
thèmes abordés sont :
Ces thèmes29 ont été menés sous forme de questions. Ces dernières ont été posées par le
chercheur en s’adaptant au profil et aux réponses des interviewés.
Avant d’exposer les résultats de cette première phase, nous proposons de résumer le matériel
de la recherche qualitative mis en œuvre :
29
Voir le premier guide d’entretien dans l’annexe n°2 du chapitre 2.
30
Voir le deuxième guide d’entretien dans l’annexe n°3 du chapitre 2.
81
Chapitre 2
Lors de la réalisation des trois premiers entretiens le chercheur a mis l’accent sur la fonction
de la veille stratégique étant donné que les répondants ne maîtrisent pas tous les outils de la
veille en général et l’agent intelligent en particulier.
Nous présentons le rôle de la fonction de la veille stratégique dans trois secteurs différents à
partir de l’analyse des trois premiers entretiens effectués. Nous exposons la place relative de
la technologie des agents intelligents dans les organisations à partir des trois autres entretiens.
Lors des deux premiers entretiens31 effectués (Cegetel et IBM), le chercheur s’est confronté à
la réticence d’informations des répondants.
Les deux points essentiels que nous avons pu dégager lors du premier entretien avec le
directeur scientifique de Cegetel :
31
Voir Annexe n°4_CH2_ Tableau 4. 1.
32
Réseau d’entreprise basé sur l’utilisation des mêmes protocoles qu’Internet.
82
Chapitre 2
Lors du deuxième entretien réalisé avec le responsable de veille concurrentielle d’IBM, nous
pouvons constater que :
- La phase de la collecte des données : il utilise « tous les jours » les revues, les
journaux, les moteurs de recherche, les analyses financières, les bases de
données et les réseaux d’informations. Internet est considéré comme le pire
ennemi des veilleurs.
- Le chef de cette entreprise considère que la veille est un effet de mode. « Pour
évaluer une information, on se trompe toujours ». Cela montre que les capacités
humaines peuvent se tromper lors de l’évaluation des informations. Ce directeur nous
a mis en contact direct avec un concepteur des agents intelligents qui avait développé
chez IBM les systèmes automatiques de l’information pendant cinq ans33.
Le troisième entretien34 de cette étude, a été accompli auprès d’un responsable de veille
stratégique de Gaz de France. Nous avons dégagé de cet entretien ces points :
33
Ce contact correspond au quatrième entretien effectué dans cette étude.
34
Voir Annexe n°4_CH2_ Tableau 4. 2.
83
Chapitre 2
- Dans cette entreprise, les réseaux et les capacités humaines dominent l’utilisation
des technologies.
Concernant les trois autres entretiens35 semi-structurés dont les répondants utilisaient la
technologie des agents intelligents, nous synthétisons leurs réponses par rapport au plan de la
sous-section suivante dans le but de montrer cette technologie dans la réalité.
Lors de ces entretiens, le chercheur a confirmé dans son idée que les agents intelligents
existent en réalité. Le problème majeur se situe dans la définition et la typologie de ces
agents. Durant mon quatrième entretien, M. Zanasi a défini ces agents comme « des outils de
traitement automatique de l’information ».
Le cinquième interviewé avec qui nous avons fait l’entretien ne trouve pas de définition à ces
agents. Il pense que c’est un mot générique à l’intérieur duquel se cache la notion de mobilité.
Et pour le cas de la France, on est encore devant les agents de recherche (Copernic). Selon lui,
le premier niveau d’intelligence est celui de l’exécution, autrement dit, l’exécution c’est le
stockage, le traitement, la communication de l’information. L’exécution est tournée vers
d’autres agents, d’autres sites Web ou d’autres agents humains. La capacité d’intelligence
d’un agent signifie sa capacité de traitement, d’adaptation et d’exécution…
35
Voir Annexe n°4_CH2_ Tableau 4. 3. (5ème et 6ème entretien)
84
Chapitre 2
Lors du sixième entretien nous n’avons pas parlé de la définition de ces agents, vu que cet
entretien a été téléphonique et nous avons profité de ce contact pour lui transmettre le
questionnaire dans une deuxième étape.
Lors de ces trois derniers entretiens, nous n’avons pas évoqué la question sur la place des
agents intelligents et le processus de la veille stratégique mais nous avons déduit que les AI
peuvent intervenir à chaque phase du processus de la veille vu le rôle diversifié de cette
technologie. Il est possible de dire que la veille stratégique est active à partir du moment où
les responsables de cette cellule utilisent des outils capables de collecter, traiter, diffuser
l’information pour qu’elle soit utilisée en tant qu’outil d’aide à la décision. Ici le chercheur est
tombé dans le piège et a su répondre à une partie de ce véritable problème. Est-ce qu’on va
vérifier que l’AI est un outil d’aide à la décision pour assurer un processus de veille active ?
ou est-ce que c’est l’information obtenue par cet AI qui va jouer l’outil d’aide à la décision ?
Dans tous les cas, l’information ne peut pas être définie en tant qu’outil, elle pourra être
considérée comme étant un facteur de succès de la décision prise. Dans cette étude nous nous
sommes limités à l’étude de la qualité du système intelligent et non à la qualité de
l’information. Lors de notre cinquième entretien, le stratégiste nous a dit : « Quelle que soit la
décision prise, l’information circule. Il faut prendre en considération le relativisme dans la
liaison mécanique entre information et décision. On a l’intention de pré-décider avant de
collecter l’information sur des bases d’intelligence stratégique, chose plus subtile et plus
fine,… »
Historiquement, les agents intelligents sont quasiment tous basés sur les concepts
informatiques des années 80. L’agent intelligent est originaire de plusieurs domaines comme
l’intelligence artificielle, le génie civil et l’Interface Homme Machine (Caglayan et Harrison,
1997). L’originalité de cette étude est que nous associons cette technologie au domaine du
Management des Systèmes d’Information. (Voir Figrure 14)
Dans cette figure, le cercle et la flèche en pointillés ne font pas partie des domaines présentés
dans la figure des auteurs cités (Caglayan et Harrison, 1997). Ils représentent le
positionnement du chercheur par rapport aux agents intelligents. LeMoigne (1996) dit que :
« Bien que l’informatique ait beaucoup contribué à populariser le mot « système » et le
85
Chapitre 2
concept du système, il faut convenir,…, que les développeurs de systèmes d’information n’ont
pas développé de méthodes formalisées pour comprendre les systèmes et les inter-relations
entre leurs composants. Les chercheurs en génie logiciel ont été incapables de fournir la
moindre aide aux praticiens en ce qui concerne la définition des systèmes et la mise en œuvre
concomitante de leurs composants fonctionnels ». (p. 25)
Cette citation justifie notre positionnement par rapport aux autres domaines de recherche et
l’intérêt de notre sujet.
- Réseaux de neurones
- Objets
- Systèmes à base de
- Traitement de l’image et
connaissances
de la parole
- Systèmes Intentionnels
- Inférence d’évènements
- Raisonnement de haut-niveau
- Surveillance en ligne
Intelligence
artificielle Agents Intelligents Génie logiciel
- L’Adéquation Technologie-
Tâche
- L’Acceptation d’une
technologie
- La diffusion des innovations
- La théorie du comportement
planifié
- La théorie sociale cognitive
86
Chapitre 2
élaborée par l’intelligence artificielle et il y a eu des recherches réalisées sur ces aspects
comme Computer Supported Cooperative Work (CSCW) et Human Computer Interaction
(HCI) ; ces recherches ont montré l’effet faible des « agents humains » sur la conception des
principales architectures d’agents. Ces applications qui exigent l’habileté des agents humains
sont dans la plupart des cas des softwares agents, par exemple dans les domaines des loisirs,
de l’art, de l’éducation, et des processus de contrôle des agents.
Nous sommes partis d’un premier modèle conceptuel que nous n’avons pas pu valider
empiriquement, du fait de nos difficultés d’accès au terrain. Nous avons fixé comme objectif
de chercher la nature de la relation entre l’utilisateur et l’AI en distinguant trois niveaux
d’analyse à travers les trois étapes du processus informationnel (collecte, traitement et
diffusion des informations).
La collecte de données par le biais des entretiens semi-structurés a été intéressante en terme
de conseils de la part des interviewés, mais elle n’a pas donné lieu à des traitements car les
données collectées sont insuffisantes en terme de nombre d’entretiens réalisés et de précision
pour faire une analyse pertinente et généralisable. C’est la raison pour laquelle que nous avons
élargi la méthode de recherche en passant d’une étude qualitative vers une étude quantitative
(Chapitre 4).
Suite aux problèmes rencontrés à l’accès au terrain et au faible recours à cette technologie,
nous avons limité notre étude au premier niveau. C’est pourquoi, nous nous focalisons sur le
rôle de l’Interaction Homme-Agent Intelligent dans le Management des Systèmes
d’Information.
87
Chapitre 2
Conclusion
Dans ce chapitre, notre intérêt a porté sur les classifications et les caractéristiques de la
technologie de traitement automatique de l’information dans le but de montrer leur évolution
et leur intérêt dans le monde des affaires.
La confrontation entre les différents domaines traitant l’Agent Intelligent (AI) a permis de
proposer un premier modèle théorique dont l’objectif est de montrer qu’il y a trois niveaux
d’analyse qui émergent de l’impact de l’utilisation des AI sur le processus informationnel. Le
premier niveau est réservé à l’interaction Agent Humain (AH)/Agent Intelligent (AI) ou
Système Multi-Agent (SMA) c’est lors de lancement de requêtes par l’utilisateur, il pourra
être en interface avec un ou plusieurs AI. Le deuxième niveau est un milieu artificiel car il est
réservé à l’interaction entre les AI lors de la phase de traitement-exploitation des informations
et le troisième niveau est réservé à l’interaction AI/AH lors de la diffusion et la
communication des informations recherchées ou traitées. L’étude qualitative nous a permis
de délimiter notre champ d’intérêt au niveau AH/AI. Les raisons de notre choix sont :
- Notre domaine de recherche étant la gestion des organisations dont l’un des
principaux intérêts est d’étudier le comportement humain.
Néanmoins, il aurait été intéressant d’étudier l’impact de la relation H/SMA sur le processus
de la veille stratégique. Vu la confidentialité de l’utilisation de plusieurs agents intelligents et
la spécificité de ces systèmes, nous avons donc préféré le niveau 1 et le niveau 3 serait une
voie future de recherche à travers une étude qualitative longitudinale. (un seul cas en
profondeur).
Pour mieux comprendre leur perception vis-à-vis de ces systèmes, il est utile de traiter la
nature de l’interaction entre l’utilisateur et la machine (ou logiciels). C’est pourquoi nous
consacrerons le troisième chapitre à étudier les dimensions théoriques de l’interaction homme
- machine dans le management des systèmes d’information.
88
CHAPITRE 3
Introduction
Ce chapitre a deux objectifs principaux. Le premier est de rapprocher le domaine de
l’Interaction Homme-Machine du champ du Management des Systèmes d’Information. Ce
rapprochement peut expliquer le rôle de cette interaction dans le MSI à savoir que cette
interaction a montré son intérêt dans d’autres disciplines.
Le deuxième objectif est de présenter les différents modèles de mesure de l’évaluation des SI
en tenant compte de trois niveaux (l’individu, le système et l’organisation). La sélection de
ces modèles facilitera la construction de notre propre modèle.
Pour assurer ces objectifs, il faut traiter l’efficience et l’efficacité de l’utilisateur sur le plan
individuel et organisationnel.
Pour enrichir ces objectifs, les directeurs/managers et les concepteurs/développeurs ont besoin
d’être informés sur le jeu entre les utilisateurs, les tâches, les contextes de la tâche, la
technologie de l’information et les environnements dans lesquels les systèmes sont utilisés.
36
L’utilisabilité d’un logiciel désigne la possibilité d’utilisation de ce logiciel. Elle se réfère à la maniabilité et à
la bonne accessibilité générale d’une application.
90
Chapitre 3
Comme tout champ interdisciplinaire, l’IHM (HCI : Human-Computer Interaction) attire les
chercheurs, les éducateurs, et les praticiens des différents champs. Les organisations, les
groupes d’intérêts spéciaux et les groupes de travail ont comme cible l’IHM ou les études
reliées à l’IHM.
Dans cette recherche, nous nous focalisons sur le rôle de l’interaction homme-agent intelligent
dans le Management des Systèmes d’Information.
Zhang et al. (2002) fournissent comme point de départ une définition pour la compréhension
de l’Interaction Homme-Machine dans le domaine des systèmes d’information.
Dans le champ des systèmes d’information, les principes de cette interaction sont explorés
dans une perspective distinctive : les chercheurs et les éducateurs en Management des
systèmes d’information prennent en considération l’importance managériale et
organisationnelle.
En général, les études de l’IHM dans le MSI concernent l’interaction des méthodes humaines
avec l’information, les technologies et les tâches spécialement dans les contextes des affaires,
managérial, organisationnel et culturel.
Le champ de la recherche en IHM a été largement défini et il a eu plus d’attention durant ces
années récentes parce que les technologies ont été développées plus rapidement.
91
Chapitre 3
Pour utiliser une technologie avancée, nous avons besoin d’élargir notre compréhension aux
humains, à leur tâche dans les différents contextes et au rôle joué entre les humains, les
technologies de l’information et les environnements/contextes.
Zhang et al. (2002) ont examiné trois revues en Systèmes d’Information (Management
Information Systems Quarterly, Information Systems Research et Journal of Association of
Information Systems) pour chercher le pourcentage de l’ensemble d’articles qui ont évoqué le
sujet d’interaction Homme-Machine. Il est de l’ordre de 33%. Ce résultat montre bien l’intérêt
crucial de ces travaux dans ce domaine.
Nous allons visualiser brièvement (Tableau 10) une chronologie qui soulève l’importance de
l’interaction Homme-Machine :
Auteurs Travaux
Bostrom and Heinen, 1977 L’échec des Systèmes d’information peut être
dû au « choix de conception faux » résultant
du manque de développement des aspects
humains /sociaux du système utilisé.
Gerlach and Kuo, 1991 Les concepteurs de logiciels ont besoin de
développer leur objectif à travers les besoins
fonctionnels pour introduire les besoins
comportementaux des utilisateurs.
Davis 1989 ; Venkatesh & Davis, 1996 ; Leurs études sur l’acceptation d’une
Venkatesh et al., 2003. technologie ont montré l’importance à la fois
de l’utilité perçue et de la facilité d’utilisation
perçue pour l’utilisateur d’une technologie en
SI.
Galletta, 2004 Le problème de l’inadéquation peut être dû à
la non-expérience des concepteurs d’une part
et le stade de développement des utilisateurs
d’autre part.
Le développement des systèmes modernes est très différent car la fonction du SI et les
membres de la hiérarchie jouent un rôle interactif dans l’organisation des affaires.
92
Chapitre 3
Cinq points méritent d’être soulevés pour montrer l’intérêt managerial de cette recherche :
- Les systèmes développés aujourd’hui sont plus complexes, forçant la direction des
SI à dépenser plus de temps aussi en interaction avec les utilisateurs pour déterminer
les besoins informationnels et de prise de décision existants.
- Le développement de certaines approches est basé sur l’effet de retour itératif auprès
des utilisateurs vis à vis de la fonctionnalité et de l’utilisabilité des systèmes.
Quelques études traditionnelles nommées IHM trouvent leurs origines auprès de la science de
l’informatique, la psychologie cognitive, l’ingénierie de l’industrie, l’ergonomie et d’autres
disciplines divers.
L’IHM trouve aussi son origine dans le MSI, la science de l’information, la communication et
les disciplines de la psychologie sociale. Dans notre recherche nous nous limitons à démontrer
les caractéristiques des études en MSI/IHM sur les aspects suivants :
Cette recherche peut être conduite pour examiner des issues variées aux niveaux individuel,
du groupe, des organisations et des industries. La plupart des études MSI/IHM se sont
améliorées au niveau individuel pour l’analyse, et quelques-unes sont spécifiquement
consacrées aux groupes (GDSS). Pourtant, il existe des études qui sont ciblées sur les
communautés virtuelles.
93
Chapitre 3
Système social
2ème niveau Système
Environnement Travail technique Environnement
général
Figure 15. Les niveaux d’analyse dans l’IHM. (Preece et al., 1994)
Cette figure montre les trois niveaux d’analyse qui impliquent les différents éléments pris en
considération. (Eason, 1991, in Preece et al., 1994).
- Le travail peut être synonyme des activités définies intégrant les tâches;
Ces éléments peuvent être modifiés pour inclure des concepts plus larges afin d’adresser des
sujets modernes dans l’utilisation et le développement de la technologie présente. Par
exemple, les technologies peuvent intégrer les données et les informations, les machines et les
logiciels, les applications, les procédures aussi bien que le personnel d’assistance technique.
Des études en MSI/IHM s’efforcent de trouver un équilibre entre les perspectives d’affaires,
managériale, organisationnelle, sociale, technique/d’ingénierie. (Baskerville et Myers, 2002),
et elles se sont centrées sur les tâches ou problèmes organisationnels.
94
Chapitre 3
Les technologies sont utilisées comme des exemples pour découvrir les perceptions de
l’utilisateur, les attitudes, le comportement et la performance. (Par exemple des études portent
sur l’acceptation de technologies, l’efficacité de l’ordinateur personnel, et l’usage du SI).
Plutôt que de se centrer sur le simple niveau de performance de la tâche, les études en
MSI/IHM se sont intéressées aux tâches individuelles qui peuvent être liées directement aux
objectifs de l’organisation. L’utilité d’une technologie pour l’accomplissement des tâches
organisationnelles et l’adéquation entre les tâches et la technologie pour assister les tâches
(Goodhue, 1995) joue un rôle important dans ces études (Davis, 2002; Strong, 2002).
La majorité des études en MSI/IHM se focalise, en premier lieu, sur les utilisateurs adultes
dans les contextes des affaires ou organisationnel où se trouvent la performance du travail
individuel et la satisfaction au travail, et les objectifs organisationnels sont des problèmes
primaires pour l’entreprise.
D’autres études s’intéressent à des contextes autres que les affaires et l’organisationnel
(exemple, Venkatesh et Brown, 2001).
Peu d’études prennent en considération les types d’utilisateurs au sens large (comme les
adultes, les enfants, les handicapés physiques et/ou mentaux, et les personnes âgées) pour des
types d’intentions au sens large (comme la distraction, la culture, les librairies, et les
applications de la vie critique dans la médecine, la défense, et la conception des automobiles).
Les séries de divers thèmes identifiés par Carey sur les études IHM/MSI au cours des années
antérieures portent sur : (Beard et Peterson, 1988; Carey, 1988, 1991, 1995, 1997)
- Le SI professionnel ;
95
Chapitre 3
- L’utilisateur final
L’ensemble de ces thèmes a l’intention de fournir une gamme de sujets reliée à l’histoire, le
rattachement des disciplines, les théories, les pratiques, les méthodologies et les techniques, le
développement et les applications de l’interaction entre les humains, les tâches, les
technologies de l’information et les contextes (organisationnel et culturel…).
- Les approches intégrées et/ou innovatrices, les directives, et les analyses standards,
la conception, et le développement des dispositifs interactifs et les systèmes
96
Chapitre 3
La justification des théories existantes mérite des efforts à répondre aux problèmes. De plus,
ces théories doivent être développées ou avancées pour une étude à la fois empirique et
conceptuelle. A travers les divers thèmes de recherche en MSI/IHM, l’étude des réactions
individuelles pour évaluer une technologie, vue par Compeau et al. (1999), est un sujet
important dans la recherche des systèmes d’information récente.
Plusieurs auteurs ont étudié les différents aspects de ce phénomène auprès d’une variété des
supports théoriques, intégrant :
97
Chapitre 3
- La théorie sociale cognitive (SCT : Social Cognitive Theory) (exemple, Compeau &
Higgins 1995, 1995; Hill et al. 1986, 1987).
D’autres études sont orientées vers les sciences sociales. La figure 16 montre les approches de
recherche ou les stratégies pour les sciences sociales, réalisées au cours des deux dernières
décennies. Cette figure présente les considérations majeures auxquelles doivent faire face les
chercheurs lors de la conduite d’une étude de recherche. Les huit stratégies identifiées sont
classifiées en deux dimensions (McGrath, 1981):
- Du particulier à l’universel, et
- De l’indiscret au discret.
98
Chapitre 3
Opérations de recherche
indiscrète
Tâches de décision
Etudes expérimentales
II II
III I
III I
C
IV IV
Etudes de cas
Questionnaire
A
Opérations de recherche
discrète
Ces stratégies varient dans leur capacité à atteindre trois objectifs en conflit dans la recherche
comportementale :
- Précision,
- Généralisation, et
99
Chapitre 3
Il est probablement impossible de maximiser plus d’un objectif parmi ces trois dans le temps.
C’est pourquoi une étude particulière devra concevoir la construction d’un échange pour
atteindre un but particulier.
Il est à noter qu’un examen attentif de ces stratégies montre des écarts avec ces classifications.
Les études en IHM/MSI utilisent les théories formelles ou modèles, les simulations
d’ordinateur, les études par échantillonnage, les expériences contrôlées, l’expérimentation sur
le terrain, et l’étude sur le terrain intégrant les études de cas. L’accent est mis sur la
compréhension simultanée des comportements universels et particuliers par les méthodes
discrètes et indiscrètes.
Ces trois objectifs sont testés: la précision (exemple, les expériences contrôlées), la généralité
(exemple, les théories formelles, et les études par échantillonnage), et l’intérêt au contexte.
Il est à noter que la demande d’atteindre ces trois objectifs est plus élevée dans la discipline
du MSI que dans les autres.
100
Chapitre 3
Même quand l’étude de recherche est conduite en utilisant une expérience contrôlée (qui a
tendance à être moins basée sur un contexte et moins généralisable), il est peu probable que la
communauté en MSI accepte, à moins que les problèmes de contexte et de généralité soient
adressés exclusivement à cette étude.
Des essais ont été effectués pour lier l’utilisation et les facteurs de l’utilisateur à travers le
cycle de vie du développement des systèmes (Hefley et al., 1995; Mantei et Teorey, 1989).
Les chercheurs ne fournissent pas de méthodologie claire pour l’intégration de l’IHM à partir
des processus de conception et d’analyse du système.
La méthodologie peut nous aider à préparer les étudiants à développer les systèmes
d’informations organisationnelles centrés sur l’humain : ceux qui procurent des gains aux
utilisateurs humains et contribuent au succès des organisations et des affaires.
Ce manque d’intégration est reflété dans quelques manuels de conception et d’analyse des
systèmes, qui contiennent des chapitres sur la phase de conception du cycle de vie du
développement des systèmes, et sur les problèmes de l’interface avec l’utilisateur.
101
Chapitre 3
Le tableau suivant montre le sommaire des manuels récents écrits par les académiciens du
MSI en adoptant les programmes du MSI :
En comparant ces manuels récents, on constate qu’ils couvrent tous les problèmes de
l’interface de l’utilisateur à une certaine étendue. Ils démontrent que la conception nette des
interfaces de l’utilisateur est importante dans le succès des systèmes d’information.
Le manque d’intérêts de l’IHM dans la conception et l’analyse des systèmes est liée à la
mauvaise perception de l’IHM et de ses rôles dans le développement des systèmes.
Cette mauvaise perception est due au fait que l’IHM est focalisée uniquement sur la
conception de l’interface de l’utilisateur final, du point de vue de la conception de la forme,
de l’assortiment du menu, des couleurs, de la conception des icônes et de l’assortiment de la
visualisation de l’écran.
102
Chapitre 3
Cette vue coïncide avec les manuels populaires de la conception et du design des systèmes
présentés dans le tableau ci-dessus.
Les utilisateurs des systèmes d’information sont davantage frustrés par les problèmes qui sont
au-delà du niveau de l’écran d’un ordinateur.
Ces incompatibilités affectent les réactions de l’utilisateur face à l’acceptation d’un système
d’information, et à son utilisation efficace.
Une bonne compréhension des facteurs comportementaux, affectifs, cognitifs de l’être humain
est demandée afin de résoudre ces problèmes. Ces facteurs sont impliqués dans les tâches de
l’utilisateur, les processus de résolution de problème et les contextes de l’interaction.
Il est important de comprendre les besoins en systèmes le plutôt possible. Il est important
aussi que l’interaction technologie/être humain soit comme au début et durant le processus du
cycle de vie du développement des systèmes.
Une autre mauvaise perception est que l’IHM se focalise uniquement sur l’utilisation.
Cependant l’utilisabilité a occupé une partie dominante du champ de l’IHM. Des études
empiriques sur l’acceptation d’une technologie par l’utilisateur ont prouvé que l’utilisabilité
est à la fois un prédicteur important de l’acceptation d’une technologie et de son usage.
(Davis, 1989; Venkatesh et al., 2003). D’autres recherches plus récentes vont au delà de
l’utilisabilité pour explorer d’autres facteurs affectant les interactions humaines avec les
technologies.
103
Chapitre 3
Les réactions affectives de l’utilisateur et ses expériences holistiques ont gagné plus
d’attention et sont devenues plus importantes. (Agarwal et Karahanna, 2000; Webster et
Martocchio, 1993; Zhang et al., 2002).
Le champ de l’IHM largement défini est un courant de recherche puissant pour le MSI. Son
futur est brillant car:
2. Plus de personnes sont en face de plus de difficultés à utiliser les systèmes (Galletta,
2002),
Avec ce futur brillant et une direction de recherche viable, la prochaine question est : quels
sont les thèmes pour la recherche future en MSI/IHM?
Il peut être utile d’encourager la discussion et de découvrir les thèmes intéressants et les
problèmes de recherche. Ces aires sont décrites comme suit :
- L’acceptation de l’utilisateur
L’articulation dans la recherche en MSI/IHM doit changer de la seule focalisation sur les
individus interagissant avec les ordinateurs, aux individus communiquant entre eux et avec les
organisations par le biais de l’interface de l’ordinateur (Benbasat, 2002).
104
Chapitre 3
La clé des variables dépendantes étudiées dans la recherche du MSI/IHM doit inclure la
construction des relations et la gestion des construits plutôt que de consacrer une attention
exclusive à l’efficacité et à l’efficience, dont le rôle est central dans la recherche antérieure.
La construction de relations et la gestion des construits peuvent jouer un rôle important dans
la recherche sur l’IHM associée avec l’architecture de l’interface business-to-consumer
(BtoC).
L’objectif est donc de concevoir des interfaces qui réduisent la distance entre les
consommateurs et les entités avec lesquelles ils interagissent. Exemples: l’âge du e-commerce
comporte les architectures qui : (1) permettent aux consommateurs de mieux essayer les
produits via l’IHM, (2) améliorent la présence sociale entre le consommateur et la firme qui
est représentée par la seule interface de l’ordinateur (la page web), (3) rendent l’utilisation des
recommandations des agents plus faciles à utiliser (exemple, les moteurs de recherche, qui ont
besoin d’évaluer un grand nombre de produits offerts sur Internet) et (4) simulent l’interaction
avec les vendeurs dans un espace physique (l’utilisation des signes graphiques représentant un
utilisateur en espace virtuel (lors d’une discussion virtuelle) pour assister l’aide) (Benbasat,
2002).
Une autre optique pour la compréhension des problèmes ouverts par la recherche future et
actuelle en MSI/IHM est celle de l’adéquation technologie-tâche (Task-Technology Fit :TTF),
considérée comme une recherche puissante dans le MSI (Goodhue, 1995; Goodhue et
Thompson, 1995; Dishaw et Strong, 1998, 1999).
105
Chapitre 3
Afin d’avancer dans la recherche en MSI/IHM, nous avons donc besoin de modèles meilleurs
concernant les tâches organisationnelles. Cependant nous pouvons mener des expériences
pour mesurer l’adéquation, puis une construction théorique pour quelques expériences donne
un modèle des tâches organisationnelles utilisées. Par exemple, une étude sur l’adéquation
maintenance-outils de CASE (boîtier qui renferme les pièces internes d’un ordinateur) a
utilisé les tâches de maintenance développées à travers l’analyse du protocole (Dishaw et
Strong, 1998; Vessey, 1986). Par contre, il y a peu de tâches organisationnelles, qui aient bien
développé des modèles d’activités impliquées, ce qui limitent la progression de la recherche.
Le domaine de la recherche future est le développement des dimensions et des mesures pour
l’adéquation organisationnelle.
Pour dater la plupart des études TTF et les études en MSI/IHM ont employé le niveau
d’analyse individuel, bien que quelques recherches soient focalisées sur les groupes et les
systèmes d’assistance d’un groupe (Zigurs et Buckland, 1998).
Comme la recherche en MSI modifie les outils de la productivité individuelle pour les adapter
aux systèmes de l’entreprise, nous avons besoin de développer les dimensions et les mesures
de l’adéquation organisationnelle. Par exemple, les systèmes d’entreprise sont considérés
comme l’intégration de développement et d’interdépendance avec les organisations. Nous
avons besoin de connaître comment et combien de caractéristiques des systèmes d’entreprise
peuvent s’adapter ou fournir une valeur aux organisations.
106
Chapitre 3
A cause des problèmes notés dans les méthodologies de recherche (Newsted et al. 1997) et
qui ne sont pas encore surmontés, les mesures de l’IHM ont des méthodes longues à suivre
(Carey, 2002). Le tableau suivant montre les variables de l’IHM identifiées dans le passé :
Indépendantes Dépendantes
Utilisateur/analyste Caractéristiques de Performance
l’interface
1. Indirecte 1. Contenu 1. Efficacité de la décision
A. Aptitude A. Exactitude
B. Attitude B. Opportunité
C. Style de décision C. Qualité
D. Confidentialité
2. Directe 2. Forme 2. Satisfaction
A. Formation
B. Expérience
C. Implication
3. Dispositif de décision 3. Présentation 3. Apprentissage
A. Tâche Facilité
B. Niveau de gestion Temps
C. Incertitude 4. Média 4. Sensibilité du système
D. Opportunité 5. Contexte 5. Rapidité d’utilisation
E. Structuration 6. Taux d’erreur
F. Contexte
Tableau 13. Les variables de l’IHM (Carey, 2002)
Le problème de mesure est-il relatif aux études de l’IHM face au défi méthodologique ? Si
oui, quel est ce défi? Doit-on réinventer ou doit-on bénéficier des études de la science sociale
sur les méthodologies de recherche?
Historiquement, les études en IHM sont lourdement orientées vers l’aspect cognitif de
l’expérience humaine, comme la création de modèles pour l’utilisateur et la tâche,
107
Chapitre 3
De plus, des études ont examiné uniquement les problèmes reliés au travail.
Comme l’être humain est non rationnel (noté par Herbert Simon), nous avons une gamme
complète d’opportunités pour interagir avec les technologies pour différents objectifs dans les
approches non-rationnelles ou celles de la rationalité liée. Une vue holistique de l’IHM doit
inclure les aspects cognitifs, émotionnels et affectifs dans toutes les interactions possibles
entre les êtres humains et les technologies.
Diverses études en MSI/IHM prennent déjà en compte le côté cognitif de l’IHM. Des
exemples intègrent les études sur la vivacité (exemple, Webster & Martocchio, 1992; Agarwal
& Karahanna, 2000), l’expérience coulée (exemple, Trevino & Webster, 1992; Webster, et al.
1993; Ghani, 1995; Hoffman & Novak, 1996; Novak et al. 2002; Finneran & Zhang, 2000),
les besoins sociaux et esthétiques (exemple, Tractinsky et al., 2000), l’émotion (Venkatesh,
2000), et l’équilibre entre l’action et les relations, la cognition et l’affectation (exemple,
Te’eni, 2000).
En fait, avec l’étendue d’interaction avec les technologies dans notre vie quotidienne pour
différentes raisons, nous pouvons examiner de nouveau le sens de la vie.
Nous pouvons reprendre la question de base : de quoi nous avons besoin dans notre vie ?
Nous pouvons revisiter les modèles de Maslow ou autres besoins de bases et ensuite décider
d’utiliser les technologies pour approvisionner, dans la hiérarchie des besoins, les besoins
élevés des êtres humains. Cette approche pourrait ouvrir une nouvelle direction entière
d’opportunités pour la recherche future de l’Interaction Homme-Machine.
Comme discuté auparavant, les recherches en MSI/IHM donnent un peu plus de place aux
utilisateurs adultes (à la fois débutants et experts) dans les cadres organisationnels.
Les développements technologiques ont poussé cette limite pour enrichir un plus grand champ
d’utilisateurs, comme les personnes appartenant à différents groupes d’âge, les personnes
108
Chapitre 3
Nous pouvons faire plus de progrès lorsque nous savons où nous en sommes et ce qui a été
fait.
Les taxinomies existantes (Beard & Peterson, 1988; Killingsworth et al, 1997; Martin, 1997)
ont besoin d’être ré-évaluées pour leur convenance dans les situations d’aujourd’hui.
Par exemple, la prise de décision est une tâche organisationnelle dans ces taxinomies. Cet
objet a changé significativement dans les années antérieures (par exemple, les banques en
ligne (Bhattacherjee, 2001), l’utilisation générale du World Wide Web (Agarwal et
Karahanna, 2000), et la recherche d’informations sur World Wide Web (Zhang, 2000).
Les taxinomies existantes considèrent l’analyse du système comme l’une des composantes
d’un modèle. Peu d’attention est accordée à l’impact des systèmes ou des technologies de
l’information sur le niveau individuel, du groupe et des organisations. Ces domaines,
cependant, ont attiré une attention significative dans le champ du MSI récemment, et
évidemment sous l’effet du développement et de la maturité des divers modèles théoriques
(comme, le modèle de l’acceptation de la technologie (TAM : Technology Acceptance Model
(Davis, 1989; Venkatesh and Davis, 1996), Le modèle de l’adéquation technologie-tâche
(TTF : Task-Technology Fit model (Goodhue et al. , 1995), Le modèle de l’adéquation
cognitive (cognitive fit model (Vessey, 1991; Vessey and Galletta, 1991)).
Une autre limite de cette taxinomie est la focalisation profonde sur l’influence cognitive et la
productivité, plutôt que sur l’utilisateur holistique et l’expérience pragmatique au moment où
37
La taxinomie vise à proposer un ordre à l’intérieur duquel se rangeront les êtres réels. La classification,
d’ampleur plus générale, porte non seulement sur les organismes les plus divers mais aussi sur des objets
artificiels et idéaux, les sciences et les techniques, les livres, les œuvres d’art… (Encyclopédie Universalis)
109
Chapitre 3
- Pour aider les professionnels en SI à développer les systèmes plus utilisés et donc
plus réussis ;
- Pour fournir aux chercheurs une connaissance cumulative et cohésive pour étendre
les limites théoriques.
Zangh et Li (2004) présentent un modèle qui met en jeu cinq composantes : Agent humain,
technologie, interaction, tâche et contexte. Il existe différentes manières de compréhension
des êtres humains par rapport à leurs caractéristiques spécifiques pertinentes et leur
interaction avec les technologies de l’information.
La technologie a été largement définie y compris les machines, les logiciels, les applications,
les données, les informations, les connaissances et les procédures.
110
Chapitre 3
Technologie
- Technologie basique
- Technologie avancée
Contexte
Tâche/Travail Contexte global
Utilisabilité
Conception
Evaluation
Utilisation
Objectifs de la tâche Contexte social
Impact
Caractéristiques de la tâche Contexte
organisationnel
Humain
- Démographie
- Physique
- Niveau de cognition
- Niveau d’émotion
- Chercher à mesurer l’efficacité des techniques utilisées par l’humain dans les
situations de résolution des problèmes (La plupart des études sont utilisées pour
l’interaction des utilisateurs avec les ressources du WEB)
Plusieurs modèles théoriques en MSI ont été développés au service de cette relation.
111
Chapitre 3
Ces études suggèrent que les attitudes des utilisateurs puissent être utilisées en tant qu’une
mesure substitut à la qualité du système, la qualité de l’information, l’utilisation du système,
la satisfaction de l’utilisateur, l’impact individuel et l’impact organisationnel. (Delone &
McLean, 1992)
Les mesures du succès du système d’information qui sont perceptibles, ont été employées
d’une manière extensive. Quelques instruments de mesure ont été liés à la satisfaction de
l’utilisateur en information (UIS38) en tant qu’une mesure substitut du succès du système
d’information.
38
User Information Satisfaction (UIS)
39
End-User Computer (EUC)
112
Chapitre 3
Ce tableau donne une idée générale sur les travaux réalisés sur l’évaluation des facteurs clés
de réussite lors de l’utilisation d’un SI. Nous détaillerons dans cette section les instruments de
mesure qui ont évalué la performance des SI afin de déboucher un modèle propre à cette
étude.
113
Chapitre 3
1.1. Problématique
Ces auteurs ont construit un modèle théorique multidimensionnel qui met en relation les
caractéristiques de la tâche, les caractéristiques de l’individu et les caractéristiques du TSI.
1.2. Méthode
Ils ont construit un modèle théorique à partir de la revue de la littérature. Dans ce modèle ils
ont tenté d’expliciter l’impact des TSI sur la performance individuelle. L’opérationnalisation
des variables de ce modèle est effectuée en référence à des recherches antérieures (Davis,
1989 ; Baily et Pearson, 1983).
1.3. Résultats
114
Chapitre 3
115
Chapitre 3
Caractéristiques Précurseurs
de la technologie d’utilisation : Utilisation Impact sur la
Croyances, performance
Utilisation
émotion
Caractéristiques Adéquation
de la tâche Technologie/
Tâche
Adéquation
Caractéristiques Impact sur la
de la technologie performance
Utilisation
Caractéristiques Adéquation
de la tâche Technologie/
Utilisation
Tâche
&
Adéquation
Figure 18. Trois modèles sur le lien entre la technologie et la performance (Goodhue et
Thompson, 1995)
Goodhue et Thompson ont proposé un modèle réduit dans lequel ils mettent l’accent sur cinq
dimensions :
116
Chapitre 3
5. La dimension impacts sur la performance est mesurée par rapport aux perceptions
des utilisateurs quant à leur efficacité dans l’accomplissement de leurs tâches, donc en termes
de performance perçue.
Ces critères sont adaptés à partir des études antérieures, notamment les travaux de Lucas
(1973), Davis (1989), Baroudi et Orlikoawski (1988), Baily et Pearson (1983), Doll et
Torkzadeh (1988)… Ils sont évalués par des mesures perceptuelles collectées auprès des
utilisateurs moyennant un questionnaire.
Les liens de causalité entre ces dimensions sont explicités dans les hypothèses suivantes :
117
Chapitre 3
2.1. Problématique
Franz et Robey ont proposé d’enquêter sur la relation tridimensionnelle entre l’engagement
des utilisateurs, l’utilité perçue du TSI et le contexte organisationnel. Ils ont examiné les
impacts directs et médiateurs de ce contexte sur chacune des deux premières variables.
2.2. Méthode
(III)
Engagement des utilisateurs :
Dans le processus de conception des TSI Utilité perçue des TSI
Dans le processus d’implémentation des
TSI
(I)
Ces auteurs ont proposé des critères de mesure pour chacune des trois principales variables et
ont construit sous forme d’hypothèses de recherche, quatre types de relations susceptibles de
les unir:
118
Chapitre 3
- L’utilité perçue du TSI : elle est conçue comme la variable substitut de l’évaluation
de la réussite du TSI, du point de vue des utilisateurs. Elle est assortie d’une mesure
multi-dimensionnelle (12 items du questionnaire) et évaluée par une échelle
psychométrique.
119
Chapitre 3
3.1. Problématique
Davis a proposé un instrument d’évaluation des TSI qui met en valeur de nouvelles variables
dépendantes et indépendantes et étudie leurs interactions. La principale hypothèse est : la
réussite d’un TSI est tributaire de l’acceptation de cet outil par les utilisateurs. Cette
acceptation, évaluée par le degré d’utilisation de l’outil, dépend de deux facteurs explicatifs :
l’utilité perçue et la facilité perçue d’utilisation et de manipulation.
3.2. Méthode
Davis a développé deux construits : Utilité Perçue et Facilité d’Utilisation. Ces deux
construits multidimensionnels ont été évalués chacun par 14 critères de mesure (assortis d’une
échelle d’évaluation de 7 intervalles).
Le nombre de critères a été réduit suite à un test de validation (Doll, Hendrickson and Deng,
1998) à six critères pour chaque construit. Cette étude, utilisant un échantillon de 902
répondants, a conduit par :
Cette étude a permis de déterminer les impacts sur le degré d’acceptation des TSI (Davis’s
Technology Acceptance Model : TAM) évalués par les utilisateurs.
120
Chapitre 3
Facilité d’utilisation
Utilité Perçue perçue
La variable dépendante “Degré d’utilisation des TSI” est ensuite introduite dans les analyses,
avec ces deux sous-critères de mesure : « Degré d’utilisation immédiat » et « Degré
d’utilisation attendu ». L’étude des relations de corrélation de ces mesures avec les 12 critères
des variables indépendantes Utilité Perçue et Facilité d’utilisation perçue, permettent à
l’auteur de conclure que :
- Des relations de corrélation positives existent entre les deux variables indépendantes
et la variable dépendante.
- L’utilité perçue est plus fortement corrélée avec le degré d’utilisation que ne l’est la
facilité perçue d’utilisation.
L’utilité perçue et la facilité d’utilisation perçue peuvent former un schéma causal sur le degré
d’utilisation du TSI comme ils peuvent être considérés comme des antécédents sur cette
même variable.
L’auteur note que l’instrument d’évaluation qu’il a développé pourrait être utilisé en tant
qu’outil de diagnostic des problèmes liés à l’utilisation des TSI dans les organisations.
121
Chapitre 3
Le modèle d’acceptation de la technologie (TAM) de Davis est un modèle basé sur la théorie
de l’action raisonnée (Theory of Reasoned Action, Ajzen and Fishbein, 1980). Les résultats
de ce modèle ont permis d’approfondir la recherche sur l’évaluation des TSI et en élargissant
son application aux problèmes liés à l’acceptation dans le e-commerce.
D’autres travaux ont montré l’existence des caractéristiques individuelles et qui sont intégrés
dans le modèle en tant que déterminants de l’acceptation et de la réussite des TSI. Ces
caractéristiques sont liées à l’âge, au revenu et à la formation initiale des utilisateurs (Morris
et Venkatesh, 2000). Les résultats de ces études sont résumés dans le chapitre 6 de notre
thèse.
Straub et Gefen (1999) ont validé l’instrument de mesure du modèle de Davis (TAM) en
utilisant la méthode d’équations structurelles. Le modèle testé est composée de rois variables :
PU H1
H3 IUSE
EOU H2
122
Chapitre 3
- l’intention d’utilisation ;
Les attitudes à travers l’utilisation peuvent être choisies en tant que variables dépendantes,
elles sont des variables standards pour utiliser la technologie de l’information.
123
Chapitre 3
DeLone & McLean notent la nature multidimensionnelle et interdépendante du succès des SI,
ce qui demande une attention de la part du chercheur en ce qui concerne la définition et la
mesure de chaque aspect du modèle.
La sélection des dimensions de succès et des mesures doivent être contingentes dans le
contexte de l’investigation empirique.
Il existe une discussion particulière dans la littérature concernant la mesure de l’utilisation des
SI et qui a été employée comme étant une mesure du succès des SI dans des études
quantitatives. (Davis 1989, Goodhue 1995, Igbaria et al. 1995, Seddon & Yip 1992). Elle a été
mesurée par différentes manières intégrant des algorithmes informatiques de l’utilisation
actuelle (Straub et al. 1995), l’utilisation actuelle estimée (Adams et al. 1992, Thompson et al.
1994), fréquence d’utilisation estimée (Davis 1989, Hartwick & Barki 1994, Igbaria et al.
1995) et la dépendance au système (Goodhue & Thompson 1995).
Seddon propose, « …pour une utilisation volontaire, de systèmes similaires par des
utilisateurs compétents, les mesures de l’utilisation des SI (comme le nombre d’heures et la
fréquence d’utilisation) peuvent avoir une influence sur les bénéfices de l’utilisation » (1997,
p.243)
A titre d’informations, plus le système d’information est inclus dans le travail routinier de
l’utilisateur, plus la personne devient dépendante du système. (Goodhue & Thompson, 1995).
Par conséquent, l’utilisation du SI est expliquée en terme de dépendance de l’utilisateur au SI.
124
Chapitre 3
Qualité du Utilisation du
système SI
Impact Impact
individuel organisationnel
Qualité de Satisfaction de
l’information l’utilisateur
Dans le modèle DeLone & McLean, la qualité du système et la qualité de l’information sont
décrits par leur affectation à la fois à l’utilisation du SI et à la satisfaction de l’utilisateur et
qui sont à leur tour des antécédents directs sur l’impact individuel. DeLone & McLean (1992,
p.62) conceptualisent leur modèle en terme d’idées offertes par Shannon & Weaver (1949) et
Mason (1978). Shannon & Weaver (1949) groupent les problèmes de communication à
travers trois niveaux hiérarchiques : le niveau technique, le niveau sémantique, et le niveau
d’efficacité. Le niveau technique concerne cette question : comment le système peut-il
transférer les symboles de communication ?
Le niveau de l’efficacité est relié à : comment le sens transporté par le receveur affecte -t-il le
comportement actuel ?
125
Chapitre 3
Mason adapte les trois niveaux de Shannon & Weaver des problèmes de communication au
contexte du SI. Mason a interprété le niveau de l’efficacité pour inclure l’influence des
utilisateurs et a défini le niveau influence-efficacité en terme d’événements qui peuvent
influencer les utilisateurs.
La hiérarchie des niveaux fournit une base pour la modélisation de la qualité du système et la
qualité de l’information comme des antécédents de l’utilisation du SI, la satisfaction de
l’utilisateur et l’impact individuel.
DeLone & McLean (1992) ont appliqué les arguments de Mason au modèle de l’utilisation et
la satisfaction de l’utilisateur (réponse à l’output de l’utilisation des SI) comme des
antécédents de l’impact individuel (effet de l’information sur le comportement).
L’aspect central du modèle de McLean et DeLone est que l’utilisation du SI est considéré
comme une variable de succès du SI. Par conséquent, elle est intégrée dans leur modèle de
succès. Ils nomment l’utilisation des SI comme la « consommation » des outputs du SI
(1992), et ils la considèrent précurseur de l’impact individuel.
Dans leur modèle, l’utilisation des SI est requis pour la réalisation d’un impact significatif des
bénéfices du système.
126
Chapitre 3
Dans le but d’intégrer l’utilité perçue dans le modèle de Delone & McLean, ces auteurs ont
décidé de savoir dans quelle catégorie de leur taxonomie elle pourra se présenter. Quoique
DeLone & McLean n’ont pas intégré l’utilité perçue dans leur taxinomie, ils ont supposé
qu’elle faisait partie de l’impact individuel.
Cette mesure est en parallèle avec “l’évaluation personnelle su SI”, que DeLone & McLean
intègrent sous la catégorie de l’impact individuel.
Les perceptions de l’utilité dérivent des évaluations personnelles du SI. La mesure est ainsi
reliée directement aux divers construits additionnels (exemple : la productivité individuelle
améliorée, la tâche de la performance l’influence ou la puissance individuelle) à l’intérieur de
la catégorie de l’impact individuel qui est reliée aux aspects de la performance du travail.
C’est une composante clé de l’utilité perçue et qui a été conceptualisé par Seddon (1997) ou
Davis (1989).
D’ailleurs, l’utilité perçue est une mesure globale de la perception des utilisateurs, donc elle
ne doit pas être compatible avec les autres caractéristiques des catégories de McLean &
DeLone. Les catégories de la qualité du système et de la qualité de l’information sont reliées
aux qualités spécifiques d’un système ou de l’information générée par un système. Les
catégories de la satisfaction de l’utilisateur et l’utilisation du SI ne sont pas définies en terme
de perception. Cependant, l’utilité peut être perceptive, en partie de l’effet que le SI peut avoir
sur l’organisation et la société. Cette mesure est reliée spécifiquement aux utilisateurs et donc
elle est uniforme avec la catégorie de l’impact individuel, la catégorie de l’impact
organisationnel ou la catégorie de l’impact sociétal.
D’après ce raisonnement, l’utilité perçue est positionnée dans le modèle de DeLone &
McLean comme un impact individuel.
127
Chapitre 3
Conséquences individuelles,
Bénéfices nets de la Organisationnelles et sociale de
future utilisation Utilisation l’utilisation des SI.
des SI
Organisations
Qualité de Satisfaction de
l’information l’utilisateur
Société
Rai et al (2002) ont dégagé la différence principale qui existe entre les modèles de Seddon et
DeLone & McLean : celle de la définition et de l’emplacement de l’utilisation des SI.
Seddon suggère que l’utilisation doit précéder les impacts et les bénéfices, mais qu’elle n’a
pas de cause sur eux.
Seddon (1997) considère l’utilisation des SI comme une variable liée au comportement
reflétant l’espérance du bénéfice net à travers l’utilisation d’un SI.
Cette définition alternative de l’utilisation du SI est une conséquence du succès du SI, plutôt
qu’une caractéristique inhérente au succès du SI.
128
Chapitre 3
129
Chapitre 3
Conclusion
Dans le cadre de ce chapitre, nous avons montré l’importance de l’existence humaine dans les
modèles d’évaluation des systèmes d’information. Cette démonstration nous a obligé à nous
orienter vers le domaine de l’Interaction Homme-Machine pour pouvoir expliciter la
perception de l’utilisateur auprès de sa machine ou son logiciel. C’est pourquoi nous avons
consacré la première section à présenter les dimensions théoriques de l’Interaction Homme-
Machine dans le Management des Systèmes d’Information.
L’intérêt des modèles de mesure exposés dans la deuxième section de ce chapitre est la
structuration de la littérature sur l’évaluation des TSI autour des principaux niveaux
d’évaluation : le système, l’individu et l’organisation.
Notre objectif est de présenter les travaux que nous jugeons significatifs pour chacun des trois
niveaux. Ces travaux fournissent les matériaux de base à la caractérisation théorique et
opérationnelle de notre modèle théorique présentée dans le chapitre 4 et 5. Le choix de ces
modèles a conduit à mettre en évidence deux modèles importants dans la littérature des
Systèmes d’Information. Le premier est celui de l’adéquation technologie-tâche de Goodhue
et Thompson (1995). Le second modèle est celui de l’acceptation d’une technologie de Davis
(1989). Ces deux modèles peuvent répondre à la problématique de notre recherche :
Comment les agents intelligents sont-ils intégrés et utilisés dans le cadre du processus de
veille startégique?
Notre modèle sera présenté avec les hypothèses dans la synthèse de la première partie de cette
recherche (section suivante).
130
Synthèse de la Partie 1. Structure globale
du deuxième modèle théorique
Pour chercher cet impact, nous proposons maintenant le second modèle théorique, fondé sur
une lecture et une synthèse dense de la littérature sur l’évaluation des systèmes d’information,
dans lequel nous mettons en relation Cinq Variables Latentes du premier ordre :
131
Degré d’utilisation des Agents
Intelligents (AI):
Intensité d’utilisation
H2 H4
Q2 Q3
Adéquation Technologie/Tâche
Acceptation des AI :
• Qualité des données H3 • Facilité d’utilisation des AI
• Localisation des données
• Utilité perçue des AI
• Autorisation d’accès
• Degré de satisfaction
• Compatibilité (Conformité)
• Intention de leur utilisation
• Pertinence des systèmes dans le processus de prise
Q2
• Qualité du service des AI. de décision
H1 Q1
Caractéristiques de la
Caractéristiques de la technologie :
tâche :
• Système utilisé
• Aspects • Département
• Interdépendance • Fonctionnalités AI
40
La présentation finale de ce modèle théorique est fixée après un suivi d’un processus itératif entre la théorie et
la pratique. Elle est adaptée aux résultats finaux de la modélisation.
132
Nous proposons dans ce modèle cinq variables à expliquer du premier ordre41 :
b. Appartenance à un département
a. Qualité des données : mesure la correspondance entre les besoins et les données
disponibles, elle mesure aussi l’exactitude de ces données disponibles, ces données se
trouvent-elles à un niveau de détail approprié pour les tâches de mon groupe ?
41
Le test des hypothèses a été effectué entre les variables du second ordre.
133
f. Relations avec l’équipe SI42 : consistant à mesurer à travers cette sous-dimension
l’intérêt des AI, le temps de réponse envisagé pour répondre à mes requêtes, la validité et la
qualité technique de ces systèmes.
b. Utilité perçue des AI : Cette grandeur n’est pas directement observable. Cette notion vient
d’origine de l’analyse microéconomique : c’est la mesure de la valeur d’usage d’un
hardware ou d’un software pour un utilisateur. Elle mesure à la fois de l’impact des AI sur
la productivité et l’impact des AI sur la qualité de travail. L’utilité perçue est définie par le
degré d’amélioration des performances attendues de l’utilisation du système (Davis, 1989).
c. Satisfaction de l’utilisateur des AI: C’est le degré de continuité d’utilisation par l’individu
de cette innovation. La satisfaction auprès des services rendus des AI mesure l’étendu du
degré d’utilisation individuelle de cette technologie. C’est une croyance positive de la
perception individuelle qui montre la valeur des AI . (Compeau and Meister, 2002).
Cette variable est considérée comme une dimension de succès des AI. Elle peut influencer
l’intention, mais est également une conséquence de l’utilisation (Delone et McLean, 2003), de
l’utilité et la facilité d’utilisation perçues (Seddon, 1997).
42
Ce facteur mesure la qualité du service offert par les AI. Lors du traitement des données le libellé de ce facteur
a été modifié.
134
prise de décision. L’intention d’un utilisateur à utiliser un système adopté par
l’organisation ainsi que sa satisfaction par cette utilisation dépendent de l’utilité et de la
facilité d’utilisation perçues du système.
Les variables de l’acceptation de la technologie des AI ont un impact sur le degré d’utilisation
des AI.
Au bout de l’analyse, nous conclurons que les AI sont des outils d’aide à la décision, si et
seulement si nous constatons un impact positif.
Quand au modèle de Seddon (1997), il suggère que l’utilité et la facilité d’utilisation perçues
sont des antécédents de la satisfaction.
En résumé, l’objectif de ce sous-modèle (TAM) est de tester les liens existant entre la
satisfaction, l’utilité et la facilité d’utilisation perçues, ainsi que leur impact sur l’intention
d’utiliser le système et l’intensité d’utilisation.
A travers ces quatre hypothèses nous essayons de répondre aux questions de recherche
posées. Nous présentons dans le tableau suivant l’adéquation entre ces deux éléments :
135
Questions de recherche Hypothèses de recherche Justification
136
PARTIE 2. Méthodologie de recherche et
mise en application du modèle théorique
Nous consacrons cette deuxième partie de la thèse à l’étude empirique. Dans le quatrième
chapitre, nous présentons une vue d’ensemble de la méthodologie et l’épistémologie de la
recherche en SI. Cette vue a facilité notre positionnement par rapport à notre méthodologie
suivie. Nous présentons aussi l’instrument de mesure de collecte de données.
Dans le cinquième chapitre, une statistique descriptive a été réalisée afin de présenter la
composition de notre échantillon.
Une analyse exploratoire a été faite suite à cette première description de l’échantillon. Cette
analyse est composée d’une Analyse en Composantes Principales, une classification et une
analyse de variance. Chaque méthode est réalisée pour un but bien précis et qui sera explicité
lors du développement de ce chapitre.
Dans le dernier chapitre, nous abordons la phase confirmatoire des résultats. L’objectif de
cette analyse est de tester les hypothèses de notre recherche. Les résultats finaux seront
présentés en détail dans ce chapitre.
137
CHAPITRE 4
Positionnement épistémologique et
méthodologie de la recherche
138
Chapitre4
Introduction
Le positionnement épistémologique et la méthodologie suivie se présentent comme les seuls
moyens pour répondre aux objectifs de cette recherche.
Ce chapitre est composé de deux sections. La première a pour objet de faire un rappel des
classifications paradigmatiques et méthodologiques dans le champ des systèmes
d’informations en s’inspirant des travaux de Hirschheim et Chen (2004).
La deuxième section a pour objet de présenter les méthodes de recueil de données sur
lesquelles cette recherche va se fonder.
1. Positionnement épistémologique
Cette classification permet de faire la différence entre ceux qui soutiennent un seul paradigme
(le courant principal des navigateurs et l’unité des partisans) et ceux qui défendent le
pluralisme méthodologique (les chevaliers du changement)
Selon Hirshheim et Klein (1992), le néo-humanisme, le structuralisme radical n’ont pas atteint
un stade mature de développement dans la communauté de recherche en SI43.
43
La classification paradigmatique alternative a été trouvée par Chua (1986), dans laquelle trois paradigmes de
base sont mentionnés : positivisme, interprétativisme et la théorie critique (Hirshheim & Klein, 2003). La théorie
critique n’est pas encore établie dans le champ de SI (Orlikowski & Baroudi, 1991)
139
Chapitre4
Orlikowski & Baroudi (1991) et Goles & Hirshheim (2000) indiquent que le positivisme
domine la recherche en SI cependant d’autres paradigmes sont relativement faibles en
nombre. En effet, le seul paradigme réel alternatif et observable est celui de
l’interprétativisme (Walsham, 1995, 1995 ; Nandhakumar et Jones, 1997 ; Trauth et Jessup,
2000)
La troisième différence est méthodologique. Les positivistes affirment que pour tester une
théorie hypothético-déductive, la recherche doit prendre une position de valeur-libre et
employer des mesures objectives pour collecter une recherche évidente. La méthode
quantitative comme le questionnaire est un instrument positiviste typique.
De l’autre côté, les interprétativistes argumentent que pour comprendre le sens encastré dans
l’interaction sociale et humaine, les chercheurs ont besoin de s’engager dans le cadre de
l’investigation sociale et apprendre comment l’interaction prend place auprès de la
perspective des participants. Les études de cas, qui engagent les chercheurs dans un cadre
réel social, doivent être plus appropriées pour la génération de connaissance interprétative.
(Orlikowski et Baroudi, 1991).
- L’utilisation des méthodes quantitatives qui testent des théories ou des hypothèses,
bien que ce ne soit pas toujours nécessaire ;
140
Chapitre4
Un exemple classique cité dans Hirschheim et Klein (1992) est celui de Dickson et al. (1977)
sur la discussion de Minnesota.
- Une analyse basée sur les points de vue des participants (Orlikowski et Baroudi,
1991 ; Walsham, 1995).
Des études différentes ont été appliquées entre les chercheurs pour classifier la méthodologie
de recherche. Nous citons à titre d’exemple l’étude de Cash et Nunamaker (1989 ; 1990 ;
1991) qui comparent les méthodes de recherche qualitative aux méthodes de recherche
expérimentales et de questionnaire. Ils ont découvert qu’il existe 17 % de papiers qui incluent
dans leurs analyses utilisées des méthodes de recherche qualitatives.
Alavi et al. (1989) ont analysé des articles empiriques et non-empiriques. Ils ont trouvé que
les articles empiriques constituent uniquement 46.5% des publications dans une période de
1968 à 1988. De plus, ils ont divisé les études empiriques en 8 catégories : expérimentations
en laboratoires, expérimentation sur le terrain, l’étude du terrain, l’étude de cas, le
questionnaire, les instruments de développement en MSI, les descriptions ex-post et autres.
Ces catégories ont été détaillées dans le troisième chapitre au niveau des stratégies de
recherche inspirées par McGrath (1981).
Orlikowski et Baroudi (1991) ont examiné 155 articles dans quatre journaux majeurs (du nord
américain). Les catégories majeures trouvées dans leurs résultats sont : le questionnaire
(49.1%), expérimentations en laboratoires (27.1%), les études de cas (13.5%), les méthodes
mixtes (3.2%), le développement d’instruments (2.6%), l’analyse de protocole (1.3%), et la
recherche en action (0.6%).
Galliers & Land (1987) et Galliers (1991) ont crée une taxonomie pour les approches de la
recherche en SI en discutant dix modes : le théorème/la démonstration, les expériences de
141
Chapitre4
L’un des examens le plus récent est fait par Farhoomand et Drury (1999) dans lequel les
études de méthodologie sont classées comme suit : le non-empirique (39%), le questionnaire
(32%), l’étude de cas (17%), expérimentation en laboratoires (10%) et expérimentation sur le
terrain (2%).
A travers ces différentes taxonomies nous notons ces comparaisons : l’empirique versus le
non-empirique (Alavi et al., 1989) et le quantitatif versus le qualitatif (Cash et Nunamaker,
1989). L’examen détaillé de l’architecture de la recherche apparaît ambigu. C’est le cas de
Galliers (1991) qui intègre plus de méthodologies de recherche que les autres (la prévision et
la recherche sur le futur, la simulation et jeux du hasard/jeux de rôles, le théorème/la
démonstration) en négligeant la communauté du SI. En plus, Alavi et al. (1989) fait la
distinction entre l’étude de cas et l’étude du terrain, cette distinction n’est pas bien articulée.
La plupart des études de cas sont conduites sur le terrain ; donc l’essai de séparer l’étude du
terrain de l’étude de cas apparaît non nécessaire.
- La première raison est que Orlikowski et Baroudi (1991) se sont intéressés non
seulement à la méthodologie mais aussi ils ont pris une tendance paradigmatique.
Donc, pour le même objectif, les deux études peuvent fournir une comparaison
meilleure si la même classification est utilisée.
- La deuxième raison est que leur échantillon est collecté entre 1985 et 1991 auprès de
quatre recherches américaines majeures, cependant la recherche de Hirschheim et
Chen est réalisée entre 1991 et 2001 auprès de huit journaux majeurs. Une bonne
réflexion peut être dégagée si la même classification est utilisée, afin de montrer la
progression des champs de recherche.
Cependant, trois catégories de Orlikowski et Baroudi (1991) ont été modifiées par Hirschheim
et Chen (2004) pour ces trois raisons :
- La méthode mixte n’est pas considérée comme une catégorie claire dans leur liste
(Orlikowski et Baroudi, 1991) ; Hirschheim et Chen comparent la méthode mixte
avec les méthodes quantitatives et qualitatives. Les articles qui utilisent plus d’une
142
Chapitre4
2. Procédure de la recherche
Goles et Hirshheim (2000) ont indiqué, « Bien que la proportion des articles positivistes /
non-positivistes varie d’une étude à l’autre, l’accord incontestable est que le positivisme
domine la recherche en systèmes d’information » (en anglais : « Although the proportion of
positivist to non-positivist articles varies somewhat from study to study, the indisputable
consensus is that positivism dominates information systems research » (p. 254).
2.1.1. Positivisme
Les critères de classification des articles positivistes sont les hypothèses citées, les
propositions, la formation d’un modèle, des variables de mesures quantifiables, les inférences
tirées (dessinées) des échantillons aux populations (Orlikowski et Baroudi, 1991), tous ces
critères démontrent la croyance que « les données objectives peuvent être collectées pour
prévoir la relation à travers les facteurs et pour tester les hypothèses ou les théories »
(Walsham, 1995).
143
Chapitre4
2.1.2. Interprétatif
Les critères de sélection des articles interprétatifs sont triplés. Le premier critère, le plus
important est que les articles ne doivent impliquer aucun indicateur positiviste décrit dessus,
que les chercheurs imposent dans les perspectives non-déterministes.
Le deuxième critère est que les perspectives de participants sont prises comme des sources
primaires de compréhension et d’investigation du phénomène. Quant au troisième critère, les
phénomènes sont examinés avec le respect des circonstances contextuelles et culturelles
(Walsham, 1995).
Bien que les études empiriques se basent sur les observations et les données, les études non-
empiriques développent des idées et des concepts (Alavi et al. 1989). Ces deux approches
participent à différentes contributions à la communauté de recherche.
Les études non-empiriques aident à développer des concepts et construire des théories. Les
études empiriques fournissent une évidence concrète pour tester les théories. Comme cette
discipline est devenue plus mature, nous pouvons nous attendre au test d’une théorie pour
surmonter les efforts de construction d’une théorie. Donc, une comparaison entre les études
empiriques et non-empiriques peut servir comme une indication significative au progrès fait
dans ce domaine.
Le critère de classification, utilisé par Hirschheim et Chen (2004), des études empiriques et
non-empiriques est déterminé par les observations ou les données réelles obtenues dans les
articles, qui peuvent être collectées à travers les approches quantitatives, qualitatives ou
mixtes, intégrant les données archivées44.
44
Dans le cas où ces auteurs localisent des articles avec des données et des observations dans la catégorie de
non-empirique. Dans d’autres cas, les articles sont purement descriptifs sans les questions de recherche testées,
les professionnels sont orientés vers le développement des systèmes ou les analyses et la simulation
mathématique.
144
Chapitre4
Les méthodes de recherche qualitatives, comme par exemple l’étude de cas, ont attiré une
grande attention (Benbasat et al., 1987 ; Lee, 1989 ; Klein et al., 1991 ; Trauth et O’Conner,
1991 ; Visala, 1991 ; Walsham, 1995 ; Darke et al., 1998 ; Silverman, 1998 ; Klein et Myers,
1999 ; Markus et Lee, 1999), la comparaison entre les méthodes de recherche qualitatives et
quantitatives dans la recherche en SI a été traitée insuffisamment.
Cependant, la première approche utilise typiquement des analyses numériques pour illustrer la
relation des facteurs dans le phénomène étudié, la deuxième approche développe la
description et la compréhension de la situation après les facteurs. Pour faire une comparaison
significative, les deux méthodes peuvent être classées dans les études empiriques.
Il est possible que la recherche utilise les deux méthodes qualitatives et quantitatives dans
différents stades de l’étude. Dans certains cas, elles seront classées dans la méthode de
recherche mixte.
Hirschheim et Chen (2004) définissent le longitudinal comme une recherche qui évolue dans
une période interrompue de temps et focalisé sur des processus. L’inter-sectoriel, est une
recherche qui collecte des données à travers une occasion à une période de temps particulière
(Orlikowski et Baroudi,1991).
Les séquences multiples sont comme l’inter-sectoriel en nature, mais elles impliquent plus
qu’une seule période de collecte de données ou cadres, qui peuvent avoir différentes
expérimentations, traitements ou sujets…
145
Chapitre4
Les architectures de mesures répétées sont celles qui conduisent les études sur des périodes de
temps variées pour examiner comment un phénomène pourra évoluer sur des périodes de
temps variées.
En résumé, la science conventionnelle suggère que les journaux aux Etats Unis sont plus
orientés vers le positivisme et utilisent plus les méthodes quantitatives, cependant les journaux
européens tendent vers la recherche interprétativiste en utilisant les méthodes qualitatives.
Nous avons retenu une approche de base positiviste (questionnaire structuré comportant des
questions fermées) tout en offrant aux personnes interrogées la possibilité d’exprimer leurs
points de vue dans le cadre des questions ouvertes.
146
Chapitre4
des choses » ;
La science ne connaît que des lois et ignore le « mode de production
des phénomènes », c’est à dire la causalité45.
Positionnement Le positivisme d’Auguste Comte et la vanité des limites stables
positiviste introduites entre les phénomènes et les réalités sous-jacentes
reconstruites déductivement pour les expliquer46.
Choix Deux phases :
méthodologiques une phase d’exploration du terrain basée sur une étude qualitative ;
une phase de collecte de données basée sur une étude quantitative.
Entretiens semi- Explorer le terrain pour chercher une étude de cas. Cet objectif a
structurés échoué.
Enquête quantitative En nous appuyant sur la revue de littérature de MSI, nous avons
construit un questionnaire envoyé à un grand nombre d’entreprises.
L’échantillon est formé par 156 utilisateurs (PDG, DG, analystes,
concepteurs et utilisateurs), sélectionnés dans l’annuaire de pouvoir47
et des annuaires électroniques48…et appartenant à des entreprises
très diversifiées tant par leur secteur d’activité que par leur chiffre
d’affaire.
Tableau 18. L’architecture de cette étude
Notre étude s’est déroulée en deux phases principales qui regroupent la problématique.
Chaque phase contient sa propre technique de recueil de données.
Des entretiens semi-structurés ont été formulés dans le but de trouver une étude de cas pour
accéder au terrain. Malheureusement, ces entretiens n’ont pas permis d’atteindre l’objectif. La
chronologie des entretiens effectués auprès des responsables de veille et des utilisateurs
d’agents intelligents montre qu’en une année nous n’avons pu interviewer que cinq personnes
et un directeur l’année d’après. Vu cette difficulté de prospection de terrain, nous avons
décidé de construire un questionnaire et de lancer une enquête auprès des utilisateurs de la
technologie agents intelligents.
45
Encyclopédie de la Pléiade, Logique et connaissance scientifique, Volume publié sous la direction de Jean
Piaget, 1967, Editions Gallimard.
46
Idem.
47
Cet annuaire se trouve à la bibliothèque d’étude de l’Université Dauphine. Il présente les principaux dirigeants
des 5000 premières entreprises françaises, réparties en 18 secteurs d’activités. Le choix de nos secteurs dépend
du domaine d’application des agents intelligents.
48
L’adresse du site est : http://www.info-décideurs.com (et autres adresses électroniques consultés)
147
Chapitre4
Dans ce cadre, pour tester l’utilité d’un système intelligent, il est intéressant de reproduire la
réalité des comportements des utilisateurs. Pour cela, la recherche a nécessité un cadre
expérimental dans la mesure où le contexte d’utilisation a dû faire l’objet d’un contrôle précis.
De plus, il s’agit de tester les effets d’un système pionnier (système qui crée une nouvelle
technologie de traitement de l’information) sur le processus de la prise décision, notamment
en terme de choix et d’utilisation de cette technologie.
Pour tester les hypothèses de la recherche, un questionnaire a été construit et a été administré
par deux spécialistes dans le domaine de la conception des Agents Intelligents. Ce
questionnaire49 est destiné à des Directeurs, Concepteurs et des Utilisateurs Experts/non-
Experts.
Après la collecte des données, une analyse factorielle sera utilisée dans le but de purifier les
items choisis dans le questionnaire.
49
Le questionnaire de notre étude est consulté en ligne sur ce site Web :
http://www.darpmi.net/myrtille/QuestVFH.doc
(Version HTML)
148
Chapitre4
Items
I. Adéquation Technologie-Tâche (Goodhue and Thompson, 1995)
1. Qualité des données
Actualisation des données
Je ne parviens pas obtenir des données qui soient suffisamment actuelles Item 1
pour répondre à mes besoins
Les données sont suffisamment à jour pour répondre à mes besoins. Item 2
Exactitude des données
Les données disponibles dans l’entreprise me permettent en grande partie de Item 3
mener mes tâches
Les agents intelligents que je peux utiliser ne repèrent pas des données qui Item 4
me seraient très utiles dans mon travail
Exactitude du niveau de détail
Notre entreprise stocke des données à un niveau de détail approprié pour les Item 5
tâches de mon groupe.
Les données disponibles dans mon entreprise sont suffisamment détaillées. Item 6
2. Localisation
Disponibilité des données
Il est facile de trouver les données dont l’entreprise dispose sur un sujet Item 7
donné.
Il est aisé de localiser les données dont dispose notre entreprise sur un Item 8
problème particulier, même dans le cas où je n’aie pas utilisé ces données
auparavant.
Sens exact des données
Il est facile de découvrir la définition exacte du champ des données relatives Item 9
à mes tâches.
Dans les rapports ou systèmes que je suis amené à traiter, le sens exact des Item 10
éléments de données est soit évident soit facile à déterminer.
3. Autorisation
Autorisation d’accés
Les données qui me seraient utiles ne sont pas disponibles car je ne dispose Item 11
pas de la bonne autorisation.
L’obtention de l’autorisation d’accès aux données qui seraient utiles à mon Item 12
travail prend du temps et est difficile.
4. Compatibilité
Compatibilité des données acquises
Parfois je trouve que des données normalement équivalentes mais provenant Item 13
de deux sources différentes sont incohérentes.
Parfois il m’est difficile de comparer ou de consolider des données Item 14
provenant de différentes sources car ces données sont définies de manières
différentes.
Lorsqu’il est nécessaire de comparer ou de consolider des données Item 15
provenant de différentes sources, il peut y avoir des incohérences imprévues
ou difficiles à surmonter.
5. Pertinence des systèmes
Dépendance d’accés aux systèmes intelligents
149
Chapitre4
Je suis assuré(e) que les Agents Intelligents sont actualisés et disponibles Item 16
lorsque j’en ai besoin.
Les agents intelligents que j’utilise sont sujets à des problèmes inattendus Item 17
qui les rendent plus difficiles à utiliser pour mon travail.
Les agents intelligents sont sujets à des problèmes et à des arrêts fréquents. Item 18
6. Relation avec l’équipe SI
Intérêt des AI
Les AI traitent les problèmes de gestion de mon groupe de manière sérieuse. Item 19
Les AI ont un réel intérêt pour la résolution de mes problèmes de gestion. Item 20
Flexibilité des AI
Les AI prennent parfois trop de temps pour communiquer avec moi par Item 21
rapport à mes requêtes.
Je sais généralement ce qu’il advient de mes requêtes auprès des AI. Item 22
Lorsque je lance une requête pour un service ou une assistance, Item 23
généralement les AI répondent à mes demandes dans un délai raisonnable.
Conseils des AI
Compte tenu de mon expérience antérieure, j’utiliserais dans le futur les Item 24
conseils d’agents intelligents en cas de besoin.
Je suis satisfait(e) du niveau du conseil technique et de gestion que je reçois Item 25
des AI.
II. Mesures des caractéristiques Tâche/Travail
Aspect non-routinier
Je suis fréquemment amené à traiter des problèmes mal définis. Item 26
Je suis fréquemment amené à traiter des problèmes de gestion non- Item 27
routiniers.
Interdépendence des tâches
Les problèmes de gestion que je traite impliquent en général plus d’une Item 28
fonction de l’organisation.
Les problèmes que je traite impliquent souvent plusieurs services Item 29
fonctionnels.
III. Mesures des caractéristiques de la technologie (Davis, 1989)
Système utilisé
Je sais ce que sont les agents intelligents. Item 30
Facilité d’utilisation des Agents Intelligents (AI)
Je trouve que les AI sont faciles à utiliser. Item 31
Il serait facile pour moi de devenir compétent(e) dans l’utilisation des AI. Item 32
Apprendre à manipuler des AI a été facile pour moi. Item 33
Je trouve qu’il est aisé d’interagir avec les AI. Item 34
Mes interactions avec les AI sont claires et compréhensibles. Item 35
Je trouve qu’il est facile d’interagir avec les AI. Item 36
IV. Utilité perçue des Agents Intelligents (AI) (Davis, 1989)
Degré de satisfaction des AI
L’information fournie par les AI. Item 37
L’interface entre les AI et les utilisateurs. Item 38
Le processus d’utilisation des AI. Item 39
La capacité des AI à être utiles dans le futur. Item 40
Les AI dans leur ensemble. Item 41
Fonctionnalités des AI
Rechercher des informations sur les consommateurs. Item 51
150
Chapitre4
M F
Sexe
Age
Oui Non
Avez-vous déjà recherché des informations sur les AI ? Item 63
Combien de fois avez-vous eu recours à la technologie des AI ?
Item 55
Jamais Rarement Parfois Souvent Toujours
- Directeur
Vous êtes : - Concepteur
Précisez s’il vous plaît votre tâche, si vous cochez - Utilisateur
Autre :______________________________________________________
- Autre
____________________________________________________________
151
Chapitre4
2. Déroulement de l’enquête
Lors du premier envoi du questionnaire, une lettre de confidentialité a été signée par le Pr.
Kalika et a été envoyée en pièce jointe aux questions (Voir annexe n°1_CH4).
Une lettre a été envoyée comme première page du questionnaire pour définir le sujet de thèse,
ses objectifs et le positionnement du chercheur (Voir annexe n°2_CH4). La lettre
électronique envoyée aux personnes interrogées est présentée dans l’annexe n°3_CH4. Deux
relances ont été effectuées auprès des personnes interrogées sous forme de lettres
électroniques (Voir annexes n°4 et n°5_CH4) au bout de quinze jours du premier envoi. Le
fait de ne pas avoir des réponses incite le chercheur à fouiller de nouvelles adresses
électroniques pour avancer la collecte des données. Une lettre de remerciement a été envoyé à
chaque répondant lors de la réception du questionnaire rempli (Voir annexe n°6_CH4).
Le refus des interrogés à répondre à notre questionnaire a été justifié par certains d’entre eux,
quelques réponses négatives de leur part ont été récapitulées dans l’annexe n°6Bis_CH4.
Nous avons reçu des réponses négatives de la part des entreprises de la télécommunication, le
personnel n’étant pas autorisé à répondre à ce genre d’enquêtes. Ainsi, une réponse négative
de la part d’une entreprise aéronautique, pour des raisons de confidentialité malgré que le
directeur était conscient de la pertinence des informations fournies par le questionnaire.
D’autres réponses positives ont été reçues et présentées dans l’annexe n°6Bis_CH4.
152
Chapitre4
Nous avons cherché les personnes interrogées formant cet échantillon grâce à « l’annuaire du
Pouvoir » 2003, les annuaires électroniques et la visite de deux forums50. Nous avons
rassemblé les adresses des participants dans un carnet d’adresse dans lequel nous avons noté
les coordonnées de la personne contactée pour faciliter leur relance (son téléphone, son
adresse postale et son adresse mail).
Le questionnaire de notre étude a été administré par courrier électronique sur 9 mois (de
Juillet 2004 - Mars 2005). Nous avons contacté 750 entreprises (en moyenne 4 personnes ont
été contactées par entreprise) et nous avons collecté 15651 réponses. Il a été envoyé aux
entreprises appartenant à différents secteurs d’activité (Industrie, automobile, commerce et
distribution, banque et institutions financières, etc.) et aux boites de conseil de services et de
distribution informatique.
50
Ces deux forums sont : EQUIPMAG’04 et la GEIDE (Fin 2004).
51
Le Trente et unième répondant a été éliminé de l’échantillon lors de la classification des utilisateurs des AI.
Lors du traitement statistique l’échantillon est composé de 155 répondants.
153
Chapitre4
Conclusion
Dans ce chapitre nous avons essayé de présenter, en premier lieu, l’architecture de la
recherche en SI dans le but de montrer notre positionnement épistémologique et
méthodologique de cette étude. En deuxième lieu, la collecte de données par le biais de
soumission d’un questionnaire auprès d’utilisateurs d’AI appartenant à différents
départements faisant partie de grandes entreprises.
Le questionnaire est construit dans le but d’opérationnaliser les variables du modèle théorique
et de chercher le domaine d’application de la technologie des agents intelligents, ainsi que le
profil des utilisateurs qui peuvent répondre à cette enquête diffusée.
Les deux prochains chapitres seront consacrés à la présentation de trois analyses de données à
savoir : analyses descriptive, exploratoire et confirmatoire.
154
CHAPITRE 5
Müller J. P., In Singh M.P. and Rao A.S., eds., Intelligent Agent V,
Springer-Verlag:Berlin, Germany, 1999, p.211.
Chapitre5
Introduction
La première section de ce chapitre est consacrée à la description des caractéristiques de la
population.
La deuxième section a pour objet d’aborder les modalités de traitement de données utilisées
dans la phase exploratoire.
Nous avons contacté des directeurs de SI, de finance et de marketing, des utilisateurs
(responsables commerciaux, ingénieurs, consultants, électroniciens, informaticiens…), des
concepteurs et autres répondants qui n’ont pas précisé leur fonction. Nous présentons la
répartition de l’échantillon par rapport aux secteurs d’activité et aux fonctions occupées des
participants. Ainsi qu’une répartition donnée en fonction des départements auxquels
appartiennent ces participants.
Ces personnes opèrent dans des grandes entreprises appartenant à ces secteurs d’activité :
156
Chapitre5
- Informatique (30,3 %)
Ces personnes ont précisé leur statut en fonction de l’utilisation de la technologie des AI : les
directeurs (18,7%), les concepteurs (16,8%), les utilisateurs (45,8%) et les analystes (15,5%).
157
Chapitre5
L’outil technologique utilisé dans cette étude est l’agent intelligent. Dans le questionnaire
nous avons laissé le choix au participant de nous préciser l’outil utilisé par lui-même comme
étant un agent intelligent. Nous avons proposé une classification de ces agents selon leurs
fonctions. Les agents intelligents sont :
Les deux tiers de participants ont cité le nom des agents intelligents utilisé dans le processus
de traitement de l’information52.
52
Les AI sont classifiés avec leurs utilisateurs lors de la phase de la classification de l’échantillon.
158
Chapitre5
Pour tester la validité des construits, nous commençons par une Analyse en Composantes
Principales (ACP) sans rotation afin de :
Le tableau 24 présente les résultats du traitement des questions concernant le premier modèle
théorique. Le construit « Adéquation Technologie-Tâche » est multidimensionnel, cette
analyse factorielle a permis de restituer plusieurs facteurs correspondant à diverses facettes du
concept initial.
Cette ACP a amené de révéler que la première partie du questionnaire évaluait les principaux
aspects du construit de « l’Adéquation Technologie-Tâche ». Ainsi, pour ce construit ont été
mis en évidence :
- La qualité du service offert par les AI : Item 20 ; Item 21 ; Item 22 ; Item 23 et Item
25.
159
Chapitre5
Le premier axe, avec 33 % de la variance totale, est fortement lié à toutes les variables qui
mesurent l’adéquation technologie-tâche. Le deuxième axe explique 11 % de la variance
totale, nous avons pris seulement en compte le premier axe. Cela s’explique par les faibles
corrélations entre les items du premier modèle. Nous avons retenu les items dont la
coordonnée en valeur absolue est supérieure à 0,6.
Les valeurs-tests des modalités illustratives54 sur le premier axe montrent qu’il est caractérisé
par les deux départements « informatiques » et « R&D », par les « utilisateurs » et les
53
Voir les résultats de l’ACP détaillés dans l’annexe n°7. 1. 1.
160
Chapitre5
Une ACP a été réalisée avec pour variables actives du deuxième modèle. La structure
factorielle révèle l’ensemble des facteurs qui sous-tendent un construit avec des items
associés. Le tableau 25 montre les indicateurs de mesure dégagés suite au traitement :
Le premier axe explique plus de 40 % de la variance totale, et le deuxième axe explique plus
de 10 %. Ce deuxième axe représente deux indicateurs de mesure (Item 33, Item34) relatifs à
la facilité d’utilisation des AI et fortement corrélés négativement au deuxième axe.
54
Les valeurs-tests des modalités illustratives, relatives au premier modèle, sont présentées dans l’annexe 7.1.2.
161
Chapitre5
Les valeurs-tests des modalités illustratives56 du deuxième modèle opposent sur le premier axe
le département « R&D », les « analystes » et le secteur « Matériel électrique et électronique »
(Valeurs-tests positives) aux départements « Système d’information », « Marketing »,
« Finance », la fonction de « direction », les secteurs de « conseil », de « commerce », de
« banque » et d’« industrie » (Valeurs-tests négatives).
Par ailleurs, notons que les limites de l’ACP viennent du fait que c’est une méthode de
projection, qui entraîne une perte d’information. Pour compléter l’étude de la validité et la
fiabilité des items, nous avons fait appel au logiciel « PLS57-Graph » qui sera utilisé et
présenté dans le chapitre 6.
Concernant les logiciels maîtrisés, j’ai fait des formations durant des séminaires organisés au
sein de notre centre de recherche CREPA avec Messieurs A. Schwarz et E. Compoy. J’ai
suivi une autre formation à Toulouse organisée par M. P. Russel. Ces formations m’ont
permis d’utiliser ces logiciels (SPSS, PLS, AMOS) dans mon travail de thèse lors du
55
Voir les résultats de l’ACP détaillés dans l’annexe n°7. 2. 1.
56
Les valeurs-tests des modalités illustratives, liées au premier modèle, sont présentées dans l’annexe 7.2.2.
57
Partial Least Squares.
162
Chapitre5
traitement statistique de mes données. La validation des résultats finaux de cette recherche est
réalisée en collaboration avec M. B. Goldfarb.
2. Classification
Pour caractériser une classe par les variables nominales, nous observons les variables qui ont
une valeur test supérieure à 2 en valeur absolue. Le tableau 26 présente les variables qui
caractérisent ces cinq classes retenues.
58
Pour réaliser la classification nous avons utilisé SPAD. Nous remercions Madame Pardoux pour son aide
précieuse et son suivi continu durant cette phase exploratoire.
59
Voir l’annexe 8. 1. 1. : Caractérisation par les modalités des classes de la partition.
163
Chapitre5
1ère Classe :
ITEM19
ITEM12
ITEM41
ITEM34
ITEM39
ITEM25
ITEM38
ITEM58
ITEM51
ITEM54
ITEM31
ITEM47
ITEM45
ITEM57
ITEM40
ITEM22
ITEM43
ITEM23
ITEM52
ITEM36
ITEM42
ITEM30
ITEM35
ITEM32
ITEM10
ITEM16
ITEM1
ITEM4
ITEM2
ITEM5
ITEM6
ITEM9
ITEM3
ITEM7
ITEM8
4,00
2,00
0,00
Valeur-Test
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test
La figure 25 présente les valeurs-tests des items pour la première classe. Dans cette classe, les
répondants sont à majorité rattachés au département du Marketing et Management. Quatre
répondants sur 26 n’ont pas donné d’exemples d’agents intelligents. C’est une population qui
n’est pas trop réticente à nous donner des précisions sur les agents utilisés.
C’est une population qui ne parvient pas à obtenir des données actualisées, et les agents
intelligents utilisés ne repèrent pas des données utiles dans leur travail. Elle pense que ces
agents traitent les problèmes de gestion de leur groupe d’une manière sérieuse. Les agents
cités dans cette classe sont : les moteurs de recherche, Internet, Copernic, Business Objects.
60
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 1/ 5.
164
Chapitre5
Ce groupement d’agents est utilisé par les personnes qui ne parviennent pas à obtenir des
données suffisamment actuelles pour répondre à leurs besoins. Donc c’est le type d’agents
qui ne permet pas d’actualiser les données de l’entreprise, en plus il n’arrive pas à repérer des
données utiles dans leur travail (c’est le cas des moteurs de recherche cités ci-dessus dont le
rôle se limite à la recherche des informations externes). Les utilisateurs de cette classe ont des
difficultés quant à l’autorisation d’accès aux données. En revanche, ils considèrent que cette
technologie est capable de traiter les problèmes de gestion du groupe de manière sérieuse. Le
rôle de ces agents consiste à traiter les informations internes au sein d’un groupe.
L’agent d’alerte, cité dans la batterie d’agents (nommé crawler d’alerte), est un outil très
important pour la veille, son rôle est d’effectuer de la surveillance sur certains sites et détecter
les éventuels changements.
C’est une classe qui n’est pas satisfaite ni des AI dans leur ensemble ni de leur processus
d’utilisation. Elle trouve qu’il n’est pas aisé d’interagir avec les AI. Elle n’est pas satisfaite de
l’interface avec les AI. Cela est expliqué par le fait que ces utilisateurs appartiennent à des
entreprises dont les données disponibles ne sont pas suffisamment détaillées, autrement dit,
elles ne leur permettent pas de mener convenablement leur tâche.
Les utilisateurs de cette classe sont peu adhérents aux fonctionnalités de cette technologie par
rapport à la première et la quatrième fonctionnalité proposées dans le questionnaire. Cette
population n’est pas d’accord sur le fait que les agents cités font de la recherche sur les
consommateurs ou peuvent résoudre les problèmes sémantiques et syntaxiques. Elle ne
trouve pas que les AI sont faciles à utiliser. Pour elle, l’utilisation des AI n’augmente pas
l’efficacité dans le travail et ne sont pas utiles. Elle ne permet pas d’accomplir les tâches plus
rapidement et n’améliore pas la performance dans le travail. La mauvaise perception de cette
technologie peut être due à son utilisation faible et à la qualité des données disponibles. Une
donnée doit être bien détaillée pour pouvoir la consolider sur tout axe là où veut l’utiliser.
Ainsi, c’est une catégorie d’utilisateurs trouvant des difficultés pour découvrir la définition
exacte du champ des données relatives à leurs tâches. Dans ces entreprises, le recours à cette
technologie n’est pas adéquat aux besoins de l’utilisateur, c’est à dire l’utilisateur n’est pas
assuré de l’actualisation et de la disponibilité des AI lorsqu’il en a besoin. Ces utilisateurs
achètent des prestations auprès des sociétés spécialisées, pour faire des recherches ciblées sur
165
Chapitre5
leur clientèle ou ils peuvent faire recours aux organisations des forums. Le tableau suivant
montre que le secteur d’activité des entreprises interrogées représente un milieu très
concurrentiel ce qui exige des informations mises à jour et d’actualité.
Nous présentons dans le tableau 2761 les agents intelligents les plus cités par les répondants.
Ce tableau exprime le nom des AI, le nombre d’utilisateurs, le secteur d’activité de
l’entreprise, la fonction de l’utilisateur et son département :
61
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 1/5.
166
Chapitre5
2ème Classe :
ITEM18
ITEM12
ITEM15
ITEM13
ITEM14
ITEM59
ITEM26
ITEM35
ITEM16
ITEM52
ITEM36
ITEM27
ITEM53
ITEM17
ITEM49
ITEM32
ITEM57
ITEM51
ITEM44
ITEM30
ITEM54
ITEM58
ITEM38
ITEM39
ITEM10
ITEM46
ITEM31
ITEM37
ITEM47
ITEM45
ITEM40
ITEM42
ITEM21
ITEM11
ITEM22
ITEM19
ITEM43
ITEM48
ITEM28
ITEM23
ITEM41
ITEM25
ITEM24
ITEM20
ITEM29
ITEM6
ITEM8
ITEM2
ITEM5
ITEM7
ITEM3
ITEM9
0,00
-1,00
-2,00
-3,00
Valeur-Test
-4,00
-5,00
-6,00
-7,00
-8,00
-9,00
Items Valeur-Test
La figure 26 présente les valeurs-tests des items pour la deuxième classe. La deuxième classe
est caractérisée par les utilisateurs des AI appartenant au département des systèmes
d’information. Dix répondants sur 36 n’ont pas cité d’exemple d’agents intelligents.
C’est une population qui n’adhère pas au questionnaire. Nous pouvons considérer les
utilisateurs comme « atypiques », c’est à dire, ils ont des petits groupes à gérer donc ils n’ont
62
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b)
Classe 1/5)
63
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 2/ 5.
167
Chapitre5
pas besoin d’échanger beaucoup d’informations. Se sont des utilisateurs qui font la recherche
sur le web. Cette recherche leur permet d’avoir des informations tardives. Donc ils ne sont pas
satisfaits de ces outils qui se limitent à la recherche d’informations. Ils vont faire appel aux
cabinets de conseils qui leur donnent des informations actualisées. Ces derniers peuvent
fournir l’information traitée à temps et qui a son tour sera utilisée dans le processus de prise
de décision.
Les utilisateurs de cette deuxième classe diffèrent des premiers par le fait qu’ils ne sont pas
d’accord que les AI soient sujets à des problèmes et à des arrêts fréquents. Ils appartiennent à
des entreprises qui disposent de données équivalentes et cohérentes même si elles proviennent
de deux sources différentes. En revanche, ces entreprises ne disposent pas de données
suffisamment détaillées, et ce n’est pas aisé pour elles de les localiser sur un problème
particulier. La mise à jour des données est indispensable pour répondre aux besoins des
utilisateurs.
En ce qui concerne l’aspect de la tâche, ces utilisateurs sont fréquemment amenés à traiter des
problèmes de gestion bien définis et routiniers. Ainsi, les problèmes traités n’impliquent pas
plusieurs services fonctionnels de l’organisation.
La présence de l’item 30 dont la valeur test est négative montre que les utilisateurs de cette
classe ne maîtrisent pas cette technologie. Ce qui explique qu’ils ne sont ni satisfaits des AI,
ni conscients des fonctionnalités de cette technologie. Ils ont la même perception que les
utilisateurs de la première classe. En effet, ils considèrent que l’utilisation des AI n’augmente
pas l’efficacité dans le travail et qu’elle n’est pas d’une grande utilité. Ils partagent aussi
l’avis des premiers utilisateurs sur le fait que c’est une technologie qui n’a pas d’impact
positif sur la productivité. (Présence des items 44, 42, 43)
C’est une population qui n’envisage pas d’utiliser cette technologie dans le processus de prise
de décision (Items 48 et 49), ni dans la phase de l’identification des problèmes, ni dans la
phase d’évaluation des solutions.
Par rapport à la qualité de service rendu par les AI, les utilisateurs de cette classe pensent que
le temps de communication (de saisie des critères de recherche) avec les AI est court. Ils ne
savent pas ce qu’il advient de leur requêtes auprès des AI. Pour eux, ces AI n’ont pas un
intérêt réel pour la résolution des problèmes de gestion et ne répondent pas à leurs demandes
dans un délai raisonnable (temps de traitement de la demande).
168
Chapitre5
Ces utilisateurs risquent de ne pas faire recours à cette technologie dans le futur compte tenu
de leur expérience antérieure.
C’est une population qui utilise quasiment les mêmes outils technologiques que la première
mais qui ne voit aucun intérêt de cette technologie.
169
Chapitre5
Dans ce groupe notons la présence des agents pour la recherche d’informations (Copernic,
Digout 4U, Exalead, Google,…) et des agents pour la veille (Website Watcher, Webspecter,
Memoweb…). Ces noms de logiciels introduisent la métaphore humaine : les caractéristiques
de l’homme sont présentes dans sa mémoire (Memo Web, Digimind), dans ses actions
(Google : aller chercher ; Webseeker : chercher ; Webspectator : regarder ; Website Watcher :
surveiller ; Digout 4U/ for you : creuser) et dans sa prédiction (Yahoo/oracle).
Ainsi, ces agents introduisent le monde animal dans le nom de l’agent KB Crawl. Ce dernier
terme exprime l’activité des agents des moteurs de recherche qui consiste à visiter des sites
web et envoyer des contenus de pages au moteur d’indexation. (Wisdom, 200566)
Les noms des AI, choisis par les fournisseurs de ces logiciels dédiés à la veille, montrent bien
leur objectif purement marketing pour attirer les utilisateurs sur leurs produits.
64
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b)
Classe 2/5)
65
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 2/5.
66
J. R. Wisdom, Les agents intelligents sur Internet : enjeux économiques et sociétaux, Thèse à l’ENST Paris,
2005.
170
Chapitre5
3ème Classe :
ITEM24
ITEM25
ITEM33
ITEM57
ITEM58
ITEM14
ITEM21
ITEM18
ITEM12
ITEM15
ITEM11
ITEM17
ITEM13
ITEM4
4,00
2,00
0,00
Valeur-Test
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test
La figure 27 présente les valeurs-tests des items pour la troisième classe. L’effectif de cette
classe est le plus faible (15). Quatre répondants sur 15 n’ont pas donné d’exemples d’agents.
C’est une population qui est consciente de la qualité du service des AI et de la facilité de son
utilisation. Elle envisage d’utiliser cette technologie dans le futur vu qu’elle est satisfaite du
niveau de conseil technique et de gestion qu’elle reçoit des AI. Les utilisateurs de cette classe
sont à majorité des informaticiens, ils ont l’habitude de s’adresser au web plus que les autres.
Ils sont familiers à la technologie.
Cette population partage le même avis que la deuxième classe en ce qui concerne la
compatibilité des données acquises provenant de sources différentes.
Elle a par contre la facilité d’accès aux données (Items 11 et 12). Pour eux, les AI utilisés ne
sont pas sujets à des problèmes inattendus qui les rendent plus difficiles à utiliser. Autrement
dit, ils ne sont pas sujets à des problèmes et à des arrêts fréquents.
67
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 3/ 5.
171
Chapitre5
Les agents intelligents cités par cette population sont rarement cités : Data Mining, Text
Mining, ERP…C’est une population qui tentera dans le futur d’utiliser les conseils d’agents
intelligents en cas de besoin. Elle perçoit la facilité d’utilisation de cette technologie.
Elle contredit le fait que les AI prennent trop de temps pour communiquer avec l’utilisateur et
le fait qu’ils ne repèrent pas des données utiles aux besoins.
68
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b)
Classe 3/5)
69
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 3/5.
172
Chapitre5
4ème Classe :
ITEM18
ITEM11
ITEM19
ITEM27
ITEM42
ITEM43
ITEM48
ITEM21
ITEM38
ITEM23
ITEM58
ITEM47
ITEM22
ITEM29
ITEM26
ITEM40
ITEM30
ITEM49
ITEM45
ITEM36
ITEM41
ITEM16
ITEM31
ITEM25
ITEM51
ITEM35
ITEM50
ITEM46
ITEM44
ITEM15
ITEM28
ITEM37
ITEM52
ITEM57
ITEM10
ITEM14
ITEM59
ITEM5
ITEM4
ITEM9
ITEM6
ITEM3
ITEM7
ITEM2
8,00
6,00
4,00
Valeur-Test
2,00
0,00
-2,00
-4,00
Items Valeur-Test
La figure 28 présente les valeurs-tests des items pour la quatrième classe. Cette dernière est
sur-représentée par les répondants qui appartiennent au département informatique. L’AI pour
cette population est l’ordinateur (La valeur test de l’item 58 qui mesure l’intensité maximale
d’utilisation est égale à 4,42). Cette classe est utile pour l’étude de l’interaction homme-
machine. Cet outil est utilisé par des personnes qui sont fréquemment amenées à traiter des
problèmes de gestion non-routiniers et mal définis (Items 27, 26). Ils traitent des problèmes
impliquant plusieurs services fonctionnels (Items 29, 28).
Ces utilisateurs perçoivent l’ordinateur comme un outil d’aide à la décision (Items 48, 49 et
50).
Ils accordent attention aux variables telles que la qualité des données (Items 5, 4, 6, 3, 2), la
localisation des données (Items 9, 7 et 10) et la qualité du service offert par les ordinateurs
(Items 19, 21, 23, 22 et 25). Pour eux l’ordinateur est sujet à des problèmes et à des arrêts
fréquents, mais il est actualisé et disponible en cas de besoin.
Ces utilisateurs sont d’accord sur le fait qu’il est nécessaire de comparer ou de consolider des
données provenant de différentes sources (item 15), mais ils ne trouvent pas de difficultés
pour comparer ces données (item14).
70
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 4/ 5.
173
Chapitre5
Dans cette classe l’ordinateur est considéré comme un agent intelligent. D’autres agents
sont présentés dans le tableau 30 :
Ces agents de recherche semblent être des agents importants pour les veilleurs. Ils
automatisent la recherche des informations sur les consommateurs (présence de l’item 51).
C’est le cas des tableaux de bord multidimensionnels qui constituent un outil de « reporting ».
Autrement dit, c’est un « rétroviseur » qui permet de visualiser l’historique.
L’ordinateur est un agent d’interface qui permet de se connecter au web. Il contient des outils
autonomes et indépendants. Notons que ces utilisateurs n’ont pas précisé les logiciels utilisés
pour rechercher et traiter l’information.
71
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 4/5.
174
Chapitre5
5ème Classe :
ITEM32
ITEM10
ITEM14
ITEM59
ITEM17
ITEM20
ITEM41
ITEM54
ITEM57
ITEM43
ITEM21
ITEM42
ITEM23
ITEM13
ITEM22
ITEM39
ITEM51
ITEM52
ITEM29
ITEM47
ITEM30
ITEM45
ITEM58
ITEM53
ITEM40
ITEM35
ITEM11
ITEM25
ITEM16
ITEM31
ITEM12
ITEM15
ITEM37
ITEM36
ITEM49
ITEM38
ITEM27
ITEM7
ITEM3
ITEM8
ITEM9
ITEM2
ITEM6
ITEM5
ITEM4
10,00
8,00
6,00
Valeur-Test
4,00
2,00
0,00
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test
La figure 29 présente les valeurs-tests des items pour la cinquième classe. Cette dernière est
une population formée par des électroniciens. Ces derniers sont liés au domaine de la
recherche. Ils sont familiers à cette technologie dans des fins de recherche et de traitement
informatique.
La valeur test est positive pour les variables liées à : la qualité des données (Items 3, 2, 6, 5) ;
la localisation des données (Items 10, 7, 8 et 9), l’autorisation d’accès aux données (Items 11
et 12), la compatibilité des données (Items 14, 13 et 15), la pertinence des systèmes (17 et 16);
la qualité du service des AI (Items 20, 21, 23, 22 et 25) et les caractéristiques de la tâche (Item
29). Nous sommes confrontés des utilisateurs qui ne traitent pas des problèmes non-routiniers
(Item 27)
Les utilisateurs de cet outil s’accordent sur le fait que l’ordinateur de montage puce repère des
données qui seraient utiles dans le travail (la valeur test de l’item 4 est négatif).
Dans cette classe, l’ordinateur de montage puce est considéré comme un agent intelligent.
D’autres agents sont présentés dans le tableau 31:
72
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 5/ 5.
175
Chapitre5
Ces agents résolvent les problèmes sémantiques et syntaxiques (présence de l’item 54). Ils
répondent aussi aux besoins de stockage, traitement et extraction d’une grande quantité
d’information (présence de l’item 52 et 51).
C’est une population qui a l’intention d’utiliser cette technologie dans le processus de prise de
décision (présence des items qui mesurent l’intention d’utiliser cette technologie dans le
processus de décision et présence de l’item 53 qui propose l’utilisation des AI afin de gagner
du temps pour la prise de décision).
Le but de cette sous-section est de différencier les cinq classes de la première analyse en
fonction des modalités qui les caractérisent. Cette différenciation est répartie sur trois groupes
d’items. Le choix des regroupements est basé sur les résultats de l’analyse factorielle
précédente.
73
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 5/5.
176
Chapitre5
10
4
VT C1
Valeur-Test
2 VT C2
VT C3
0 VT C4
Item 1 Item 2 Item 3 Item 4 Item 5 Item 6 Item 7 Item 8 Item 9 Item 10 VT C5
-2
-4
-6
-8
Items
L’item 1 caractérise uniquement la première classe, cela montre que c’est la seule classe qui
parvient à obtenir des données suffisamment actuelles pour répondre aux besoins.
- Classe 2 : Cette classe ne dispose pas de données actualisées et exactes. Elle a des
problèmes de localisation des données.
74
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.
177
Chapitre5
- Casse 3 : Cette classe a des AI qui repèrent des données utiles, mais on ignore si elle
dispose de données de qualité ou pas.
- Classe 4 : Cette classe dispose de données actualisées et qui n’a pas de problèmes de
localisation de données. Par contre les AI utilisés par cette classe ne repèrent pas des
données très utiles.
10
4
VT C1
Valeur-Test
2 VT C2
VT C3
0 VT C4
Item 11 Item 12 Item 13 Item 14 Item 15 Item 16 Item 17 Item 18 VT C5
-2
-4
-6
-8
Items
- Classe 1 : Cette classe a des difficultés d’autorisation d’accès aux données. Elle
utilise des AI qui ne sont pas sujets à des problèmes inattendus.
- Classe 2 : Cette classe accède facilement aux données, trouvant les données acquises
de différentes sources sont compatibles. Elle n’assure pas le fait que les AI utilisés
sont actualisés et disponibles à tout moment. En revanche, ils ne sont pas sujets à des
problèmes inattendus.
178
Chapitre5
- Classe 4 : Cette classe n’a pas des difficultés d’autorisation d’accès aux données. Il
n’est pas difficile pour elle de comparer des données provenant de différentes
sources. C’est une classe qui ne perçoit pas la pertinence des systèmes utilisés .
- Classe 5 : Cette classe a des problèmes d’autorisation d’accès aux données, elle
trouve que les données acquises de différentes sources sont incompatibles et que
c’est difficile de les comparer. Malgré que les AI utilisés sont actualisés, ils sont
sujets à des problèmes inattendus.
2
VT C1
Valeur-Test
0 VT C2
Item Item Item Item Item Item Item Item Item Item Item VT C3
-2 19 20 21 22 23 24 25 26 27 28 29 VT C4
VT C5
-4
-6
-8
-10
Items
76
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.
179
Chapitre5
- Classe 2 : Cette classe est présente sur tous les items mais qui n’est pas adhérente à
cette technologie. Cela est dû à la nature des problèmes de gestion traités par cette
classe. Ils ont des problèmes bien-définis, routiniers et qui n’impliquent pas toutes
les fonctions de l’organisation.
- Classe 3 : Les AI utilisés par cette classe ne prennent pas trop de temps de
communication d’où le caractère prospectif de cette technologie.
- Classe 4 : Elle est consciente que les AI traitent des problèmes de gestion du groupe
d’où sa perception de la flexibilité de cette technologie. Elle est satisfaite par ses
conseils techniques. Elle est aussi confrontée à traiter des problèmes non-routiniers et
qui impliquent plusieurs services fonctionnels.
La deuxième analyse est réalisée sur le deuxième groupe des items (30 à 59). Quatre classes
ont été retenues et sont caractérisées par les variables nominales. Ces dernières sont
présentées dans le tableau 32.
77
Voir l’annexe 8. 2. 1. : Caractérisation par les modalités des classes de la partition.
180
Chapitre5
1ère Classe :
ITEM33
ITEM44
ITEM55
ITEM34
ITEM16
ITEM18
ITEM59
ITEM35
ITEM30
ITEM41
ITEM15
ITEM51
ITEM22
ITEM12
ITEM10
ITEM52
ITEM17
ITEM14
ITEM13
ITEM57
ITEM21
ITEM58
ITEM11
ITEM5
ITEM2
ITEM7
ITEM9
ITEM3
6,00
4,00
2,00
Valeur-Test
0,00
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test
La figure 33 représente les valeurs-tests des items pour la première classe. Cette dernière est à
majorité caractérisée par des répondants appartenant au département de la finance et de la
gestion. Elle ne perçoit pas bien cette technologie. Elle n’est pas satisfaite de cette technologie
et de ses fonctionnalités. Malgré qu’elle fait quand même appel à cette technologie (la valeur-
test de l’item 55 est positif). En plus, elle est consciente de la facilité d’apprentissage à
manipuler les AI (items 33, 34) et de son utilité perçue par rapport à l’amélioration de la
productivité du travail (item 44).
Les utilisateurs de cette technologie ne sont pas assurés que les AI sont actualisés et
disponibles lorsqu’ils en ont besoin (la valeur test de l’item 16 est négatif). Pour eux, c’est
une technologie qui n’est pas sujet à des problèmes et à des arrêts fréquents (la valeur test de
l’item 18 est négatif). Les interactions de ces utilisateurs avec les AI ne sont pas claires et
compréhensibles (Item 35).
Dans cette classe, on remarque aussi l’absence de la variable de l’intention d’utiliser les
agents intelligents dans le processus de prise de décision. Cette population n’a pas l’intention
d’utiliser ces agents comme un outil d’aide à la décision. En se basant sur les agents cités, on
78
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 1/ 4.
181
Chapitre5
note une présence dominante des agents de recherche et de veille, avec moins de traitement et
pas de prise de décision. Ces agents sont présentés dans le tableau 33 :
182
Chapitre5
79
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.2.2 (b)
Classe 1/ 4)
80
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 1/4.
183
Chapitre5
2ème Classe :
ITEM33
ITEM34
ITEM27
ITEM18
ITEM13
ITEM15
ITEM31
ITEM50
ITEM32
ITEM59
ITEM28
ITEM19
ITEM52
ITEM11
ITEM25
ITEM16
ITEM38
ITEM57
ITEM17
ITEM24
ITEM37
ITEM47
ITEM30
ITEM53
ITEM39
ITEM10
ITEM20
ITEM23
ITEM46
ITEM22
ITEM29
ITEM58
ITEM21
ITEM51
ITEM48
ITEM40
ITEM49
ITEM42
ITEM54
ITEM41
ITEM43
ITEM45
ITEM44
ITEM2
ITEM3
ITEM9
ITEM7
ITEM5
ITEM8
ITEM6
4,00
2,00
Valeur-Test
0,00
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test
La figure 34 présente les valeurs-tests des items pour la deuxième classe. Les répondants de la
deuxième classe ne perçoivent pas bien cette technologie. Ils sont conscients de la facilité
d’utilisation des AI (items 33, 34). Ils se rapprochent des utilisateurs de la première classe.
C’est une classe qui regroupe en majorité les agents de recherche. Cette population n’envisage
pas d’utiliser ces agents dans le processus de prise de décision (au niveau des trois phases).
81
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 2/ 4.
184
Chapitre5
82
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.2.2 (b)
Classe 2/ 4)
83
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 2/4.
185
Chapitre5
3ème Classe :
ITEM11
ITEM16
ITEM40
ITEM29
ITEM30
ITEM41
ITEM48
ITEM44
ITEM49
ITEM10
ITEM22
ITEM20
ITEM37
ITEM25
ITEM46
ITEM42
ITEM47
ITEM43
ITEM23
ITEM45
ITEM33
ITEM39
ITEM38
ITEM32
ITEM31
ITEM35
ITEM34
ITEM36
ITEM9
0,00
-1,00
-2,00
Valeur-Test
-3,00
-4,00
-5,00
-6,00
-7,00
-8,00
-9,00
Items Valeur-Test
La figure 35 présente les valeurs-tests des items pour la troisième classe. C’est une population
qui n’est pas satisfaite par cette technologie, elle n’a pas l’intention de l’utiliser dans le
processus de prise de décision et elle n’est pas consciente de l’utilité de cette technologie dans
la productivité et la qualité de travail. Elle n’a pas donné des précisions sur les fonctionnalités
et l’intensité d’utilisation de cette technologie (absence totale des items qui mesurent à la fois
les fonctionnalités et l’intensité d’utilisation des agents).
Noms des agents Nombre Secteur Fonction de Son
d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Google 2 Banques, Sociétés Utilisateur Marketing et
financières Management
Commerce et Directeur Marketing et
distribution Management
SAS 1 Commerce et Directeur Marketing et
distribution Management
BO 1 Banques, Sociétés Directeur Finance & Gestion
financières
Cognos 1 Industrie, Auto, CCI Directeur Marketing &
Management
Website Watcher 1 Matériel électrique, Non indiquée R&D
Electronique
Autres 85 7 Voir l’annexe n° 8.2. Voir l’annexe n° 8.2. Voir l’annexe n° 8.2.
2. (b) Classe 3/ 4 2. (b) Classe 3/ 4 2. (b) Classe 3/ 4
Pas de réponses 6 Voir l’annexe n° 8.2. Voir l’annexe n° 8.2. Voir l’annexe n° 8.2.
2. (b) Classe 3/ 4 2. (b) Classe 3/ 4 2. (b) Classe 3/ 4
Tableau 35. Les AI utilisés par les répondants de la classe 3/4 et leurs domaines
d’application86
84
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 3/ 4.
85
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 7.2.2 (b)
Classe 3/ 4)
186
Chapitre5
4ème Classe :
ITEM41
ITEM43
ITEM42
ITEM58
ITEM11
ITEM22
ITEM23
ITEM21
ITEM10
ITEM47
ITEM45
ITEM57
ITEM29
ITEM30
ITEM51
ITEM40
ITEM32
ITEM35
ITEM54
ITEM52
ITEM25
ITEM16
ITEM31
ITEM20
ITEM36
ITEM38
ITEM39
ITEM17
ITEM49
ITEM48
ITEM15
ITEM13
ITEM37
ITEM59
ITEM46
ITEM44
ITEM14
ITEM28
ITEM24
ITEM18
ITEM19
ITEM53
ITEM12
ITEM50
ITEM26
ITEM27
ITEM3
ITEM9
ITEM7
ITEM5
ITEM8
ITEM2
ITEM6
10,00
8,00
Valeur-Test
6,00
4,00
2,00
0,00
Items
Valeur-Test
La figure 36 présente les valeurs-tests des items pour la quatrième classe. Cette dernière est
faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 4/ 4
La valeur test dépasse 1,96 dans chacune des variables explicatives (du deuxième modèle
théorique). C’est population composée de 70 utilisateurs.
C’est une classe qui utilise intensivement les AI, elle est satisfaite de cette technologie, avec
une bonne perception de cet outil. Elle a aussi l’intention de l’utiliser dans le processus de
prise de décision au niveau des trois phases (identification des problèmes, évaluation et
sélection des solutions).
Cette classe correspond à la 4ème et 5ème classe de la première classification. L’ordinateur et
l’ordinateur de montage puce sont considérés comme des AI pour cette population. Dans cette
classe on note la présence d’une autre réponse qui est celle du Text Mining.
Noms des agents Nombre Secteur Fonction de Son
d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Text Mining 1 Conseil, Ingénierie, Directeur R&D
Formation
Ordinateur 74 Informatique, Analyste Informatique
Bureautique,
Réseaux et Télécoms
Ordinateur de Matériel électrique, Concepteur R&D
Montage Puce Electronique
Tableau 36. Les AI utilisés par les répondants de la classe 4/4 et leurs domaines
d’application88
86
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 3/4.
87
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 4/ 4.
187
Chapitre5
12,00
10,00
8,00
6,00
4,00
VT C1
Valeur-Test
2,00 VT C2
0,00 VT C3
Item Item Item Item Item Item Item Item Item Item Item Item VT C4
-2,00
30 31 32 33 34 35 36 37 38 39 40 41
-4,00
-6,00
-8,00
-10,00
Items
- Classe 1 : Cette classe ne connaît pas bien la technologie des AI. Elle perçoit la
facilité des AI, mais ses interactions avec les AI ne sont pas claires et
compréhensibles. Elle n’est pas satisfaite des AI dans leur ensemble.
- Classe 2 : Cette classe trouve qu’il n’est pas facile d’utiliser les AI mais il est aisé
d’interagir avec eux. C’est une population qui n’est pas satisfaite de cette
technologie.
- Classe 3 : Cette classe perçoit la difficulté d’utilisation des AI et elle n’est pas
satisfaite de cette technologie.
- Classe 4 : Cette classe connaît bien cette technologie et elle perçoit la facilité de son
utilisation, ce qui implique sa satisfaction totale.
88
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 4/4.
89
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.
188
Chapitre5
12,00
10,00
8,00
6,00
4,00
VT C1
Valeur-Test
2,00 VT C2
0,00 VT C3
Item 42 Item 43 Item 44 Item 45 Item 46 Item 47 Item 48 Item 49 Item 50 VT C4
-2,00
-4,00
-6,00
-8,00
-10,00
Items
- Classe 2 : Elle perçoit que ces agents n’ont pas d’impact ni sur la productivité de
l’utilisateur ni sur la qualité du travail. Donc, elle n’a pas l’intention de l’utiliser
dans le processus de prise de décision.
- Classe 4 : Elle perçoit que ces agents ont un impact positif sur la productivité de
l’utilisateur et sur la qualité du travail. Donc elle a l’intention d’utiliser cette
technologie dans le processus de prise de décision.
90
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.
189
Chapitre5
10,00
8,00
6,00
4,00
VT C1
Valeur-Test
2,00
VT C2
VT C3
0,00
VT C4
Item 51 Item 52 Item 53 Item 54 Item 55 Item 56 Item 57 Item 58 Item 59
-2,00
-4,00
-6,00
-8,00
Items
- Classe 1 : Elle perçoit que les AI sont limités à la recherche, stockage et extraction
d’une grande quantité d’informations. C’est une classe qui fait recours quand même à
cette technologie. Le degré d’intensité d’utilisation de la technologie est faible.
- Classe 3 : Une absence totale remarquable de cette classe dans ce groupe d’items
(51 à 59).
- Classe 4 : Cette classe est consciente des fonctionnalités des AI et nous observons
que l’intensité d’utilisation de cette technologie est élevée.
91
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.
190
Chapitre5
Figure 40. Répartition des répondants suite à la classification des deux analyses.
- Les individus de la classe 1/ 4 sont répartis à majorité sur les trois premières classes
de la première classification.
- Les individus de la classe 3/ 4 sont répartis en proportion égale entre les classes 1/ 5
et 2/ 5.
191
Chapitre5
3. Analyse de variance
L’analyse de variance permet d’étudier la liaison entre une variable qualitative et une variable
quantitative.
Le principe de cette analyse est de savoir si les différences entre les moyennes des groupes
définis par les modalités sont significatives. On teste l’hypothèse H0 :
Cette analyse92 consiste à chercher, en premier lieu, le degré de lien entre ces trois variables
nominales qui sont la tâche, le département, et les AI utilisés sur les variables des deux
modèles théoriques93. En deuxième lieu, nous cherchons par le biais de cette analyse le degré
de lien entre ces trois variables nominales qui sont le sexe, l’âge et la langue sur les variables
du deuxième modèle théorique.
Nous Récapitulons les résultats94 basés sur l’analyse de la variance sous forme des tableaux
suivants :
92
Pour faire cette analyse nous avons utilisé le logiciel SPSS.10
93
Les variables du 1er modèle théorique sont : Qualité des données (QD), Localisation des données (LD),
Compatibilité des données (CD), Pertinence des systèmes (RS), Qualité du service des AI (QS).
Les variables du 2ème modèle sont : L’Intention d’utiliser les AI dans le processus de prise de décision (ItoUse),
Satisfaction des utilisateurs de cette technologie (Sat), Fonctionnalités de cette technologie (F), Productivité des
utilisateurs (P), Qualité du travail (JQ) et Facilité d’utilisation de cette technologie (EOUse).
94
Ces résultats sont présentés dans l’annexe n°9_CH5.
95
* : une faible influence
96
** : une influence modérée
97
*** : une grande influence
192
Chapitre5
Il y a une faible influence entre la tâche, la qualité des données, la compatibilité des données,
la qualité du service des AI, la facilité d’utilisation des AI, la satisfaction des utilisateurs, les
fonctionnalités des AI, la productivité et la qualité du travail des utilisateurs.
L’influence est modérée entre le département, la qualité des données, la localisation des
données, l’intention d’utiliser les AI, la facilité d’utilisation des AI, la satisfaction des
utilisateurs et les fonctionnalités des systèmes.
Une influence élevée entre le département, la pertinence des systèmes, la qualité du service
des AI, la productivité et la qualité du travail.
Une faible influence entre les AI utilisés, la compatibilité des données, l’intention d’utiliser
cette technologie, la facilité d’utilisation des AI, la productivité de l’utilisateur.
L’influence est modérée entre les AI utilisés, la qualité des données, la localisation des
données, la pertinence des systèmes, la satisfaction des utilisateurs et les fonctionnalités des
systèmes.
Une grande influence est entre les AI utilisés, la qualité du service des AI et la qualité de
travail des utilisateurs.
98
(n.s.) : non significatif.
193
Chapitre5
Il n’y a pas une influence significative entre le sexe et l’ensemble de ces variables. A
l’exception d’une faible influence non significative entre le sexe et l’intention d’utiliser cette
technologie dans le processus de prise de décision.
Il n’y a pas d’influence significative entre l’age et ces variables. A l’exception d’une faible
influence non significative entre l’âge, l’intention d’utilisation et la satisfaction des
utilisateurs.
Il y a une faible influence non significative entre la langue et l’ensemble des variables
présentées ci-dessus.
194
Chapitre5
Conclusion
Nous avons consacré ce chapitre à détailler la description des caractéristiques de la population
ciblée.
Nous avons passé ensuite à la phase exploratoire des données qui consiste à faire :
- Une Analyse en Composantes Principales : ayant pour objet de décrire d’une façon
synthétique des tableaux de données dans lesquels les individus (n) sont décrits par
un ensemble de variables quantitatives (k).
- Une classification des utilisateurs des agents intelligents : ayant pour objet de
positionner des individus par rapport aux variables du modèle théorique. L’objectif
étant de dégager une typologie de ces individus.
- Une analyse de variance : ayant pour objet de déterminer si une (ou plusieurs)
variables explicatives (nominales) ont ou non une influence sur une variable à
expliquer (quantitatives).
L’analyse exploratoire n’est pas suffisante pour discuter et confirmer les hypothèses de la
recherche c’est pourquoi nous réservons le chapitre 6 à l’analyse confirmatoire.
195
CHAPITRE 6
Analyse confirmatoire :
Validation des hypothèses de recherche
Introduction
Après avoir présenté les résultats de la phase exploratoire dans le chapitre précédent, nous
consacrons ce chapitre à la phase confirmatoire qui consiste à valider les hypothèses de notre
recherche.
Dans une première section, nous testons le modèle global théorique en utilisant le logiciel
PLS-Graph (Chin, 1998).
Dans une deuxième section, nous décomposons le modèle initial en deux modèles pour
pouvoir analyser l’ensemble des effets linéaires par modèles d’équations structurelles en
utilisant le logiciel AMOS.4.
Dans une troisième section, nous comparons nos résultats avec les travaux effectués
antérieurement.
A travers les paramètres estimés sous PLS pour les liens entre les indicateurs de mesure et les
construits (loadings) et les liens entre les différents construits (path coefficients)
simultanément, le modèle sous PLS est toujours analysé et interprété à travers deux étapes:
Pour avoir un modèle de mesure adéquat, nous pouvons suivre ces étapes:
197
Chapitre6
En utilisant le PLS, la fiabilité des items est examinée par les « loadings » (ou une simple
corrélation) des indicateurs de mesures en respectant leurs construits théoriques.
En se référant à Chin (1998), “les loadings standardisés doivent être supérieurs à 0.707”,
autrement dit, il y a un peu plus de variance partagée entre le construit et ses items qu’ entre la
variance des erreurs (Carmines and Zeller, 1979). Si nous considérons que les loadings sont
des corrélations, cela implique qu’il y a plus de 50 % de la variance dans la variable observée
( i.e., le carrée du loading) qui est due au construit.
Dans la pratique, si le modèle estimé possède des loadings inférieurs à 0.707, nous éliminons
un item particulièrement quand de nouveaux items ou de nouvelles échelles développées sont
employées. Pour des relations futures, nous devons ré-examiner les items éliminés et essayer
de déterminer la raison pour laquelle ces items n’ont pas atteint le seuil de 0.7. Un faible
loading peut être le résultat :
- D’un item inapproprié (ce problème contribue à une mauvaise validité de contenu),
- D’un transfert impropre d’un item d’un contexte à un autre (ce problème contribue à
la non-généralisation des items au sein des contextes et/ou des domaines).Dans le
cadre de notre étude, deux itérations ont été effectuées sous PLS. Les résultats sont présentés
dans le tableau 40.
198
Chapitre6
Item3 0.81
Item5 0.80
Item6 0.83
QLD Item7 0.87
Item8 0.82
Item9 0.83
Item10 0.83
Item20 0.83
Item22 0.84
QS
Item23 0.87
Item25 0.84
Item57 0.84
IU
Item58 0.94
Item38 0.81
Item39 0.84
Sat
Item40 0.85
Item41 0.88
Item31 0.88
Item32 0.85
EOUse
Item35 0.91
Item36 0.92
Item42 0.94
Item43 0.95
PUse Item45 0.93
Item46 0.79
Item47 0.88
Item48 0.89
ItoUse
Item49 0.88
Tableau 40. « Loadings » dans l’anlayse sous PLS 99
Pour l’ensemble des construits, tous les items possèdent un seuil de loadings raisonnable
(supérieur à 0.707). La majorité est au-dessus de 0.8, donc la validité convergente est
démontrée. Les items qui sont au-dessous de 0.7 ont été éliminés.
Les indicateurs multiples sont utilisés pour un construit “individuel”, le chercheur doit être
concerné par la fiabilité des items de mesure individuels, mais il doit aussi vérifier dans quelle
mesure les items peuvent démontrer la validité convergente (Hulland J. 1999).
99
Voir Annexe n°1_CH6.
199
Chapitre6
En calculant la consistance interne, nous nous focalisons sur les valeurs de fiabilité composée
( ) développés par Werts et al. (1974). Les mesures de la fiabilité composée fournissent un
support additionnel à la fiabilité et à la validité convergente.(Khalifa & Cheng, 2002)
Après la génération du Bootstrap, toutes les fiabilités composées pour chaque construit sont
au dessus de 0.80. (présenté dans le tableau 41).
Caractéristiques de la
Item51
technologie tels que :
Item52
Fonctionnalités des AI (F)
Item54
( = 0.870)
Item3
Item5
Qualité et Localisation des Item6
Données (QLD) Item7
( = 0.941) Item8
Item9
Item10
Item20
Qualité du Service offert par les
Item22
AI (QS)
Item23
( = 0.914)
Item25
Intensité d’Utilisation des AI
Item57
(IU)
Item58
( = 0.887)
Satisfaction des utilisateurs Item38
(Sat) Item39
( = 0.912) Item40
100
“ Internal consistency” = (( yi)² / (( yi)² + var ( j)).
101
“This discussion of convergent validity and the preceding discussion of item reliability can only be applied to
measures that are reflective, rather than formative”. (Hulland J. 1999).
200
Chapitre6
Item41
Item31
Facilité d’utilisation des AI
Item32
(EOUse)
Item35
( = 0.940)
Item36
Item42
Item43
Utilité perçue des AI (PUse) Item45
( = 0.957) Item46
Item47
La validité convergente de chaque facteur utilisée dans ce modèle semble être acceptable. En
effet, les facteurs relatifs aux caractéristiques de la tâche, à la qualité des données, à la
localisation des données, à la qualité du service des AI, à la satisfaction des utilisateurs, la
facilité d’utilisation des AI, à l’utilité perçue présentent une forte cohérence interne avec une
fiabilité composée ( ) de 0,9.
Les facteurs liés aux fonctionnalités des AI, à l’intensité d’utilisation, l’intention d’utiliser les
AI pour le processus de prise de décision, présentent une cohérence interne acceptable avec
une fiabilité composée ( ) de 0,8. Ces trois facteurs ont posé des problèmes d’ajustement lors
du test des relations entre les variables latentes de notre modèle théorique.
La validité discriminante consiste à prouver que la variance partagée entre un construit et ses
mesures (AVE) est supérieure à la variance partagée entre deux construits (r²ij)103.
Dans le contexte du PLS, le seul critère adéquat à la validité discriminante est que le construit
doit plutôt partager la plus grande variance avec ses indicateurs de mesure qu’avec les autres
102
Voir Annexe n°2_CH6.
103
La variance partagée entre construits i et j est égale au carré du coefficient de corrélation entre ces construits:
r²ij.
201
Chapitre6
Cette mesure doit être plus grande que la variance partagée entre le construit et les autres
construits du modèle. (la corrélation carrée entre deux construits). Ce-ci peut être démontré
dans la matrice de corrélation qui inclue les corrélations entre les construits dans les éléments
de la partie gauche inférieure de la diagonale de la matrice, et les valeurs de la racine carrée
de l’AVE calculée pour chaque construit tout au long de la diagonale.
Pour avoir une validité discriminante adéquate, les valeurs présentées dans la diagonale de la
matrice doivent être significativement plus grandes que les éléments en dehors de la diagonale
correspondants aux lignes et aux colonnes (Hulland J. 1999).
Nous présentons les AVE, la racine carré de l’AVE et les corrélations entre les construits dans
le tableau 42, en fournissant une validité discriminante plus claire.
F Ito
AVE TaC QLD QS IU Sat EOUse PUse
Use
TaC 0.879 0.937
PUse 0.817 0.513 0.691 0.685 0.840 0.288 0.837 0.720 0.903
Ito
0.795 0.567 0.465 0.451 0.637 0.290 0.646 0.554 0.648 0.891
Use
Tableau 42. Matrice des valeurs de l’“Average Variance Extracted ” et corrélations
entre les construits sous l’analyse du PLS105
104
AVE = yi² /( yi² + var ( j)).
202
Chapitre6
3. Résultats et Discussion
Pour simplifier l’interprétation des résultats, nous traitons chaque hypothèse du modèle à part.
Dans cette étude, chaque variable latente du second ordre testée, sera numérotée afin
d’indicer les hypothèses dérivées en fonction de la numérotation de ces variables.
L’étude de cette hypothèse nous a conduit à une formulation plus précise : les caractéristiques
de la tâche (interdépendance des tâches) et de la technologie (fonctionnalités des AI) ont un
impact positif sur l’adéquation technologie-tâche. Cette formulation génère elle-même quatre
hypothèses dérivées (Voir Tableau 43).
R²=0.495 R²=0.573
QLD QS
8.68** 8.94**
2.02*
3.96**
TaC F
105
Voir Annexes n°2 et n°3_CH6.
106
Nous remercions M. A. Schwarz pour son aide précieuse et sa validation des résultats lors du traitement des
données sous PLS-Graph.
203
Chapitre6
TaC F
QLD 0.147 (H18) 0.614 (H19)
QS 0.282 (H28) 0.567 (H29)
Légende :
TaC : caractéristique de la tâche. (V8)
F : fonctionnalités des AI. (V9)
QLD : qualité et localisation des données. (V1)
QS : qualité du service offert par les AI. (V2)
Tableau 43. Influence des caractéristiques de la tâche et de la de la technologie sur
l’adéquation technologie-tâche107 (** = 0.005, * = 0.025)108
L’effet des caractéristiques de cette technologie des AI est plus dominant avec des plages de
coefficients directes de (0.614 et 0.567) en comparaison avec les caractéristiques de la tâche
(plages de coefficients sont de 0.147 et de 0.282). Ces résultats montrent que l’augmentation
des fonctionnalités des AI dépend de l’adéquation technologie-tâche dans le même sens.
Ainsi, l’augmentation de l’interdépendance des tâches peut fournir un support adéquat à la
technologie-tâche.
Goodhue & Thompson (1995) ont mesuré la tâche en prenant en considération ses
caractéristiques non routinières, ses interdépendances et la tâche du participant. Ils ont trouvé
que l’effet le plus élevé provenant de ces caractéristiques est celui des tâches non-routinières.
Ils ont expliqué cet effet par l’idée que les responsables sont constamment forcés d’utiliser les
technologies des systèmes d’information pour aborder les nouveaux problèmes, comme la
veille des nouvelles données en combinaison avec les méthodes non-familières. Ils ont donc
plus de demandes en terme de systèmes. L’interdépendance des tâches de travail est observée
pour influencer les perceptions de compatibilité et la pertinence des systèmes. Enfin, deux
facteurs de l’adéquation technologie-tâche sont clairement affectés par la tâche des
utilisateurs: la compatibilité et la facilité d’accès aux données.
Dans notre étude, les items mesurant les tâches non-routinières sont éliminés pour des raisons
de fiabilité des items. Aussi, ce construit a été mesuré uniquement par l’interdépendance des
107
Voir l’annexe n°5_CH6
108
Pour un échantillon de 155 : pour T>=1.96, nous avons un seuil de signification à p < 0.025 et pour T>=2.57,
nous avons un seuil de signification à p < 0.005. Voir l’annexe n°5bis_CH6
204
Chapitre6
Nous considérons la tâche des utilisateurs comme étant une variable nominale. Nous
mesurons l’influence de cette variable sur l’adéquation technologie-tâche en utilisant
l’analyse de la variance sous SPSS.10 (dans le chapitre précédent). La tâche de l’utilisateur a
un effet faible sur la qualité et la localisation des données, la compatibilité des données
provenant de différentes sources et la qualité du service des AI. Elle a un effet modéré sur la
pertinence des systèmes.
Goodhue & Thompson ont pris en considération deux variables pour les caractéristiques de la
technologie: “systèmes utilisés” et “département”. Ces deux variables sont significatives
ensemble sur les huit facteurs de l’adéquation technologie-tâche. Le département est
significatif sur l’apprentissage et la facilité d’utilisation. Les systèmes utilisés sont
significatifs sur la localisation des données et la pertinence des systèmes. Dans notre étude,
nous vérifions l’influence de ces deux variables sur l’adéquation technologie-tâche en utilisant
l’analyse de la variance. Le département a un effet modéré sur la qualité des données, la
localisation des données. Il a une liaison forte avec la pertinence des systèmes et la qualité du
109
service offert par les AI aux utilisateurs . Les agents utilisés ont une liaison forte sur leur
qualité de service. Ainsi, ils ont un effet modéré sur la qualité, la localisation des données et la
pertinence des systèmes.
Afin de justifier cette influence, nous pensons que les fonctionnalités des AI aide l’utilisateur
à maintenir les éléments nécessaires des données ou à les maintenir au bon niveau de
l’entreprise.
109
Le facteur qualité du service des AI correspond au facteur de la relation de la technologie de l’information
avec l’équipe SI dans le modèle initial de Goodhue et Thompson (1995). Lors de la construction du modèle
théorique nous avons considéré ce facteur comme étant la mesure de la relation des AI avec les utilisateurs en
général mais après une réflexion nous sommes rendus compte que ce facteur mesure la qualité du service offert
par les AI aux utilisateurs qui appartiennent à cinq départements différents.
205
Chapitre6
En plus, ces fonctionnalités aident l’utilisateur à déterminer quelles sont les données
disponibles et quels sont les éléments des données qui doivent être exclus ou inclus lors de la
recherche.
Enfin, elles ont un grand effet sur la qualité du service offert par les AI, ce-ci peut-être
expliqué par l’interaction évidente entre l’utilisateur et l’agent intelligent. Ceci montre bien
l’intérêt réel des AI pour aider l’utilisateur à résoudre ses problèmes. Cela montre aussi
l’importance du temps d’exécution pour une requête lancée auprès des services des AI, car les
fonctionnalités de cette technologie peut augmenter la disponibilité et la qualité d’assistance
technique des AI.
Hypothèse H2: L’adéquation technologie-tâche (QLD, QS) a un impact positif sur l’intensité
d’utilisation des AI (IU).
L’étude de cette hypothèse nous a conduit à une triple reformulation plus précise : d’une part,
(H41 & H42) la qualité, la localisation des données (QLD)et la qualité du service es AI (QS)
ont un impact positif sur l’intensité d’utilisation des agents intelligents ; d’autre part, (H48) la
caractéristique de tâche (TaC) a un impact positif sur l’intensité d’utilisation des AI (IU)
(Voir tableau 44).
R²=0.302
IU
3.57** 1.71
1.38
QLD QS
TaC
206
Chapitre6
TaC QLD QS
IU 0.171 (H48) 0.262 (H41) -0.323 (H42)
Légende :
TaC : caractéristique de la tâche. (V8)
QLD : qualité et localisation des données. (V1)
QS : qualité du service offert par les AI. (V2)
IU: intensité d’utilisation des AI. (V4)
La qualité et localisation des données ont un grand effet avec une plage de coefficient de
0.262 par rapport à la caractéristique de la tâche (plage de coefficient = 0.171). Par ailleurs, la
qualité de service de le technologie (plage de coefficient = -0.323) a un effet négatif et non
significatif sur l’intensité d’utilisation des AI.
Si nous nous référons à Goodhue et Thompson, pour démontrer la relation entre l’adéquation
technologie-tâche et l’utilisation, nous retrouvons que leurs résultats fournissent un support
concis pour la relation supposée. Quoique la régression soit intacte et que les plages de
coefficient des trois variables du construit de l’adéquation technologie-tâche soient
statistiquement significatives (qualité du service offert par les AI, rapidité et pertinence des
systèmes), le R² ajusté est égal à 0.02. En plus, la pertinence des systèmes et la qualité du
service offert par les AI ont des plages de coefficients négatives. Ces auteurs ont interprété
leurs résultats en faisant recours aux théories des attitudes et des comportements. Les deux
liens négatifs sont justifiés par le fait que les utilisateurs supposent que les systèmes sont
moins pertinents et leurs relations avec les utilisateurs moins positives.
Ces auteurs ont donné plus d’interprétation dans le cas de l’effet causal des relations (à
travers le mécanisme du feedback). Pour ces auteurs, les individus utilisant ces systèmes pour
de grandes transactions et très dépendants d’eux sont plus frustrés par les moments difficiles
d’utilisation de ces systèmes. Les utilisateurs qui ont une forte dépendance semblent être
bloqués dans leur travail en considérant les systèmes comme étant non pertinents.
110
Voir l’annexe n°5_CH6
111
Voir l’annexe n°5bis_CH6
112
Une part de ce pourcentage vient de ces trois variables (EOUse, PUse, ItouUse)
207
Chapitre6
Similairement, les personnes qui sont très dépendantes des systèmes sont plus frustrées avec
de mauvaises relations avec le département du SI et ils peuvent donner de mauvaises
évaluations concernant ces relations. Ceci est tout à fait différent des nombreux travaux
montrant le lien entre les attitudes de l’utilisateur et l’utilisation (Davis, 1989; Hartwick and
Barki, 1994; Moore and Benbasat, 1992; Thompson et al., 1991), mais uniforme avec des
arguments donnés par Melone (1990) qui souligne les circonstances de l’utilisation
influençant les attitudes.
Le manque de support pour cette proposition est expliqué par le fait que ces auteurs ont
conceptualisé l’utilisation comme la dépendance aux systèmes d’information. Dans notre
étude, nous avons opérationnalisé l’utilisation comme l’intensité ou la fréquence d’utilisation.
En revanche, Goodhue et Thompson ont soulevé des questions sur l’applicabilité des
conceptualisations. Ils ont pensé que la conceptualisation est responsable de ce faible lien
entre l’adéquation technologie-tâche et le comportement. Ils ont trouvé un R² supérieur à 0.10
pour chaque nouvelle régression. Pour chaque cas, le lien le plus fort est entre les croyances
négatives des utilisateurs sur la pertinence des systèmes et leurs relations avec l’équipe du SI.
Ce lien est plus élevé avec l’utilisation. Donc, il est clair que leur conceptualisation n’est pas
responsable du manque de support pour cette proposition.
Nos résultats montrent que la qualité et la localisation des données ont l’effet le plus élevé sur
l’intensité d’utilisation des AI. Nous pouvons expliquer que les participants à ce questionnaire
se sont montrés très dépendants à ces systèmes (l’intensité d’utilisation est élevée) ont
considéré que les systèmes sont pertinents. Ainsi, les données provenant de différents niveaux
hiérarchiques incitent les utilisateurs à s’en servir des AI pour déterminer quelles sont les
données qui sont disponibles et où sont-elles localisées. Donc, nous notons que les besoins
correspondant cette technologie augmentent la fréquence d’utilisation.
Goodhue et Thompson ont donné plus d’explications : un lien direct entre l’adéquation
technologie-tâche et l’utilisation peut ne pas être justifié en général. Pour eux, l’adéquation
technologie-tâche peut ne pas être dominante sur la décision d’utiliser une technologie. En
revanche, d’autres influences venant de la théorie des attitudes et de comportement comme les
habitudes (Ronis et al., 1989), les normes sociales (l’utilisation volontaire) peuvent dominer
dans ces organisations. Cela suggère que le test du lien entre l’adéquation technologie-tâche
et l’utilisation demande beaucoup plus d’attention et de détail d’autres variables à travers la
recherche des attitudes et du comportement.
208
Chapitre6
R²= 0.620
0.22
F EOUse
0.64
6.8**
0.95 R²= 0.794
Sat
QS
2.88**
R²= 0.468
1.46 ItoUse
209
Chapitre6
QLD QS F
EOUse 0.127 (H51) 0.675 (H52) 0.021 (H59)
PUse 0.144 (H61) 0.626 (H62) Non testée
Sat -0.047 (H31) 0.333 (H32) Non testée
ItoUse -0.086 (H71) 0.224 (H72) Non testée
Légende :
F : fonctionnalités des AI. (V9)
QLD : qualité et localisation des données. (V1)
QS : qualité du service offert par les AI. (V2)
EOUse: facilité d’utilisation des AI. (V5)
PUse: utilité perçue des AI. (V6)
Sat : satisfaction des utilisateurs des AI. (V3)
ItoUse: intention d’utiliser les AI dans le processus de prise de décision. (V7)
La qualité et la localisation des données, la qualité du service offert par les AI et les
fonctionnalités de cette technologie expliquent 62% de la variance de la facilité d’utilisation
des AI. L’effet de la qualité du service offert par les AI est beaucoup plus dominant avec une
plage de coefficient de 0.675 en comparaison avec la qualité et la localisation des données, et
les fonctionnalités des AI. (les plages de coefficients respectives sont 0.127; 0.022).
L’effet de la qualité de service des AI sur les variables de l’acceptation d’une technologie est
plus important que la qualité et la localisation des données. (Voir Tableau 45)
Ce tableau montre que l’effet le plus élevé sur les variables l’acceptation des AI est celui de la
qualité du service offerte par les AI. Cet effet est significatif au seuil de 0.005 entre ces
variables : QS/EOUse ; QS/PUse et QS/Sat.
113
Voir l’annexe n°5_CH6
114
Voir l’annexe n°5bis_CH6
210
Chapitre6
211
Chapitre6
H4: L’Acceptation des agents intelligents (EOUse, PUse, ItoU) a un effet positif sur
l’intensité d’utilisation de cette technologie (IU). L’examen de cette hypothèse génère : d’une
trois sous-hypothèses ; d’autres part, six relations entre les variables du modèle de
l’acceptation des AI ont été testées (EOUse/PUse ; EOUse/Sat ; EOUse/ItoU ; PUse/Sat ;
PUse/ItoU ; Sat/ItoU). (Voir tableau 46)
1.52 0.82
Sat ItoUse IU
4.52**
2.31*
1.09
0.23
3.17** 2.21*
EOUse PUse
1.51
Tableau 46. Influence de l’Acceptation des AI sur l’intensité d’utilisation des AI 115
(** = 0.005, * = 0.025)116
115
Voir l’annexe n°5_CH6
116
Voir l’annexe n°5bis_CH6
212
Chapitre6
L’utilité perçue a l’effet le plus élevé avec une plage de coefficient de 0.296 sur l’intention
d’utiliser cette technologie dans le processus de prise de décision. Cet effet est significatif au
seuil de 0.025. La facilité d’utilisation a l’effet le plus faible avec une plage de coefficient de
0.032 sur l’intention d’utiliser les AI. (Voir Tableau 46)
Nos résultats montrent que la facilité d’utilisation et l’utilité perçue d’une technologie ont un
impact positif et significatif au seuil de 0.005 sur la satisfaction des utilisateurs et nous
remarquons que ces deux variables freinent l’intensité d’utilisation ; à savoir que l’effet de la
facilité d’utilisation est significatif au seuil de 0.025.
Le test de toutes les hypothèses du modèle intégré (TTF/TAM) sous PLS-Graph, montre
que les décisions prises pour utiliser un AI sont liées à la compréhension des
fonctionnalités et qualité de service offertes par cette technologie d’une part et de leur
adéquation aux besoins perçus des utilisateurs d’autre part.
213
Chapitre6
Le modèle de mesure représente les relations linéaires supposées entre les variables latentes et
leurs indicateurs :
- Deuxième variable latente : La qualité du service offert par les AI (QS) : Cette
variable est mesurée par ces indicateurs : item21, item22, item23 et item25.
- Quatrième variable latente : L’intensité d’utilisation des AI (IU) : Cette variable est
mesurée par ces indicateurs : item57 et item58.
117
Nous avons suivi la méthodologie détaillée dans l’ouvrage de Roussel, Durrieu, Compoy et El Akremi (2002)
118
Cette variable (QLD) représente deux variables latentes (QD et LD) séparées lors des traitements statistiques
réalisées sous SPAD. Le nombre élevé de variables latentes examinées sous ce logiciel n’a pas posé de
problème. Vu que ces deux variables sont fortement corrélées, on les a fusionnées lors de la spécification du
modèle sous PLS Graph et AMOS 4.
214
Chapitre6
Graph) qui a été présentée dans la section 1 de ce chapitre sur le test des échelles du
questionnaire d’enquête. Dans le modèle de mesure, on observe que chaque variable latente
est reliée aux indicateurs par un lien. Ce dernier est en réalité la contribution factorielle
estimée par l’AFC. Chacun de ces items a fait l’objet d’une étude théorique lors de
l’élaboration de l’échelle du questionnaire servant à obtenir une mesure du concept. On peut
observer aussi que le processus d’estimation intègre une erreur de mesure pour chaque
indicateur (ei119).
Quand au modèle structurel, il représente l’ensemble des relations linéaires supposées entre
les variables latentes (QLD, QS, Sat et IU). Il figure le système d’hypothèses élaboré pour
tenter d’expliquer un phénomène observé. Signalons que la lettre Dj désigne l’erreur de
mesure estimée d’une variable latente à expliquer.
La spécification d’un modèle consiste à déterminer les différents paramètres qui devront être
estimés : coefficients de régression, de corrélations, de covariances, contributions factorielles,
erreurs de mesure. En pratique, la spécification de ce premier modèle théorique s’opère en
deux étapes. La première est graphique. Elle consiste à représenter les différentes variables
latentes et les paramètres du modèle, ainsi que les relations linéaires et de mesure du modèle
global. La seconde correspond à la saisie d’informations dans le logiciel.
L’étape de spécification de ce modèle a été complexe pour le concepteur. Des difficultés sont
aperçues lors du choix de l’élimination des indicateurs de mesure des variables latentes.
119
ei : erreur de mesure pour chaque indicateur (i pour désigner l’item)
215
Chapitre6
1
e3 ITEM3
e57 e58
1 1 1
e5 ITEM5
Item57 Item58
1
e6 ITEM6 1
1 1
e7 ITEM7 IU D4
QLD
1
e8 ITEM8
1 1
e9 ITEM9
1
e10 ITEM10
1
e21 Item21
1
e23 ITEM23
1
1 QS Sat D3
1
e25 ITEM25
1 1
e22 Item22
120
Ce modèle présenté a subi les modifications nécessaires pour avoir un « bon » ajustement du modèle global.
Nous remercions Monsieur le Professeur B. Goldfarb pour son aide précieuse au niveau de la spécification et la
finalisation des deux modèles.
216
Chapitre6
QS QLD Sat IU
Sat 0,919 0,000 0,000 0,000
IU 0,805 0,298 -0,609 0,000
ITEM58 0,000 0,000 0,000 1,040
ITEM22 0,820 0,000 0,000 0,000
ITEM38 0,000 0,000 0,730 0,000
ITEM39 0,000 0,000 0,757 0,000
ITEM40 0,000 0,000 0,781 0,000
ITEM41 0,000 0,000 0,918 0,000
ITEM57 0,000 0,000 0,000 0,585
ITEM21 0,656 0,000 0,000 0,000
ITEM23 0,865 0,000 0,000 0,000
ITEM25 0,762 0,000 0,000 0,000
ITEM3 0,000 0,779 0,000 0,000
ITEM5 0,000 0,722 0,000 0,000
ITEM6 0,000 0,748 0,000 0,000
ITEM7 0,000 0,840 0,000 0,000
ITEM8 0,000 0,733 0,000 0,000
ITEM9 0,000 0,821 0,000 0,000
ITEM10 0,000 0,847 0,000 0,000
Tableau 47. Matrice de l’estimation des effets directs standardisés 121
A ce stade, il faut choisir la procédure d’estimation du modèle qui est nécessaire pour estimer
l’ensemble des paramètres. Nous avons choisi la méthode du maximum de vraisemblance.
« C’est une méthode itérative qui détermine les estimations finales des paramètres à travers
une recherche numérique à partir d’une solution de base fournie par la méthode TSLS (Two
Stage Least Squares) »122 (Akrout, 2005). C’est une méthode qui est devenue populaire dans
l’estimation des modèles de structure intégrant des variables latentes.
L’identification d’un modèle théorique signifie qu’il est possible de trouver une solution
unique. Il est possible d’établir une estimation unique de chaque paramètre (coefficients de
régression, de covariance, de régression, contributions factorielles). Lors de l’identification de
notre premier modèle nous avons rencontrer des problèmes liés à son niveau de complexité en
121
Cette matrice est présentée sous forme de graphique dans l’annexe n°6_CH6.
122
Cette méthode est définie par le Pr. F. Akrout dans un document préparé et présenté dans un programme de
formation destiné aux enseignants de la Faculté de Sciences Juridiques, Economiques et de Gestion de Jendouba
(23-24-26 Juin 2005)
217
Chapitre6
raison de l’apparition de solutions alternatives défendables tant du point de vue métrique que
théorique (Hair et al., 1998). Pour parvenir à l’identification de ce modèle, deux conditions
doivent être réunies :
- La première est qu’il y ait au moins autant d’observations dans la base de données
(155 observations) que de paramètres à estimer. Le fait de diviser notre modèle
théorique initial en deux modèles est expliqué par la taille de l’échantillon. Plus le
nombre de variables latentes et d’indicateurs est grand, plus la taille de l’échantillon
doit être grande. Le choix d’une procédure d’estimation détermine la taille d’un
échantillon. Des tailles minimales de cent à cent cinquante individus peuvent être
traitées par la méthode d’estimation la plus courante du maximum de vraisemblance.
123
df =ddl = ½ [ (p + q) (p + q + 1)] – t.
où : ddl = degrés de liberté (df = « degrees of freedom »)
p = nombre d’indicateurs des variables latentes à expliquer
q = nombre d’indicateurs de variables latentes explicatives
t = nombre de coefficients estimés dans le modèle théorique.
218
Chapitre6
Un bon ajustement est une condition pour procéder à l’interprétation des résultats.
L’ajustement est évalué successivement pour : le modèle global, le modèle de mesure et le
modèle structurel.
Pour faire l’ajustement du modèle global, il faut faire appel à plusieurs indices aux
caractéristiques différentes. Ces indices seront présentés sous forme du tableau 48. Ce dernier
présente les valeurs clés admises des principaux indices d’ajustement (Roussel et al., 2002),
ainsi que les propres valeurs du premier modèle testé :
- La fiabilité des variables latentes : La fiabilité de cohérence interne a été évaluée par
la valeur du rhô dans la section précédente (Voir Tableau 41 Signification et Fiabilité
composite par construit). Nous avons montré que la fiabilité de cohérence interne de
124
Pour plus d’indices d’ajustement du modèle global voir l’annexe n°6.1._CH6. Les principaux indices absolus
sont commentés dans l’annexe n°6.2._CH6. La définition des indices d’ajustement du modèle global est
présentée dans le même annexe.
219
Chapitre6
chaque construit du modèle théorique initial est bonne si la valeur de rhô ( ) est
supérieure à 0,8 (Fornell et Larker, 1981).
- La validité des construits : Pour apprécier la validité des construits, nous avons tenu
compte de la validité convergente et la validité discriminante.
La validité convergente existe quand deux mesures différentes d’un même concept sont
fortement corrélées. Pour mesurer la validité convergente, nous adoptons l’approche de
Anderson et Gerbing (1988)125 qui consiste à vérifier la significativité de la contribution
« loading » de chaque indicateur à la mesure du construit. Par référence au tableau suivant, on
peut remarquer que tous les liens de régression entre la variable latente et ses mesures sont
significatifs. Les valeurs de C.R. sont supérieures à 1,79. En cas de liens non significatifs, la
validité convergente ne peut être atteinte que si on élimine l’item dont la relation avec son
construit n’est pas significative (cette étape a été vérifiée aussi lors de la section 1 du chapitre
6).
Cette méthode a été critiquée par Steekamp et Tripp (1991)126 du fait qu’il faut associer à ce
critère de significativité des contributions factorielles : celui de la variance moyenne extraite.
125
Anderson, J.C. and Gerbing, D.W. (1988), « Structural equation modeling in practice : a review and
recommended two-step approach”, Psychological Bulletin, Vol. 103 N°. 4, pp. 411-23.
126
Steenkamp J.B.E.M. et H.C.V. Trijp (1991): «The use of Lisrel in validating Marketing Constructs »,
International Journal of Research in Marketing, Vol. 8, pp. 283-299.
220
Chapitre6
Il doit être supérieur à 0,5 (Fornell et Larker, 1981)127. Ce critère a été vérifié aussi lors du
traitement des données sous PLS-Graph (Section 1 du chapitre 6). Ce critère indique que
chaque indicateur lié à une variable latente partage plus de variance avec elle qu’avec d’autres
construits. Le tableau suivant montre la valeur de la variance moyenne extraite pour chaque
construit :
Estimate AVE
0,615
ITEM10 <-- QLD 0,84
ITEM9 <-- QLD 0,816
ITEM8 <-- QLD 0,727
ITEM7 <-- QLD 0,836
ITEM6 <-- QLD 0,752
ITEM5 <-- QLD 0,729
ITEM3 <-- QLD 0,783
0,596
ITEM25 <-- QS 0,758
ITEM23 <-- QS 0,851
ITEM21 <-- QS 0,656
ITEM22 <-- QS 0,811
0,640
ITEM41 <-- Sat 0,925
ITEM40 <-- Sat 0,776
ITEM39 <-- Sat 0,753
ITEM38 <-- Sat 0,732
0,715
ITEM57 <-- IU 0,585
ITEM58 <-- IU 1,043
Tableau 50. AVE et Coefficients de régression standardisés 128
La validité discriminante a été vérifiée dans la première section de ce chapitre. C’est une
méthode qui consiste à vérifier si la variance moyenne extraite pour chacun des deux
construits est plus grande que le ( ²)129 de ces deux construits (Fornell et Larker, 1981).
QLD QS Sat IU
QLD AVE = 0,615/
= 0,93
QS (0,861)²= AVE = 0,596/
0,74 = 0,81
127
Claes Fornell et David F Larcker (1981), « Evaluating structural equation models with unobservable variables
and measure… », Journal of Marketing Research, Feb 18, pp. 39-51.
128
Voir Annexe 6. 3. _CH6
129
: « Phi » indique la relation de symétrie entre deux variables latentes explicatives de type covariance.
221
Chapitre6
L’utilisation de cette approche n’est pas perçue dans nos travaux (C’est le cas de l’AVE de la
variable QLD et son lien structurel avec la variable QS avec un ²= 0,74, et c’est le cas de
l’AVE de la variable Sat et son lien structurel avec la variable QS avec un ²= 0,87). C’est
pourquoi, nous nous basons sur de cronbach. Nous notons que les liens structurels élevés au
carré sont inférieurs aux valeurs de alpha de cronbach, ce qui permet de retenir la validité
discriminante.
L’ajustement du modèle structurel est évalué dans cette étape. Cela nécessite de vérifier que
les relations linéaires entre les variables latentes désignées par les coefficients structurels sont
statistiquement différentes de zéro. Le logiciel AMOS.4 propose un test t de Student, le même
évoqué précédemment pour évaluer la validité convergente. Vu qu’on dispose de 155
observations, il est recommandé de choisir un seuil de signification de 2,5%. Dans ce cas, la
valeur de t doit être supérieur à 1,96. (Roussel et al., 2002)
Enfin, il est recommandé d’analyser pour chacune des variables latentes dépendantes le
pourcentage de variance expliquée. Le logiciel AMOS. 4 produit automatiquement cet indice.
(Voir le tableau 53). Plus le résultat est élevé, plus on peut considérer que la variable
130
Voir Annexe 6. 4._CH6 et 6. 5._CH6.
222
Chapitre6
endogène (dépendante) est bien expliquée par les autres variables qui lui sont associées.
(Roussel et al. 2002)
Estimate
Sat 0,845
IU 0,327
Tableau 53. Squared Multiple Correlations
La variable satisfaction est bien expliquée par les variables qui lui sont associées (Qualité de
service) alors que la variable intensité d’utilisation des AI est faiblement expliquée par les
autres variables (Qualité et localisation des données, Qualité de service et satisfaction des
utilisateurs).
- Test 1 : Tester si les variables à expliquer ont toutes les variables explicatives
comme causes communes ;
A l’issue de ces quatre tests, retenir comme modèle celui qui a le meilleur ajustement aux
données à l’issue du test des quatre hypothèses citées ci-dessus.
Dans notre cas pratique, le premier modèle conçu sur l’adéquation technologie-tâche (Voir
Annexe n°6_CH 6) désigne les relations à tester : d’une part, entre les variables indépendantes
de la qualité et la localisation des données (QLD) et la qualité de service offerte par les AI
(QS), d’autre part, les variables dépendantes de la satisfaction des utilisateurs (Sat) et
l’intensité d’utilisation des AI (IU). L’Annexe n°6_CH 6 nous présente les corrélations
223
Chapitre6
significatives entre les indicateurs des variables à expliquer. Celles observées entre les deux
indicateurs de l’intensité d’utilisation Y1131 (0,34) et Y2 (1,08). Les indicateurs de la
satisfaction des utilisateurs de cette technologie sont également positives et significatives
respectivement avec Y3 (0,53), Y4 (0,57), Y5 (0,61) et Y6 (0,84).
Ces deux variables latentes dépendantes (Sat et IU) étant liées statistiquement, ce résultat
permet de tester les hypothèses 1 à 4.
1.4.2.2. Test 1
Ce test consiste à valider ou infirmer la proposition suivante : si les variables expliquées ont
toutes les variables explicatives comme causes communes. Ce test nécessite de mettre en
relation chaque variable à expliquer avec toutes les variables explicatives. Si la corrélation
partielle entre 4 (0,33) et 3 (0,85) est de zéro, ce qui n’est pas le cas et que les variables
dépendantes sont reliées aux variables indépendantes, l’hypothèse 1 est vérifiée. Alors les
variables à expliquer 4 et 3 auront indépendamment les mêmes causes. Dans ce cas le test 1
invalide la proposition sus-mentionnée : les variables explicatives ne sont pas toutes des
causes communes aux variables à expliquer, il est possible de tester les hypothèses suivantes.
1.4.2.3. Test 2
131
Y : Indicateur des variables latentes à expliquer ; X : indicateur des variables latentes explicatives.
132
: « Bêta » indique la relation linéaire entre deux variables latentes à expliquer. Dans notre cas, cette relation
est linéaire non réciproques entre Sat et IU. Cette relation est dite récursive ou asymétrique.
133
: « Gamma » indique la relation d’asymétrie correspondant à une relation linéaire ou structurelle entre une
variables latente explicative et une variables latente expliquée.
224
Chapitre6
1.4.2.4. Test 3
Dans notre cas cette relation a été éliminée lors de la re-spécification de ce modèle. Cette
élimination est due au fait que l’intensité de l’utilisation n’a statistiquement pas de lien avec la
satisfaction des utilisateurs.
1.4.2.5. Test 4
Ce dernier test cherche à vérifier ou infirmer la proposition selon laquelle les deux variables
expliquées s’influencent réciproquement. Nous n’avons pas testé cette proposition parce que
les deux variables dépendantes (Sat et IU) sont liées par une relation linéaire non réciproque.
En résumé, la qualité et la localisation des données a un effet positif mais non significatif
sur l’intensité d’utilisation des AI.
225
Chapitre6
Le modèle de mesure représente les relations linéaires supposées entre les variables latentes134
et leurs indicateurs :
- Quatrième variable latente : L’intensité d’utilisation des AI (IU) : Cette variable est
mesurée par ces indicateurs : item57 et item58.
- Sixième variable latente : L’utilité perçue des AI (PUse)135 : Cette variable est
mesurée par ces indicateurs : item42, item43, item45, item46 et item47.
134
Nous avons gardé l’ordre de numérotation des variables latentes par rapport au premier modèle de
l’Adéquation Technologie Tâche.
135
Cette variable (PUse) représente deux variables latentes (P et JQ) séparées lors des traitements statistiques
réalisées sous SPAD. Le nombre élevé de variables latentes examinées sous ce logiciel n’a pas posé de
problème. Vu que ces deux variables sont fortement corrélées, on les a fusionnées lors de la spécification du
modèle sous PLS et AMOS 4.
226
Chapitre6
D3
1 D6
EOUse
PUse
1 1
1 1 1 1 1 1 1 1 1
227
Chapitre6
Afin d’interpréter les résultats. Il faut évaluer la qualité de l’ajustement de ce modèle aux
données.
Pour faire l’ajustement du modèle global, il faut se baser sur plusieurs indices aux
caractéristiques différentes. Ces indices seront présentés sous la forme du tableau suivant.
136
Cette matrice est présentée sous forme de graphique dans l’annexe n°7_CH6.
228
Chapitre6
Le tableau 55 présente les valeurs clés admises : les principaux indices d’ajustement (Roussel
et al., 2002), ainsi que les propres valeurs du deuxième modèle testé :
- La fiabilité des variables latentes : La fiabilité de cohérence interne a été évaluée par
la valeur du rhô dans la section précédente (Voir Tableau 41 Signification et Fiabilité
composite par construit). Nous avons montré que la fiabilité de cohérence interne de
chaque construit du modèle théorique initial est bonne si la valeur de rhô ( ) est
supérieure à 0,8 (Fornell et Larker, 1981).
Rappelons que la validité convergente existe quand deux mesures différentes d’un même
concept sont fortement corrélées. Le tableau 56 montre tous les liens de régression entre la
variable latente et ses mesures sont significatifs. Les valeurs de C.R. sont supérieures à 1,79.
En cas de liens non significatifs, la validité convergente ne peut être atteinte que si on élimine
l’item dont la relation avec son construit n’est pas significative. C’est le cas de l’item 58
137
Pour plus d’indices d’ajustement du modèle global voir l’annexe n°7. 1._CH6
229
Chapitre6
mesurant l’intensité d’utilisation des AI qui n’a pas une relation significative. Pour atteindre
cette validité, il faut normalement l’éliminer. Nous l’avons gardé pour tester la relation de la
variable de l’intensité avec les autres variables du modèle.
Estimate AVE
0,708
ITEM36 <-- EOUse 0,88
ITEM31 <-- EOUse 0,889
ITEM32 <-- EOUse 0,816
ITEM35 <-- EOUse 0,776
0,779
ITEM47 <-- PUse 0,829
ITEM45 <-- PUse 0,924
ITEM43 <-- PUse 0,978
ITEM46 <-- PUse 0,711
ITEM42 <-- PUse 0,945
0,630
ITEM38 <-- Sat 0,756
ITEM39 <-- Sat 0,764
230
Chapitre6
La validité discriminante est une méthode qui consiste à vérifier si la variance moyenne
extraite (AVE) par chacun des deux construits est plus grande que le ( )² de ces deux
construits (Fornell et Larker, 1981).
138
Voir Annexe 7. 2._CH6
139
Voir Annexe 7. 3._CH6 et 6. 5._CH6.
231
Chapitre6
L’ajustement du modèle structurel est évalué dans cette étape. Cela nécessite de vérifier que
les relations linéaires entre les variables latentes désignées par les coefficients structurels sont
statistiquement différentes de zéro. Dans ce cas, la valeur de t doit être supérieure à 1,96.
(Roussel et al., 2002).
Ce tableau montre les relations testées non significatives entre ces variables et dont la valeur
du C.R. n’atteint pas 1,96 :
Enfin, nous présentons dans le tableau 61 le pourcentage de variance expliquée pour chacune
des variables latentes dépendantes. Le logiciel AMOS. 4 produit automatiquement cet indice.
Plus le résultat est élevé, plus on peut considérer que la variable endogène (dépendante) est
bien expliquée par les autres variables qui lui sont associées. (Roussel et al. 2002).
232
Chapitre6
Estimate
PUse 0,539
Sat 0,928
ItoUse 0,65
IU 0,08
Tableau 61. Squared Multiple Correlations
La variable satisfaction est bien expliquée par les variables qui lui sont associées (La facilité
d’utilisation des AI et l’utilité perçue des AI) alors que la variable intensité d’utilisation des
AI est faiblement expliquée par les autres variables (La facilité d’utilisation des AI, l’utilité
perçue des AI et l’intention d’utiliser cette technologie dans le processus de prise de décision).
L’utilité perçue est moyennement expliquée par la facilité d’utilisation des AI. Ainsi,
l’intention d’utiliser cette technologie est moyennement expliquée par les autres variables (la
satisfaction des utilisateurs, la facilité d’utilisation et l’utilité perçue).
Pour résoudre un modèle d’équations structurelles, nous suivons les étapes de la méthode de
Jöreskog et Sörbom140 qui a été appropriée dans le premier modèle.
Le deuxième modèle proposé va être interprété avec les relations non significatives dans le
but de tester le maximum de relations entre les variables.
Dans notre cas pratique, le deuxième modèle conçu sur l’acceptation de la technologie des AI
(Voir Annexe n°7_CH 6) désigne les relations à tester entre d’une part, la variable
indépendante de la facilité d’utilisation des AI (EOUse), d’autre part, les variables
dépendantes de l’utilité perçue (PUse), la satisfaction des utilisateurs (Sat), l’intensité
d’utilisation des AI (IU) et l’intention d’utiliser les AI dans le processus de prise de décision
(ItoUse).
2.2.2.2. Test 1
Dans ce test, nous examinons si les variables expliquées ont toutes une variable explicative
comme cause commune. Ce test nécessite de mettre en relation chaque variable à expliquer
140
Jöreskog, K.G.et Sörbom, D. (1996). LISREL 8 : user’s reference guide. Chicago, IL : Scientific Software
International, Inc.
233
Chapitre6
avec toutes les variables explicatives. Si la corrélation partielle entre 3 (0,93), 4 (0,08), 6
(0,54) et 7 (0,65) est de zéro, ce qui n’est pas le cas et que les variables dépendantes sont
reliées aux variables indépendantes, la proposition est vérifiée. Alors les variables à expliquer
3, 4, 6 et 7 auront indépendamment les mêmes causes. Dans ce cas la proposition est
invalidée, les variables explicatives ne sont pas toutes des causes communes aux variables à
expliquer, il est possible de passer aux tests suivants.
2.2.2.3. Test 2
Dans ce modèle, l’utilité perçue des AI 6 a un effet positif et significatif sur la Satisfaction
des utilisateurs 3 ( = 0,61 ; t = 7,527). Elle est également associée à la facilité d’utilisation
des AI de manière positive et significative ( = 0, 73 ; t = 9,367).
L’utilité perçue des AI 6 a un effet positif et non significatif sur l’intention d’utiliser les AI
dans le processus de prise de décision 7 ( = 0,12 ; t = 0,405).
L’utilité perçue des AI 6 a un effet négatif et non significatif sur l’intensité d’utilisation des
AI 4 ( = - 0,01 ; t = - 0,088)
2.2.2.4. Test 3
Selon ce test, la variable expliquée Satisfaction des utilisateurs 3 influence l’autre variable
expliquée de l’intention d’utiliser les AI dans le processus de prise de décision 7. La
première variable (Sat) a une influence positive mais non significative sur la deuxième
variable (ItoUse) ( = 0,67 ; t = 1,406). La variable Satisfaction des utilisateurs est associée à
la facilité d’utilisation des AI de manière positive et significative ( = 0, 42 ; t = 5,911).
Aussi, l’intensité d’utilisation (IU) est négativement associée à la facilité d’utilisation des AI
(EOUse) avec un seuil non significatif. ( = - 0, 04 ; t = -0,491).
234
Chapitre6
2.2.2.5. Test 4
Le dernier test cherche à vérifier ou infirmer la proposition selon laquelle les variables
expliquées s’influencent réciproquement. Dans notre modèle pratique, nous n’avons pas ce
genre de relations à tester. Les variables dépendantes (PUse, Sat, ItoUse et IU) sont reliées par
des relations directionnelles dites récursives ou asymétriques.
La facilité d’utilisation des AI (EOUse) et l’utilité perçue (PUse) ont un effet non
significatif sur l’intention d’utiliser les AI et l’intensité d’utilisation.
L’utilité perçue (PUse) a un effet positif et significatif sur la satisfaction des utilisateurs.
235
Chapitre6
Legris et al. (2003) ont présenté dans leur article les études utilisant le modèle de
l’Acceptation d’une Technologie (TAM) dans le but de :
Sur la base de ces cinq composantes présentes, dix relations peuvent être examinées : (1)
PEOU-PU ; (2) PU-AT ; (3) PEOU-AT ; (4) PU-BI ; (5) PEOU-BI ; (6) AT-BI ; (7) AT-U ;
(8) BI-U ; (9) PEOU-U ; (10) PU-U.
Le tableau suivant montre qu’il n’y a pas une étude qui a incorporé toutes ces relations.
Auteurs Logiciels Taille de Modèle utilisé
l’échantillon (TAM)
Davis F.D. (1989) Editeur de texte : 107 étudiants du TAM + TRA
programme MBA (“Theory of reasoned
permettant d’éditer un action”: Théorie de
fichier texte sans les l’action raisonnée ;
caractéristiques de Fishbein and Ajzen,
formatage ou les 1975)
caractères de contrôle
Davis F.D. (1989, E-mail, éditeur de 112 professionnels et TAM
1993) texte managers
Mathieson K. (1991) Tableur 262 étudiants en cours TAM + TPB
de l’introduction à la (“Theory of Planned
gestion Behaviour”: Théorie
du comportement
planifié, Mathieson,
1991)
Davis F.D., Bagozzi « Writeone » : 200 et 40 étudiants de TAM, TAM
R., Warshow P.R. compositeur MBA
(1989) « chartmaster » :
236
Chapitre6
Tableur
Subramaninan G.H. « Voice mail 75 et 104 sujets TAM
(1994) system » : Courrier
vocal : possibilité
dans un système
téléphonique de
recevoir des messages
vocaux destinés à l’un
des usager et de les
stocker de manière
informatique
« Customer dial-up
system » :
Branchement de
l’ordinateur au réseau
Internet au moyen
d’un modem par un
câble téléphonique
existant
Taylor S. & Todd P. Université de calcul, 786 étudiants TAM + normes
(1995, 1995) centre de ressources, subjectives + contrôle
étudiants de l’école de de comportement
commerce perçu.
Taylor S. and Todd P. Université de calcul, 786 étudiants TAM + TPB + TPB
(1995, 1995) centre de ressources, décomposé.
étudiants de l’école de
commerce
Keil M., Beranek Logiciels de 118 développeurs des TAM
P.M., Konsynski B.R. formation techniques de ventes
(1995) nouvelles
Szajna B. (1996) Courriers 61 étudiants gradués TAM
électroniques
Chau P.Y.K. (1996) Boîtier qui renferme 2500 professionnels TAM modifié par
les pièces internes en technologies de l’utilité à court et long
d’un ordinateur l’information terme.
Venkatesh V. Davis Trois expériences 108 étudiants TAM modèle des
F.D. (1989) avec six logiciels antécédents de la
facilité d’utilisation
perçue
Jackson C.M., Chow Tableur, base de 244, 156, 292, 210 TAM validation des
S., Leitch R.A. (1997) données, logiciels de étudiants instruments de
traitement de texte, l’utilité perçue et de la
graphique facilité d’utilisation.
Igbaria M., Cragg P., Calcul personnel 596 Utilisateurs de TAM dans les petites
Zinatelli N., Cavaye PC entreprises
A. (1997)
Bajaj A., Nidumolu Outils de correction 25 étudiants TAM + faire une
S.R. (1998) des erreurs de boucle pour retourner
programmation l’ajustement
Gefen D. & Keil M. Logiciels de 307 développeurs des TAM pour tester
237
Chapitre6
L’analyse des relations entre les variables testées est présentée dans le tableau suivant. Cela
montre une proportion élevée de résultats positifs pour l’ensemble de ces relations. Ces
résultats favorables mettent en valeur ces variables qui sont reliées à l’intention d’adopter la
technologie de l’information. Ces variables ne sont pas suffisantes pour prédire l’adoption
d’une technologie de l’information.
238
Chapitre6
Poste de
formation Oui141 Oui Non142 Oui Oui Oui 143
Oui
fin du semestre Oui Oui Oui Oui Oui Oui Oui
Davis (1989,
1993) Oui Oui Oui Oui Oui
Mathieson (1991) Oui Oui Oui Oui Oui
Davis et al.
(1989)
Compositeur Oui Oui Oui Oui Oui Oui
Tableur Oui Oui Oui Oui Oui Oui
Subramanian
(1994)
Courrier vocal Non Oui Non
Client connecté à
Internet Non Oui Non
Taylor & Todd
(1995, 1995)
Avec expérience OUi OUi OUi OUi Non Oui
Sans expérience OUi OUi OUi OUi Non Oui
Taylor & Todd
(1995, 1995) Oui Oui Oui Oui Non Oui
Keil et al. (1995) Oui Non Oui
Szajna (1996)
Pré-
implémentation Oui Oui Oui Oui Non Non
Post-
implémentation Oui Oui Oui Oui Non Non
Chau (1996) Oui Oui Oui
Davis et al.
(1989) Oui Oui Oui
Jackson et al.
(1997) Non Non Oui Non Oui Non
Igbaria et al.
(1997) Oui Oui Oui
Bajaj & Invers
Nidumolu (1998) Non e144 Oui Oui Non
Gefen & Keil
(1998) Oui Non Oui
Agarwal & Prasad
(1997, 1999) Oui Oui Oui Oui Oui
Lucas & Spitler
(1999)
Oui Non Non Non Non
141
Oui indique une relation significative et positive.
142
Non indique une relation non-significative.
143
Le blanc est une relation non mesurée.
144
Inverse est une relation significative mais négative.
239
Chapitre6
Karahanna et al.
(1999)
Utilisateurs
potentiels Oui Oui Oui
Utilisateurs
actuels Oui Oui Oui
Hu et al. (1999) Non Oui Non Oui Oui
Dishaw & Strong
(1999) Oui Oui Non Oui Non Non
Venkatesh&Davis
(1996, 2000) Oui Oui Oui Oui
Venkatesh&
Morris (2000) Oui Oui Oui
Tableau 63. Types de relations trouvées (Legris et al., 2003)
Nous présentons les résultats de ces auteurs d’une façon détaillée dans le tableau 64.
Auteurs Résultats
Davis (1989, 1993) TAM sert d’intermédiaire entre les effets des caractéristiques du système sur le
comportement de l’utilisation expliquant 36% de la variance de l’utilisation.
L’utilité perçue a plus d’influence (de 50%) que la facilité d’utilisation sur la
détermination de l’utilisation.
Davis et al. (1989) L’utilité perçue prévoit des intentions d’utilisation alors que la facilité
d’utilisation est secondaire et agit à travers l’utilité perçue.
Les attitudes ont un impact faible servant d’intermédiaire entre les perceptions
et l’intention à utiliser la technologie.
Mathieson (1991) Les deux modèles (TAM et TRA) prévoient mieux les intentions à utiliser une
technologie.
TAM est plus facile à appliquer, mais il fournit seulement une information
générale.
TPB fournit mieux une information spécifique pour les développeurs.
Davis et al. (1989) L’utilité et le plaisir expliquent 62% (1ère étude) et 75% (2ème étude) de la
variance dans les intentions d’utilisation
Ils servent d’intermédiaires entre les effets sur les intentions d’utilisation de la
qualité des résultats perçus et la facilité d’utilisation perçue.
La mesure de l’importance de la tâche modère les effets de la facilité
d’utilisation et la qualité des résultats sur l’utilité et non sur le plaisir.
Subramaninan (1994) L’utilité perçue (et non pour la facilité) est un déterminant de l’utilisation
future.
Taylor & Todd (1995, TAM modifié explique l’utilisation pour les expérimentés et les non
1995) expérimentés.
Un lien fort entre l’intention comportementale et le comportement des
utilisateurs expérimentés.
Les variables antécédentes prévoient mieux les intentions des utilisateurs non
expérimentés.
Taylor and Todd Les modèles améliorés se basent sur l’ajustement et l’explication du
(1995, 1995) comportement.
TPB fournit une compréhension complète des intentions d’utilisation
Les attitudes dans le modèle TAM ne sont pas des prévisions significatives sur
l’intention d’utilisation.
Keil et al. (1995) L’utilité est un facteur plus important que la facilité dans la détermination de
l’usage du système
240
Chapitre6
241
Chapitre6
Venkatesh & Morris En comparant la technologie utilisée par les hommes ou les femmes. La
(2000) relation entre le sexe et la technologie est plus influencée par leurs perceptions
de l’utilité.
Les femmes sont plus influencées par la perception de la facilité d’utilisation
et les normes subjectives, à travers l’effet des normes subjectives diminuées
tout le temps.
Tableau 64. Résumé des résultats des recherches antérieures (Legris et al., 2003)
Les nouvelles études effectuées entre 2000 et 2005 reprennent les mêmes variables à tester les
plus connues sont réalisées par Rai et al. (2002), Davis et al. (2003), Sabherwal et al.
(2004)…
Après avoir évoqué les principales études, nous récapitulons nos propres résultats et la
confirmation des hypothèses testées suite au traitement des données.
Nous présentons dans cette sous-section les résultats de la méthode d’équations structurelles.
Dans ce tableau nous présentons les relations testées qui structurent les deux modèles conçus
dans le but d’affirmer et d’infirmer les hypothèses théoriques et qui sont constatées à partir
l’élaboration de ces deux modèles.
242
Chapitre6
145
Les hypothèses sont indicées en fonction de la numérotation des variables latentes. (V1 = QLD ; V2 = QS ;
V3 = Sat ; V4 = IU ; V5 = EOUse ; V6 = PUse ; V7 = ItoUse.)
146
ddl = 2,146; p = 0,000; RMSEA= 0,086; AGFI = 0,778; NFI = 0,892; RMR = 0,095.
147
ddl = 2,366 ; p = 0,000; RMSEA= 0,094; AGFI = 0,793; NFI = 0,897; RMR = 0,054.
243
Chapitre6
244
Chapitre6
D’après ce tableau récapitulatif des relations linéaires entre les variables latentes des deux
modèles nous concluons que :
c. Les autres variables de ce premier modèle (la qualité et la localisation des données)
et celles du deuxième modèle (la facilité d’utilisation des AI, l’utilité perçue des AI et
l’intention de les utiliser dans le processus de prise de décision) n’ont pas d’effet significatifs
sur l’intensité d’utilisation des AI.
a. L’utilité perçue des AI a plus d’influence sur la satisfaction des utilisateurs que la
facilité d’utilisation des AI.
245
Chapitre6
En se basant sur les travaux antérieurs et nos propres résultats, ces derniers convergent avec
ceux de Dishaw & Strong (1999) au niveau de la combinaison des deux modèles classiques
(TTF/TAM), ces auteurs se sont basés sur l’évaluation de l’utilisation des outils de
maintenance appliquée sur un échantillon composé de firmes financières (60 projets dans 50
firmes). Ils ont réussi à démontrer des relations positives entre les variables perceptuelles : la
facilité d’utilisation / l’utilité perçue (EOU/PU) ; l’utilité perçue / l’attitude envers (PU/AT) ;
l’utilité perçue / l’intention d’utilisation (PU/BI) ; l’attitude envers / l’intention d’utilisation
(AT/BI). Et à trouver des relations négatives entre ces deux variables : l’intention d’utilisation
/l’utilisation actuelle (BI/U) ; l’utilité perçue / l’utilisation actuelle (PU/U).
Dans notre recherche nous avons remplacé les variables suivantes : « l’attitude envers : AT»
par la variable « Satisfaction des utilisateurs :SAT » ; « l’intention d’utilisation : BI» par
« l’intention d’utilisation des AI dans le processus de prise de décision : ItoUse » et
« l’utilisation actuelle : U » par « l’intensité d’utilisation des AI : IU ». Le test des relations
entre ces variables est présenté dans le tableau suivant :
Relations
testées liées
aux travaux
PEOU- PEOU- PEOU- PEOU-
antérieurs
PU PU-AT AT PU-BI BI AT-BI AT-U BI-U U PU-U
Résultats de Oui148 Oui 149
Oui Oui Non150 Non
Strong &
Dishaw
(1999)
Relations
testées liées
à notre
EOU- PU- EOU- PU- EOU- SAT- SAT- Ito EOU-
étude
PU SAT SAT ItoUse ItoUse ItoUse IU Use-IU IU PU-IU
Résultats de Oui Oui Oui Non Non Non Inverse Non Non Non
151
notre étude
(2006)
148
Oui indique une relation significative et positive.
149
Le blanc est une relation non mesurée.
150
Non indique une relation non-significative.
151
Inverse est une relation significative mais négative.
246
Chapitre6
Ce tableau montre que notre comparaison est envisagée dans le cadre de quelques relations
qui se rapprochaient de celles testées par Dishaw et Strong. D’autres relations ont été testées
et ne sont pas présentées dans ce tableau. Les relations exposées ci-dessus sont celles qui
peuvent être comparées aux travaux antérieurs. Ceci est dû aux raisons suivantes :
- La taille de notre échantillon est relativement moyenne par rapport aux autres
travaux.(Voir Tableau 62)
- Notre recherche s’approche des travaux de Dishaw et Strong au niveau du choix des
modèles d’évaluation de l’utilisation des technologies de l’information. Le modèle
intégré (TTF/TAM) que nous avons testé sous PLS conduit à une meilleure
compréhension de choix de l’utilisation des AI.
247
Chapitre6
Conclusion
Dans ce chapitre, nous avons fait de l’analyse confirmatoire qui consiste à tester à l’aide des
indicateurs de structure les meilleurs modèles et à vérifier les variances restituées pour chaque
item. Une analyse structurelle a été réalisée pour analyser deux modèles. En se basant sur les
liens linéaires entre les variables mesurant des concepts, il s’agit de tester un modèle par
rapport à un autre. Des indices d’ajustement permettent de tester l’expérimentation par rapport
au modèle théorique. Les logiciels les plus utilisés sont EQS, LISREL, PLS et AMOS.
Dans cette analyse, nous avons utilisé en premier lieu le logiciel PLS-Graph dans le but de
tester la fiabilité des items de mesure, la validité convergente et discriminante entre les
variables latentes pour vérifier leurs corrélations. Nous avons testé toutes les relations
linéaires possibles entre les variables du modèle théorique. L’utilisation de ce logiciel nous a
permis d’avoir une vue globale sur les variables latentes constitutives de ce modèle, leurs
relations entre elles et avec leurs indicateurs de mesure. Cette vue a facilité de dégager deux
modèles structurels qui ont été examinés sous le logiciel AMOS 4. Ce logiciel est conçu un
matériel pédagogique servant à expliquer de manière visuelle les matrices d’équations
structurelles nécessaires pour la démarche LISREL.
C’est l’analyse confirmatoire ou confirmative des données qui permet d’apporter un soutien
empirique à un modèle théorique selon :
- La validité structurelle qui permet de vérifier que les liens de « causalité » entre les
variables théoriques sont conformes à celles définies dans le modèle.
248
Synthèse de la Partie 2.
Résumé des résultats du processus
d’analyse des données
Nous avons testé la validité du modèle sur une réalité concrète par la construction et la
diffusion d’un questionnaire auprès d’utilisateurs d’agents intelligents appartenant à différents
départements faisant partie de grandes entreprises françaises. Ces étapes ont été explicitées
dans le chapitre 4.
Le processus d’analyse mis en œuvre est composé de trois étapes :
- La première analyse est descriptive pour tester l’homogénéité de l’échantillon.
- La deuxième analyse est exploratoire : une Analyse en Composantes Principale est
utilisée pour réduire le nombre de variables à tester. Nous avons fait appel à une
classification appliquée séparément sur les deux modèles (TTF/TAM) afin de
comprendre le comportement des utilisateurs des AI. Ces deux traitements ont été
réalisés sous le logiciel SPAD. Enfin une analyse de variance est mise en place pour
mesurer le degré d’influence entre les caractéristiques de la technologie sur les
variables des deux modèles d’une part. nous avons testé, d’autre part, l’influence des
variables démographiques sur le deuxième modèle. Le traitement de données de cette
analyse est réalisé sous SPSS.
Ces deux premières analyses sont présentées dans le chapitre 5.
- La troisième analyse est confirmatoire et elle est composée de deux traitements :
Dans le premier traitement, nous avons testé dans un premier temps toutes les relations
possibles qui forment un modèle intégré sous PLS-Graph, nous avons retenu dans un
second temps, 24 relations suite à l’élimination des variables latentes qui n’ont pas
vérifié la validité convergente. Ce test conduit à une compréhension de choix sur
l’utilisation des AI, mais l’utilisation de ce logiciel a montré ses limites. C’est pourquoi,
nous avons élaboré et spécifié dans le deuxième traitement, sous AMOS deux modèles
résultant du premier traitement (le premier modèle est composé de cinq relations et le
second est composé de neuf relations)
Cette dernière analyse est présentée dans le chapitre 6.
249
1. Résultats de la première phase descriptive des données
250
3. Résultats de la phase confirmatoire
H1: Tester l’impact des L’impact des fonctionnalités Testée et non validée.
caractéristiques de la tâche et des AI sur les variables de
celles de la technologie sur les l’Adéquation Technologie-
variables de l’Adéquation Tâche est plus élevé que les
Technologie-Tâche caractéristiques de la tâche
251
variables de l’Adéquation localisation des données sur dépend fortement de la qualité
Technologie-Tâche sur l’intensité de l’utilisation des de service des AI.
l’intensité d’utilisation des AI est plus élevé que leur
AI. qualité du service
252
Conclusion Générale
253
Conclusion générale
Dans cette perspective, trois questions de recherche ont particulièrement retenu notre
attention :
- Comment peut-on faire le choix entre les différents agents intelligents pour collecter,
traiter et diffuser les informations ?
Notre démarche s’est appuyée sur un cadre théorique qui nous a permis de délimiter et
d’harmoniser différents champs de recherche, de construire un modèle théorique (Première
partie de la thèse) et de recourir à diverses méthodologies synthétisées (Deuxième partie),dans
le tableau 68. Celui-ci, tiré d’un article de Banker & Kauffman de 2004, montre toutes les
méthodologies auxquelles on peut recourir dans le cadre d’une recherche en Systèmes
d’Information. Il permet également d’expliquer les cinq grands courants de la recherche en
Systèmes d’Information :
- Le premier courant focalise son attention sur l’application des ordinateurs dans
l’assistance à la décision, au contrôle et à la prise de décision managériale.
254
Conclusion générale
- Le quatrième courant centre ses analyses à la fois sur le lien entre la valeur de
l’investissement en SI et son impact économique et sur la perception d’un tel système
par son utilisateur.
- Le cinquième courant couvre l’économie des SI et des TI, et étudie l’application des
méthodes et perspectives théoriques de l’économie empirique et analytique aux
problèmes managériaux impliquant les SI et les TI.
255
Conclusion générale
152
Qualité de système, théorie de traitement de l’information et intelligence artificielle sont ajoutés par l’auteur de cette thèse. Les flèches pointillées montrent notre parcours
au sein de la recherche SI.
256
Conclusion générale
Notre raisonnement s’est inscrit dans plusieurs de ces courants de recherche (voir parties
surlignées du tableau 68) ce qui a justifié le plan de notre thèse.
Notre travail de recherche, focalisé sur l’Agent Intelligent a montré que celui-ci est une
technologie de traitement automatique de l’information, aujourd’hui au cœur du système
d’information et de la veille stratégique. Il est donc au service du processus dynamique de
veille stratégique et du système d’information. Il reste que cet outil très récent ne se substitue
pas et n’élimine pas d’autres outils plus traditionnels mais toujours d’actualité. Notre choix a
été fait en fonction de la « modernité » de cette technologie et de son lien particulier avec la
veille stratégique.
A travers les caractéristiques et les applications de la technologie des agents intelligents nous
avons présenté trois types de classifications. La première est liée aux architectures de cette
technologie (domaine de l’intelligence artificielle), la deuxième est liée au domaine de
commerce et la troisième est liée au Web. Nous sommes toutefois conscients que notre
démarche, à ce niveau, est restée quelque peu technique. Nous avons présenté par la suite la
première phase d’exploration du terrain dont l’objectif est de comprendre l’utilisation des
outils de la veille stratégique.
La technologie des AI est donc essentielle dans le processus de veille stratégique. Nous avons
cependant montré l’importance de la présence humaine dans tout modèle d’évaluation des SI.
Notre recherche nous a permis de positionner l’agent humain en face de l’agent intelligent
afin d’évaluer l’utilisation de cette technologie. Dans ce cadre, nous avons rencontré quelques
limites conceptuelles : le rapprochement du champ de l’IHM de celui du MSI a été difficile à
établir ; le choix entre les différents modèles d’évaluation des SI proposés par la littérature n’a
pas toujours été aisé à effectuer.
257
Conclusion générale
Dans notre travail de terrain, nous avons découvert de nombreux domaines d’application des
AI. Cependant, le nombre restreint des entretiens réalisés dans la première phase
d’exploration du terrain (6 entretiens) n’a pas permis de lancer l’étude empirique que nous
avions envisagé de mener. C’est donc un travail qui reste à faire afin de comprendre le
processus d’implémentation d’un AI dans une entreprise donnée, en fonction de son
organisation, et de saisir les domaines d’application les plus appropriés.
Le recours à l’ACP a permis d’identifier et d’éliminer les items perturbateurs pour les deux
modèles utilisés. Neuf classes d’utilisateurs ont donc été retenues dans notre classification :
cinq pour le modèle TFF et quatre pour le modèle TAM. Dans le cadre de cette classification,
nous avons proposé une typologie des utilisateurs des AI en fonction de la technologie
utilisée, du secteur d’activité de l’entreprise, du département concerné et de la tâche de
l’utilisateur. Enfin, l’analyse de la variance a permis de chercher la liaison entre les variables
nominales (age, sexe, langue, département, tâche, AI utilisé) et les variables continues de
chaque modèle. Cependant, là aussi, nous avons rencontré quelques limites conceptuelles
liées au choix des variables intégrées dans le modèle théorique global, à la non prise en
compte de la qualité de l’information, à l’élimination de l’item 37 (qui mesure la satisfaction
des utilisateurs de l’information produite par les AI) lors de l’analyse confirmatoire sous PLS.
Nous avons choisi de suivre une approche qui considère la qualité du système et de
l’information comme un tout. Or, il existe d’autres approches qui les séparent et/ou qui
intègrent la variable temps de sorte à étudier séparément qualité du système et information.
Nous avons également été confronté à une limite empirique. Notre étude a été centrée sur une
perspective individuelle ce qui a exclu de notre champ de recherche l’impact organisationnel
de l’utilisation de la technologie des AI. Là aussi, le travail de recherche mériterait d’être
approfondi, notamment dans le choix d’autres variables de mesure, dans le cadre d’un
contexte élargi à la dimension organisationnelle. En faisant, par exemple, une étude pré et
post implémentation d’un AI dans une entreprise, en choisissant une organisation « idéale ».
Malgré ces limites, notre travail de recherche a permis, grâce aux méthodes d’équations
structurelles PLS Graph et AMOS 4, de tester toutes les relations du modèle théorique et les
258
Conclusion générale
relations existantes dans les deux sous-modèles re-spécifiés : la fiabilité et la validité des
instruments de mesure utilisés a été vérifiée ; des relations significatives, positives et
négatives entre les variables composant les deux modèles ont été trouvées. Pour autant, vu le
nombre élevé des variables latentes et la taille réduite de l’échantillon, nous n’avons pas pu
tester tout le modèle théorique sous AMOS. Dans ce cadre, il serait utile de poursuivre la
recherche en intégrant la variable temps, en faisant une étude longitudinale pour découvrir le
changement perceptuel des utilisateurs qui s’en suivrait.
Au bout du compte, nous constatons que les résultats de notre recherche ont des implications
multiples en terme théoriques et pratiques.
Au plan théorique, une contribution essentielle de cette recherche est la nécessaire extension
du modèle de l’acceptation d’une technologie pour y inclure des facteurs identifiant les
besoins fonctionnels de cette technologie.
Pour la recherche, les différences et les superpositions entre les deux modèles doivent être
explorées au fond.
Les résultats de Dishaw & Strong (1999) suggèrent que les aspects de l’utilisation sont
déterminés par les perceptions des utilisateurs en fonction de l’utilité et la facilité d’utilisation
des outils et l’attitude générale envers l’utilisation des outils. Cependant, d’autres aspects sont
affectés en combinant une fonctionnalité spécifique à un outil aux besoins spécifiques d’une
tâche.
Notre modèle théorique global a été développé spécialement pour la technologie des AI.
Cependant, à l’exception du construit mesurant les fonctionnalités des AI (qui est spécifique à
cette technologie), tous les autres construits sont applicables à d’autres types de technologies
de l’information. Pour ces raisons, les résultats de notre recherche pourraient être étendus aux
différentes technologies de l’information (TI). Cette hypothèse mériterait une étude de
validation pour ces autres technologies.
259
Conclusion générale
Notre modèle a été testé dans plusieurs secteurs d’activités d’entreprises. Les participants à
notre enquête ont montré tout l’intérêt qu’il y a à utiliser cette technologie. D’après nos
résultats, l’utilisation des AI couvre les deux premiers stades du processus de prise de
décision : l’identification des problèmes ; la proposition de solutions alternatives. Nous ne
sommes toutefois pas arrivés au stade de la conception d’un AI qui sélectionne la solution
« idéale ». Par ailleurs, un AI qui couvrirait tout le cycle de prise de décision n’est pas encore
diffusé à tous les acteurs d’une organisation. Actuellement, un AI peut assurer :
Enfin, nous avons constaté que la mise en œuvre d’un AI dans une entreprise s’accompagne
d’un changement organisationnel, parfois culturel, dont les effets financiers (coût) ne sont pas
négligeables. Cela expliquerait, en partie, pourquoi cette technologie est plutôt utilisée dans
les grandes entreprises.
260
Conclusion générale
En pratique, les éditeurs de logiciels doivent être conscients que l’utilisation actuelle ne
dépend pas uniquement de l’utilité perçue et de la facilité d’utilisation, mais aussi de la
fonctionnalité de l’outil et son lien avec les besoins de la tâche. De leur côté, les directeurs
utilisateurs de logiciels doivent se rendre compte que la faible utilisation des outils peut
résulter d’une inadéquation entre les fonctions de l’outil et les demandes de la tâche plutôt
que de l’utilité et l’utilisatbilité des outils.
L’absence de lien direct entre les variables du modèle (TTF) et celles du modèle (TAM) d’une
part, et le rôle de médiation apparent de la satisfaction des utilisateurs de ces outils, d’autre
part, mérite d’être poursuivi dans d’autres travaux.
Dans nos travaux, l’intensité d’utilisation des outils a été testée. Les résultats montrent un
effet direct positif de l’intensité et la qualité du service offert par les AI, et un effet direct
négatif de l’intensité et de la satisfaction des utilisateurs. Cependant, la faible taille de notre
échantillon n’a pas permis de diviser l’échantillon et tester les différences entre une grande et
une faible intensité d’utilisation.
L’un des objectifs de cette thèse fut aussi d’identifier les antécédents de l’intention d’utiliser
les AI dans le processus de prise de décision dans le but de faciliter les interventions
manageriales et augmenter la diffusion de cette technologie dans les organisations.
Nous l’avons montré, l’utilisation des AI, la qualité de service offert par les AI et la bonne
perception des AI peuvent encourager leur utilisation par les dirigeants lors de la prise de
décision. De plus, l’utilité perçue et la facilité d’utilisation des AI étant des déterminants
importants de la satisfaction des utilisateurs, les managers doivent fixer comme un objectif
important l’augmentation de la conscience des utilisateurs quant à la manière dont les tâches
peuvent être fournies par la technologie, et la réduction de leur inquiétudes relatives à la
complexité de la technologie.
Par ailleurs, l’innovation technologique se produisant à un rythme de plus en plus rapide, les
managers sont de plus en plus confrontés aux difficultés de diffusion des nouvelles
technologies dans leurs organisations (Abrahamson, 1991). Cependant, le taux de changement
technologique n’implique pas nécessairement le même taux d’adoption identique, car
l’adoption et l’usage dépendent de la psychologie de l’acceptation de l’utilisateur. Aussi, la
261
Conclusion générale
conduite de changement organisationnel est un vrai projet de structuration qui prend du temps
et de l’argent. Il faut donc accompagner l’évolution technologique dans chaque organisation
selon ses besoins et, pour cette raison, on comprend mieux pourquoi la définition des AI varie
d’un domaine à l’autre. Ainsi, par exemple, on considère généralement Google comme un AI
dans le domaine informatique parce que ses utilisateurs se contentent de la première phase de
collecte des informations. A l’opposé, un directeur appartenant au secteur de commerce et de
distribution nous a donné, en respectant la classification de leur rôle proposée dans notre
questionnaire, trois exemples de groupes d’AI auxquels son entreprise recourt : Google et Cie
pour la recherche des informations ; Hyperion, SAS, SASGraph, MapPoint pour le tri et l’aide
à l’analyse ; Calame pour la diffusion des informations. C’est là le signe d’une entreprise
stable, de grande taille et disposant des capacités pour investir dans cette technologie. Par
ailleurs, les AI peuvent être utilisés par de petits opérateurs. C’est le cas, à titre d’exemple,
des bibliothèques universitaires numérisées. Dans ce cas, les bases de données ainsi
accessibles et consultées par tous les chercheurs sont un puissant outil d’accélération du cycle
de la recherche.
A travers ces quelques exemples, on constate que chaque population d’utilisateurs identifie
ses besoins et met en place ses moyens organisationnels propres. Nous pouvons même
affirmer qu’au sein d’une même organisation, l’AI ne peut répondre à tous les besoins
exprimés par tous ses acteurs : les besoins d’un directeur diffèrent de ceux d’un concepteur…
C’est pourquoi il serait utile de poursuivre cette recherche par une étude multi-groupes
séparant les tâches des différents participants de sorte à identifier et évaluer leurs besoins
organisationnels spécifiques en fonction des fonctionnalités de l’outil technologique.
262
Bibliographie
Bibliographie
Bibliographie
ABRAHAMSON E., (1991), “Managerial fads and fashions: the diffusion and rejection
of innovations”, Academy of Management Review, Vol. 16, n°3, p.586-612.
AGARWAL R., KARAHANNA E., (2000), “Time Flies When You’re Having Fun:
Cognitive Absorption and Beliefs About Information Technology Usage,” MIS Quarterly,
Vol. 24, n°4, p. 665-694.
AGARWAL R., PRASAD J., (1999), “Are individual differences germane to the
acceptance of new information technologies?”, Decision Sciences, Vol. 30, n°2, p. 361-391.
AHITUV N., ZIF J., MACHLIN I., (1998), “Environmental scanning and information
systems in relation to success in introducing new products”, Information and Management,
Vol. 33, p. 201-211.
AHONEN H. et al., (1998), “Applying data mining techniques for descriptive phrase
extraction in digital document collections”, IEEE Forum on Research and Technology
Advances in Digital Libraries (ADL’98), p. 2-11.
ALAVI M., CARLSON P., BROOKE G., (1989), “The ecology of MIS research: a
twenty year status review”, in: the proceedings of the tenth International Conference on
Information Systems, DeGross J.I., Hendersonm, J.C. & Konsynski, B.R. (eds), p. 363-375.
Boston, MA.
ANTHONY R.N., (1965). Planning and control systems: a framework for analysis.
Harvard university, Boston, USA.
APTE C., WEISS S., (1997), “Data mining with decision trees and decision rules”,
Future Generation Computer System, Vol.13, p. 197-210.
BAECKER R., GRUDIN J., BUXTON W., et al., (1995). Readings in Human-
Computer Interaction: Toward the Year 2000. 2nd edition San Francisco, CA: Morgan
Kaufmann Publishers, Inc.
BAILEY J., BAKOS Y., (1997), “An exploratory study of the emerging role of
electronic intermediaries”, International Journal of Electronic Commerce, Vol. 1, n°3, p. 7-
20.
BAILEY J.E., PEARSON S.W., (1983), “Development of a tool for measuring and
analysing computer user satisfaction”, Management science, p. 530-545.
264
Bibliographie
BARKI H., HARTWICK J., (1994), “Rethinking the concept of user involvement and
user attitude”, MIS Quarterly, Vol. 18, n°1, p.59-79.
BARNEY J., (1991), “Firm resources and sustained competitive advantage”, Journal of
Management, n°17.
BARR D.S., MANI G., (1994), “ Using neural nets to manage investments”, AI Expert,
p.16-21.
BEARD J.W., PETERSON T.O., (1988), “A taxonomy for the study of human factors
in Management Information Systems (MIS),”in J. M. Carey (ed.), Human Factors in MIS,
p.7-26, Norwood, NJ: Ablex.
BECKER B.G., (1997), “Using Mine Set for knowledge discovery”, IEEE Computer
Graphics and Application, p. 75-78.
BELKIN R., BROOKS H., ODDY R., (1986), “Using structural representations of
anomalous states of knowledge for choosing document retrieval strategies”, in Proceedings of
of the association of computing machinery special Internet Group of Information Retrieval
(ACM/SIGIR’86), Italie, p.11-22.
BENBASAT I., (2002) “HCI Research in MIS: A Personal View,” Panel presentation
at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi
BENDOLY E., (2003), “Theory and support for process frameworks of knowledge
discovery and data mining from ERP systems”, Information and Management, Vol. 40, p.
639-647.
265
Bibliographie
BERSON A., SMITH S.J., (1997). Data warehousing, Data mining and OLAP.
McGraw-Hill, New York.
BERTINO E., CATANIA B., ZARRI G. P., (2001). Intelligent Database Systems.
Addison-Wesley, ACM Press.
BISP S., SORENSON E., GRUNERT K., (2001) “ Using the key success factor concept
in competitor intelligence and benchmarking”, Competitor Intelligence Review, Vol. 9, n°3,
p.55-67.
BLANKENSHIP A. B., BREEN G. E., DUTKA A., (1998). State of the art, Marketing
research, 2nd Edition, NTC Business Books, Lincdnwood, IL.
BOSE I., MAHAPATRA R. K., (2001), “ Business data mining – a machine learning
perspective”, Information and Management, Vol. 39, p. 211-225.
BOYED, B.K., FULK J., (1996), “Executive scanning and perceived uncertainty: a
multidimensional model”, Journal of Management, Vol. 22, n°1, p.1-21.
BRACHMAN R.J., KHABAZA T., KLOESGEN W., et al., (1996), “Mining business
databases”, Communications of the ACM, Vol.39, n°11, p. 42-48.
BURWELL H. P., (1999). Online Competitive Intelligence: Increase Your Profits Using
Cyber-intelligence. Tempe, Arizona: Facts on Demand Press.
266
Bibliographie
BUTA P., (1994), “Mining for financial knowledge with CBR”, AI Expert, p. 34-41.
CANTER L. A., SIEGEL M. S., (1994). How to make a fortune on the information
superhighway: everyone’s guerrilla guide to marketing on the Internet and other on-line
services. Harper Collins, New York.
CAREY J., GALLETTA D., KIM J., et al., (2004), “The role of human-computer
interaction in management information systems curricula: A call to action”, Communications
of the association for Information Systems, Vol.13, p. 357-379.
CARMINES E. G., ZELLER R.A., (1979), “Reliability and validity assessment”, Sage
University Paper Series on Quantitative Applications in the social sciences, p. 07-017. Sage,
Beverly Hills, CA.
CARTER C., CATLETT J., (1987), “Assessing credit card applications using machine
learning”, IEEE Expert Fall, p. 71-79.
CASH J., NUNAMAKER J. (1991). The information systems research challenge. Vol.
III: Survey Research Methods, Havard Business School Press, Boston, MA, USA.
CASH J., NUNAMAKER J., (1989). The information systems research challenge. Vol.
I: Qualitative Research Methods, Havard Business School Press, Boston, MA, USA.
CASH J., NUNAMAKER J., (1990). The information systems research challenge. Vol.
II: Experimental Research Methods, Havard Business School Press, Boston, MA, USA.
267
Bibliographie
CHAKRABARTI S., DOM B.E., KUMAR S.R., et al., (1999), “Mining the web’s link
structure”, IEEE Computer, p. 60-67.
CHAU P.Y.K., (1996), “An empirical investigation on factors affecting the acceptance
of CASE by systems developers”, Information and Management, Vol.30, p. 269-280.
CHILD J., (1972), “Organisational structure, environment, and performance: the role of
strategic choke”, Sociology, n°6, p.2-22.
CHIN W., (1998), “Issues and opinion on structural equation modelling”, MIS
Quarterly, Vol. 22, n°1, March, p. 7-16.
CHIN W., GOPAL A., (1995), “Adoption intention in GSS: Relative importance of
beliefs”, Data Base, Vol. 26, n°2/3, May/August, p. 42-63.
CHIN W., TODD P. A. (1995), “On the use, Usefulness, and Ease of Use of Structural
Equation Modelling in MIS Research: A note of Caution,” MIS Quarterly, Vol. 19, n°2, June
p. 237-246.
CODD E.F., (1970), “A relational model for large shared data banks”, Communications
of the ACM, Vol. 13, n°6, p. 370-387.
COHEN P., COHEN J., TERESI J., et al., (1990), “Problems in the Measurement of
Latent Variables in Structural Equations Causal Models”, Applied Psychological
Measurement, Vol.14, n°2, p. 183-196.
COLLINS J. et al., “A multi agents contracting system for plan execution. In Workshop
on Artificial Intelligence and Manufactoring : State of the Art and State of Practice”, AAAI
Press, Albuquerque, NM, August 1998, p.63-68.
COMPEAU D., HIGGINS C. A., HUFF S., (1999), “Social cognitive theory and
individual reaction to computing technology: a longitudinal study”, MIS Quarterly, Vol. 23,
n°2, p. 145-158.
268
Bibliographie
COSTE-MANIERE E., WANG H.H., ROCK S.M., et al., (1996), “Joint evaluation of
mission programming for underwater robots”, in Proceedings of IEEE International
Conference on Roboticsand Automation, Minneapolis, MN. IEEE Computer Society Press:
Los Alamitos, CA; 2492-2497.
COTE M. et al., (2001), “NetSA : Une architecture multi agents réutilisable pour les
environnements riches en informations”, Information Interaction Intelligence, vol. 1, n°2.
CUNLAN M.J., (1983), “Environmental scanning: the effects of task complexity and
source accessibility on information gathering behavior”, Decision Sciences, Vol. 14, p. 194-
205.
DAFT R.L., (1992). Organization theory and design. NY: West Publishing Company.
DAFT R.L., SORMUNEN J., PARKS D., (1988), “Chief executive scanning,
environmental characteristics, and company performance: An empirical study”, Strategic
Management Jounal, Vol. 9, p.123-139.
DAVID J.F., MONOD E., (1997), « Les agents intelligents : une question de
recherche », Systèmes d’Informations et Management, n°2.
DAVIS F.D., (1989), “Perceived usefulness, perceived ease of use, and user acceptance
of information technologies”, MIS Quarterly, Vol. 13, n°3, p.319-340.
DAVIS F.D., BAGOZZI R., WARSHOW P.R., (1989), “User acceptance of computer
technology: a comparison of two theoretical models”, Management Science, Vol. 35, n°8, p.
982-1003.
DELONE W.H., MCLEAN E.R., (1992), “Information Systems Success: the quest of
the dependent variable”, Information Systems Research, March, p.60-95.
269
Bibliographie
DELONE W.H., MCLEAN E.R., (2003), “The Delone and McLean model of
information success: A ten-Year update”, Journal of Management Information Systems,
Vol.19, n°4, p.9-30.
DESANCTIS G., GALLUPE R.B., (1987), “A foundation for the study of group
decision support systems”, Management Science, Vol. 33, p. 589-609.
DIESING P., (1991). How Does Social Science Work? Reflections on Practice.
Pittsburgh, PA: University of Pittsburgh Press.
DISHAW M.T., STRONG D.M., (1999), “Extending the technology acceptance model
with task-technology fit constructs”, Information and Management, Vol. 36, p. 9-21.
DOLL W. J., TORKZADEH G., (1991), “The measurement of end user computing
satisfaction: Theoritical and methodological issues”, MIS Quarterly, Vol. 15, n°1, p. 5-10.
DOLL W.J., HENDRICKSON A., DENG X., (1998), “Using Davis’s Perceived
Usefulness and Ease-of use Instruments for Decision Making: A Confirmatory and
Multigroup Invariance Analysis”, Decision Sciences, Vol.29, n°4, p. 839-869.
DREYFUS H. L., (1997). What Computers still can’t do. MIT Press, Cambridge, MA.
270
Bibliographie
EIERMAN M.A., Niederman F., Adams C., (1995), “DSS theory: A model of
constructs and relationships”, Decision Support System, Vol. 14, p.1-26.
ENGEL J., BLACKWELL, (1982). Consumer Behavior. 4th ed. CBS College
Publishing.
FAHAY N., (1989), “Linking changes in revealed causal maps and environmental
change: an empirical study”, Journal of Management Studies, Vol. 26, p.361-378.
FAYYAD U., PIATETSKY-SHAPIRO G., SMYTH P., (1996), “From data mining to
knowledge discovery in databases”, AI Magazine, p. 37-53.
FORNELL C., BOOKSTEIN F.L., (1982), “Two Structural equation Models: LISREL
and PLS Applied to Consumer Exit-Voice Theory”, Journal of Marketing Research, Vol. 19,
n°4, p. 440-452.
FORNELL C., JAESUNG C., (1994), “Partial Least Squares”, in Richard P. Bagozzi,
ed., Advanced Methods of Marketing Research, Oxford, England: Blackwell Publishers, p. 52-
78.
FORNELL C., LARCKER D.F., (1981), “Evaluating structural equation models with
unobservable variables and measurement error”, Journal of Marketing Research, Vol. 18,
February, p. 39-50.
271
Bibliographie
FRANZ C.R., ROBEY D., (1986), “Organizational context, User involvement, and the
usefulness of information systems”, Decision Sciences, Vol. 17, n°3, p.329-356.
FULD L., (1985). Competitor intelligence: how to get it ? How to use it ?. John Wiely,
NY.
FULD L., (1995). The new competitor intelligence: the complete resource for finding,
analysing and using information about your competitors. John Wiley, NY.
GALLETTA D., (2002), “HCI Research in MIS: A Personal View”, Panel Presentation
at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi
GEFEN D., et al., (2000), “Structural equation modelling and regression: guidelines for
research practice”, CAIS, Vol.4, Art.7, Octobre.
GEFEN D., KEIL M., (1998), “The impact of developer responsiveness on perceptions
of usefulness and ease of use: an extension of the technology acceptance model”, The data
base for advances in information systems, Vol. 29, n°2, p. 35-49.
GELDERMAN M., (1998), “Translation and validation of the Doll and Torkzadeh end
user computing satisfaction instrument”, in: Hugh J. Watson (Ed.), Proceedings of HICSS 31,
Vol.VI, IEEE Computer Press, January, p. 537-546.
GIALD T., GIALD B., (1986), “Business Intelligence. The quiet revolution”, Sloan
Management Review, Vol. 27, n°4, p.53-62.
272
Bibliographie
GOLES T., HIRSHHEIM R., (2000), “The paradigm IS dead, the paradigm is dead…
long live the paradigm: the legacy of Burrel and Morgan”. Omega, Vol. 28, p. 249-268.
GORDON I., (1989). Beat the competition ! How to use competitive intelligence to
develop winning strategies ?. Blackwell, Oxford.
GROVER V., SAEED K.A., (2004), “Strategic orientation and performance of internet-
based businesses”, Information Systems Journal, Vol.14, n°1, January, p. 23-42.
GUDIVADA V. N., (1997), “Information retrieval on the world wide web”, IEEE
Internet Computing, Vol. 1, n°6, p. 100-109.
GUTTMAN R. H., MAES P., CHAVEZ A., DREILINGER D., (1997), “A Real-Life
Experiment in Creating an Agent Marketplace”, MIT Media Laboratry.
GUTTMAN R. H., MAES P., CHAVEZ A., DREILINGER D., (1998), “Results from a
Multi-Agent Electronic Marketplace Experiment”, MIT Media Laboratry.
GUYOT B., (2004), « Eléments pour une approche informationnelle dans les
organisations », Sciences de la Société, n°63, Octobre.
HAN J. et al., (1997), “BD miner: a system for data mining in relational databases and
data warehouses”, in Proceedings of CASCON’97: Meetings of Minds, Toronto, Canada.
273
Bibliographie
HERRING J. P., KLEIN R. D., HARRIS M., BOUREY A. T., (2002), “Corporate
Culture as a Tool for Anticipating the Competition”, Competitive Intelligence Magazine, Vol.
5, n°4, p. 6-10.
HEWETT T., BAECKER R., CARD S., et al., (1992). ACM SIHCHI Curricula for
Human-Computer Interaction, New York, NY: Association for Computing Machinery.
HILL T., SMITH N., MANN M., (1986), “Communicating Innovations: Convincing
Computer Phobics to Adopt Innovative Technologies,” in R. J. Lutz (ed.), Advances in
Consumer Research (Volume 13), Provo, UT: Association for Consumer Research, p. 419-
422.
HILL T., SMITH N., MANN M., “Role of Efficacy Expectations in Predicting the
Decision to User Advanced Technologies: The Case of Computers,” Journal of Applied
Psychology, Vol. 72, n°2, p. 307-313.
HIRSHHEIM R., KLEIN H.K., (2003), “Crisis in the information systems field? A
critical reflection on the state of the discipline”, Journal of the Association for Information
System, Vol. 4, p. 237-293.
HOLDER B. J., (2001), “Scouting: a Process for Discovering, Creating, and Acting on
Knowledge”. Competitive Intelligence Magazine, Vol. 4, p. 17-21.
HOYT B., (2002), “Early Warning: the Art of Inference”. Competitive Intelligence
Magazine, Vol. 5, n°1, p. 10-14. Hypersearching the Web. (1999). Scientific American.
http://melody.syr.edu/hci/amcis02_panel/Zhang_HCI_Panel_Description_071502.pdf
HU P.J., CHAU P.Y.K., LIU SHENG O.R., YAN TAM K., (1999), “Examining the
technology acceptance model using physician acceptance of telemedicine technology”,
Journal of Management Information Systems, Vol. 16, n°2, p. 91-112.
HUI S. C., JHA G., (2000), « Application Data Mining for costumer service support »,
Information and Management, Vol. 38, p. 1-13.
HULLAND J., (1999), “Use of partial least squares (PLS) in strategic management
research: A review of four recent studies”, Strategic Management Journal, Vol. 20, n°2, p.
195-204.
HUOT C., (1992). Analyse relationnelle pour la veille technologique vers l’analyse
automatique des bases de données. Thèse. Université de droit, d’économie et des sciences
d’Aix-Marseille.
274
Bibliographie
IGBARIA M., CRAGG P., ZINATELLI N., CAVAYE A., (1997), “Personal
computing acceptance factors in small firms : a structural equation model”, MIS Quarterly,
September, p. 279-302.
INMON W.H., (1992). Building the Data Warehouse. QED Information Sciences,
Wellesley, MA.
IVES B., OLSON M., BAROUDI J., (1983), “The measurement of user information
satisfaction”, Communications of the ACM, Vol. 26, n°10, p. 785-793.
JACKSON C.M., CHOW S., LEITCH R.A., (1997), “Toward an understanding of the
behavioral intention to use an information system”, Decision Sciences, Vol. 28, n°2, p. 357-
389.
JOHN G.H., MILLER P., KERBER R., (1996), “Stock selection using rule induction”,
IEEE Expert, p. 52-58.
JOHN G.H., ZAHO Y., (1997), “Mortgage data mining”, in Proceedings of the
IEEE/IAFE Conference on Computational Intelligence for Financial Engineering, p. 232-236.
JONES C., HESTERLY W.S., BORGATTI S.P., (1997), “A general theory of network
governance : Exchange conditions and social mechanisms”, The Academy of Management
Review, Vol.22, n°4, p..
JOURESTON J., (2000), “Using Intelligent Search Agents for CI”, Competitive
Intelligence Magazine, Vol. 3, n°1, p.32-36.
KAHANER L., (1998). Competitive Intelligence: How to Gather, Analyze and Use
Information to Move Your Business to the To.: Touchstone.
KALIKA M., ISAAC H., JOSSERAND E., et al., (2003). Le e-Management: quelles
transformations pour l’entreprise ?. Editions Liaisons, Paris.
KALIKA M., KEFI H., (2004). L’évaluation des systèmes d’information, une
perspective organisationnelle. Economica, Paris.
275
Bibliographie
KASSLER H., (2000). “Competitive Intelligence and the Internet: Going for the Gold”,
Information Outlook, Vol. 4, n°2, p.37-42.
KAUFFMAN R. J., MARCH S. T., WOOD C. A., (2000), “Design Principles for long
lived Internet Agents”, International Journal of Intelligent in Accounting, Finance and
Management, Vol.9, n°4, Décembre.
KEFI H., (2002). Evaluation des technologies et systèmes d’information: cas d’un
entrepôt de données implanté dans une institution financière. Etude orientée processus et
intégrée dans le contexte institutionnel de l’organisation. Thèse, Université Paris IX-
Dauphine.
KEIL M., BERANEK P.M., KONSYNSKI B.R., (1995), “Usefulness and ease of use:
field study evidence regarding task considerations”, Decision support systems, Vol.13, p. 75-
91.
KILLINGSWORTH B., KLETKE M., MACKAY J., TRUMBLY J., CAREY J., (1995)
“Human Factors in Information Systems: A Position Treatise,” in J. Carey (ed.) Human
Factors in Information Systems: Emerging Theoretical Bases, Norwood, NJ: Ablex
Publishing Corporation, p.1-25.
KIM S.H., NOH H.J., (1997), “Predictability of interest rates using data mining tools: a
comparative analysis of Korea and the US”, Expert Systems with Applications, Vol. 13, n°2,
p. 85-95.
KIMBALL R., (1996). The data warehouse Toolkit. John Wiley & Sons, New York,
NY.
KLUSCH M., (2001), “Information agent technology for the Internet: A survey”, Data
& Knowledge Engineering, Vol. 36, p.337-372.
KOGUT B., (1985), “Designing Global Strategies: Comparative and Competitive Value
Added Chains”, Sloan Management Review, Vol. 26, n°4, Summer, p. 15-28.
276
Bibliographie
KOLODNER J., (1993). Cased-Based Reasoning. Morgan Kaufmann, San Mateo, CA.
KRISHNAN R., LI X., STEIER D., ZHAO L., (2001), “On Heterogeneous Database
Retrieval: A Cognitively Guided Approach,” Information Systems Research, Vol. 12, n°3, p.
286-301.
LEFEBURE R., VENTURI G., (2001). Data Mining : Gestion de la relation client.
Personnalisation de sites web. Editions Eyrolles.
LEGRIS P., INGHAM J., COLLERETTE P., (2003), “Why do people use information
technology? A critical review of the technology acceptance model”, Information and
Management, Vol. 40, p. 191-204.
LENT B., et al., (1997), “ Discovering trends in text databases”, in Proceedings of 3rd
International Conference on Knowledge Discovery and Data Mining (KDD’97), p. 139-144.
LESCA H., CARON M-L., (1995), « Veille stratégique : créer une intelligence
collective au sein de l’entreprise », Revue Française de Gestion, Sept-Oct, p.58-68.
277
Bibliographie
LEWIS F.L., FITZGERALD M., LIU K., (1996). “Robotics”. ACM Computing surveys,
Vol. 28, p.81-84.
LIANG T-P., HUANG J-S., (1998), “An empirical study on consumer acceptance of
products in electronic markets: A transaction Cost Model”, Decision Support System, Vol.24.
LIU S., (1998), “Business environment scanner for senior managers: towards active
executive support with intelligent agents”, Expert Systems with Applications, Vol.15, p.111-
121.
LUCAS H.C., SPITLER V.K., (1999), “Technology use and performance: a field study
of broker workstations”, Decisions Sciences, Vol. 30, n°2, p. 291-311
MAES P. et al., (1999), “Agents that buy and sell”, Communication of the ACM, Vol.
42, n°3, p. 30-36.
MAES P., (1994), “Agents that reduce work and information overload”,
Communication of the ACM, Vol. 37, n°7, ACM Press, July, p. 31-40.
MCCARTHY S., (1992), « Gazing at the future of Networks: Vast Flow of Information
Opens many markets for entrepreneurs », Washington Post, 22 June 1992.
MCGRATH J., (1981), “Dilemmatics: The Study of Research Choices and Dilemmas,”
American Behavioral Scientist, Vol. 25, n°2, p. 179-210.
278
Bibliographie
MESSIER W.F., HANSEN J.V., (1988), “Inducing rules for expert system
development: an example using default and bankruptcy data”, Management Science, Vol. 34,
n°2, p. 1403-1415.
MILES RE., SNOW CC., (1978), “Organizational strategy, structure and process”,
Academy of Management Review, Vol 3, n°3, p.546-563.
MORRIS J., MAES P., (2000). “Sardine: an agent-facilitated Airline Ticket Bidding
System”, MIT media Lab.
MÜLLER J.P., (1997), “Control architectures for autonomous and interacting agents: A
survey”, L. Cavedon, A.S. Rao, W.Wobcke (dir), Intelligent Agent Systems: Theoretical and
practical issues, p.1-26, springer-Verlag, LNAI n°1209.
MÜLLER J.P., (1999), “The right agent (architecture) to do the right thing”, Intelligent
Agent V, Springer-Verlag, LNAI n°1555, p.211-225.
MURCH R., JOHNSON T., (1999). Intelligent Software Agents, Prentice-Hall, Upper
Saddle River, WJ.
NABETH T., ANGEHRN A., RODA C., (2003), “Enhancing Knowledge Management
Systems with Cognitive agents”, Systèmes d’Information et Management, Vol. 8, n°2.
NANDHAKUMAR J., JONES M., (1997), “Too close for comfort? Distance and
engagement in interpretive information systems research”, Information Systems Journal, Vol.
7, p.109-131.
NAYLOR E., (2002). X-Ray Your Competition: Profiling, Media Analysis and CI
[electronic newsletter]. SCIP. Retrieved, from the World Wide Web: http://www.scip.org
NEWSTED P., SALISBURY D., TODD P., ZMUD R., (1997), “Measurement Issues in
the Study of Human Factors in Management Information Systems,” in J. Carey (ed.) Human
Factors in Information Systems: The Relationship between User Interface Design and Human
Performance, Greenwich, CT: Ablex Publishing Corporation, p. 211-241.
279
Bibliographie
NONAKA I., TAKEUCHI H., (1995). The knowledge creating company. Oxford
University Press, New York.
NONAKA I., UMEMOTO K., SENOO D., (1996), “From information processing to
knowledge creation : a paradigm shift in business management”, Technology in Society,
Vol.18, n°2, p. 203-218.
NOVAK T. P., HOFFMAN D.L., DUHACHEK A., (2002) “The Influence of Goal-
Directed and Experiential Activities on Online Flow Experiences,” Journal of Consumer
Psychology, Vol. 13, n°1/2.
NUNNALLY J.C. (1978). Psychometric theory. (2nd ed.). New York; McGraw-Hill.
ORLIKOWSKI W. J., ROBEY D., (1991), “Information technology and the structuring
of organizations”, Information Systems Research, Vol. 2, p.143-169.
OUZROUT Y., KABACHI N., VINCENT L., (1996), « Une société d’agents pour la
prise de décision dans les organisations productives », IA Distribuée et SMA, JFIAD SMA’96,
J. P. Müller, J. Quinqueton, Hèrmes.
PAQUETTE G., BOURDEAU J., HENRI F., et al., (2003), « Construction d' une base
de connaissances et d’une banque de ressources pour le domaine du Téléapprentissage »,
Sciences et technologies de l’information et de la communication pour la formation et
l’éducation, Vol.10. www.cticef.org.
PATCHETT V, (2002), “May the Force Be With You: Michael Porter and the Five-
Force Theory of Industry Analysis”. Competitive Intelligence Magazine, Vol. 5, n°4, p. 28-30.
PAWAR B. S., SHARDA R., (1997), “Obtaining business intelligence on the Internet”,
Long Range Planning, Vol. 30, n°1.
280
Bibliographie
PEARCE J.A., CHAPMAN B.I., DAVI F.R., (1992), “ Enviroemental scanning for
small and growing firmes”, Journal of Small Business Management, Vol. 20, n°3, p. 27-35.
PLAUNT C., NORGARD B.A., (1998), “An association-based method for automatic
indexing with a controlled vocabulary”, Journal of the American Society for Information
Science, Vol. 49, n°10, p.888-902.
PORTER M.E., (1980), Competitive strategy : techniques for analyzing industries and
competitors, The Free Press, NY.
RAI A., LANG S.S., WELKER R.B., (2002), “Assessing the validity of IS Success
Models: An empirical test and theoretical analysis”, Information Systems Research, Vol.13,
n°1, March, p. 50-69.
RAUCH J., BERKA P., (1997), “Knowledge discovery in financial data- a case study”,
Neural Network World, Vol. 4, n°5, p. 427-437.
REIX R., DESQ S., FALLERY B., RODHAIN F., (2002), « 25 ans de recherche en
système d’informations », Systèmes d’Information et Management, Vol.7, n°3.
RHODES B. J., (May 2000). Just-In-Time Information retrieval. Ph. D. Thesis, MIT
Media Lab.
RINDSKOPF D., ROSE T., (1988), “Some Theory and Applications of Confirmatory
Second-Order Factor Analysis”, Multivariate Behavioural Research, Vol. 23, p. 51-67.
281
Bibliographie
RONIS D.L., YATES J.F., KIRSCHT J.P., (1989), “Attitudes, decisions and habits as
determinants of repeated behavior”, In A.R. Pratkanis, S.J. Breakler, A.G. Greenwald (Eds.).
Attitude structure and function (p.213-239)
ROUACH D., SANTI P., (2001). “Competitive Intelligence Adds Value: Five
Intelligence Attitudes”, European Management Journal, Vol. 19, n°5, p.552-559.
ROUIBAH K., OULD-ALI S., (2002), “PUZZLE: a concept and prototype for linking
business intelligence to business strategy”, Journal of Strategic Information Systems, Vol. 11,
p. 133-152.
RUMELHART D.E., WIDROW B., LEHR M. A., (1994), “The basic ideas in neurol
netwoks“, Communications of the ACM, Vol.37, n°3, p.87-92.
SASISEKHARAN R., SESHADRI V., (1996), “Data mining and forecasting in large-
scale telecommunication networks”, IEEE Expert, p.37-43.
SCARFE R.T., SHORTLAND R.J., (1995), “Data mining applications in BT”, IEE
Colloquium (Digest).
SEARLE J.R. (1990). “Is the brain’s mind a computer program ?”, Scientific American
Vol. 262, n°1, p. 26-31.
SEDDON P.B., (1997), “A respecification and extension of the Delone and McLean
model of IS success”, Information Systems Research, Vol. 8, September, p. 240-253.
SENATOR T.E., GOLDBERG H.G., WOOTON J., et al., (1995), “the financial crimes
enforcement network AI system (FAIS) identifying potential money laundering from reports
of large cash transactions”, AI Magazine, p. 21-39.
282
Bibliographie
SHAW M. J., GENTRY J.A., (1990), “Inductive learning for risk classifications, IEEE
Expert, p. 47-53.
SHIM J.P. et al. (2002), “Past, present, and future of decision suppor technology”,
Decision Support Systems, Vol. 33, n° 2, p. 111-126.
SHORTLAND R., SCARFE R., (1995), “Digging for gold”, IEE Review, Vol.41, n°5,
p.213-217.
SIMON H. A. (1965). The shame of automation. Harper and Row, New York.
SIMON, H.A. (1980). Le nouveau management, la décision par les ordinateurs. Ed.
Economica, traduit de the new science of management decision, Prentice-Hall, Inc,
Englewwood Cliffs, New Jersey, 1977 (troisième edition révisée).
SPANGLER W., MAY J.H., VARGAS L.G., (1999), “Choosing data mining methods
for multiple classification: representational and performance measurement implications for
decision support”, Journal of Management Information Systems, Vol. 16, n°1, p. 47-62.
STOTT M. D. (1993). “You Can't Trust What You Read: Making Sense of the Business
Press”. In J. E. Prescott & P. T. Gibbons (Eds.), Global Perspectives on Competitive
283
Bibliographie
STRONG D., (2002), “Human Computer Interaction Research in the MIS Discipline,”
Panel Presentation at MCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi
SUNG T.K., CHANG N., LEE G., (1999), “Dynamics of modelling in data mining:
interpretative approach to bankruptcy prediction”, Journal of Management Information
Systems, Vol. 16, n°1, p. 63-85.
TAYLOR S., TODD P., (1995), “Assessing IT usage: the role of prior experience”, MIS
Quarterly, December, p. 561-570.
TAYLOR S., TODD P., (1995), “Understanding information technology usage: a test of
computing models”, Information Systems Research, Vol. 6, n°2, p. 144-176.
TEECE D.J., PISANO G., (1997), “Dynamic capabilities and strategic management”,
Strategic Management Journal, Vol. 18, p. 509-533.
TEO T.S.H., CHOO W.Y., (2001), “Assessing the impact of using the Internet for
competitive intelligence”, Information and Management, Vol.39, p. 67-83.
284
Bibliographie
THOMSEN E., (2003), “BI’s Promised Land”, Intelligent Enterprise, Vol.6 n°4, p. 21-
25.
TSAIH R., HSU Y., LAI C.C., (1998), “ Forecasting SP 500 stock index futures with a
hybrid AI system”, Decision Support Systems, Vol.23, p. 161-174.
TURBAN E., ARONSON J. (1998). Decision Support Systems and Intelligent Systems.
Prentice- Hall, Upper Saddle River, WJ.
VENKATESH V., MORRIS M.G., (2000), “Why do not men ever stop to ask for
directions ? Gender, social influence, and their role in technology acceptance and usage
behavior”, MIS Quarterly, Vol. 24, n°1, p. 115-139.
VENKATESH V., (1999), “Creation of favourable user perceptions: Exploring the role
of intrinsic motivation”, MIS Quarterly, Vol. 23, n°2, p. 239-260.
285
Bibliographie
VESSEY I., (1991), “Cognitive Fit: A Theory-Based Analysis of the Graphs Versus
Tables Literature,” Decision Sciences, Vol. 22, n°2, p. 219-240.
VIDAL P., LACROUX F., (2000), « L’évolution des systèmes d’aide à la décision : du
choix en situation structurée à l’intermédiation en situation complexe », Systèmes
d’Information et Management, n°3, Septembre, p. 51-70.
VIJAYASARATHY L. R., ROBEY D., (1997), “The effect of EDI on market channel
relationships in retailing, Information and Management, Vol.33, p.73-86.
VIVEROS M.S., ELO-DEAN S., WRIGHT M.A., et al., (1997), “Visitors’ behavior:
mining web servers”, in Proceedings of First International Conference on the Practical
Applications of Knowledge Discovery and Data Mining, London, UK, p. 257-269.
WATSON H., GRAY P., (1997), Decision Support in the data Warehouse, Prentice-
Hall, Englewood-Cliffs, NJ.
WEBSTER J., TREVINO L., RYAN L., (1993), “The Dimensionality and Correlates of
Flow in Human-Computer Interaction,” Computers in Human Behavior, Vol. 9, n°2/3, p. 411-
426
WEBSTER K., PAUL K., (1996), “Beyond surfing: tools and techniques for searching
the web”, Information Technology, January.
WERTS C.E., LINN R.L., JORESKOG K.G., (1974), “Intraclass Reliability Estimates:
Testing Structural Assumptions”, Educational and Psychological Measurement, Vol. 34,
p.25-33.
286
Bibliographie
WETHERBE J. C., (1996), The World on time: The 11 management principles that
made FedEx an overnight sensation. CA : Knowledge Exchange.
WILSON R.L., SHARDA R., (1994), “Bankruptcy prediction using neural networks”,
Decision Support Systems, n°11, p. 545-557.
WRIGHT D., (1993). Broadband: business services, technologies, and strategic impact.
Artech House, Boston.
WU K.L., YU P.S., BALLMAN A., (1998), “Speed Tracer: a web usage mining and
analysis tool”, IBM Systems Journal, Vol. 37, n°1, p. 89-105.
ZANASI A., (1998), “ Competitive Intelligence through Data Mining Public Sources”,
Competitive Intelligence Review, Vol. 9, n°1, p. 44-54.
ZANASI A., (2000), “Web Mining through the online Analyst”, Presented at Data
Mining 2000 Conference, Cambridge, July 5-2000, published in Data Mining II, ISBN: 1-
85312-821-X, p. 3-14, WIT Press.
ZHANG P. (2003), “The role of HCI in the MIS Curriculum”, Proceedings of the
Americas Conference on Information Systems, August, Tampa, FL. p. 2080-2082.
ZHANG P., (1998), “Image Construction Method for Visualizing Managerial Data,”
Decision Support Systems, Vol. 23, n°4, p. 371-387
ZHANG P., (2002), “The Role of HCI Research in the MIS Discipline,” Proceedings of
the Americas Conference on Information Systems, August, Dallas, TX. p. 2452-2453.
287
Bibliographie
ZHANG P., BENBASAT I., CAREY J., DAVIS F., GALLETTA D., STRONG D.,
(2002), “ AMCIS 2002 panels and workshops I: Human-Computer Interaction Research In
The MIS Discipline”, Communications of the Association for Information Systems, Vol. 9, p.
334-355.
ZHANG P., BENBASAT I., CAREY J.M., DAVIS F., GALLETTA D., STRONG D.,
(2002), “Human Computer Interaction Research in the MIS Discipline,” Communications of
the association of Information Systems, Vol. 9, n°20, p. 334-354.
ZHANG P., CAREY J., TE’ENI D., TREMAINE M., (2005), “Integrating Human-
Computer Interaction Development into the systems development life cycle: A methodology”,
Communications of the Association for Information Systems, Vol. 15, p. 512-543.
ZIGURS I., BUCKLAND B., (1998), “A Theory of Task/Technology Fit and Group
Support Systems Effectiveness,” MIS Quarterly, Vol. 22, n°3, p. 313-334.
288
Table des matières
289
Table des matières
290
Table des matières
291
Table des matières
292
Table des matières
293
Liste des figures
294
Liste des tableaux
295
Liste des tableaux
TABLEAU 45. INFLUENCE DE L’ADEQUATION TECHNOLOGIE-TACHE SUR L’ACCEPTATION DES AI (** = 0.005,
* = 0.025) ............................................................................................................................................................ 210
TABLEAU 46. INFLUENCE DE L’ACCEPTATION DES AI SUR L’INTENSITE D’UTILISATION DES AI (** = 0.005,
* = 0.025) ............................................................................................................................................................ 212
TABLEAU 47. MATRICE DE L’ESTIMATION DES EFFETS DIRECTS STANDARDISES ................................................. 217
TABLEAU 48. AJUSTEMENT ET POUVOIR EXPLICATIF DU 1ER MODELE ................................................................. 219
TABLEAU 49. REGRESSION WEIGHTS ................................................................................................................. 220
TABLEAU 50. AVE ET COEFFICIENTS DE REGRESSION STANDARDISES ............................................................... 221
TABLEAU 51. MATRICE DES FIABILITES ET DES LIENS STRUCTURELS................................................................... 222
TABLEAU 52. COEFFICIENTS DE REGRESSION ...................................................................................................... 222
TABLEAU 53. SQUARED MULTIPLE CORRELATIONS ............................................................................................ 223
TABLEAU 54. MATRICE DE L’ESTIMATION DES EFFETS DIRECTS STANDARDISES ................................................. 228
TABLEAU 55. AJUSTEMENT ET POUVOIR EXPLICATIF DU 2EME MODELE ................................................................ 229
TABLEAU 56. REGRESSION WEIGHTS .................................................................................................................. 230
TABLEAU 57. AVE ET COEFFICIENTS DE REGRESSION STANDARDISES ............................................................... 231
TABLEAU 58. MATRICE DES FIABILITES ET DES LIENS STRUCTURELS .................................................................. 231
TABLEAU 59. COEFFICIENTS DE REGRESSION ...................................................................................................... 232
TABLEAU 60. PRESENTATION DES RELATIONS NON SIGNIFICATIFS DU 2EME MODELE ............................................ 232
TABLEAU 61. SQUARED MULTIPLE CORRELATIONS ............................................................................................ 233
TABLEAU 62. DETAILS METHODOLOGIQUES (LEGRIS ET AL., 2003) .................................................................... 238
TABLEAU 63. TYPES DE RELATIONS TROUVEES (LEGRIS ET AL., 2003)................................................................ 240
TABLEAU 64. RESUME DES RESULTATS DES RECHERCHES ANTERIEURES (LEGRIS ET AL., 2003) ......................... 242
TABLEAU 65. RESULTATS DE LA METHODE D’EQUATIONS STRUCTURELLES EXAMINEE SUR LES DEUX MODELES 245
TABLEAU 66. COMPARAISON DES RESULTATS DE NOS TRAVAUX A CEUX DE DISHAW & STRONG (1999)............ 246
TABLEAU 67. RESULTATS DE LA PHASE CONFIRMATOIRE .................................................................................... 252
TABLEAU 68. LES CINQ COURANTS DE RECHERCHE EN SI, 1954-2003 (BANKER & KAUFFMAN, 2004) .............. 256
296
Veille Stratégique : l’évaluation de l’utilisation des Agents Intelligents
Résumé
Cette recherche aborde la problématique de l’identification des Agents Intelligents (AI) et de
l’évaluation de leur utilisation au sein des entreprises françaises en plaçant cette technologie dans le
processus informationnel de veille stratégique.
Le cadre conceptuel mobilisé s’intègre dans la recherche de l’Interaction Homme-Machine (IHM) et
son lien avec la discipline du Management des Systèmes d’Information (MSI) pour mesurer la
perception des utilisateurs de cette technologie.
Pour répondre à cette problématique, le modèle élaboré et mis en application est inspiré de deux
modèles d’évaluation des SI (TTF/TAM) de Goodhue et Thompson (1995) et Davis (1989).
Cette application est basée sur une approche quantitative à travers un questionnaire administré à 155
utilisateurs d’Agents Intelligents appartenant à des entreprises de différents secteurs d’activités en
France. Les résultats obtenus suggèrent qu’un « fit » adéquat entre technologie-tâche, produit une
meilleure utilité perçue de cette technologie.
Mots Clés
Veille stratégique, technologie des Agents Intelligents, Modèle de l’Adéquation Technologie-Tâche
(TTF), Modèle de l’Acceptation d’une technologie (TAM).
Abstract
This research examines the question of identification and evaluation of utilisation of Intelligent Agents
for French companies by positioning this technology in informational process of competitive
intelligence. The conceptual framework is integrated into the research of Human-Computer Interaction
(HCM) and its link with Management Information Systems (MIS) discipline in order to measure the
user perception with this technology.
To respond to this question, the model applied has been inspired from two models of evaluation of
Information systems (TTF/TAM) of Goodhue & Thompson (1995) and Davis (1989).
This application is based on quantitative approach through a survey administrated to 155 users of
intelligent agents operating in companies of different sectors in France. The results suggest a good fit
between technology-task and produce better-perceived usefulness of this technology.
Key Words
Competitive Intelligence, Intelligent Agents Technology, Model of Technology-Task Fit (TTF),
Technology Acceptance Model (TAM).