Vous êtes sur la page 1sur 300

UNIVERSITE PARIS DAUPHINE

UFR SCIENCES DES ORGANISATIONS


CREPA, CENTRE DE RECHERCHE EN MANAGEMENT ET ORGANISATION
DAUPHINE RECHERCHES EN MANAGEMENT-CNRS UMR 7088

N° attribué par la bibliothèque

THESE
Pour l’obtention du titre de

DOCTEUR EN SCIENCES DE GESTION


(arrêté du 30 mars 1992)

Présentée et soutenue le 22 novembre 2006 par

Fatma FOURATI

VEILLE STRATEGIQUE : L’EVALUATION DE L’UTILISATION

DES AGENTS INTELLIGENTS

TOME 1 : Document principal

JURY
Directeurs de thèse : Monsieur Smaïl GOUMEZIANE
Professeur, Université Paris Dauphine
Monsieur Michel KALIKA
Professeur, Université Paris Dauphine
Rapporteurs : Monsieur Moez LIMAYEM
Professeur, HEC Lausanne
Monsieur Marc FAVIER
Professeur, IUT 2 GEA Grenoble
Suffragant : Monsieur Jean DESMAZES
Professeur, IAE de Tours
INVITES
Monsieur Emmanuel MONOD Monsieur Bernard GOLDFARB
Professeur, Université Paris Dauphine Professeur, Université Paris Dauphine
À mes parents,
À ma sœur et mon frère,
Aux mémoires de mon grand-père, ma tante et mon oncle.
Remerciements

Remerciements
Cette thèse n’aurait pu aboutir sans les implications multiformes de tous ceux qui m’ont
accompagnée tout au long de ces années de recherche. Les remerciements présentés ci-dessous
leur expriment toute ma reconnaissance.

Tout d’abord, je tiens à remercier mes deux directeurs de thèse, Messieurs Smaïl Goumeziane
et Michel Kalika, Professeurs à l’Université de Paris Dauphine, qui ont dirigé avec rigueur,
patience et confiance, cette recherche en me prodiguant conseils et encouragements, tout en me
laissant une grande liberté dans mes choix théoriques et méthodologiques.
Mes remerciements vont aussi à Messieurs Moez Limayem, Professeur à HEC Lausanne, et
Marc Favier, Professeur à l’IUT 2 GEA Grenoble, qui ont accepté la lourde tâche de
rapporteurs de cette thèse.
Je n’oublie pas non plus, Monsieur Bernard Goldfarb, Professeur à l’Université Dauphine, qui
m’a aimablement accueilli pour valider les résultats statistiques de ce travail, ainsi que
Monsieur Emmanuel Monod, Professeur à l’Université Paris Dauphine, qui m’a facilité l’accès
au terrain.
Merci également à Madame Catherine Pardoux, Professeur à l’Université Dauphine, qui a bien
voulu m’orienter dans le traitement et l’interprétation des données empiriques de cette étude.
Ensuite, mes remerciements s’adressent à tous les professionnels qui ont permis l’accès à
diverses informations, ou qui ont donné de leur temps pour répondre à mes interviews :
Messieurs Ahmed Fourati, Georges Chabert, Alessandro Zanasi, Jean François David, Georges
Miss Nseké, …
J’adresse mes remerciements aux Professeurs Andrew Schwarz, Detmar Straub, Lassaâd
Mezghani pour le temps qu’ils m’ont consacré et la pertinence de leurs conseils.
Je ne peux non plus oublier l’assistance de tout le personnel du CREPA et de la bibliothèque de
l’Université Paris Dauphine, et notamment : Madame Ana Drumea, secrétaire du CREPA, qui a
toujours accepté avec un grand plaisir et une infinie patience, de répondre à mes questions
parfois inintelligibles ; Madame Nathalie Perrichon, ingénieur statisticien du CREPA, toujours
disponible pour résoudre les problèmes liés au fonctionnement du laboratoire ; et spécialement
Isabelle, notre documentaliste.
Pour finir, je tiens à remercier toute ma famille, mes proches et amis : tout d’abord, mon père et
ma mère, qui ont financé ce travail de recherche et m’ont toujours encouragée et entourée de
leur affection tout au long de ces années, et à qui je dédie cette thèse ; ensuite ma sœur Samia,
mon frère Ali et mon fiancé Noamen ; enfin, Mustapha & Juliette, Ahmed & Rim, Olfa,
Jacqueline, Olga, Rim, Chiraz, Najoua, Lobna, Béatriz, Riham, Hayet, Linda, Monia, Nihel,
Nabila, Latéfa Loréa, Hanen, Judith, Marie, Safiétou, Sabrina, Aïcha, Fatma, Raphaël,
Anthony, Mohamed, Soufiane, Hatem, Lotfi, Mondher, Ilyèss, … pour leur soutien et leur aide.
L’université n’entend donner aucune approbation ni improbation aux opinions émises dans
cette thèse : ces opinions doivent être considérées comme propres à leur auteur.
Sommaire
REMERCIEMENTS................................................................................................................... 1
SOMMAIRE ............................................................................................................................. 2
INTRODUCTION GENERALE ................................................................................................... 3
PARTIE 1................................................................................................................................ 11
PRESENTATION DU CADRE THEORIQUE DE LA RECHERCHE........................... 11
CHAPITRE 1...................................................................................................................... 12
PROCESSUS DE VEILLE STRATEGIQUE ET SYSTEMES D’INFORMATION : EVOLUTION DES
CONCEPTS THEORIQUES ....................................................................................................... 12
CHAPITRE 2...................................................................................................................... 49
TECHNOLOGIE DES AGENTS INTELLIGENTS : CARACTERISTIQUES ET APPLICATIONS ...... 49
CHAPITRE 3...................................................................................................................... 89
DIMENSIONS THEORIQUES DE L’INTERACTION HOMME-MACHINE DANS LE MANAGEMENT
DES SYSTEMES D’INFORMATION .......................................................................................... 89

SYNTHESE DE LA PARTIE 1. STRUCTURE GLOBALE DU DEUXIEME MODELE


THEORIQUE ....................................................................................................................... 131
PARTIE 2. METHODOLOGIE DE RECHERCHE ET MISE EN APPLICATION DU
MODELE THEORIQUE .................................................................................................... 137
CHAPITRE 4.................................................................................................................... 138
POSITIONNEMENT EPISTEMOLOGIQUE ET METHODOLOGIE DE LA RECHERCHE ............. 138
CHAPITRE 5.................................................................................................................... 155
ETUDE DES ANALYSES DESCRIPTIVE ET EXPLORATOIRE .................................................. 155
CHAPITRE 6.................................................................................................................... 196
ANALYSE CONFIRMATOIRE : ............................................................................................. 196
VALIDATION DES HYPOTHESES DE RECHERCHE ............................................................... 196
SYNTHESE DE LA PARTIE 2. ......................................................................................... 249
RESUME DES RESULTATS DU PROCESSUS D’ANALYSE DES DONNEES ........ 249
CONCLUSION GENERALE ................................................................................................... 253
BIBLIOGRAPHIE ................................................................................................................. 263
TABLE DES MATIERES ........................................................................................................ 289
LISTE DES FIGURES ............................................................................................................ 294
LISTE DES TABLEAUX ......................................................................................................... 295
Introduction Générale

“ Les TIC dont on a tant parlé, …,ne sont-elles


que la énième évolution technologique,
que le résultat de phénomène de mode,
ou possèdent-elles un véritable caractère stratégique ?”

KALIKA M., «Le e-Management: quelles transformations pour l’entreprise ? »,


Editions Liaisons, 2003.
Introduction générale

1. Formulation de la problématique de recherche

Depuis toujours, l’entreprise est à l’écoute de son environnement immédiat (clients,


fournisseurs, concurrents, pouvoirs publics) et potentiel pour connaître les éléments qui ont ou
auraient une influence sur son activité présente et future. Progressivement, elle a intégré dans
son organisation cette quête d’information sur son environnement. Ce processus est devenu
un champ de recherche autonome. En particulier, depuis les années 1960, ce processus a pris
le nom de veille stratégique, grâce à des chercheurs tels qu’Aguilar (1967) ; Morin (1985) ;
Lesca (1986) ; Jakobiak (1989)…

Aguilar (1967) fut le pionnier de la recherche sur la veille stratégique, il définit ce concept
comme étant la récolte d’informations externes à l’entreprise sur les événements et tendances
de l’environnement.

Processus informationnel par lequel l’entreprise se met à l’écoute de son environnement, la


veille stratégique est un ensemble de tâches à coordonner pour fournir une aide à la décision,
allant de la recherche des informations à leur interprétation et à la création du sens pour ces
informations (Lesca, 1994).

Par ce processus, la veille stratégique anticipe sur ce qui se passe à l’extérieur de l’entreprise.
Aussi faut-il être capable de détecter et d’utiliser toutes informations ou signaux, mêmes les
plus faibles (signaux d’alerte précoces) venant de l’environnement, notamment des acteurs
susceptibles d’influencer le devenir de l’entreprise par leurs stratégies, décisions et actions.
Pourtant les dirigeants sont confrontés à un paradoxe : alors même qu’ils sont noyés
d’informations, ils éprouvent des difficultés à identifier et à acquérir la « bonne information »
dont ils ont besoin pour prendre leur décision.

Plus récemment, l’émergence des « nouvelles » technologies de l’information a permis


d’augmenter l’exhaustivité de la collecte et d’assurer une meilleure capacité de classement de
l’information grâce au recours à l’intelligence artificielle.

Dès lors, la veille stratégique s’est dotée d’outils plus performants ayant pour fonctions
d’identifier les centres d’intérêts des usagers de la veille et de faciliter l’analyse et la diffusion
de l’information et des connaissances. Générant des informations de plus en plus pertinentes,
ces outils semblent susceptibles d’influencer le processus de la prise de décision dans
l’entreprise. Or, malgré ce rôle de plus en plus important joué par la veille stratégique, peu de
recherches ont traité de l’interaction entre les outils de la veille et leurs utilisateurs.

4
Introduction générale

On distingue deux groupes principaux d’outils de veille stratégique :

- Les outils spécifiques à la collecte des données et à la recherche des informations.


Par exemple les moteurs de recherche.

- Les outils propres à l’analyse de l’information et à l’organisation des processus de


veille. Par exemple, les agents intelligents1, les logiciels dédiés à la veille, les outils
de traitement des données, de partage et de diffusion des informations...

Dans les deux groupes, le processus de veille a notamment recours à une famille d’outils,
appelés les agents intelligents (Lesca et Chokron, 2000). Dans notre étude, nous
conceptualisons ces agents intelligents, dans le but d’étudier l’impact de leur utilisation dans
plusieurs domaines d’application.

Reix et al. (2002) ont distingué cinq grands domaines d’application de l’outil informatique :

- L’informationnel, qui recouvre la gestion des données et des connaissances

- Le fonctionnel, qui englobe le traitement des transactions et l’aide aux tâches


opérationnelles

- Le décisionnel, qui traite des processus de décision et de l’aide à la décision

- Le relationnel, qui rassemble les processus de communication et l’aide à la


communication

- Et enfin, un domaine général lorsqu’on traite du système d’information dans sa


globalité.

Dans notre étude, ces agents intelligents sont davantage traités sous l’angle informationnel
(gestion des données, des informations…), sous l’angle fonctionnel (recherche, stockage,
traitement automatique des informations…) ou sous l’angle décisionnel (assistance dans le
management stratégique, dans le e-commerce et dans d’autres activités d’aide à la décision).

L’objet de cette recherche est donc double :

- Il est d’ordre conceptuel car il s’agira de définir la veille stratégique, l’information,


le système de son traitement, les agents intelligents, …
1
Ils sont capables de dépouiller de très grosses bases de données, que l’accès en soit autorisé ou non. Ces
logiciels puissants peuvent décortiquer plusieurs millions d’articles scientifiques relatifs à un sujet particulier et,
alors que l’information recherchée n’existe pas formellement, la créer en effectuant des recoupements et des
corrélations. Ils sont Capables de s’adapter à de nombreux environnements et configurations, ils prennent des
initiatives. Ils naviguent dans un environnement logiciel de haut niveau en faisant abstraction des infrastructures
des systèmes. (Définition générique donnée par l’encyclopédie Universalis)

5
Introduction générale

- Il est d’ordre pratique car il faudra chercher les fonctionnalités des agents
intelligents et leurs utilités perçues dans les organisations.

Ainsi, notre recherche s’attachera à caractériser les liens existants entre les Agents Intelligents
(AI) de la veille stratégique et l’intention de les utiliser au niveau des différentes directions
organisationnelles. Dans ce cadre, il faudra en particulier tenir compte des interactions qui
auront lieu tout au long du processus d’utilisation, d’une part, entre les
concepteurs/fournisseurs de cette technologie-agents et les directeurs/managers. Et, d’autre
part, entre les utilisateurs et les agents logiciels.

En effet, ces liens ont évolué dans le temps. A l’origine, l’attention avait été focalisée sur
l’amélioration des Systèmes d’Information (SI) que pouvait entraîner l’utilisation des agents
intelligents. Ce fut notamment le cas lors de recherche de grandes quantités d’informations.
Puis, avec l’arrivée d’agents de « data mining » de plus en plus sophistiqués (les systèmes
autonomes, par exemple), l’attention s’est portée sur la capacité d’extraire automatiquement la
connaissance utile parmi une masse importante d’informations (Nabeth et al., 2003).

Dès lors, au plan théorique, le rôle des agents a été pris en compte dans la mise en œuvre des
systèmes de gestion de la connaissance. Du point de vue du management des organisations,
cette évolution a entraîné un premier questionnement à deux dimensions :

- Technique : quel est l’état de la faisabilité des agents cognitifs2 (ou intelligents) y
compris dans leur dimension expérimentale ?

- Managériale : comment intégrer les agents cognitifs au sein des systèmes de gestion
de la connaissance ?

Partant des défis posés à la gestion des connaissances, Nabeth et al. (2003) se sont concentrés
sur la seconde dimension, avec le souci de répondre à trois besoins des systèmes de gestion de
la connaissance pour le futur (y compris ceux relatifs à la mise en œuvre d’agents cognitifs) :

- Aider à la gestion de la connaissance tacite

- Offrir un soutien actif à la dynamique des échanges au sein des organisations dans le
but de dépasser l’aspect purement documentaire des systèmes actuellement en cours

- Intégrer la spécificité des utilisateurs.

2
Un agent cognitif est défini ici par « sa grande capacité de représentation de son environnement d’action et par
une certaine capacité de raisonnement » (Nabeth et al., 2003)

6
Introduction générale

Par ailleurs, notre étude traitant des agents intelligents en tant qu’outil spécifique de la
veille stratégique, un second questionnement double s’est imposé du point de vue du
management des systèmes d’information :

- Technique : quel est l’état de la faisabilité des agents intelligents, au sein des
organisations ?

- Managérial : comment identifier les agents intelligents au sein du processus de


la veille stratégique ? Comment évaluer leur utilisation sous une perspective
individuelle, c’est à dire sous l’angle de leur utilisateur ?

Nous traitons, la dimension technique en nous basant sur le champ de l’intelligence


artificielle, afin de découvrir les caractéristiques de la technologie des agents intelligents.

Quant à la seconde dimension, nous mettons l’accent sur l’interaction Agent Humain/Agent
Logiciel, en nous inspirant des travaux sur l’Interaction Homme-Machine (Beard & Peterson,
1988 ; Hewett et al., 1992 ; Zhang et al., 2002 ; Carey et al. 2004 ; Zhang, 2004 ; Zhang et al.,
2005…).

A travers ces questionnements nous cherchons à mieux comprendre la nature des relations
entre les deux parties (Agent Humain/Agent Logiciel). Pour ce faire, nous mobilisons un
cadre conceptuel qui intègre deux champs de recherche : Management des Systèmes
d’Information et Interaction Homme-Machine. Au plan de la méthode, cela nous a facilité le
traitement de la question de l’interaction entre les deux agents. Enfin, grâce à ce champ, nous
avons pu progresser dans notre étude sur l’impact de l’utilisation des agents intelligents sur la
veille stratégique à travers:

- L’évaluation de la perception individuelle de l’outil technologique

- La recherche des domaines d’application des agents intelligents dans les


organisations

- Et l’intention d’utiliser les agents intelligents.

Il n’en demeure pas moins que la gestion des informations pose trois défis importants relatifs
à trois besoins essentiels :

- Aider à l’analyse des données structurées et semi-structurées

- Mesurer la perception qu’ont les utilisateurs des agents intelligents dans le but de
découvrir les nouveaux aspects attribués à cette technologie

7
Introduction générale

- Identifier les catégories des utilisateurs de cette technologie.

Dès lors, à partir de ces trois défis, notre démarche cherchera à répondre à trois questions de
recherche essentielles :

1. Comment peut-on faire le choix entre les différents agents intelligents pour collecter,
traiter et diffuser les informations ?2. Quelles sont les caractéristiques de l’utilisation
des agents intelligents et comment sont-ils intégrés dans le processus de la veille
stratégique ?3. Quel est l’impact de l’utilité perçue de la technologie des agents
intelligents sur l’intensité d’utilisation ?

2. Structure générale de l’approche de cette recherche

Pour répondre à l’ensemble de ces questionnements, nous avons structuré notre approche en
deux parties. La première partie est composée de trois chapitres :

Le chapitre 1 explicite le cadre conceptuel et la nature des relations qui lient les trois concepts
clés que sont la Veille Stratégique, les Technologies des Systèmes d’Information (TSI) et les
Agents Intelligents (AI).

Le chapitre 2 présente les caractéristiques et les applications de la technologie des Agents


Intelligents. En effet, nous avons présenté trois classifications liées à trois domaines différents
à savoir l’intelligence artificielle, le commerce et le web. Suite à cette lecture, nous avons
proposé un premier modèle théorique et présenté la première phase d’exploration du terrain.
Nous avons rencontré des difficultés de confrontation de ce modèle à la réalité.

Le chapitre 3 présente les dimensions théoriques de l’Interaction Homme-Machine dans le


champ du Management des Systèmes d’Information, afin de montrer la place de l’utilisateur
dans un système d’information et son interaction avec les TSI. Dans ce chapitre, les
instruments de mesure et d’évaluation des systèmes d’information sont détaillés. Plusieurs
modèles théoriques y sont analysés afin de dégager les caractéristiques les plus à même
d’inspirer la construction d’un modèle capable de répondre à notre problématique.

Le deuxième modèle construit sur la base de la sollicitation de deux champs de recherche : le


champ IHM et celui MSI, sera ensuite mis en application dans la seconde partie de la thèse et
validé à l’aide de cette technique de recherche : soumission d’un questionnaire (155
répondants).

8
Introduction générale

Dans le chapitre 4, nous présentons dans un premier temps notre positionnement


épistémologique et méthodologique de la recherche. Dans un second temps, un questionnaire
a été conçu sur la base du second modèle théorique « définitif ». Cet instrument de mesure a
permis de collecter les données primaires de cette étude. Cette seconde technique a été
pertinente dans la confrontation du modèle à la réalité et dans la collecte des données.

Le chapitre 5 est réservé à deux types d’anayses, la première est descriptive et la deuxième est
exploratoire. Dans la première analyse nous avons testé l’homogénéité de l’échantillon (nous
avons utilisé SPSS). Dans la deuxième analyse, nous avons réduit le nombre d’items grâce à
l’analyse en composantes principales. Nous avons fait recours aussi à une classification des
utilisateurs des agents intelligents. Ces deux traitements sont faits sous SPAD. Enfin, une
analyse de variance a été mise en place afin de mesurer l’influence entre les caractéristiques
de la tcehnologie sur les variables des deux modèles d’évaluation de systèmes d’information
intégrés (ce traitement est fait sous SPSS).

Le chapitre 6 présente la troisième analyse confirmatoire composée de deux traitements


consécutifs : dans le premier traitement nous avons testé sous PLS-Graph, toutes les relations
qui forment le modèle théorique dans sa globalité. Ce test conduit à une compréhension de
choix sur l’utilisation des agents intelligents. Dans le deuxième traitement nous avons élaboré
et spécifié, sous AMOS deux modèles résultant du premier traitement afin de valider d’autres
relations.

La figure 1 présente la structure générale de l’approche de notre recherche.

9
Introduction générale

Utilisation Choix
SI TSI AI
Impact
Veille Utilisateur
stratégique
Domaines d’application
Organisation
Impact
Décision

Objet de la recherche :
Conceptualisation et fonctionnement des Agents Construction du modèle
Intelligents (AI): théorique
- Etude des relations : AI/Utilisateurs,
AI/Organisation, et AI/Décision
- Niveaux d’analyse : Technologique, Individuel,
inter-organisationnel.
Représentation théorique

Terrain de la recherche

Confrontation du modèle théorique à la


réalité.
Méthodologie : 6 entretiens exploratoires,
enquête par questionnaire.

Perspective :
Impact des AI sur la perception des
Résultats de la recherche utilisateurs :
- Impact de l’adéquation Technologie/Tâche
sur le degré d’utilisation des AI.
- Impact de l’Adéquation Technologie/Tâche
sur l’acceptation de cette technologie.
- Impact de l’acceptation des AI sur le degré
d’utilisation des AI.

Figure 1. Structure générale de l’approche de notre recherche

10
PARTIE 1

Présentation du cadre théorique de la


recherche

Nous commençons notre recherche par la formulation d’une grille de lecture qui étudie
l’impact des Systèmes de Traitement de l’Information (STI) sur la veille stratégique. Ensuite,
la détermination des facteurs clés de succès de l’acceptation de l’utilisation des technologies
d’accès et de traitement automatique de l’information sous une perspective individuelle.

Ainsi, nous essayons dans un premier chapitre de caractériser d’une part le lien entre la veille
stratégique et les systèmes d’information. Et d’autre part, le lien entre les STI et le processus
de prise de décision. D’où la nécessité d’un processus de veille stratégique qui fait intervenir
des acteurs. Ces derniers mettent en mouvement les systèmes d’information.

Dans un deuxième chapitre, nous présentons les caractéristiques et les applications de la


technologie des Agents Intelligents. Nous définissons l’agent intelligent en tant qu’outil
technologique de la veille stratégique. Nous déterminons dans cette étape, le contexte, les
caractéristiques spécifiques aux agents intelligents, ainsi que, leur classification par rapport à
leur fonction, la mise en œuvre de chaque type d’agent et la situation d’interaction avec
l’utilisateur. Suite à la classification des AI, nous avons proposé un premier modèle théorique
et présenté la première phase d’exploration du terrain. Nous avons rencontré des difficultés de
confrontation de ce modèle à la réalité.

Enfin, nous présentons dans un troisième chapitre, le rôle important de l’interaction homme-
machine dans le management des systèmes d’information. Nous évoquons les différents
modèles de base traités par la littérature des systèmes d’information pour pouvoir construire le
modèle théorique de cette recherche.
CHAPITRE 1

Processus de veille stratégique et Systèmes


d’information : évolution des concepts
théoriques

“External information is abundant, attention can be


directed any number of ways, but not every way”

Hambrick D.C., «Environment, Strategy and Power Within Top Management Teams»,
Administrative Science Quarterly, 26 (2),1981.
Chapitre 1

Introduction

Ce chapitre a pour objet de définir plusieurs concepts théoriques afin de mieux comprendre
l’appellation de chaque concept ainsi que son évolution au cours de ces dernières années.

Dans une première section, nous définissons les notions proches de la veille stratégique. La
multiplicité des notions nous incite à définir, en premier lieu, trois notions principales :
« Competitive Intelligence », « Business Intelligence » et Veille Stratégique (Lesca, 2004)
pour éviter la confusion entre ces derniers. En deuxième lieu, nous définissons le traitement
de l’information et des systèmes d’information.

Dans une deuxième section, nous présentons les systèmes de traitement de l’information et le
processus de veille afin d’exposer les TIC comme outils de la veille stratégique et le lien entre
ces outils, l’information et le processus de prise de décision.

Section 1 : Définition et évolution des concepts

1. Foisonnement terminologique

1.1. Multiplicité des notions

Avant d’en arriver à une définition faisant plus ou moins référence en la matière, les
chercheurs ont multiplié à la fois les notions proches de la veille stratégique et accentué la
complexité de celle-ci selon les tâches qui lui sont attribuées.

Ainsi, au cours des cinquante dernières années, les chercheurs ont tour à tour parlé de
l’intelligence organisationnelle (Wilenski, 1967 ; Choo, 1997), d’intelligence d’affaire (Gilad
et Gilad, 1988), d’intelligence d’entreprise (Lesca et Chokron, 2000). Puis on est arrivé aux
concepts de Competitive Intelligence et de Business intelligence.

Parallèlement, depuis la fin des années 1990, la veille stratégique évolue dans sa définition
selon les phases qu’elles couvrent (Vedder, Vanecek, Guynes, Capel, 1999 ; Lesca, 2001 ;
Rouach, Santi, 2001) et selon les tâches qui lui sont attribuées. Aguilar (1967) indiquait un
processus d’assistance à l’identification et à la compréhension des menaces et des
opportunités stratégiques. Abramson (1997) considérait quant à lui que ce processus consistait
à rechercher, interpréter et transformer des informations intelligentes utiles à l’action des

13
Chapitre 1

décideurs. Entre ces deux auteurs, une dizaine de chercheurs (dont Morin, 1985 ; Jakobiak,
1989 ; Thietart, 1990 ; Marmuse, 1992 ; Walls et al. 1992; Lesca H, 1986-1994…) ont
apporté leur contribution à la définition de la veille stratégique.

En tout état de cause, quelle que soit la terminologie employée, toutes ces notions expriment
le fait que le processus d’intelligence ou de veille stratégique est un processus volontariste par
lequel l’entreprise traque, assimile et diffuse de l’information en provenance de son
environnement externe en vue de son utilisation pour l’action. C’est aussi un processus dans
lequel des acteurs (les Hommes et leur interaction avec la machine) mettent en mouvement,
de façon volontaire et selon des objectifs, les systèmes d’information. On passe ainsi d’un
processus d’information à celui d’utilisation, et de l’utilisation à l’action.

Dans ce processus, le système d’information est un élément capital, la base essentielle de la


veille stratégique. Mais il n’est qu’un ensemble de stocks statique et ne peut en aucun cas être
équivalent à celle-ci.

Utilisation Choix

SI TIC AI
Impact
Utilisateur
Veille stratégique Domaines
d’application
Organisation

Décision Impact

Figure 2. Impact de l’utilisation des agents intelligents

Ce foisonnement terminologique n’en a pas moins conduit vers l’émergence de trois concepts
principaux, toujours en « concurrence » : la Competitive intelligence, la Business intelligence,
la Veille stratégique.

1.2. Competitive Intelligence et Business Intelligence

Le premier concept a été défini par la société professionnelle de l’intelligence compétitive


comme étant : « un processus de collecte morale, d’analyse et de dissémination précise,

14
Chapitre 1

…concernant les implications de l’environnement des affaires, les compétiteurs, et


l’organisation en elle-même ». (SCIP, 2003)

En d’autres termes, l’intelligence compétitive est la sélection, la collecte, l’interprétation et la


distribution de l’information publique. (Boncella, 2003).

Le processus de l’intelligence compétitive implique un nombre d’activités distinctes, c’est un


cycle continu dont les étapes comprennent (Herring, 1998) :

- La planification et la direction : travaillant avec les preneurs de décision pour


découvrir et cibler leurs besoins d’une manière intelligente

- La collecte des données : conduite d’une façon légale et morale

- L’analyse des données : interprétation des données et compilation des données


recommandées

- La dissémination des informations : présentation de ce qui a été analysé aux


preneurs de décision (Kahaner, 1998; Rouach & Santi, 2001)

- L’effet retour : en prenant en compte la réponse des preneurs de décision et leurs


besoins d’une façon intelligente et continue.

Ce processus sera schématisé dans la figure 3 :

15
Chapitre 1

Planification et Direction

Collecte Analyse Dissémination

Agents de recherche, Agents Intelligents Bases de Données


Moteurs de recherche

Figure 3. Processus de l’intelligence compétitive.3

Dans la phase de collecte des données, diverses techniques sont appliquées comme la
surveillance de l’environnement. Elle concerne la collecte des informations primaires et
secondaires dans les domaines politique, économique, technologique et social (Shaker &
Gembicki, 1999 ; Teo, Choo, 2001). L’information primaire est une information qui n’est pas
retraitée par un intermédiaire. L’information secondaire est l’information disposée par un
intermédiaire (Isaac, 2003). La première catégorie regroupe les nouveaux produits ou services
des entreprises, les réactions des clients sur les produits des concurrents observées sur les sites
de distributeurs ou dans les forums de discussions en ligne… Ces sites forment une source
importante pour la veille commerciale et concurrentielle. Dans la deuxième catégorie
d’informations, on trouve des bases de données dédiées à la veille, rapports financiers sur les
entreprises…(Financial Times, Bloomberg…).

Ces approches de collecte intègrent des interviews personnelles et des ressources en ligne.
L’obtention de l’information matérielle en ligne est assistée par les méta-moteurs de
recherche et les agents intelligents utilisés pour fouiller les données à travers Internet
(Joureston, 2000; Shaker & Gembicki, 1999). Vu la difficulté à collecter ces informations, ces
outils basés sur des technologies Internet sont au service de la traque de l’information sous ses
différentes formes.

3
Pour plus de details voir l’article de FOURATI F., « Measuring user satisfaction with Intelligent Agents: An
exploratory study », Presented at sixth international conference on data mining, text mining and their business
applications, Skiathos, Greece, May 25-27, 2005, published in Data Mining VI, ISSN 1743-3517, pp. 389-398,
WIT Transactions on Information and Communication Technologies, Vol. 35, 2005, WIT Press.
www.witpress.com

16
Chapitre 1

Pour traiter le problème de recherche des ressources via Internet, Burwell (1999) fournit une
batterie d’outils pour l’intelligence compétitive et intègre la notion de « l’information faible ».
Cette information est statistiquement non intelligente, collectée auprès des sources non-
traditionnelles comme les pages éditoriales et les groupes de discussion en ligne. Les
utilisateurs du net sont des exemples de groupes de discussion en ligne pour collecter les
opinions (Burwell, 1999; Kassler, 2000). Les moteurs de recherche comme HotBot, Altavista
et Google affirment ce que Kassler (2000) appelle le « lien inverse consulté » en rapport avec
les sites web de la firme. Les liens indiquent à la fois les liens officiels et non-officiels des
relations. De plus, la prolifération d’Internet est le résultat d’une grande attention ciblée sur la
collecte des données, le développement des processus analytiques appropriés à l’intelligence
compétitive (Intelligence compétitive citée dans le chapitre 3 de Reid, 20044) et la
formulation de la stratégie partenariale (Fleisher & Bensoussan, 2003).

L’intelligence compétitive est définie comme l’ensemble des moyens à multi-facettes par
lesquels l’information est interprétée pour produire de l’intelligence pour l’action
organisationnelle (Fleisher & Bensoussan, 2000).

Elle fournit des techniques abondantes comme l’analyse des profils des compétiteurs qui
permettent aux organisations d’analyser des forces et des faiblesses des concurrents actuels et
potentiels dans le but d’identifier les opportunités et les menaces. (C’est l’approche du
positionnement stratégique de Porter). Le tableau 1 présente un sommaire des techniques
analytiques pour le profil des compétiteurs.

Techniques Usage Auteurs

Analyse de la publicité Identifier les caractéristiques (Britton, 2002)


démographiques des
compétiteurs, ainsi que leur
positionnement.
Analyse des réseaux Evaluer la force des réseaux (deMan, 2002)
d’alliances. d’alliances des compétiteurs.

Profil des compétiteurs Fournit une image des forces (Whitehead, 2002);
et faiblesses des concurrents (Fleisher &
actuels et potentiels. Bensoussan, 2003)

Analyse de la culture Comprendre les styles de (Herring, Klein, Harris,

4
Edna O.F. Reid, Using Web Link Analysis to Detect and Analyze Hidden Web Communities, (Chapter 3),
Information and Communications Technology for Competitive Intelligence, Edited by Drik Vriens, Idea Group,
2004.

17
Chapitre 1

partenariale commandement des & Bourey, 2002)


compétiteurs et la culture des
firmes.
Analyse basée sur la Utiliser les outils de (Glitman, 2000);(Mogel,
prédiction. classification pour analyser 2002)
le changement des actions
des compétiteurs irrationnels.
Analyse du média Utiliser les outils de (Naylor, 2002); (Stott,
diagnostic pour mesurer et 1993)
comparer les champs
d’application du media des
compétiteurs.
Evaluation des opportunités Identifier les opportunités et (Hoyt, 2002) (Alampalli,
les menaces comme étant un 2002); (Patchett, 2002);
système d’alerte. (Holder, 2001)

Tableau 1. Les techniques d’analyse des compétiteurs (Edna O.F. Reid, 2004)

En plus de la traque des compétiteurs, les environnements social, technique, économique et


politique doivent être surveillés pour détecter les opportunités et les menaces (Fleisher &
Bensoussan, 2003; Mogel, 2002).

L’émergence de ces techniques d’analyse permet de filtrer les informations fragmentaires à


l’intérieur du bruit et de discerner la connexion entre des personnes, des lieux et des
événements dispersés. C’est une nécessité pour les organisations intelligentes parce qu’elles
ont besoin de fouiller les données non-structurées comme les e-mails pour identifier les liens
et les anomalies du sens potentiel dans les marchés traditionnels et les marchés en ligne
(Ignatius, 2002).

En résumé, L’intelligence compétitive est un programme éthique et systématique pour la


collecte, l’analyse et la gestion de l’information externe qui peut affecter les plans, les
décisions et les opérations de la firme. (SCIP, 2003)

Quant au second concept, la « Business Intelligence », c’est un terme relativement nouveau. Il


remplace l’aide à la décision, les systèmes d’information exécutifs et le management des
systèmes d’information (Thomsen, 2003).

Les systèmes du « Business Intelligence » combinent la collecte des données, le stockage des
données et le management des connaissances en utilisant des outils analytiques pour présenter
l’information compétitive, complexe et interne aux planificateurs et aux preneurs de décision.
(Negash, 2004).

18
Chapitre 1

Dans cette définition implicite (peut-être idéale), les systèmes du « Business Intelligence »
fournissent une information actionnable délivrée au bon moment, au bon endroit et sous la
bonne forme pour aider les preneurs de décision. La « Business Intelligence » aide dans la
prise de décision opérationnelle et stratégique. Il représente une évolution naturelle de séries
de systèmes antérieurs désignés pour assister la prise de décision. (Negash, 2004)

L’intelligence des affaires est une approche stratégique pour le ciblage, la traque, la
communication et la transformation des signaux faibles en informations actionnables sur les
quelles la prise de décision stratégique est basée. (Rouibah et Ould-Ali, 2002)

1.3. Veille Stratégique

Lesca (2001) définit la veille stratégique comme : « le processus collectif continu par lequel
un groupe d’individus traquent, de façon volontariste, et utilisent des informations à caractère
anticipatif concernant les changements susceptibles de se produire dans l’environnement
extérieur de l’entreprise dans le but de créer des opportunités d’affaires et de réduire les
risques et l’incertitude en général. »

Selon Lesca (2003), la veille signifie être éveillé, être en état de réceptivité, être prêt à
détecter quelque chose qui pourrait se produire sans que l’on sache exactement ni quoi ni où.

Cet auteur définit la veille anticipative stratégique – intelligence collective, comme étant un
processus collectif et proactif, par lequel des membres de l’entreprise traquent (perçoivent ou
provoquent et choisissent) de façon volontariste et utilisent des informations pertinentes
concernant leur environnement extérieur et les changements pouvant s’y produire.

Dans l’expression « veille anticipative stratégique », le mot « stratégique » est utilisé pour
signaler que cette veille a pour mission de fournir aux décideurs des informations utiles dans
certaines situations.

Ces phases se présentent comme suit :

- Ciblage de l’environnement à surveiller : dans cette phase l’entreprise doit cibler les
domaines sur lesquels elle veut agir en priorité.

- Traque des signaux faibles : il s’agit de désigner les capteurs d’informations, de leur
attribuer des missions de collecte et de leur fournir les méthodes et outils de cette
activité.

19
Chapitre 1

- Circulation et remontée des informations : il s’agit d’organiser à la fois la circulation


des flux internes et des flux externes de l’entreprise pour rendre les informations
accessibles aux décideurs.

- Transformation des signaux faibles en forces motrices : il s’agit d’analyser les


différentes informations collectées dans le but de leur donner du sens et d’en tirer
une valeur ajoutée.

- Action : la phase précédente permet à l’entreprise de prendre des décisions et donc


d’agir sur son environnement.

Le processus de veille stratégique peut être synthétisé à partir de la représentation qu’en


propose Lesca (1994) et qui est présentée par le schéma ci-dessous.

(5) Mémorisation
Base de connaissance
(4) Circulation

(6) Diffusion/Accès Animation


(3) Sélection
(7) Construction de sens

(2) Traque

(1) Ciblage

(8) Utilisation pour l’action

Figure 4. Processus de la veille stratégique (Lesca, 1994)

En fait, depuis la années 1960, nous notons une évolution continue de la définition du
processus de la veille stratégique. Cette évolution montre l’importance de cette fonction
puisque chaque auteur lui attribue de plus en plus de tâches à assurer. Nous reprenons l’étude
faite par Rouibah (1998) dans ses travaux de recherche et nous montrerons par la suite
l’évolution à la fin des années 90 et au début du 21ème siècle.

Auteurs Ce qu’elle signifie Le processus


Acquisition d’informations externes à Assistance à l’identification et à la
Aguilar (1967) l’entreprise sur les événements et les compréhension des menaces et des
tendances de l’environnement. opportunités stratégiques

Volonté des dirigeants de surveiller - Gagner du temps ;


l’environnement technologique de

20
Chapitre 1

Morin (1985) l’environnement technologique de - Anticiper les menaces ;


l’entreprise. - Saisir les opportunités ;
- Assurer le long terme.

Observation et analyse de Diffusion, traitement, sélection des


Jacobiak (1989) l’environnement. informations utiles à la prise de
décision stratégique.

Surveillance de l’environnement en vue - Trier, sélectionner, assembler les


d’adaptation de l’entreprise. informations ;
Thietart (1990) - Fournir aux décideurs les éléments
importants pour toute action
stratégique.

Système d’observation de - Détecter des opportunités ;


l’environnement et de l’entreprise. - Identifier des facteurs de
Marmuse (1992) vulnérabilité ;
- « Nourrir » la stratégie en
informations.

Identification des informations Alerter suffisamment tôt les


Walls et al. (1992) anticipatives et des discontinuités. dirigeants d’entreprise sur
d’éventuelles opportunités ou
menaces.
-Ecoute prospective et globale de - de façon aussi anticipative que
Lesca H. l’environnement ; possible : saisir des opportunités,
(1986,1994) -Création de visions anticipées. prévenir les risques, réduire
l’incertitude.
- préparer le long terme.

Surveillance globale de l’environnement. Rechercher, interpréter, transformer


Abramson (1997) des informations intelligentes utiles
à l’action des décideurs.

Tableau 2. Evolution de la notion de la veille stratégique. (Rouibah, 1998)

Comme nous le constatons, la veille stratégique se présente comme :

- Une activité de recherche d’information à laquelle sont allouées des ressources


technologiques et humaines (Aguilar, 1967 ; Pearce et al., 1982 ; El Sawy, 1985) ;

- Une activité d’analyse de l’environnement ;

- Une activité de préparation à la décision.

Lesca N. (2003) a précisé le positionnement de la veille stratégique et le rôle des systèmes


d’information de veille dans chacun de ces quatre contextes de management :

21
Chapitre 1

(1) Positionnement (2) Théorie cognitive (3) Théorie de (4) Théorie de la


stratégique de la décision l’apprentissage contingence
organisationnel
Porter (1985) Simon (1977) Weick (1995) Lawrence et Lorsch
March et Simon Argyris (1976) (1967)
(1969) Aguilar (1967)
L’appropriation L’efficacité de la L’organisation est L’organisation est un
exclusive d’une décision repose sur la prise dans un courant système ouvert qui,
information capacité du décideur à d’action continu pour suivre, est dans
privilégiée peut disposer, au bon auquel elle porte un la nécessité d’exercer
conférer un avantage moment, de la bonne regard rétrospectif et une surveillance
concurrentiel information et à réflexif pour se permanente de son
permettant de soutenir l’intégrer dans sa connaître, environnement
la compétitivité d’une formulation du comprendre, extérieur et de s’y
façon particulière problème avant de apprendre, se justifier adapter.
choisir une réponse et finalement agir à
satisfaisante nouveau.
Diagnostic stratégique Prise de décision Apprentissage Réaction
Résolution de Innovation Adaptation
problème
Agréger, synthétiser Diffuser, analyser et Agir pour expliquer ;
Surveiller et parfois
et analyser parfois expérimenter Comprendre pour agir
réagir
Le SI doit être conçu Le SI doit supporter Le SI doit supporter le
Le SI doit permettre à
pour permettre les phases de processus de création
l’organisation
l’appropriation recherche et de choix de connaissances et
d’obtenir
d’informations de la solution. d’informations l’information sur les
privilégiées, et Il doit aussi soutenir nouvelles. changements de
l’acquisition d’un la formulation du l’environnement pour
avantage problème, ce qu’il rendre possible
concurrentiel néglige souvent. l’adaptation et la
réaction.
Tableau 3. Management stratégique, veille stratégique et système d’information (Lesca
N., 2003)

Le concept de l’intelligence des affaires est synonyme de celui de la veille stratégique du fait
qu’il est considéré comme étant une approche systématique dans laquelle l’entreprise doit être
vigilante quant aux signaux d’avertissement de son environnement extérieur afin d’anticiper
les menaces et les opportunités de ses affaires. Quant à la « competitive intelligence », elle est
considérée comme une branche spécialisée de l’intelligence des affaires.

22
Chapitre 1

2. Concept de traitement de l’information

Le sens du terme « information » est plus large que dans la théorie de l’information de Claude
Shannon où l’acceptation en est strictement numérique, statistique.

Shannon (1975) a déterminé que l’information est une grandeur observable et mesurable.
C’est un concept physique relationnel.

L’information est la construction personnelle de la réalité, elle correspond à un enjeu pré-


défini que l’acteur a fait valoir par rapport à ses contraintes.

L’information est plutôt qu’une priorité physique de l’univers, une construction du cerveau
humain en terme de relations économiques, sociales et humaines.

La théorie de traitement de l’information a fourni des métaphores à la psychologie,


notamment celles de canal de communication ou de traitement, de capacité limitée et de
« bruit » qui dégrade l’information transmise.

Cette théorie est caractérisée par plusieurs principes :

- L’émetteur et le récepteur d’un message ont un répertoire commun, un code qui leur
permet de transmettre un message codé sur un canal sous forme de signes
décomposables en unités d’information appelées bits.

- Au cours de son cheminement l’information rencontre du bruit c’est à dire des


perturbations aléatoires qui tendent à brouiller le message.

- La redondance permet de se prémunir contre le bruit. Elle est constituée par les mots
inutiles à la transmission des informations.

Il est économique de ne pas transmettre la redondance, mais sa transmission augmente la


fiabilité de l’information. Le transmetteur doit optimiser la redondance en jonglant avec
l’économie et la fiabilité de l’information.

La cybernétique de Norbert Wiener et la théorie de l’information de Claude E. Shannon ne


paraissent pas avoir épuisé les généralisations de toute science possible de l’information, mais
rendent seulement compte au plus haut niveau de ce que les ordinateurs sont et font.

Il apparaît que les approches issues de la théorie de l’information (ou théorie du signal),
théorie qui était au fondement du développement de ces TIC, ne semblent pas pertinentes dès

23
Chapitre 1

lors qu’on tente de comprendre le rôle, le pouvoir, l’idéologie, les effets de l’information
(Guyot et co-auteurs, 2004)

Le traitement de l’information se réfère à la collecte des données, la transformation des


données en informations, la communication et l’entreposage de l’information dans
l’organisation (Galbraith, 1973, 1977 ; Tushman & Nadler, 1978 ; Egelhoff, 1982).

En se basant sur la perspective de traitement de l’information, l’investissement dans les


systèmes d’information verticaux est l’une des stratégies qui accroît la capacité de traiter
l’information. Les systèmes d’information verticaux permettent aux organisations de collecter
l’information et la diriger juste à temps, pour l’affecter aux niveaux appropriés de la
hiérarchie (Galbraith, 1973, p.17).

Rhee (2001) a comparé l’accroissement de la capacité de traitement de l’information à travers


la numérisation (il n’y a pas que l’information numérique) avec les besoins des firmes en
traitement de l’information. Cet auteur s’est focalisé sur trois sources de besoins de traitement
de l’information : (i) les caractéristiques de la tâche, (ii) la tâche de l’environnement et (iii)
l’interdépendance de tâche. (Tushman & Nadler, 1978). Il s’est basé sur ces trois déterminants
pour discuter comment ils peuvent affecter la relation entre la numérisation et l’amélioration
de la compétitivité de l’entreprise.

La perspective de traitement de l’information a été utilisée pour des analyses de management


de l’information appartenant au contexte des banques (Rogers, Miller & Judge, 1999), des
petites firmes (El Louadi, 1998), des firmes de santé (Bolon, 1998), des multinationales
(Egelhoff, 1982). Il y a un manque d’études qui appliquent cette perspective dans le contexte
de firmes opérant sur Internet (Rhee, 2001). C’est pourquoi cet auteur a suggéré trois
propositions formant un modèle.

Ce modèle se présente comme suit :

24
Chapitre 1

Trois sources : travail relié à l’incertitude

Caractéristiques de la La tâche de
tâche l’environnement

P1 P2

Numérisation Compétitivité
de la firme
P3

Interdépendance de la
tâche

Figure 5. Le modèle théorique de Rhee (2001)

Commençons par l’explication de chacune de ces trois dimensions pour aboutir aux
propositions :

- Caractéristiques de la tâche :

Les tâches doivent être différenciées par certaines caractéristiques. La caractéristique la plus
importante est celle qui est liée à sa simplicité ou sa complexité (Daft, 1992). Lorsqu’une
tâche est très simple et routinière, elle ne présente pas beaucoup de problèmes. Donc les
problèmes inhérents à cette tâche de routine sont bien compris et possibles à prévoir. Par
contre, si la tâche devient de plus en plus complexe, il est difficile de comprendre ou de
prévoir les problèmes à l’avance. Par conséquent, les caractéristiques de la tâche affectent la
méthode de production (Brown, 2001).

Aujourd’hui, la demande des consommateurs exigeant un produit personnalisé (customized),


couplé à leur habilité à comparer les prix en cliquant sur un bouton, force les firmes à être
plus efficaces en matière de production et plus fidèles aux consommateurs en matière de
personnalisation. Le consommateur devient la source primaire de la tâche de configuration de
l’information. Donc comment peut-on capter l’information sur les besoins du consommateur
au bon moment ?

25
Chapitre 1

Les firmes et leurs partenaires peuvent trouver que l’interactivité est plus facile quand
l’information est dans son format numérique.

D’où la première proposition (P1) : L’efficacité de la numérisation en tant que e-stratégie doit
être contingente avec les caractéristiques de la tâche. Toutes choses égales par ailleurs, plus la
tâche est complexe et non routinière, plus la numérisation augmente la compétitivité de la
firme.

- Tâche de l’environnement :

Cette dimension représente à la fois une source d’incertitude et de besoins en traitement de


l’information. Elle se réfère aux secteurs avec qui la firme interagit directement et qui ont un
impact direct sur l’habilité de la firme à atteindre ses objectifs (Daft, 1992).

Internet a crée des changements profonds. En premier lieu, les produits deviennent obsolètes
d’une façon rapide (produits électroniques). Par conséquent, la réduction du cycle de temps
devient un facteur critique déterminant la productivité et la compétitivité (Wetherbe, 1996).

Quand la tâche de l’environnement est dynamique et rapide dans les industries high-tech, la
quantité de l’information requise dans l’environnement est significative et donc la
numérisation, en tant que façon d’accroître les capacités de traitement de l’information,
semble accroître la compétitivité de la firme. D’où la deuxième proposition (P2):

L’efficacité de la numérisation en tant que e-stratégie doit être contingente avec la tâche de
l’environnement. Toutes choses égales par ailleurs, plus la tâche de l’environnement est
dynamique et rapide, plus la numérisation augmente la compétitivité de la firme.

- Interdépendance de la tâche :

Cette dimension nécessite la coordination et la résolution de problème. Plus grand est le degré
d’interdépendance de la tâche, plus grand sont les besoins en traitement de l’information.

Avec l’ère d’Internet, beaucoup plus d’attention est accordée à l’intégration virtuelle. Cette
intégration permet aux firmes de se concurrencer ensemble en groupes.

L’interdépendance de la tâche peut décider le nombre d’information à traiter. Cette


interdépendance élevée accroît le besoin de traiter une quantité significative d’information.

D’où la troisième proposition (P3) :

26
Chapitre 1

L’efficacité de la numérisation en tant que e-stratégie doit être contingente avec


l’interdépendance de la tâche. Toutes choses égales par ailleurs, plus l’interdépendance de la
tâche est réciproque, plus la numérisation augmente la compétitivité de la firme.

Rhee a exploré les conditions dans lesquelles la numérisation peut accroître la compétitivité
de la firme, en utilisant la perspective de traitement de l’information. Cette étude peut être
développée dans d’autres recherches.

3. Concept des systèmes d’information

« … Pour définir l’informatique comme la science du traitement automatisé de l’information


et pour considérer qu’elle contribue à la définition du système d’information de l’entreprise.
Celui-ci est composé de l’ensemble des éléments (personnels, matériels, logiciels, etc.)
permettant d’acquérir, traiter, mémoriser, communiquer des informations » (Kalika, 1992)

Cette définition est opérationnelle dans le système d’information d’une entreprise.

Nous proposons une seconde définition plus large du système d’information donnée par Reix
(1995) : « Un système d’information est un ensemble structuré de ressources humaines,
matérielles et logicielles, de données, de procédures et de réseaux de communication qui
recueille, transforme, stocke et diffuse l’information au sein d’une organisation, et dont la
finalité est d’assister les êtres humains dans les fonctions d’exécution, de gestion et de prise
de décision ».

Cette définition traite d’autres aspects avec la finalité d’assister les êtres humains dans leurs
différentes fonctions.

Le Système de traitement d’information insiste sur les aspects cognitifs de la décision,


l’acquisition et le traitement de l’information apparaissant comme plus importants pour
prendre une «bonne» décision que la recherche fine illusoire d’une décision en apparence «la
meilleure».

Les techniques de mise en œuvre du Système de Traitement de l’Information (S.T.I.) sont


principalement celles de l’informatique, et notamment des Systèmes Interactifs d’Aide à la
Décision (S.I.A.D.).

Ceux-ci constituent une interface entre un ordinateur et une ou plusieurs personnes (S.I.A.D.
Individuel ou S.I.A.D.I.; et S.I.A.D. de Groupe ou S.I.A.D.G.).

27
Chapitre 1

Dans tous les cas de figure, le système implanté en machine joue le rôle d’amplificateur
cognitif, mettant l’accent sur une ou plusieurs phases du processus de décision.

La définition conceptuelle du système d’information se fonde sur la cognition humaine. En


psychologie cognitive, le cognitif se caractérise par des processus de traitement de
l’information. Avant d’étudier les processus cognitifs comme étant une échelle continue de
traitement de l’information, présentons tout d’abord le développement des systèmes
d’information pour montrer l’incapacité des SAD5 à atteindre leurs objectifs.

Videl et Lacroux (2000) introduisent leur article par une perspective historique pour montrer
que les affirmations de Gorry et Scott-Morton (1971) et de Simon (1980) ne sont pas des
constats isolés. Le tableau 4 récapitule l’histoire des systèmes d’information depuis les années
80 :

Année Auteurs Constat


1980 Bergeron Les systèmes d’information ne répondent pas aux besoins
Blouin des décideurs.

Neumann - « Les attentes importantes et les prévisions optimistes


Hadass suscitées par les SI informatisés pour le support de
processus de prise de décisions n’ont pas été
confirmées ».
- « La contribution des SI informatisées à la prise de
décision stratégique a été insignifiante ».

1987 Tardieu L’approche par les besoins en information qui est toujours
Theys l’approche dominante en SI.

Sharda, En dépit de la popularité des SAD, l’efficience de ce


1988 Barr, système sur les processus de prise de décision reste à
McDonnel prouver.

L’ensemble des efforts entrepris (dans le domaine de la


décision, de la gestion des connaissances) pour développer une
1989 Holtzman
méthode de conception de systèmes décisionnels n’ont pas été
couronnés de succès.

Mc Cratt, Les performances des Group Decision Support System


1989 Rohrbaugh (GDSS) sont très variables sur l’efficience du processus de
décision.

1989 Nunamaker L’aide à la décision avec des ordinateurs est une tâche très
difficile.

5
SAD : Système d’Aide à la Décision

28
Chapitre 1

1991 Preston Les nouvelles technologies de l’information et les


Silver systèmes d’information de façon plus générale ont eu un
très faible impact sur l’effectivité de la prise de décision
dans les organisations.

1992 Docherty Les GDSS contraignent par trop les échanges


interpersonnels ce qui nuit au processus de décision.

1992 Whitaker Les GDSS laissent de côté la dimension essentielle qui les
différencie des SAD : le support a une activité de groupe.

1994 Boland, Faible impact des technologies de l’information sur l’aide


Tenkasi, à la décision des managers.
Te’eni

1995 Er, Ng Les premiers résultats expérimentaux sur les effets des
GDSS sur les processus de décision de groupe sont plutôt
décevants.

1995 Massey Les chercheurs sur les GDSS accordent trop peu
Clapper d’attention à la phase de définition des problèmes, de
création de sens.

1997 Bannon Echec des GDSS pour la formulation des problèmes.


Fascination pour la technologie et oubli de la dimension
sociale, de la résolution de problèmes.

1997 Simon Les SI ont eu un peu d’impact sur la prise de décision au


travers de la recherche opérationnelle et des sciences de
gestion, et au travers des systèmes experts développés en
intelligence artificielle.

1999 Forgione Certaines études empiriques ont montré des


dysfonctionnements et des résultats équivoques dans
l’utilisation des SAD.

1999 Khathuria, Difficulté d’intégrer les technologies de l’information


Anandarajan dans la réalisation des projets et de la stratégie
Igharia d’entreprise.

Tableau 4. Evolution des systèmes d’information (Vidal et Lacroux, 2000)

D’après cet historique, tout au long des 20 dernières années, les différents auteurs ne peuvent
que constater l’inaptitude des SAD à assister d’une manière efficace les dirigeants. On est
confronté à un paradoxe des SAD : à la fois de plus en plus présents dans la vie des
organisations mais conservant un rôle peu efficace dans les processus de décision des
managers.

29
Chapitre 1

La dimension collective du processus de décision a été ignorée par les chercheurs en GDSS.
De plus, il est nécessaire de tenir compte de la dimension sociale/politique de la résolution des
problèmes.

Comment peut-on adapter les systèmes d’information à l’individu et au groupe ?

La notion de système d’information peut être définie comme la combinaison de divers types
de bases de données accessibles à travers divers types de consultation interactive avec
l’utilisation de divers types de logiciels.

Une variété de technologies électroniques est valable pour fournir aux groupes de prise de
décision un support à différents niveaux. En nous référant à la recherche nous pouvons
trouver cette classification de groupes : Group Support Systems (GSS), Group Decision
Support Systems (GDSS), Group Communication Support Systems (GCSS), Computer-
Supported Collaborative Work (CSCW), Electronic Meeting Systems (EMS), et Computer-
Mediated Communications (CMC). (Saunders & Miranda, 1998).

L’étude élaborée par Saunders & Miranda s’est focalisée beaucoup plus sur le GSS qui fournit
un support électronique aux individus et aux groupes par le biais de lien entre les ordinateurs
et les bases de données. Ces auteurs ont examiné l’acquisition de l’information dans deux
environnements différents, l’un est traditionnel et l’autre est électronique dans le but
d’explorer l’influence des modèles de groupes d’acquisition d’information sur la qualité de
décision.

Cette étude est destinée à mesurer deux facteurs :

- Tâches (intellective vs. conflit cognitif) et rencontre sur l’environnement


(électronique vs. traditionnel) : Composante contextuelle.

- Nombre d’informations acquises ou fréquence d’accès à l’information : composante


d’acquisition d’information dans chaque stade – Identification, Développement et
Sélection – de prise de décision : composante décisionnelle.

La variable dépendante est celle de la qualité de décision.

Pour comprendre l’acquisition de l’information durant la prise de décision, il faut que le


décisionnel, l’acquisition de l’information et les composantes contextuelles soient intégrés.
Toutes ces composantes ont un impact dynamique sur l’acquisition de l’information durant la
prise de décision.

30
Chapitre 1

Ces auteurs ont essayé de comprendre l’acquisition de l’information à travers les phases de
processus de décision en se référant aux modèles de Simon (1965) et Mintzberg et al. (1976) ;
tout en intégrant ces trois variables à savoir le décisionnel, l’acquisition de l’information et les
composants contextuels. Chacune de ces variables a un impact dynamique sur l’acquisition de
l’information durant le processus de prise de décision.

La recherche de Saunders & Miranda repose sur les hypothèses suivantes :

H1 : Les groupes utilisant GSS pourront accéder à l’information plus fréquemment que
les groupes de rencontre traditionnels. (Utilisation du GSS / Fréquence d’accès à
l’information)

H2 : Les groupes GSS peuvent accéder à l’information plus fréquemment dans la phase
d’identification que les groupes de rencontre traditionnels. (Utilisation du GSS / Modèles
d’accès à l’information)

H3 : Les groupes résolvant les tâches intellectives pourront moins bien accéder à
l’information dans la phase d’identification que les groupes résolvant les tâches de conflits
cognitives associées aux principes moraux. (Type de tâche / Modèles d’accès à l’information)

H4 : Les groupes qui ont accès à l’information en avance dans le processus de prise de
décision pourront prendre les bonnes décisions plus vite que ceux qui ont accès à
l’information en retard. Cela est dû au cycle de vie court de l’information. (Modèles d’accès à
l’information / Qualité de décision)

La première, la troisième et la quatrième hypothèse ont été confirmées par ces auteurs. Seule
la deuxième hypothèse n’a pas été confirmée.

Avec le groupe GSS, chaque membre peut penser et travailler individuellement en utilisant les
bases de données et en échangeant les idées, à travers les discussions…Le feedback à travers
ces membres est très rapide. L’échange de l’information dans ce contexte est idéal du fait que
les membres de ce groupe ont un accès direct aux différentes sources d’informations.

D’un point de vue théorique, un membre de groupe peut accéder à l’information


indirectement et si elle n’est pas connue par les autres membres il peut la partager avec les
autres. Cependant, le partage de l’information auprès des membres formant un groupe génère
des coûts en terme de temps et d’efforts. Le groupe GSS a l’avantage de faciliter le partage
d’informations et la réduction de coûts.

31
Chapitre 1

Section 2 : Systèmes de traitement de


l’information et processus de veille stratégique

1. TIC comme outils de la veille stratégique

Les Technologies de l’Information et de la Communication (TIC) sont l’ensemble des


techniques, réseaux, bases de données, technologie, matériels. Elles sont à la fois :

1. L’infrastructure technologique.

2. Un élément de la structure organisationnelle (design de l’organisation). On parle de


la plate-forme technologique.

3. La base de la veille stratégique ; elle est liée à la façon d’organiser et pourquoi pas à
la façon de veiller.

Les technologies de l’information permettent d’augmenter l’exhaustivité de la collecte,


assurent une meilleure capacité de classement et de hiérarchisation de l’information grâce au
recours à l’intelligence artificielle.

Les outils de la veille stratégique ont pour fonctions d’identifier les centres d’intérêt des
usagers de la veille et de faciliter la recherche, l’analyse et la diffusion de l’information et des
connaissances.

La valeur ajoutée de ces outils réside dans leur capacité à :

- Echanger divers formats à partir de supports multiples ;

- Modérer le manque de contrôle sur la masse d’informations ;

- Extraire des informations pertinentes…

Les techniques classiques de recherche d’information s’avèrent insuffisantes parce qu’elles


sont adaptées à des environnements statiques. De ce fait, il faut trouver de nouvelles
techniques pour relever le défi d’une recherche d’information plus intelligente sur la toile du
Web.

Le processus de veille permet de déterminer le « qui fait quoi ». Les spécialistes de


l’information qualifiés de spécialistes de domaine, et les responsables du traitement de
l’information sont tous mis à contribution.

32
Chapitre 1

Les types d’outils nécessaires aux fonctions de veille peuvent être identifiés mais le problème
qui se pose est l’examen de la performance de ces outils.

1.1. Premier type d’agents

Un outil de veille est un outil qui génère une information correspondant à un profil d’intérêt.
Les technologies de « pull = tirer » sont indispensables au processus de collecte de
l’information qui est à la base des fonctions documentaires aussi bien que de veille.

La finalité des agents pull est d’aider l’utilisateur à mieux veiller un ou plusieurs sites web et,
éventuellement, les archives des forums de discussion ou des listes de diffusion qui
intéressent les utilisateurs. L’utilisateur commence sa requête en paramétrant un agent de type
pull à partir de mots clés ou d’expressions plus longues. La tâche est déléguée à cet agent
comme un moteur ou un méta-moteur. Cependant, l’utilisateur interagit avec le programme en
transformant la requête en fonction des résultats trouvés par l’agent. Nous citons à titre
d’exemple de ces agents : les agents d’alerte par e-mail et les agents d’alerte off-line6.

1.2. Deuxième type d’agents

Un deuxième type d’outils émerge actuellement et s’appuie sur la technologie de push. Lors
de la diffusion de l’information, la technologie de « push = pousser » est intégrée en fonction
de profils d’intérêt dans un contexte de veille.

Elle consiste à transformer le moniteur en écran télé où les informations s’affichent en


fonction d’un profil utilisateur.

Cette technologie adaptée au cadre d’une démarche de veille a pour but de se tenir informé
des évolutions d’un sujet déjà connu. Elle peut s’inscrire dans une démarche de recherche
d’informations visant à combler un manque ponctuel.

Pour trouver l’information adaptée au besoin de l’utilisateur en un temps restreint, différents


systèmes ont été développés. Exemple, de nombreux robots couplés à des moteurs de
recherche (Yahoo, Altavista, Hot bot…) s’appuient sur une indexation des termes contenus
dans les balises des pages HTML.

Nous donnons quelques exemples de systèmes de recherche d’informations :

6
Voir Annexe n°1_CH1

33
Chapitre 1

1. LETIZIA7 : ce système détermine les centres d’intérêts de l’utilisateur par l’analyse


des pages parcourues et en explorant les pages liées qui semblent le mieux correspondre à ses
attentes. Il ne garde pas de trace des sessions de recherche effectuées. Le travail est
recommencé à chaque nouvelle recherche, d’où la perte de temps. Ce défaut peut être
généralisé à tous les systèmes du même type proposant des aides ponctuelles à la recherche
d’information.

2. BROADWAY8 : Ce système propose des pages à visiter en recherchant des sessions


similaires à celles effectuées par l’utilisateur. La qualité des recherches augmente au fur et à
mesure de l’acquisition d’expérience de l’utilisateur : voilà comment partager l’expérience
des utilisateurs en construisant un système capable d’analyser puis d’exploiter les stratégies
de recherche.

3. RADIX9 : Il exploite l’expérience des internautes en tant que connaissance à


réutiliser par l’utilisateur. C’est un système d’aide à la recherche d’informations. Il permet
d’établir le besoin d’information. La localisation et le moyen d’atteindre l’information sont
difficiles à déterminer. Il fait l’exclusion des recherches entrant dans un cadre de veille (où
l’utilisateur visite des sites qu’il connaît déjà pour voir s’il y a du nouveau). Il permet aussi
d’exclure les sessions où l’utilisateur n’a pas un but réel de recherche.

Après avoir donné quelques exemples de systèmes de recherches d’informations. Ces


systèmes ont été développés pour répondre aux limites de la perte de temps et donner
naissance à une nouvelle technologie qui est celle des agents intelligents. Cette technologie a
attiré l’attention de la société industrielle et de la recherche académique. Nous citons d’autres
exemples de ces agents : les agents « push on-line » et les agents « push off-line »10.

1.3. Caractéristiques des agents intelligents

Les agents intelligents sont définis comme étant des programmes capables de réagir et de
s’adapter à leur environnement. Ils peuvent prendre des décisions et enrichir eux-mêmes leur
propre comportement sur la base d’observations qu’ils effectuent lors des actions pour

7
Lieberman, “An automated channel surfing interface agent for the Web”, in Proceedings of the 5th International
WWW Conference, Paris, 1996.
8
Jaczynski et Trousse, 1997
9
Corvaisier et al., « Information retrieval on the WWW using a decision making system », in actes de la
conférence « Recherche d’information assistée par ordinateur » (RIAO 97), 1997.
10
Voir Annexe n°1_CH1.

34
Chapitre 1

lesquelles ils sont programmés. Les agents peuvent intervenir à tous les niveaux de
l’architecture de veille, aussi bien pour la surveillance et le traitement que pour la diffusion.

Les agents intelligents peuvent fournir des services personnalisés en surveillant les types
d’informations demandées par un utilisateur et en leur envoyant des informations leur étant
reliées par courrier électronique ou sur une page Web personnelle. Exemples d’agents :
AgentSoft, InfoMagnet, Lalo et Seagate Software.

Au cours des années 90, il y eut une mobilisation de la part des chercheurs pour définir la
notion d’agent intelligent. La difficulté de définir cette notion réside dans le fait qu’elle peut
faire partie de différents champs de recherche.

Auteurs Définitions
Smith, Les agents « intelligents » sont des programmes informatiques
Cypher et Spohrer (1994) mobiles.

Russel et Norvig (1995) Pour ces auteurs, l’agent intelligent est une entité logicielle
persistante, dédiée à des buts spécifiques.

Maes (1994) L’agent intelligent est tout objet percevant son environnement à
travers des détecteurs et agissant sur cet environnement grâce à
des actionneurs (Robot).

Les agents intelligents sont des systèmes informatiques qui


existent dans un environnement complexe et dynamique,
perçoivent et agissent de façon autonome dans cet environnement.
Ils réalisent un jeu d’objectifs et de tâches pour lesquels ils sont
conçus.

Critique au niveau de cette dernière définition :


L’agent autonome ne peut pas s’étendre à la fixation d’objectifs.
L’agent réalise ses missions en faisant des transactions avec
d’autres agents et c’est ici qu’on peut s’interroger sur les coûts de
transaction entre agents intelligents.

Tixier (1990) Focalisation sur la fonction d’agent. Ces programmes sont


considérés comme des serviteurs dédiés à une maîtrise d’œuvre.
Application dans le domaine de Marketing direct en amont (C’est
le niveau 1 ou 2 sans recours à la mémoire)
Hayes-Roth (1995) Focalisation de la fonction « intelligence »

Franklin et Graesser (1996) L’agent intelligent est un système situé dans un environnement et
appartenant à cet environnement qui le perçoit, agit sur lui en
poursuivant son propre objectif.

Wooldridge et C’est un système informatique, autonome, social, réactif à


Jennings(1995) l’environnement et pro-actif. Ce système ou cet agent a trois aspects :

35
Chapitre 1

- Perception des changements dynamiques de l’environnement.


- Actions sur cet environnement.
- Modèles de raisonnement permettant d’interpréter les perceptions, de
déduire et de définir les actions.
Tableau 5. Evolution de la définition des agents intelligents (David et Monod, 1997)

Parmi ces définitions, celle de Wooldridge et Jennings (1995) clarifie l’utilité de ces systèmes,
ainsi que leurs caractéristiques (cette partie sera détaillée dans le deuxième chapitre).

2. TIC, information et processus de la prise de décision

La façon de prendre une décision n’a pas pour seule importance d’aider à arrêter des choix
d’investissements, de gestion de stocks, de concession dans une négociation ou de stratégie à
long terme d’une entreprise.

Elle intéresse également les économistes, les sociologues et autres spécialistes des sciences
sociales pour représenter les comportements d’acteurs dans les systèmes qu’ils étudient.

On s’aperçoit ainsi que le mot décision désigne à la fois, en français, le produit de la réflexion
et le processus de réflexion ou de calcul lui-même, tandis que l’anglais sépare, à juste titre,
decision de decision-making. En même temps, le quadruplet – croyances, désirs, rationalité,
turbulence de l’environnement – ouvre sur une typologie possible des nombreux modèles de
la décision. Le terme « décision » est toujours lié aux « DSS : Systèmes d’aide à la décision ».
Une étude11 a été faite pour montrer la cohérence entre les centres de recherche en
management des systèmes d’information. Les auteurs de cette étude ont cherché à trouver des
signes de recherche cumulatives, en sélectionnant les termes DSS et décision. Ils ont trouvé
que les articles produits sur ce sujet entre 1990-1994 sont plus importants qu’entre 1995-
2000. Dans la première période, ils ont noté la construction de théorie là où il y a l’utilisation
des résultats antérieurs pour étendre les idées futures à travers le test et la discussion de
théories. Dans la deuxième période, ces auteurs ont marqué la production faible de
publications et l’absence de construction de théorie. Malgré l’évolution rapide du terme
« DSS », le terme « décision » est plus riche en terme de connexions aux autres notions. De ce
fait, ces auteurs ont essayé de montrer l’évolution de ce terme en étudiant le lien entre
« GDSS » et groupe, ainsi qu’entre « GSS » et groupe. Nous remarquons que la notion de
décision a été séparée du terme Système d’aide. Les résultats de cette étude sont résumés dans
ce tableau :

11
T.J. Larsen & L.Levine, “ Searching for management information systems : coherence and change in the
discipline”, Information Systems Journal, Vol.15, n°4, Oct 2005.

36
Chapitre 1

Entre 1990-1994 Entre 1995-2000


Pair des Nombre Nombre Pourcentages Nombre Nombre Pourcentages
termes des articles des théories des théories des articles des des théories
construites construites théories construites
construites
DSS- 31 4 12.9 9 0 0.0
Décision
GDSS- 15 0 0.0 7 0 0.0
Groupe
GSS- 29 1 3.4
Groupe
Tableau 6. Construction des théories dans les articles de Management des systèmes
d’information (Larsen et Levine, 2005)

Dans notre étude, nous nous sommes focalisés sur l’application des technologies d’accès et de
traitement de l’information en tant que systèmes intelligents afin de montrer le lien entre la
qualité et l’utilité perçue de ces systèmes et l’intention de leur utilisation dans le processus de
prise de décision. Dans cette première sous-section nous limitons notre étude de présenter le
modèle de Simon pour adopter les phases du processus de prise de décision dans notre modèle
théorique.

2.1. Modèle de Simon : Cadre de référence

Le vocable «système de traitement de l’information» permet de désigner commodément la


lignée du modèle issu de la pensée de Simon (1980).

Herbert Simon a proposé, dans plusieurs articles et ouvrages des années soixante et soixante-
dix, un schéma de la prise de décision. Ce modèle distingue trois phases du processus de
décision :

- Une phase de diagnostic d’un problème et d’exploration - reconnaissance des


conditions dans lesquelles il se pose: c’est la phase d’intelligence (au sens militaire
de renseignement);

- Une phase de conception et de formulation de voies possibles offertes à la résolution


du problème: c’est la phase de conception;

- Une phase de choix d’un mode d’action particulier parmi les actions possibles: c’est
la phase de sélection;

Cet ensemble de propositions se fonde sur trois remarques :

37
Chapitre 1

- Les décisions ne sont pas toutes de même nature ni de même niveau. Certaines
décisions sont dites « programmables » : Il s’agit de la présence d’un automate,
correctement informé et programmé, est en mesure de les prendre aussi bien que
l’homme lui-même, et dont la capacité est singulièrement limitée. Notamment, des
ensembles humains ou des interfaces hommes-machines sont concernés, les
décisions sont dites «non-programmable». Les phases d’intelligence et de conception
sont véritablement les phases clés du processus de décision.

- On pourrait se donner pour programme de recherche de tenter de formaliser la


démarche décisionnelle à travers les trois phases évoquées. Une autre voie consiste à
essayer d’améliorer la façon dont les hommes utilisent leurs capacités de
raisonnement et de traitement des informations. Au lieu de chercher à désigner une
décision « optimale », il est plus modeste dans les objectifs de chercher à user d’une
procédure de traitement de l’information et de raisonnement plus satisfaisant. La
rationalité «limitée» ou «procédurale» vient ainsi se substituer à la rationalité
optimisant et «substantive».

- Enfin, le fait qu’on se place dans le cadre d’une organisation comportant


évidemment des départements, des tâches... non totalement intégrés, introduit une
contradiction avec la nécessité de traiter simultanément dans le temps et partout dans
l’organisation l’ensemble des données et des informations disponibles. Les
problèmes de coordination se heurtent à des difficultés compliquées.

Aussi, dans le modèle S.T.I., les trois phases de la décision ne se présentent-elles pas de façon
linéaire, mais en boucles. De nombreuses itérations sont nécessaires, au vu de la faible
capacité cognitive des hommes et de la complexité des problèmes de décision. (H. Simon).

Par ailleurs, le processus de décision est mis en œuvre, dans une organisation, par un système
de décision, lui-même complexe et dont l’action du décideur peut donner une représentation
dégradée et être une source d’erreurs de décision si elle conduit à ignorer les difficultés de
communication et de coordination.

Nous mettons en évidence l’implication de l’utilisation des « software » (logiciels) sur le


processus de la prise de décision. Autrement dit, dans quelle phase du processus l’agent
intelligent peut-il intervenir ?

38
Chapitre 1

2.2. Information et prise de décision

Comme nous l’avons déjà défini dans les sections précédentes, « l’information est une
différence qui produit une différence » écrit Bateson. Selon Rowe et Marciniak (1997), la
première différence est une donnée, un signal ou un ensemble de données perçues en même
temps. La seconde différence est de l’ordre de la représentation mentale d’une connaissance
ou d’un problème. L’information résulte de la transformation d’une donnée. La connaissance
résulte de la transformation d’une information.

L’état de cette transformation peut être schématisé comme suit :

Connaissance Compréhension

Information Signification

Donnée Faits

Figure 6. Transformation des données en connaissances (Turban & Aronson 12)

L’information dépend donc de l’individu récepteur. Elle n’existe pas en soi, elle est
conditionnée par la représentation mentale d’un sujet.

« Informer c’est fournir des représentations pour résoudre des problèmes » (Reix, 1995)

La représentation de l’information joue un rôle dans la résolution des problèmes. Pour


résoudre un problème, la prise de décision est devenue de plus en plus difficile. Cela est dû à
la difficulté de choix entre différentes possibilités, aux coûts supportés par les erreurs ou à
l’incertitude concernant le futur.

La prise de décision peut être améliorée en ayant recours aux connaissances concernant
l’organisation, les produits, les marchés, l’industrie, le passé, le futur, …

Pour prendre de « bonnes » décisions, il faut que les dirigeants sachent faire la distinction
entre donnée et information.

Les données sont des symboles qui représentent ou décrivent des objets et des événements
ainsi que leurs caractéristiques.

12
www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm

39
Chapitre 1

Les informations se sont les données qui ont été traitées à travers une forme significative pour
le destinataire. Cette forme a une valeur réelle et perçue dans les décisions ou les actions
actuelles et/ou éventuelles.

Les connaissances résultent tout simplement de la compréhension des informations et des


données.

Nous pouvons présenter le lien entre l’information et la décision après sa transformation dans
la figure 7 :

Décision Action

Connaissance Information Donnée

Figure 7. Donnée-Information-Connaissance (Turban & Aronson13)

Les outils traditionnels de la prise de décision sont le hardware et le software. Ces derniers se
sont intégrés en croissance dans le package des systèmes ! ( Par exemple : Les systèmes de
réservations dans les agences de voyages, les systèmes de publication …)

Récemment, la conception des systèmes s’est focalisée à la fois sur l’efficience (atteindre un
objectif en exigeant les moindres ressources) et l’efficacité (parvenir un objectif intentionné).

Dans le monde réel des entreprises, l’information a un cycle de vie bien déterminé. Ce cycle
de vie peut être décomposé en quatre phases :

- Capture : saisie et rétention instantanée de l’information ;

- Stockage : conservation de l’information et maintien de sa disponibilité en vue de sa


consultation et/ou de sa modification ;

- Archivage : stockage de l’information figée et inaltérable en vue de son éventuelle


consultation ;

13
www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm

40
Chapitre 1

- Destruction : destruction de l’information après la période légale d’archivage et


garantie de son indisponibilité définitive.

Chaque phase correspond bien à l’utilisation d’outils de Business Intelligence spécifiques


et/ou adaptés à son état. De ce fait, nous passerons à la sous section suivante pour découvrir le
lien entre les technologies de l’information en tant qu’infrastructure informatique et le cycle
de vie de l’information.

2.3. TIC et information

Les technologies de l’information telles qu’Internet, les messageries électroniques et les


applications multimédias contribuent à l’augmentation exponentielle des volumes de données.
La maîtrise de cette croissance est une problématique essentielle pour les responsables
informatiques. Ces derniers doivent affiner l’infrastructure de leur système d’information pour
le mettre au service des performances de l’entreprise tout en maîtrisant des budgets toujours
sous pression. La continuité de traitement, la disponibilité permanente ainsi que la
sécurisation des données nécessitent un changement complet des architectures informatiques.

La définition de cette infrastructure technologique (technologie informatique) est une


réflexion fondamentale pour chaque entreprise. Le but de cette infrastructure est de servir les
objectifs de l’entreprise, de répondre à ses besoins actuels et d’en accompagner l’évolution.

Chaque entreprise doit définir sa propre infrastructure en fonction de facteurs caractéristiques.


Nous pouvons citer la taille de l’organisation, sa répartition géographique mais aussi son
secteur d’activité ou sa volonté d’utiliser la technologie informatique comme source de
différenciation voire d’avantage concurrentiel.

L’adoption généralisée des outils informatiques provoque une dépendance accrue des
entreprises vis-à-vis de leur infrastructure.

La fiabilité et la disponibilité des produits et services de traitement de l’information


(informatique et télécommunications) sont très reconnus.

En effet, la qualité moyenne des outils informatiques s’est considérablement améliorée avec la
diffusion et la standardisation de ces produits et services.

Cependant, la qualité réelle d’une infrastructure technologique d’entreprise n’est pas


seulement la somme des qualités de ses composants. Elle résulte de l’intelligence mise en

41
Chapitre 1

œuvre dans sa conception, son exploitation et son financement au service des objectifs et des
contraintes propres à l’entreprise.

Il est essentiel pour l’entreprise d’optimiser en permanence le design de son infrastructure afin
de satisfaire au meilleur coût ses besoins et obligations.

Dans un cadre pratique, de nombreuses entreprises et sociétés de conseil prennent en compte


quatre axes d’optimisation en les appliquant pendant les quatre phases du cycle de vie de
l’information. Ces axes d’optimisation sont les suivants :

- Volume : quantité d’informations susceptibles d’être capturées, stockées et


manipulées à court terme.

- Accessibilité : capacité d’accès à l’information par différents moyens et niveaux


d’agrégation.

- Disponibilité : garantie d’un degré de disponibilité de l’information.

- Sensibilité : éléments liés à la sécurité pris en compte pour protéger l’information en


fonction de son degré de confidentialité dans le cadre de règles internes ou externes.

Détaillons l’application de ces axes d’optimisation pendant les phases du cycle de vie de
l’information.

Dans la phase de capture de l’information, l’infrastructure technologique de l’entreprise doit


permettre à tout instant cette saisie / capture de l’information. Durant cette phase, la gestion
du volume de stockage doit garantir la disponibilité permanente d’une capacité instantanée
suffisante. La capacité nécessaire à un instant t doit permettre de faire face à un afflux massif
d’informations. Ce volume dépend donc des applications mises en œuvre.

Cette capacité de saisie doit être accessible par tous les moyens utilisés pour capturer
l’information (PCs locaux ou distants, Web…).

Dès sa capture, l’information est susceptible d’être réutilisée, elle doit donc être
immédiatement disponible dans le cadre du système d’information de l’entreprise.

Cette disponibilité immédiate est la base même du concept d’entreprise temps réel. Elle
interdit les traitements traditionnels par lots créant un décalage entre la saisie de l’information
et sa prise en compte par l’ensemble du système d’information.

Enfin, dès leur saisie, les informations doivent être protégées selon des règles de
confidentialité correspondant à leurs degrés de sensibilité.

42
Chapitre 1

Au delà de la conservation instantanée de l’information au moment de sa saisie initiale,


l’infrastructure doit garantir le stockage des données pendant toute leur vie « active ». La vie
« active » de l’information peut se définir comme étant la période pendant laquelle la donnée
est susceptible d’être modifiée, et servir de base à des traitements de production.

Durant cette période dont la durée est extrêmement variable, le stockage suppose la
disponibilité de volumes adaptés.

Ces informations doivent être accessibles par l’ensemble des logiciels et dispositifs utilisés
dans l’entreprise en respectant des règles de confidentialité.

La fin de la vie « active » de l’information correspond à sa phase d’archivage. Dans cette


phase, la donnée n’est plus susceptible d’être modifiée mais elle doit être figée et conservée
en l’état sans possibilité de modification. Les volumes à mettre en œuvre prennent une toute
autre dimension car il s’agit de conserver sur de longues périodes des quantités de données en
croissance permanente. L’accessibilité des archives est un problème complexe.

En effet, l’information ancienne doit rester accessible indépendamment de l’évolution des


outils utilisés pour la produire.

Le système informatique de l’entreprise est en perpétuelle évolution. Il est impensable de le


figer ou de conserver opérationnel toutes ses évolutions successives. Les archives doivent être
accessibles par elles-mêmes. La disponibilité est un aspect moins crucial en ce qui concerne
les archives que l’on doit pouvoir consulter dans un délai raisonnable.

Enfin, la sensibilité des données doit être tout particulièrement prise en compte dans les
opérations d’archivage afin de garantir la protection des données confidentielles sur de
longues périodes.

La dernière étape du cycle de vie de l’information est celle de la destruction. Elle ne doit pas
être négligée. Cette étape permet de libérer l’entreprise d’opérations complexes de maintien
des informations archivées et surtout de satisfaire bon nombre d’obligations légales prévoyant
la disparition d’informations sensibles.

La définition de l’infrastructure technologique optimum dépend à l’évidence en partie des


applications et logiciels utilisés par l’entreprise. L’analyse de ces applications sera détaillée
dans le chapitre 2.

43
Chapitre 1

Dans ce paragraphe, nous nous limiterons à expliciter la relation entre les applications de la
Business Intelligence (ou veille stratégique) et l’infrastructure technologique dans un cadre
pratique.

Longtemps, la Business Intelligence est resté confiné dans les hautes sphères dirigeantes des
entreprises. En fournissant des tableaux de bord à quelques responsables, les outils de
Business Intelligence servaient à piloter et à gérer. La démocratisation de ces outils, la volonté
de plus en plus courante de diffuser l’information au plus près des responsables à tous les
niveaux de l’entreprise font de la Business Intelligence le meilleur outil de gestion des
performances.

L’objet de ces applications est de fournir à chacun les informations lui permettant de gérer son
activité et donc d’atteindre ses objectifs et d’optimiser ses performances.

Outre la révolution organisationnelle induite par la mise en œuvre de ces outils, la Business
Intelligence a un impact considérable sur l’infrastructure technologique de l’entreprise.

Tout d’abord, la réussite de la « Business Intelligence » repose sur la capacité de la prise en


compte et d’analyse de l’ensemble des informations disponibles. Les volumes de données à
traiter peuvent donc être considérables.

A titre d’exemple, les milliards de lignes éditées chaque jour sur les tickets de caisse de
supermarchés constituent des masses précieuses d’informations mais aussi des volumes
gigantesques à extraire des systèmes opérationnels et à traiter.

L’une des particularités des outils de Business Intelligence est leur séparation des systèmes
opérationnels. Ce sont des outils qui touchent le niveau stratégique de l’organisation.

Cette scission a pour but d’éviter de pénaliser les systèmes opérationnels en leur demandant
d’assurer des traitements lourds (tris, extractions, calculs…). Cette séparation permet de
protéger des données opérationnelles en n’autorisant leur analyse qu’à posteriori. Il est donc
nécessaire d’extraire massivement les informations des systèmes opérationnels pour les
injecter dans des outils spécifiques de type datawarehouse et bases de données multi-
dimensionnelles. La fréquence de ces extractions doit être adaptée aux besoins d’analyse
(quotidienne, hebdomadaire, mensuelle…). Enfin, ces extractions doivent permettre la
constitution de séries de données historiques sur des périodes plus ou moins longues selon les
besoins. Ces volumes doivent être protégés non seulement à cause de leur taille mais à cause
de la sensibilité et de l’éventuelle confidentialité des informations qu’ils contiennent.

44
Chapitre 1

Une étude a été réalisée sur la mise en application d’un modèle théorique dans un terrain de
recherche concret qui concerne une approche d’évaluation d’un projet d’implantation d’un
data warehouse dans une organisation financière. Cette étude a identifié les impacts
organisationnels dus spécifiquement au data warehouse étudié et leur mise en relation avec le
contexte de changement organisationnel dans le but d’évaluer la performance et l’impact de
cet outil dans une perspective individuelle et organisationnelle. (Kefi, 2002 ; Kalika & Kefi,
2004)

La conception du data warehouse contribue à un intérêt croissant dans l’analyse et l’utilisation


des données historiques accumulées dans les DDS. Pour analyser les données historiques nous
pouvons utiliser les outils de traitement analytique sur-ligne. Cet outil est défini14 comme
étant une catégorie de software qui permet aux analystes, aux managers et aux directeurs de
gagner.

Ce schéma montrera le positionnement des systèmes d’informations par rapport aux niveaux
organisationnels :

Systèmes exécutifs d’information (Executive


Information Systems : EIS)

Systèmes d’aide à la décision (Decision Support


Systems : DSS)
Stratégique
Systèmes expert (Expert Systems :ES)

Systèmes de management d’information


(Management Information Systems :MIS)
Tactique

Systèmes de traitement des transactions


Opérationnel (Transaction Processing Systems : TPS)

Figure 8. Systèmes d’information et niveaux organisationnels (Turban & Aronson15)

De ce schéma nous pouvons déduire le lien entre le développement ou l’évolution des


systèmes d’information et les niveaux de transformation de l’information. Ceci montre bien
l’utilité de chaque système pour chaque niveau.

14
OLAP Council, Definitions, http://www.dssresources.com/glossary/olaptrms.html, 1997.
15
www.isqa.unomaha.edu/vanvliet/dss/dsstime.htm

45
Chapitre 1

Donnée TPS

Information MIS / DSS...

Connaissance ES / Intelligent Agents / Neural Networks…

Figure 9. Compatibilité du développement des systèmes d’information avec la


transformation de donnée (Turban et Aronson)

46
Chapitre 1

Conclusion
Le but de ce premier chapitre est de montrer l’évolution des concepts théoriques au cours de
ces dernières années afin d’éviter la confusion de définitions pour chaque concept ou
combinaison de termes.

Dans la première section de ce chapitre, nous avons commencé à définir la veille stratégique
et les différentes terminologies utilisées par les auteurs. Nous avons conclu que la veille
stratégique et l’intelligence des affaires sont synonymes, alors que l’intelligence compétitive
est une branche spécialisée de la veille stratégique parce qu’elle concerne le traitement de
l’information externe venant des compétiteurs…

Nous avons défini le concept de traitement de l’information parce que nous avons comme
cible de recherche les technologies d’accès et de traitement automatique de l’information.
Enfin, nous avons défini le concept des systèmes d’information pour vérifier si la veille
stratégique peut être considérée comme un système d’information. Lesca N. (2003) fait le
rapprochement entre les deux définitions pour déduire que la veille est un système
d’information. Dans notre étude nous séparons les deux notions du fait que le premier est un
processus alors que le second est un ensemble de matériels humains et non-humains. Ces deux
blocs ont presque les mêmes technologies de l’information à utiliser.

C’est pour cette raison que dans la deuxième section, nous avons essayé de montrer
l’utilisation des technologies de l’information comme outil de la veille stratégique. Ensuite,
nous avons abordé la question des TIC en tant que support du processus de prise de décision
en se focalisant sur le modèle de Simon. Ceci dans le but de voir l’impact des SIAD sur le
processus de prise de décision à savoir que les SIAD ne représentent qu’un exemple des TIC.
Cela est dû à l’apparition de différentes formes de technologie d’information. Les DSS se
limitaient auparavant aux bases de données, à la modélisation, et la fonctionnalité de
l’interface de l’utilisateur, mais les innovations technologiques peuvent attribuer aux DSS une
fonctionnalité plus puissante. Les DSS (Systèmes d’aide à la décision) ont soutenu les
preneurs de décision sous une perspective individuelle, mais ensuite ces technologies ont été
appliquées aux groupes de travail ou aux équipes et en particulier aux équipes virtuelles.
(Shim et al., 2002)

Au début des années 1990, quatre outils puissants ont émergé pour la conception des DSS.

47
Chapitre 1

Le premier nouvel outil pour l’assistance à la décision a été le data warehouses. Les deux
nouveaux outils qui ont émergé suite à l’introduction du data warehouses16 sont : Traitement
analytique sur-ligne (OLAP17 : On-Line Analytical Processing) et le data mining. Le
quatrième outil nouveau est la technologie associée avec WWW (World Wide Web).

LeWeb occupe un énorme intérêt dans ces dernières années et il peut avoir un grand impact
dans les prochaines années.

Les racines de conception du data warehouse sont liées aux technologies de bases de données.
Codd proposait un modèle de données relationnel pour les bases de données en 1970. Ce
modèle conceptuel a un grand impact à la fois sur les systèmes de traitement de transactions
des affaires et les systèmes d’aide à la décision.

La spécification récente de ce modèle18 appliqué au traitement automatique sur-ligne (OLAP)


a un grand impact sur la création des systèmes d’aide à la décision sophistiqués.

Dans les années 1990, peu de data warehouses conçus ont existé. Les travaux de Inmon
(1992), Devlin & Kimball ont prédit que le data warehouse est une solution pour l’intégration
des données auprès de diverses bases de données opérationnelles afin d’assister la gestion de
prise de décision. Cet outil est un sujet orienté, intégré, à des moments variés, pour la
collection des données non volatiles (Inmon, 1992).

En revanche, nous remarquons l’absence de débat sur l’utilisation de technologies de bases de


données relationnelles et multidimensionnelles pour le traitement automatique sur-ligne
(Thomesen, 1997, Watson & Gray, 1997)

Le développement rapide de ces outils technologiques nous incite à passer à un deuxième


chapitre qui cherche à étudier les caractéristiques et l’application des technologies d’accès et
de traitement de l’information au sein des entreprises.

16
Ou entrepôt de données, est une collection de données structurées consolidant les informations issues de
différents systèmes opérationnels. Il est dédié à l’aide à la décision.
17
Englobe des outils de stockage et de manipulation de données multidimensionnelles.
18
Codd E.F. & Associates, « Providing OLAP to user-Analysts : An IT Mandate », a white paper, commissioned
by Arbor Software (now Hyperion Solutions) 1993.

48
CHAPITRE 2

Technologie des agents intelligents :


caractéristiques et applications

“ Aucun prix Nobel n’a été attribué à une machine ou à un logiciel”

Goumeziane S., Lors d’un entretien, le 3 Mars 2006.


Chapitre 2

Introduction
Dans ce deuxième chapitre, nous explicitons les caractéristiques et les applications de la
technologie de traitement automatique de l’information dans différents domaines.

Dans la première section de ce chapitre, nous tentons de définir les agents intelligents, de les
classifier selon leurs propriétés et leurs caractéristiques. Cette classification permet de mieux
comprendre le rôle des agents intelligents ainsi que leurs domaines d’applications.

Dans la deuxième section, nous essayons d’éclairer l’utilisation des agents intelligents à
travers la première phase d’exploration du terrain et les difficultés rencontrées suite à cette
phase.

Section 1 : Utilisation de la technologie Agents


Intelligents
1. Définition des agents intelligents

Un agent est une entité logicielle ou physique à laquelle est attribuée une tâche. Il est capable
de l’accomplir de manière autonome et en coopération avec d’autres agents pour former un
Système Multi Agents (SMA). L’intelligence artificielle s’est focalisée sur la modélisation
des capacités intelligentes d’une unique entité pour résoudre des problèmes, il en a résulté une
première génération de programmes informatiques.

A partir de la fin des années 70, l’accent a été mis progressivement sur une résolution
distribuée de problèmes, par la coordination de certains nombre d’agents rationnels, c’est ce
qu’on a commencé à appeler des « SMA ». On utilise également le terme d’intelligence
artificielle distribuée (DAI) pour montrer l’opposition avec l’intelligence artificielle classique,
autarcique et centralisée. Un système multi agents est un ensemble organisé d’agents, cet
ensemble signifie que dans un système multi agents, il existe une ou plusieurs organisations
qui structurent les règles de cohabitation et de travail collectif entre agents (définition des
différents rôles, partages de ressources, dépendances entre tâches, protocoles de coordination,
de résolution de conflits…).

La définition d’un agent intelligent reflète la dualité :

- c’est celui qui accomplit une mission,

- c’est celui qui comprend et s’adapte aux objectifs.

50
Chapitre 2

La fonction agent : c’est l’exécution de la mission.

La fonction intelligence : c’est la compréhension et l’adaptation aux objectifs.

Le mot « intelligence » vient du latin et signifie (Lesca, 2003):

- (ligere ou legere) : savoir discerner des éléments, faire des choix (élire) parmi ces
éléments et les recueillir (ou encore les collecter) ;

- (IntelLigere) : savoir établir des liens entre eux pour former un ensemble signifiant.

L’idée de Negroponte (1970) est d’employer les agents comme une interface de tâches
humaines. Ce thème a été utilisé par les firmes spécialisées en informatique (HP, Apple,
Digital…) dès 1990 pour illustrer leur vision. Pour montrer l’enjeu des agents intelligents on a
eu recours aux sciences de gestion et aux approches cognitives.

L’intelligence d’un système dans un environnement complexe est définie par son temps de
réponse entre la détection du besoin exprimé de son client et la réponse adéquate à ce besoin
(Le Moigne, 1990).

Ferber (1995) définit l’agent comme étant une entité physique ou virtuelle agissant dans un
environnement, communiquant directement avec d’autres agents, possédant des ressources
propres, capable de percevoir partiellement son environnement, disposant d’une
représentation partielle de l’environnement, possédant des compétences. Son comportement
tend à satisfaire ses objectifs en tenant compte des ressources et des compétences dont il
dispose, et en fonction de sa perception, de ses représentations et des communications qu’il
reçoit.

D’après cette définition, nous comprenons que l’agent est à la fois une entité physique (il agit
dans le monde réel) et une entité virtuelle (composant logiciel, module informatique)
Récemment, Jennings, Sycara et Wooldridge (1998) définissent l’agent intelligent comme
étant un système informatique, autonome, social, réactif à l’environnement et pro-actif. Ce
système ou cet agent a trois aspects :

- Perception des changements dynamiques de l’environnement.

- Action sur cet environnement.

- Modèles de raisonnement permettant d’interpréter les perceptions, de déduire et de


définir les actions.

Les agents sont capables :

51
Chapitre 2

- D’agir : Cette action repose sur le fait qu’ils accomplissent des actions qui vont
modifier l’environnement des agents et donc leurs prises de décisions futures.

- De communiquer entre eux : C’est l’un des modes principaux d’interaction existant
entre les agents.

- D’être autonomes : Ils ne sont pas dirigés par des commandes venant de l’utilisateur
mais par un ensemble de tendances qui peuvent prendre la forme de buts individuels
à satisfaire.

Les agents intelligents sont hétérogènes, on distingue :

- Agents utilisateurs : Ils encapsulent les bases de données héritées et les sources
d’informations. Leur rôle c’est d’interfacer les utilisateurs.

- Agents médiateur : Ils ont pour effet d’unifier les besoins informationnels aux
ressources existantes.

- Agents ressource : Ils sont déployés au niveau de n’importe quelle source


d’information indépendamment de sa localisation ou de sa plateforme de
développement. Ils sont capables d’accéder aux sources hétérogènes.

Côté et al. (2001) proposent une architecture multi agents conçue pour œuvrer sur des sources
hétérogènes situées dans un environnement dynamique. Ces auteurs font apparaître trois
couches abstraites de NetSA. Ces trois unités font référence à la technologie-agent et à
l’interaction entre ces agents. Ici on va voir la nature de médiation entre agent-agent.

- Unité de communication avec l’utilisateur : Cette unité traduit la relation entre


NetSA et l’utilisateur. Elle comprend des agents inter agissants avec l’utilisateur
pour l’aider à réaliser une tâche précise. La transformation du langage de l’utilisateur
en actes du langage KQML19 facilite la communication avec les agents de l’unité de
traitement. Cette unité vérifie la consistance des données fournies par l’utilisateur.

- Unité de traitement et de médiation : Cette unité reçoit les requêtes et les


informations fournies par l’utilisateur. Ces requêtes vont être décomposées en sous
plans. Ce dernier est une succession d’actions à exécuter. Cette unité comporte une
partie de médiation pour rechercher des données dans le système multi agents. Elle
dirige les agents vers la ressource désirée en fournissant le nom de l’agent qui s’en
charge.

19
KQML: Knowledge Query Manipulation Language

52
Chapitre 2

- Unité d’interrogation et d’extraction d’informations : Cette unité est composée


d’agents formant une interface entre les bases de données et l’unité de traitement
d’informations. Ces requêtes KQML reçues sont traduites en SQL20 pour interroger
des bases de données ou la page HTML21 de l’internet. De ces bases les agents
retirent l’information pertinente qui sera par la suite redirigée vers l’unité de
traitement de l’information.

Le marché virtuel forme un domaine d’application de ces trois unités. En effet, les vendeurs
proposent des produits aux acheteurs qui contrôlent si la description correspond à leurs buts.
S’ils se mettent d’accord, ils commencent à négocier les prix en utilisant des règles données
par leurs supérieurs respectifs. Des systèmes d’intermédiaires proposés par Collins (1998) et
des agents de médiation cités par Kuokka (1998) ont été développés pour arbitrer le processus
de négociation. Ces intermédiaires reçoivent les requêtes d’un agent demandeur au moyen de
descriptions de produits et des offres, de la part des fournisseurs. Après avoir trouvé la
meilleure correspondance, l’agent médiateur peut se contenter de lancer le processus de
communication, restant en tant qu’arbitre ou intermédiaire de confiance entre les
protagonistes.

2. Classifications et caractéristiques des agents intelligents

Devant l’absence de théorie il est difficile de déterminer la fréquence d’utilisation de l’agent


en fonction de sa classe dans l’application, nous présentons dans cette section les
classifications théoroiques proposées dans les trois domaines suivants : intelligence
artificielle, commerce/industrie et web.

2.1. Classification et caractéristiques des architectures d’agents


intelligents

L’architecture décrit les composantes fonctionnelles d’un agent et la manière dont elles
interagissent. C’est la structure logicielle qui produit un ensemble d’actions sur
l’environnement ou sur les autres agents. Selon Shaw et al.(1995), la description fournie par
l’architecture est constituée de composants (correspondants aux fonctions) de l’agent et des
interactions entre ceux-ci (flux de données et de contrôle).

20
SQL: Structured Query Language
21
HTML: Hypertext Mark-up Language : langage informatique qui définit la syntaxe des pages Web.

53
Chapitre 2

La question qui mérite d’être posée est la suivante : Comment peut-on appliquer la « bonne »
architecture au problème spécifique ?

Müller (1997) répond à cette question en proposant onze axes directifs, essayons de les citer
afin de faire une comparaison avec ce qui se passe en pratique :

1er axe : Vérifier prudemment si on a vraiment besoin d’un agent ou d’un autre
programme qui peut faire la tâche pour résoudre le problème de l’application.

Wooldridge (1999) a caractérisé l’environnement auquel on a affaire par les propriétés


suivantes :

- Il est virtuel parce que les agents le perçoivent avec des capteurs logiciels et qu’ils
agissent en utilisant des programmes et autres modules.

- Il n’est pas déterministe : les agents agissent mais il n’y a aucune garantie de succès.

- Il ne peut pas être considéré comme épisodique : le passé doit être pris en compte
car il a une grande influence sur le présent particulièrement dans des interactions
commerciales.

- Il est fortement dynamique : les marchés, les bases de données et les sites WEB ne
cessent d’évoluer en reflétant l’activité humaine.

- Il doit être considéré comme continu car l’ensemble d’actions potentielles est infini.

2ème axe : Le fait d’avoir une architecture A utilisée avec succès pour construire
l’application de la classe P et non utilisée dans le traitement d’application de la classe Q, ne
signifie pas que A ne peut pas être appropriée pour traiter Q.

3ème axe : Si notre problème exige des agents hardware autonomes, et qu’on se rend
compte qu’on est mieux servi par un autre agent hybride, une approche purement réactive
peut être appliquée si on trouve une décomposition de notre système qui nous permet de
définir des agents simples (exemple : agents auto-organisateurs).

4ème axe : Si notre problème exige des agents software autonomes, l’utilisateur peut
choisir entre des architectures robustes comme par exemple dMARS22 et SOAR23.

5ème axe : Si notre problème exige des agents software assistants, et que l’architecture
de l’agent n’est pas définitive, le plus important c’est d’avoir un domaine de fonctionnalité. Il

22
dMARS ou PRS : Procedural Reasoning System
23
SOAR : State OperAter Result

54
Chapitre 2

y a beaucoup plus de problèmes dans l’interaction Homme-Machine (Human-Computer


Interaction), modélisation de l’utilisateur et les schémas assortis.

6ème axe : Si notre problème exige des agents hardware assistants, et il n’y a aucun
système valable. La solution c’est de sélectionner une architecture et de l’étendre par l’ajout
d’une fonctionnalité nécessaire dans l’interaction Homme-Machine.

7ème axe : Si notre problème exige des multi agents software, et qu’on veut voir les
exemples présentés sous la catégorie des agents inter agissants. Cependant, s’il y a une grande
interopérabilité des exigences dans notre système (exemple : communication avec les
composantes des non-agents à l’intérieur de la firme) alors on peut courir le risque puisque
aucun système décrit facilement ne se conforme avec l’interopérabilité des normes (Ex.
CORBA comme mécanisme de liaison). Dans ce cas, on doit modifier le niveau de
communication.

8ème axe : Si notre problème exige des multi agents hardware, qu’on sélectionne l’une
des architectures ou systèmes d’agents hardware autonomes, qu’on coopère par nos
connaissances ou qu’on sélectionne l’une des architectures de coopération-centrée en les
élevant en raison de la nécessité de les interfacer à notre hardware, alors une architecture
comme INTERRAP peut être intéressante dans la mesure où elle peut être appliquée dans le
domaine des robots inter agissants.

9ème axe : Il faut faire la distinction entre un agent de recherche sur Internet et un robot.
La plupart des architectures utilisées ont un poids lourd sur le contrôle des robots. Si on fait
partie du domaine software, l’architecture choisie doit :

- être capable d’assurer une multitude de tâches ;

- découpler le niveau bas du message venant de l’interprétation du haut niveau du


message.

- produire un modèle de service affectant les agents pour vendre des services figurés à
travers les tâches.

- se conformer avec l’interopérabilité des normes comme le cas de CORBA afin de


rendre les services de l’agent valables à cette large gamme d’applications.

10ème axe : Dans les applications intéressantes, on n’a pas recours aux architectures
purement réactives ou délibératives. Cependant, on est mieux servi par l’une des architectures

55
Chapitre 2

hybrides. Ces systèmes, PRS, RAPS ou SOAR, sont suffisamment stables et matures pour
être un bon choix adapté à chaque système de contrôle autonome.

11ème axe : Si l’adaptabilité est cruciale pour résoudre un problème d’application, on


n’aura pas beaucoup de choix. La recherche a négligé l’habilité d’un agent à apprendre, ainsi
il n’est pas évident de comprendre comment les architectures peuvent assurer l’utilité d’un
agent pour un changement de long terme.

Les approches d’agents réactives fournissent une forme d’adaptabilité à court terme basée sur
le feedback.

D’après les analyses faites sur les capacités disponibles au sein d’un agent par rapport à la
problématique de la coordination entre les agents, on peut rappeler une matrice organisant les
descriptions d’agents en architectures d’agents autonomes, d’agents inter agissants, d’agents
sociaux selon la vision de coordination. Ces trois architectures vont être combinées avec la
classification habituelle qui fera apparaître l’architecture d’agent réactif, d’agent délibératif, et
d’agent hybride sous une vision de raisonnement (Muller, 1997 ; Wooldridge , 1999).

On commence par la classification habituelle qui repose sur une vision raisonnement. De ce
fait, l’agent est considéré comme un système de raisonnement qui vise à déterminer les
actions possibles, à privilégier l’une d’elles et à la mettre en œuvre de manière efficace en
fonction de la situation actuelle de l’environnement ou des autres agents. On identifie trois
groupes d’architectures :

- Agent réactif : c’est une architecture dans laquelle les décisions d’action sont prises
au moment de l’exécution à partir de peu d’informations. L’exécution de l’action suit
le changement de l’environnement immédiatement, c’est à dire, il y aura un couplage
de l’action à la perception. Pour faciliter ce couplage ces architectures n’incluent pas
des représentations symboliques de l’environnement. Le mécanisme de décision est
simple du fait qu’il met l’accent sur la robustesse plutôt que sur l’optimum du
comportement.

- Agent délibératif : il comporte un mécanisme de décision qui consiste en une


délibération explicite sur les possibilités d’action, en utilisant une génération de plans
d’action (Allen, 1990), ou en tenant compte de l’utilité espérée des actions (Russel,
1991). Ce mécanisme est complexe parce que les architectures intègrent une
représentation explicite et symbolique de l’environnement. Le raisonnement consiste
à déterminer les actions pouvant être exécutées dans l’environnement. L’accent est

56
Chapitre 2

mis sur l’optimum et sur l’exactitude de comportement au détriment de la robustesse


et du temps d’exécution.

- Agent hybride : c’est le résultat de la combinaison des deux architectures


précédentes. Son objectif est d’atteindre un comportement cohérent avec les buts et
les plans de l’agent.

On passe maintenant à la définition des trois types d’architectures sous une vision
coordination. Demazeau (2001) a proposé une approche appelée VOYELLES et qui consiste à
modéliser un SMA selon quatre facettes : Agent (A), Environnement (E), Interaction (I), et
Organisation (O).

La facette A, désigne l’ensemble des fonctionnalités de raisonnement interne de


l’agent.

La facette E, regroupe les fonctionnalités liées aux capacités de perception et d’action


de l’agent sur l’environnement.

La facette I, regroupe les fonctionnalités liées aux capacités d’interaction de l’agent


avec d’autres agents.

La facette O, concerne les fonctions et les représentations liées aux capacités de


structuration et de gestion des relations des agents entre-eux.

A partir de ces facettes, on distingue trois architectures :

- Agent autonome : il possède des capacités d’action et de perception sur son


environnement. Cette architecture englobe les fonctions exprimant A et E.

- Agent inter agissant : il possède des capacités d’interaction avec les autres agents
du système. Il possèdera les descriptions des autres agents et sera capable de les
influencer. Cette architecture est constituée des fonctions exprimant les facettes A, I
et E.

- Agent social : il intervient dans les mécanismes de coordination lors du passage au


niveau supérieur (de l’inter agissant au social), il possède les capacités de gestion des
relations avec les autres agents. Cette architecture est constituée par les fonctions
correspondantes aux quatre facettes.

En résumé, « l’architecture désigne la manière dont les ressources de l’agent sont organisées.
Elle retranscrit les interactions entre les différents composants qui traduisent le

57
Chapitre 2

fonctionnement de celui-ci. L’architecture dépend fortement du type de l’agent et de la nature


de l’application. Les différents modèles d’architecture découpent l’agent en un ensemble de
modules, un module par unité fonctionnelle. On trouve des modules qui représentent des
actions cognitives, d’autres modules servent pour la représentation des connaissances de
l’agent et d’autres renferment les capacités de celui-ci ». (Melliti, 2004)

Cet auteur donne l’exemple suivant : pour les agents réactifs, on peut définir un modèle
générique d’architecture qui contient trois modules : un module pour la perception, un module
qui retranscrit les compétences de l’agent (qui associe à chaque stimuli une action) et enfin un
module actions qui exécute les décisions de l’agent.

2.2. Classification et caractéristiques des agents intelligents dans le


commerce et l’industrie

Dans la littérature, il existe d’autres typologies d’agents intelligents, nous pouvons citer celle
de Caglayan et Harrison (1998). Ces auteurs ont parlé des agents intelligents dans le monde
commercial et industriel. Pour eux, les agents peuvent être classifiés du point de vue de
l’utilisateur final.

De ce fait, ces auteurs ont distingué trois types d’agents :

- Les agents bureautiques

- Les agents Internet

- Les agents Intranet

Les agents bureautiques ou d’interface sont groupés en trois agents :

- Les agents système : sont des agents d’interface qui aident dans l’utilisation du
système d’exploitation.

- Les agents d’application : sont des agents d’interface fournissant une aide à
l’utilisateur pour se servir d’une application particulière.

- Les agents de suite logicielle : sont des agents d’interface fournissant une aide à
l’utilisateur pour faciliter son travail avec des applications corrélées.

Les agents Internet sont classifiés en sept agents :

- Les agents de recherche du Web : sont des agents Internet qui fournissent des
services de recherche dans le Web à un utilisateur.

58
Chapitre 2

- Les agents serveurs du Web : sont des agents Internet résidant sur un site Web
spécifique pour fournir des services.

- Les agents de filtrage d’information : sont des agents Internet qui filtrent des
informations selon des critères spécifiés par l’utilisateur.

- Les agents de recherche documentaire : sont des agents Internet qui répondent par
un ensemble personnalisé d’information correspondant à la demande de l’utilisateur.

- Les agents de notification : sont des agents Internet indiquant à un utilisateur des
évènements qui pourraient l’intéresser.

- Les agents de service : sont des agents Internet fournissant des services spécialisés à
des utilisateurs.

- Les agents mobiles : sont des agents Internet se déplaçant d’un lieu à un autre afin
d’exécuter les tâches spécifiques d’un utilisateur.

Les agents Intranet sont groupés sous quatre types :

- Les agents de personnalisation coopérative : sont des agents Intranet permettant


l’automatisation du workflow24 à l’intérieur d’une entreprise.

- Les agents d’automatisation : sont des agents Intranet automatisant les tâches d’une
entreprise.

- Les agents de base de données : sont des agents Intranet fournissant des services
agent à l’utilisateur de bases de données.

- Les agents courriers de ressources : sont des agents Intranet réalisant l’allocation des
ressources dans les architectures client/serveur.

2.3. Classification et caractéristiques des agents intelligents dans le


Web

Les chercheurs et les praticiens utilisent la technologie des agents pour développer une vie
longue pour les agents de collecte des données qui sont intelligemment sélectionnés pour la

24
Workflow : « Succession d’activités à l’intérieur d’une organisation, s’enchaînant afin de produire un résultat
final. Les applications de travail coopératif permettant de définir différents workflows en fonction de
l’organisation et des outils mis en place. A chaque étape, une personne ou un groupe est responsable de la
réalisation d’une tâche donnée ». Edith Nuss, Le cyber Marketing, mode d’emploi, Ed. d’Organisation, 2000,
p.360.

59
Chapitre 2

recherche : l’interprétation, la catégorisation, le stockage et le traitement d’un grand volume


d’informations sur le Web et dans le domaine du e-commerce.

La littérature couvre trois aires (Kauffman, et al. 2000) :

- Les agents de transactions dans Internet (Agents Internet)

- Les agents dans la robotique (Agents Robots)

- Les bases de données à durée de vie longue.

2.3.1. Caractéristiques de ces trois agents

• Agents Internet

Caractéristiques des agents de transactions Caractéristiques des agents de collecte des


(à durée de vie courte) données (à durée de vie longue)
Les agents de transaction sont des agents à Les agents de collecte des données sont des
durée de vie courte. Ils font la course en agents à durée de vie longue. Ils font la course
quelques secondes. Ils conduisent la qui dure des heures et même des jours pour
transaction dans un seul sens. collecter de grandes quantités de données
pour la recherche et ou des propositions de
prises de décisions.

Exemple : Les agents qui cherchent le Exemple : Ils sont utilisés dans le but de
meilleur prix pour une requête auprès des rechercher un marché en identifiant des
différents vendeurs ou agents qui prennent les modèles d’achat pour un produit spécifique ou
décisions d’achats pour un acheteur. dans le but d’une recherche scientifique en
testant les théories et les hypothèses
spécifiques.

Jennings and Wooldridge (1998) définissent trois caractéristiques :


Dynamique, flexible : Ils sont capables de répondre aux changements environnementaux à
temps.
Pro-active : Ils sont capables d’éliminer l’opportunisme, ils ont un comportement orienté vers
l’objectif et dans l’initiative des actions appropriées.
Social : Ils sont capables d’interagir avec les humains et les autres agents.

Tableau 7. Les caractéristiques des agents Internet (Kauffman, et al. 2000)

60
Chapitre 2

• Agents robots

- Le développement des agents a été initialement fait dans la recherche robotique. Les
agents logiciels circulent à travers des robots autonomes et leur permettent
d’améliorer les tâches simples. Exemple : l’assemblement des tâches sur lignes
(Grouver et al., 1986)

- Les agents robots suivent des processus semblables qu’on peut trouver dans les
agents Internet.

- Ils sont caractérisés :

- Tout en dépendant de l’application des agents Internet, les agents robots sont
caractérisés par un degré spécifié de flexibilité, pro-activité et d’une interaction
sociale définis par Wooldridge et Jennings (1998)

- Les agents robots ont un degré d’intelligence incorporé dans leurs logiciels.
Cette intelligence est utilisée pour naviguer à travers l’environnement (Lewis et
al. 1996).

- Les robots incorporent une forme de procédures de récupération (Lewis et al.


1996).

- Les robots sont des architectures de programmation complexes. Ils diffèrent


des agents Internet sur différents points :

Agents Robots Agents Internet


- Le dépannage dans ce type d’agents auprès - Le dépannage dans le cas des agents Internet
d’une terminaison anormale peut être exige un contexte de sensibilité. Il varie en
accompli par une simple remise en marche de tenant compte du travail amélioré
l’état initial pré-spécifié. (Lewis et al. 1996 ; antérieurement.
Pardo-Castellote et al., 1995)

- Les agents robots n’interagissent pas avec - Les agents à durée de vie longue exigent un
l’utilisateur mais ils se concentrent sur une niveau de persistance ce qui implique qu’ils
tâche clairement spécifiée et routinière ne font pas une remise en marche simple mais
Exemple : sondage d’une ligne de machines. qu’ils remettent l’état de l’agent avant la
(Lewis et al. 1996 ; Pardo-Castellote et al., terminaison anormale exigeant une revue
1995). antérieure des données collectées.
- En revanche, les agents de collecte des
données exigent l’interaction significative
avec l’utilisateur et doit s’adapter avec leur
comportement.

61
Chapitre 2

- La conception des agents robots se rapporte - Les agents Internet sont centrés sur les
à l’amélioration d’une tâche. (Pardo- données (data-centric); ils doivent acquérir,
Castellote et al., 1995; Coste-Maniere et al., interpréter et transférer les données en
1996) modifiant leur comportement basé sur les
données acquises. Ils n’améliorent pas
simplement une tâche répétitive.
- La littérature des robots sur la conception
des agents se concentre sur la programmation
des tâches individuelles et la manière dont ces
tâches interagissent avec les robots hardware.
Tableau 8. La différence entre les agents robots et les agents Internet
(Kauffman, et al. 2000)
• Bases de données à durée de vie longue

Les concepteurs des bases de données sont concernés par le ressaisissement des
transactions concurrentes à durée de vie longue (Bernstein et al., 1987). Les utilisateurs des
bases de données multiples peuvent accéder à une même base de donnée en même temps,
chaque utilisation sépare les transactions à durée de vie longue. Ceci est fréquemment
rencontré dans les bases de données qui fournissent une grande échelle d’ingénierie et les
applications de conception.

2.3.2. Six caractéristiques d’un agent sophistiqué

«Intelligence» «Validation» «Concurrency»

La tâche
de collecte Agent
des Sophistiqué
données

«Recovery» «Monitoring» «Interactivity»

Figure 10. Les six caractéristiques d’un agent (Kauffman, et al. 2000)

La tâche de collecte des données est déterminée par l’importance de son application et décrit
le rôle de l’agent en lui-même. Ceci se traduit par les besoins et ou les capacités d’un agent
spécifique.

62
Chapitre 2

L’importance de la tâche de collecte de données doit déterminer du point de vue conceptuel la


sophistication d’un agent.

• Intelligence

C’est la capacité de l’agent à répondre aux requêtes, à prendre les décisions, et à tirer parti de
ses expériences ; capacités normalement associées à l’intelligence humaine. (Kauffman et al.,
2000)

Les agents intelligents utilisent des règles et des niveaux de règles hiérarchiques pour
interpréter les données et déterminer la façon de changer le comportement en s’adaptant à
l’environnement.

Jennings and Wooldridge (1998) montrent que les agents intelligents agissent à la place des
êtres humains experts, les agents intelligents sont pro-actives. Mais, il faut s’assurer que les
règles utilisées par l’agent pour interpréter les données sont correctes et en adéquation avec
les connaissances des experts avec des limites d’erreur tolérables.

Il faut noter que les AI n’ont pas le même degré d’intelligence que les experts humains. Ils ne
souffrent pas des limitations traditionnelles comme la fatigue, la surcharge cognitive ou les
biais qui peuvent affecter les processus de recherches de décision traditionnelles.

Le concept de l’intelligence dans le domaine de logiciels de l’informatique a lancé un débat


autre que les logiciels adoptés par l’intelligence artificielle.

Searle (1990) distingue deux types d’intelligence artificielle :

- Intelligence Artificielle forte indique que la machine peut actuellement « penser »


comme les humains en raison de l’incorporation des programmes informatiques de
l’intelligence artificielle. C’est le cas des programmes qui ont l’initiative d’agir, qui
ont des croyances qui changent et ont des motivations.

- Intelligence Artificielle faible se produit quand les ordinateurs implémentent des


séries de règles pour imiter l’action humaine.

Searle oppose le fait que les machines manquent d’intentionnalité et par conséquent qu’un
programme ne peut suivre des instructions pour recevoir des symboles à l’entrée et générer
des symboles pour la sortie. Ces programmes n’ont aucune compréhension innée sur ce qu’ils
font.

63
Chapitre 2

Il pense que les partisans de l’IA qui essayent d’incorporer plus de qualités humaines dans les
machines doivent se justifier rationnellement.

En réponse à Searle, d’autres auteurs (Dennett, 1991) argumentent que tout problème a un
résultat final. Si le programme informatique peut imiter la pensée et l’action humaines sans
distinction, ce programme fait partie de l’intelligence artificielle forte.

En se basant sur les discours philosophiques de Searle (1990) et de Dennett (1991), il existe
différents niveaux d’intelligence artificielle qui peuvent être incorporés dans la conception de
l’agent. Ces niveaux sont regroupés sous trois catégories.

Premièrement, les agents sans intelligence sont nommés agents simples ou agents tout court.
Ils cherchent des données spécifiées auprès d’un site sans faire d’interprétations.

Deuxièmement, les agents avec de simples règles et qui suivent les entrées des utilisateurs ou
des experts. Il s’agit des agents experts. Ces derniers utilisent l’intelligence artificielle faible
dans laquelle ils suivent des règles qui sont toujours placées auprès des répertoires pour imiter
les actions de l’utilisateur normales ou nominales.

Troisièmement, les agents qui utilisent l’intelligence artificielle forte pour prendre l’initiative
d’action, pour avoir des croyances changeantes et pour avoir des motivations.

Nous nous positionnons du côté de l’intelligence artificielle forte. Du point de vue


commercial, il est impossible actuellement de développer des agents Internet qui font preuve
de l’intelligence artificielle forte.

Actuellement, les agents Internet disponibles dans le commerce qui sont catégorisés en tant
qu’agents intelligents sont en réalité des agents simples ou experts. Ils sont des agents basés
sur des règles utilisant l’intelligence artificielle faible pour imiter le comportement humain.

Pour cerner la différence entre l’intelligence artificielle traditionnelle et les systèmes


intelligents, nous définissons le construit d’intelligence dans notre recherche comme étant
l’habileté de l’agent à utiliser des règles pour imiter les réponses humaines.

Les développeurs de cette technologie ont besoin de savoir si le comportement humain mérite
d’être imité.

Les bases de connaissances qui incorporent des règles syntactiques peuvent être utilisées, de
ce fait elles nous conduisent à un comportement spécifique à l’agent basé sur les besoins du
chercheur.

64
Chapitre 2

L’intelligence et le comportement de l’agent doivent être pris en considération quand on traite


le développement d’un agent.

L’intelligence est utilisée en particulier quand il s’agit d’une analyse lexique. Ceci implique
une vision du texte en forme libre afin d’identifier les mêmes caractéristiques d’un item
considéré comme étant expert auprès d’une description verbale (Plaunt et Norgard, 1998).

• Validation

La validation est la capacité de l’agent à assurer des données proprement identifiées et à


suivre les règles spécifiques à la tâche de recherche. (Kauffman et al., 2000)

La validation comprend aussi le choix large entre les caractéristiques de la qualité des
données (Wand et Wang, 1996) appliqué à la tâche. Exemple de choix propre et de sélection
de critères : âge, niveau d’agrégation, unités (US dollars ou British pounds)…

Contrairement aux agents valides qui améliorent la tâche, les agents non valides recherchent
simplement des données spécifiées.

La validation peut déterminer dans quelle mesure l’agent est proactif.

Par exemple, si certaines procédures doivent être suivies pour que les données soient valides,
l’agent peut prendre une action appropriée même si ces règles sont détournées.

L’utilisation d’une base de donnée, une partie de la tâche validée peut être déléguée au
système de gestion de bases de données (Database Management System). En revanche, si la
base de données rejette une donnée invalide, l’agent a besoin d’être informé ou des
précautions spéciales méritent d’être prises dans l’analyse de la collecte des données.

En identifiant les données invalides, les agents valides peuvent traiter des données beaucoup
plus efficacement que les agents non-valides.

• Simultanéité

Les agents simultanés sont ceux qui accomplissent différentes tâches en même temps. En
revanche, les agents à processus unique sont des agents qui opèrent d’une façon séquentielle
et peuvent mener à bout une seule tâche à la fois. Un système qui peut assurer plus d’une
seule tâche à la fois peut ajouter l’efficacité à un programme en profitant de l’avantage des
cycles de l’unité de traitement central (« Central Processing Unit). D’autres programmes sont
conçus pour des réponses auprès des serveurs Web à distance. (Kauffman et al., 2000)

65
Chapitre 2

La simultanéité est toujours implémentée à travers un système multi-filetage (« multi-


threading »)

Les agents qui font le filetage ont un fil de contrôle central qui crée des processus permettant
à chacun de courir rapidement (agents threads)

Les agents de filetage récupèrent l’information auprès des sites Web. D’autres peuvent traiter
les données qui ont été déjà récupérées.

La simultanéité peut réduire le temps mis pour la collecte des données et produire de
l’efficacité dans la collecte des données.

Pour les tâches simples, les agents à processus unique sont adaptables grâce à la gestion des
processus multiples, et en particulier les agents de transaction typiques.

Pour des efforts de collecte des données ou pour la simultanéité de transaction des
informations entre les multiples sites, la simultanéité aura pour résultat des agents qui
recherchent les données plus rapidement que les agents à processus unique. La simultanéité
est spécialement importante pour des agents qui ont besoin de contrôler plus qu’un site Web
en même temps.

L’agent à processus unique peut contrôler uniquement un site Web à la fois.

La mobilité est un élément de la capacité de l’agent pour améliorer la simultanéité. Les agents
stationnaires avancent dans un seul ordinateur. Les données sont collectées auprès des sites à
distance toujours à travers le protocole TCP/IP mais le traitement des données se génère sur
une machine locale.

Les agents mobiles sont créés par un agent de contrôle central, mais ils demandent du temps
pour réaliser des processus simultanément à la fois sur des sites locaux et à distance.

Il n’y a pas une règle standard pour le développement des agents mobiles.

• Ressaisissement

Il s’agit de la capacité de l’agent à supporter les situations qui interrompent son activité de
collecte de données, par exemple, lorsque des erreurs se produisent avec les connexions de
réseaux, avec les serveurs du Web à distance ou avec les systèmes de gestion de base de
données qui servent les agents intelligents. (Kauffman et al., 2000)

La manipulation de l’agent est relativement nouvelle dans la littérature des systèmes


d’information.

66
Chapitre 2

Klein et Dellarocas (1999) décrivent les interactions multi-agents quand les agents sont
difficiles à maintenir, à comprendre et à réutiliser car le comportement normatif simple des
agents devient obscur !!

Les agents de ressaisissement peuvent réparer toute interruption de collecte des données. Cet
agent montre de la persistance. L’agent qui ne fait pas de ressaisissement échouera dans son
travail avant la collecte des données antérieures.

L’agent semi-réparateur peut réviser les données collectées pour déterminer un point de
départ approprié pour la continuité de collecte des données.

• Surveillance

Les agents de veille traquent les événements. Ces agents font accès aux données d’une façon
périodique auprès du site Web apparent. (Kauffman et al., 2000)

La collecte des données est infaisable par les méthodes traditionnelles qui forcent les
individus à accéder au site Web manuellement, mais elle est simple par l’utilisation des agents
de veille.

Les agents de veille sont regroupés en deux catégories :

- Les Agents de veille continue sont préposés à faire la course continue durant le
processus de veille.

- Les Agents de veille réguliers sont préposés à courir périodiquement et ils utilisent
des logiciels de programmation pour courir à temps spécifique durant chaque heure,
chaque jour et dans d’autres périodes de temps spécifiées.

• Interactivité

L’interactivité signifie dans quelle mesure l’agent est capable de modifier son comportement
basé sur les données collectées :

- Les agents non interactifs recherchent simplement des données pré-définies se


trouvant dans des sites Web pré-déterminés.

- Les agents interactifs sont flexibles, dynamiques et adaptables et ne collectent pas


uniquement les données du site Web mais accomplissent les actions basées sur les
données collectées (Jennings et Wooldrige, 1998). Les agents interactifs peuvent être
utilisés pour fournir des mots de passe et des noms d’utilisateur, exécuter des liens

67
Chapitre 2

avec d’autres pages, ou entrer des données dans les champs dans le but d’obtenir des
données désirées.

La différence entre interactivité et intelligence est que les agents intelligents prennent des
décisions en se basant sur des données qui sont collectées et sur l’interaction avec l’expert ou
l’utilisateur que les agents veulent simuler. Alors que les agents interactifs interviennent dans
le stade des procédures pré-déterminées en se basant sur les données collectées. (Kauffman et
al., 2000)

Donnons plus de détail sur la notion d’interactivité qui semble une propriété fondamentale
aux agents d’aide à la décision (Spiekermann et Parashiv, 2002).

L’interactivité peut être définie comme « a condition of communication in which


simultaneous and continuous exchange occur(s), and these exchanges carry a social binding
force » (Rafaeli et Sudweeks, 1997). L’interactivité reflète donc la qualité d’une
communication bidirectionnelle entre deux parties et peut être analysée à partir de la durée
des réponses et de leur contingence (Alba et al., 1997)

Concernant Internet, Hoffman et Novak (1996) distinguent deux formes d’interactivité :

- L’interactivité personnelle : se réfère à la communication entre individus via


Internet

- L’interactivité machine : fait référence à la capacité d’une personne à accéder à des


bases de données en ligne. Cette deuxième forme concerne directement les agents
d’aide à la décision.

Nous avons présenté dans cette section trois classifications25 des agents intelligents. Pour
mieux comprendre le rôle des agents intelligents dans la vie « réelle », nous consacrons une
sous-section pour montrer le rôle des agents médiateurs dans le e-commerce.

3. Commerce électronique : un cas d’application des


agents médiateurs

Les agents software sont des programmes à qui on peut déléguer une tâche. Ils sont qualifiés
pour être personnalisés, en course continue et semi autonomes. Ces qualités permettent à
l’agent d’être utilisé pour une large variété d’informations. (Maes, 1994)

25
1ère classification proposée par Müller, 1997.
ème
2 classification proposée par Caglayan et Harrison, 1998.
3ème classification proposée par Kauffman et al., 2000.

68
Chapitre 2

L’application des technologies agents peut toucher à la sécurité, la confiance, la réputation, le


droit, les mécanismes de paiement, la publicité, les ontologies, les catalogues sur lignes, les
intermédiaires, les expériences de shopping multimédia, le management back-office.

Les agents software jouent un rôle croissant dans le commerce électronique en tant que
médiateurs.(Bailey et Bakos, 1997).

Guttman, Moukas et Maes (1998) ont exploré le rôle de ces agents, leurs technologies, et
comment ils peuvent être reliés au commerce électronique dans ses trois principales formes :
B to B, B to C et C to C.

Ces auteurs ont présenté un modèle dans le contexte du commerce électronique qui est inspiré
des recherches faites sur le comportement d’achat du consommateur en marketing
traditionnel.

Le modèle de comportement d’achat des consommateurs (Consumer Buying Behavior) est un


outil puissant pour nous aider à comprendre le rôle des agents en tant que médiateur dans le
commerce électronique. Autrement dit les rôles des agents dans un processus d’achat sur
l’Internet. Le processus d’achat en ligne (Guttman et al., 1998) est composé de six étapes :

Service
Identification Recherche Recherche Négociation Achat et après-vente et
du Besoin du produit du vendeur livraison évaluation

Figure 11. Les six étapes du processus d’achat en ligne (Guttman et al., 1998)

Ces auteurs se sont inspirés des modèles classiques proposés dans la littérature marketing
(Nicosia, 1966 ; Howard et Sheth, 1969 ; Engel et al., 1993 ; Bettman, 1979) pour décrire les
étapes d’un processus sur l’Internet.

Selon ce modèle les six étapes26 sont les suivantes :

- Identification d’un besoin :

Le consommateur est stimulé à travers l’information sur le produit. C’est le stade nommé par
la reconnaissance d’un problème (Engel et Blackwell, 1982)

L’utilisation des agents électroniques dans cette étape est adaptée pour les achats répétitifs
(par exemple, un approvisionnement) ou les achats prévisibles (par exemple, une habitude),

26
Les étapes représentent une approximation et une simplification de comportements complexes et ne sont pas
linéaires ou itératives (Guttman & al., 1998). Par exemple, le consommateur peut choisir le vendeur avant la
marque de produit ou choisir le vendeur en fonction du résultat du processus de négociation.

69
Chapitre 2

puisque dans ces deux cas les agents peuvent analyser des données historiques pour
déterminer le moment précis où leur intervention est souhaitable (Maes et al., 1999)

- Recherche du produit :

Ce stade comprend la collecte de l’information pour aider à déterminer ce qu’on vend et à


identifier des alternatives du produit basées sur les critères attribués au consommateur. Ce
stade comprend une série de considérations des produits.

La recherche d’informations a pour but de familiariser le consommateur avec les différentes


marques disponibles et avec leurs caractéristiques.

- Recherche du vendeur :

Ce stade combine une série de considérations auprès de l’étape précédente avec l’information
spécifique aux marchands.

Le modèle proposé par Engel et Blackwell recoupe ces deux stades d’une façon orthogonale
au niveau de la recherche de l’information et de l’évaluation des alternatives. Ce stade
cherche à savoir à qui vendre.

- Négociation :

Comment peut-on déterminer les termes de la transaction ? Elle varie dans le temps et dépend
de la complexité du marché. Dans les marchés de détail traditionnels, les prix et les autres
aspects de transaction sont fixés par la négociation.

Dans d’autres marchés (automobiles, marchés locaux…), la négociation de prix et des autres
aspects sont intégrés au produit et au courtage entre les marchands.

Les modèles de comportement d’achat des consommateurs traditionnels n’ont pas identifié ce
stade explicitement. Ce stade de négociation est comparable au stade de décision ou de choix
de décision trouvés dans d’autres modèles.

- Achat et la livraison :

Ce stade signale la terminaison du stade de la négociation. Dans d’autres cas, les options de
paiement sont valables (cash seulement) et les options de livraison peuvent influer sur le
produit et le courtage entre les marchands.

70
Chapitre 2

- Evaluation après-achat :

Le stade d’après-vente implique le service au produit, le service au consommateur et


l’évaluation de la satisfaction pour la décision et l’expérience d’achat. La nature de ce stade
dépend du produit vendu.

La littérature des agents intelligents a toujours posé le problème de typologie. C’est pourquoi
dans chaque sous-partie de cette section on voit une classification des agents différente l’une
de l’autre.

Guttman, Moukas et Maes (1998) ont proposé une taxinomie qui utilise comme critère de
classification l’étape de processus d’achat sur laquelle les agents interviennent. Les trois
principaux rôles que ces entités virtuels pourraient assurer auprès d’un consommateur dans le
cadre d’un processus d’achat sont la recommandation de produits, la comparaison des offres
de différents vendeurs et la détermination des termes d’une transaction. Ces trois fonctions
sont remplies respectivement par des agents de recommandation, des agents de recherche et
des agents de négociation. (Paraschiv, 2004)

Ces agents peuvent jouer un double rôle d’une transaction. Ils se mettent à la place d’un
vendeur ou d’un négociateur. L’agent négociateur propose la liste des vendeurs potentiels. Il
exige un tarif sur les sites consultés, il laisse une date limite de réponse à ses requêtes. Pour
gérer les réponses envoyées, il trie par ordre croissant ces réponses pour établir un lien pour le
demandeur. L’agent vendeur apprend à connaître le client en examinant ses achats en lui
posant des questions complémentaires. Cet agent va avoir des connaissances sur son client et
sur d’autres clients. Ensuite, il commence à comparer les profils des clients entre eux. Il
analyse les achats des clients les plus proches. Il sélectionne les articles les plus achetés par
cette catégorie de clientèle.

Cette technologie est encore émergente, ses applications sont encore très verticales et
relativement peu nombreuses. Les perspectives de croissance justifient de suivre
attentivement cette nouvelle technologie dont l’étendue dépasse le simple domaine du data
mining.

Suite à cette grille de lecture sur la technologie des agents intelligents, nous proposons un
premier modèle théorique et nous commençons à explorer le terrain par le biais des entretiens
semi-directifs, afin de comprendre la place de cette technologie dans le processus de la veille
startégique.

71
Chapitre 2

Section 2 : Proposition du premier modèle théorique


et Phase d’exploration du terrain
Dans cette section, suite à la synthèse des classifications et caractéristiques des agents
intelligents, nous proposons d’abord un premier modèle théorique afin de concevoir les liens
entre agents et les interactions entre les agents et l’Humain ou utilisateur. La phase de
faisabilité de cette recherche sur le terrain a été l’étape la plus délicate et la plus importante.
En deuxième lieu, une étude qualitative a été mise en place pour répondre à cette exigence.

1. Proposition du premier modèle théorique

Caglayan et Harrison ont simplifié la structure d’agent indépendamment des problèmes de


définitions de ce dernier. Cette structure se présente, comme suit, sous trois niveaux :

Agent

Traitement des Connaissance Capacités de


tâches communication

Avec les
Tâches Connaissances Apprentissag Avec autres
à priori e l’utilisateur utilisateurs

- Retrait - Spécifiée par - Basé sur le Interface en Langage de


d’informations le développeur dialogue langage communication
- Filtrage - Spécifiée par - Basé sur la social inter agents
d’informations l’utilisateur mémoire
- Tutorat - Spécifiée par - Réseaux de
le système neurones
- Basé sur le cas

Figure 12. Modèle d’un agent (Caglayan et Harrison, 1997)

72
Chapitre 2

Dans leur modèle, Caglayan et Harrison ont simplifié la présentation de la structure d’un
agent en montrant trois niveaux de compétences :

- Le niveau tourné vers la tâche : ce niveau correspond à la capacité des agents à


accomplir un objectif bien précis. Le retrait, le filtrage d’informations, les requêtes à
des bases de données peuvent être des exemples de tâches que les agents peuvent
assurer.

- Le niveau tourné vers la connaissance : c’est l’ensemble de règles de


fonctionnement qu’un agent peut disposer pour définir son architecture et pour
réaliser sa tâche. Ces connaissances peuvent être acquises de différentes manières
(spécifiée par le développeur ou par l’utilisateur, ou dérivée d’autres sources de
connaissances, ou apprise par le système…).

- Le niveau tourné vers la communication : cette capacité de communication permet à


l’agent d’influencer ses interactions avec l’utilisateur ou avec les autres agents.

La communication est l’action d’émission et de réception d’un message.

L’interface est la couche entre l’utilisateur et le système qui facilite la communication entre
agent humain et ordinateur. Elle est considérée comme un canal de communication pour
l’utilisateur. Les théories de l’activité soulignent l’asymétrie existant entre les hommes et les
objets. L’approche anthropocentrique proposée par Lomov (1975, 1977) considère les
relations entre l’homme et la machine comme des relations entre « le sujet de travail » et
« l’outil (moyen) de travail ».

L’homme n’est pas un simple élément du système « homme-technique », mais l’élément


fondamental qui organise le fonctionnement du système.

Pour mieux comprendre la relation Agent humain-Agent logiciel, il faut :

- Déterminer les besoins et problèmes fondamentaux affectant l’interaction homme-


logiciel.

- Mesurer l’efficacité des techniques utilisées par l’humain dans les situations de
résolution des problèmes ( La plupart des études se focalisent sur l’interaction entre
utilisateurs et ressources du WEB).

73
Chapitre 2

Afin de conceptualiser la relation homme-logiciel, nous avons recours à deux cadres


théoriques :

- L’interaction Humain-non Humain.

- Les propriétés de la cognition en situation dynamique.

Les interactions entre humains, non-humains et environnements (réel et virtuel) sont


considérées comme des processus qui transforment les données recherchées en informations
traitées et diffusées.

Selon cette perspective, la cognition n’est plus envisagée comme un processus de traitement
de l’information, mais comme engageant des processus de coopération et de collaboration
entre l’humain et son environnement physique et social.

Elle est appréhendée comme un processus distribué et situé dont l’objet est la perception de
l’environnement et dont les dimensions sont physiques, mentales et sociales.

Cette appréhension met l’accent sur deux approches :

- L’approche de la cognition située (Resnick, 1991) qui souligne la dépendance de


l’activité humaine par rapport à la situation. L’unité d’analyse est la relation entre
l’individu et son environnement.

- L’approche de la cognition distribuée qui s’intéresse aux interactions entre les


personnes et les artefacts (phénomène d’origine humaine, artificielle) dans
l’environnement.

Cette dernière approche utilise la notion de tâche pour analyser un système cognitif composé
d’individus et d’outils techniques en interaction.

En se référant à cette base théorique, nous nous proposons de mesurer le concept d’interaction
sur trois niveaux :

- Au premier niveau, nous nous concentrerons sur la mesure de l’interaction Agent


humain-Agent logiciel en recherchant les variables susceptibles de mesurer cette
relation.

- Au second niveau, nous passerons à la mesure de l’interaction Agent logiciel-Agent


logiciel (ce qui forme un système multi-agent).

74
Chapitre 2

- Au troisième niveau, lors de la diffusion de l’information exploitée, nous essaierons


de mesurer l’interaction Agent logiciel-Agent humain, pour étudier l’enchaînement
d’actions de communication entre Agent humain et Agent non-humain.

Notons que l’ensemble de ces étapes va suivre le processus de traitement de l’information. En


effet, nous proposerons un modèle qui met en relation ces trois interactions avec l’information
recherchée, exploitée et communiquée. Cette relation nous permettra d’étudier l’impact de
l’utilisation des agents intelligents en mettant en jeu la qualité de l’information obtenue.

Cette démarche est formalisée selon le modèle suivant :

75
Chapitre 2

Nombre de
canaux de
communication

Nombre de
Recherche de requêtes Interaction
l’information formulées H-SMA
(traque) - Perception du
SMA par
Contrôle mutuel l’utilisateur Qualité de l’information
entre les deux - Communication traquée
parties

Besoin en
information

Exploitation de
l’information Degré de
(traitement) connaissance de Interaction
l’information Agent-Agent
- Communication
- Décision non-
Type de Qualité de l’information
humaine
participants traitée
- Action

Enchaînement
des messages

Modes de
Communication de communication
l’information à son Interaction SMA-H
usager - Communication Qualité de l’information
(transmission) - Décision humaine transmise
- Action
Résultats issues
de l’échange de
l’information

Figure 13. Proposition du premier modèle théorique

Pour mieux comprendre ce modèle, il sera explicité niveau par niveau :

Le 1er niveau : Interaction Homme-Agent intelligent

Cette interaction traduit la relation entre l’utilisateur et l’agent logiciel. Elle comprend des
agents interagissant avec l’utilisateur pour l’aider à réaliser une tâche précise. Le langage de

76
Chapitre 2

l’utilisateur est transformé en actes du langage KQML (pour faciliter la communication avec
les agents).

A ce niveau, la dimension humaine est spécifiée par :

- la difficulté à modéliser ses connaissances et son comportement ;

- la responsabilité ultime des tâches à exécuter ;

- et la spécificité du protocole de communication requis.

On emprunte à la théorie de l’activité l’analyse qui distingue les motifs, buts et tâches de
l’utilisateur. La présence des agents n’explique pas toutes les transformations dans les
rapports entre l’homme et son environnement. C’est l’existence de motifs, buts et tâches qui
déterminent l’angle sous lequel l’un ou l’autre agent est perçu et qui peut changer le
fonctionnement des systèmes. Le bon fonctionnement du système dépend de l’agent humain.

A ce niveau, les agents assistants interagissent et agissent avec les autres agents. Les agents
assistants apportent une adaptation au profil de l’utilisateur et une capacité à anticiper leurs
besoins (automatiser certaines tâches, rappeler certaines informations utiles…). Ceci peut se
transposer dans le domaine du collectif.

Le 2ème niveau : Interaction du système multi-agents artificiels

Cette interaction va former un système multi-agent. C’est un système distribué composé d’un
ensemble d’agents. Il est conçu et implanté comme un ensemble d’agents interagissant selon
des modes de coopération. Il diffère de celui de l’intelligence artificielle qui simule dans une
certaine mesure les capacités du raisonnement humain.

Ce système possède les avantages traditionnels de la résolution distribuée de problèmes


comme la modularité, la vitesse et la fiabilité. Il hérite également des bénéfices de
l’intelligence artificielle comme le traitement symbolique au niveau des connaissances, la
facilité de maintenance…

Les types d’interaction incluent la coopération (travailler ensemble à la résolution d’un


problème commun) ; la coordination (organiser la résolution d’un problème de telle sorte que
les interactions nuisibles soient évitées et que les interactions bénéfiques soient exploitables)
et la négociation (parvenir à un accord acceptable pour toutes les parties concernées).

La question qui se pose alors est de déterminer comment permettre aux agents de
communiquer.

77
Chapitre 2

Le concept de communication permet de relier les agents, de réaliser l’échange des


informations, la formulation des requêtes au sein du système et est le support de l’interaction.

Marc et Picard (1996) définissent la communication comme « un système ouvert


d’interactions qui s’inscrivent dans un contexte ».

Selon Abric (1999), la communication est « l’ensemble des processus par lesquels
s’effectuent les échanges d’informations et de significations entre des personnes dans une
situation sociale donnée »

La notion d’interaction prend place à l’intérieur des agents, via leur faculté de perception, de
communication et d’action.

On peut remarquer qu’il existe un ou plusieurs mécanismes de décisions partagées entre la


dimension humaine et non-humaine, ce mécanisme pouvant être représenté en trois phases :

- la perception ;

- la communication ;

- et l’action.

A ce niveau, les agents autonomes perçoivent et agissent de façon autonome dans un


environnement complexe et dynamique. Ils ne réalisent que peu d’objectifs et de tâches pour
lesquels ils sont conçus.

Abordons à présent le troisième niveau qui concerne l’interaction SMA-Humain.

Le Système Multi-Agent (SMA) peut utiliser ses connaissances sur les autres agents pour
coordonner leurs actions, pour mieux anticiper le futur ou pour atteindre les objectifs d’une
manière collaborative.

Après l’extraction de l’information pertinente des bases de données ou autres, il y aura la re-
direction de cette information vers l’unité de traitement de l’information et par la suite vers
l’unité de communication avec l’utilisateur. Il s’agit d’un processus itératif.

On s’intéresse au contenu et à la dynamique de l’interaction d’une part et aux rôles que


l’agent intelligent en tant qu’outil de la veille peut jouer dans l’efficacité de l’échange
d’informations.

L’interaction passe d’un niveau de recherche d’informations à celui de communication de


l’information traitée.

78
Chapitre 2

Ce premier modèle théorique, bien que riche est cependant limité. D’une part, il est riche
parce qu’il a attiré l’attention des chercheurs sur des aspects essentiels. D’autre part, il est
essentiellement technique et manque de bases théoriques. Il a donc été critiqué, ce qui a
ouvert d’autres pistes de recherche.

La première critique à ce modèle est que les phases de traitement de l’information (recherche,
exploitation, communication) peuvent intervenir à chaque type d’interaction homme/agent
intelligent. Ce modèle peut être scindé en deux niveaux :

- Côté tourné vers la demande c’est à dire vers l’exécuteur ou l’utilisateur :


reconnaissance vocale et technique vers moi. Il existe plusieurs niveaux : problème
de sophistication possible de l’intelligence, Web invisible,…

- Côté tourné vers l’exécution : Stockage, traitement, communication, notion


d’interface entre l’homme et la machine. (Ces critiques ont été données par M. Jean
François David27)

Par ailleurs, nous intégrons dans notre démarche, un ensemble de critiques mentionnées par
Mme Véronique Guilloux28 spécialiste dans le domaine des agents intelligents :

- « - Par rapport à la collecte des informations en front office avec un utilisateur (c’est
le cas d’un moteur de recherche) on a effectivement une interface utilisateur ; et en
back office avec un système multi-agent (relation inter-agents électroniques). Il n’y a
pas d’interface avec un utilisateur humain puisque c’est l’étude du processus de
plusieurs agents électroniques qui se coordonnent par rapport à un objectif.

Les systèmes multi-agents ont fait l’objet de travaux au MIT et requièrent une compétence
informatique et des expérimentations peu difficiles à mettre en place.

- Par rapport à la diffusion (via par exemple Intranet), on retrouve bien la relation
utilisateur/agent d’intermédiaire. Ne faut-il pas choisir un des deux niveaux ?

Il est préférable de se centrer sur la diffusion et inclure des variables de résultats (effets sur la
prise de décision) puisque le thème abordé touche de près le knowledge Management.

Le terme « agent intelligent » employé est donc ambigu. Les fameux smart agents sont plus
des prototypes qu’une réalité managériale. Le terme agent doit être défini par rapport à la
réalité managériale. Par exemple sur les Intranets, quels sont les types d’agents ? Il existe des

27
Son adresse site : http://Veronique.Guilloux.free.fr (Maître de Conférences à l’Université Paris XII)
28
Son adresse site : www.davidjf.com (Ex-IBM)

79
Chapitre 2

agents d’interface (agent conversation anthropomorphique) qui accompagnent l’utilisateur


pour bien prendre en main l’information diffusée mais qui n’aident pas à la prise de décision.
Il existe aussi des moteurs de recherche d’information sur les Intranets. Existe -t- il des agents
plus sophistiqués ?

En conclusion, notre approche par le premier modèle théorique nous confirme que le thème
est d’actualité mais peut être faut-il recentrer notre réflexion soit sur l’étude des agents en
back office (système multi-agents), soit sur l’étude de la relation agent-utilisateur (On
emploiera d’ailleurs le terme « agents électroniques » plutôt que celui d’« agents
intelligents », car on peut se demander quel est leur niveau d’intelligence ?)

Peut-être faut-il dans un premier temps connaître le panorama des agents utilisés par les
knowledge managers ou les cellules veilles des grandes entreprises. »

Toutes ces remarques consistantes nous ont encouragé à plus creuser davantage à la fois dans
le courant des agents intelligents et dans la littérature abondante des systèmes d’information
avec en perspective la construction d’un second modèle théorique.

2. Source et analyse des données de la phase d’exploration

La phase d’xploration du terrain a deux objectifs. Le premier est de lancer des investigations
sur le contexte de l’utilisation des outils de la veille stratégique en général. Le second objectif
est de chercher le domaine d’application des AI en tant qu’outils de la veille stratégique afin
de montrer leur utilisation dans le processus organisationnel et managérial.

Six entretiens semi-directifs (auprès de responsables et de directeurs) ont été réalisés, ils sont
utiles parce que :

- Le thème de la technologie des agents intelligents est hautement confidentiel et


sensible sur le plan concurrentiel ;

- L’interviewé est réticent à parler à propos des thèmes abordés.

Deux guides d’entretiens ont été construits. Les thèmes abordés dans ces guides dépendent de
l’utilisation ou non des répondants de la technologie des agents intelligents. Le premier guide
est posé à des responsables de la veille stratégique mais qui ne connaissent pas et n’utilisent
pas la technologie des AI et le second est destiné aux connaisseurs et aux utilisateurs de cette
technologie. La durée moyenne de ces entretiens est d’une heure et demi.

80
Chapitre 2

- Trois entretiens semi-structurés ont été menés avec trois responsables de la fonction
de la veille stratégique. Ces responsables appartiennent à trois secteurs d’activité
différents (télécommunications, informatique et de service). Ils n’ont jamais utilisé
les agents intelligents mais ils ont utilisé d’autres outils de la veille stratégique. Les
thèmes abordés sont :

- Les fonctions occupées par les répondants

- L’utilisation et l’utilité des outils de le veille stratégique

- Traitement et diffusion des informations

- Rôle de l’utilisation d’Internet sur la proportion de veilleurs

- Choix du réseau de capteurs et leurs rôles

- Les animateurs de la veille

- L’attitude du chef d’entreprise sur les activités de la veille

- L’exploitation des informations représente une phase individuelle ou


collective.

Ces thèmes29 ont été menés sous forme de questions. Ces dernières ont été posées par le
chercheur en s’adaptant au profil et aux réponses des interviewés.

- Trois entretiens avec les directeurs d’entreprises de services, d’édition de logiciels et


de distribution informatique. Les thèmes30 abordés sont :

- Les fonctions occupées par les répondants

- Les caractéristiques techniques et organisationnelles de l’agent intelligent (les


différentes architectures d’agents)

- Le profil des utilisateurs de cette technologie

- Le choix des agents par rapport aux besoins de l’utilisateur.

Avant d’exposer les résultats de cette première phase, nous proposons de résumer le matériel
de la recherche qualitative mis en œuvre :

La source Le matériel La technique d’analyse L’objectif poursuivi


exploité
Six entretiens semi- Retranscription des Guides d’entretiens et Etude du contexte de

29
Voir le premier guide d’entretien dans l’annexe n°2 du chapitre 2.
30
Voir le deuxième guide d’entretien dans l’annexe n°3 du chapitre 2.

81
Chapitre 2

structurés répartis entretiens. grilles d’analyse élaborés. l’utilisation des outils


comme suit : de la veille
- 3 entretiens avec stratégique. Cette
des responsables de étude a pour objet de
veille non rendre la
utilisateurs des AI. problématique posée
- 3 entretiens avec faisable sur le terrain.
des utilisateurs des
AI.
Tableau 9. La source et l’analyse des données de la phase d’exploration

3. Résultats de la première phase

Lors de la réalisation des trois premiers entretiens le chercheur a mis l’accent sur la fonction
de la veille stratégique étant donné que les répondants ne maîtrisent pas tous les outils de la
veille en général et l’agent intelligent en particulier.

Nous présentons le rôle de la fonction de la veille stratégique dans trois secteurs différents à
partir de l’analyse des trois premiers entretiens effectués. Nous exposons la place relative de
la technologie des agents intelligents dans les organisations à partir des trois autres entretiens.

3.1. Rôle de la fonction de la veille stratégique dans le cadre de cette


étude

Lors des deux premiers entretiens31 effectués (Cegetel et IBM), le chercheur s’est confronté à
la réticence d’informations des répondants.

Les deux points essentiels que nous avons pu dégager lors du premier entretien avec le
directeur scientifique de Cegetel :

- Le secteur de télécommunications est relativement stable, l’utilisation des outils de


veille comme les agents intelligents nécessite un secteur plus mouvant comme le
secteur de l’informatique. Ils utilisent les moteurs de recherche pour la recherche de
l’information et Intranet32 pour la diffusion des informations. D’autres moyens
humains (stagiaires, thésards, …) sont utilisés pour la recherche et l’exploitation des
informations pour des raisons de coûts.

- Le profil du chef d’entreprise peut influencer l’importance d’une cellule de veille au


sein d’une organisation. Puisque le chef est financier, ce qui l’intéresse c’est les

31
Voir Annexe n°4_CH2_ Tableau 4. 1.
32
Réseau d’entreprise basé sur l’utilisation des mêmes protocoles qu’Internet.

82
Chapitre 2

résultats à la fin de l’année. « C’est une volonté de la direction de constater que la


veille stratégique ne sert pas à améliorer nos résultats ».

Lors du deuxième entretien réalisé avec le responsable de veille concurrentielle d’IBM, nous
pouvons constater que :

- Pour chaque phase du processus de veille, ce veilleur utilise différents outils


convenables à chaque étape. Il a mis l’accent sur trois phases du processus :

- La phase de la collecte des données : il utilise « tous les jours » les revues, les
journaux, les moteurs de recherche, les analyses financières, les bases de
données et les réseaux d’informations. Internet est considéré comme le pire
ennemi des veilleurs.

- La phase d’analyse : « je suis une méthodologie développée par un spécialiste


américain », il n’a pas précisé ses outils dans cette phase.

- La phase de diffusion : il fait du traitement de texte dans des documents


spécialisés sans faire recours à Intranet.

- Le chef de cette entreprise considère que la veille est un effet de mode. « Pour
évaluer une information, on se trompe toujours ». Cela montre que les capacités
humaines peuvent se tromper lors de l’évaluation des informations. Ce directeur nous
a mis en contact direct avec un concepteur des agents intelligents qui avait développé
chez IBM les systèmes automatiques de l’information pendant cinq ans33.

Le troisième entretien34 de cette étude, a été accompli auprès d’un responsable de veille
stratégique de Gaz de France. Nous avons dégagé de cet entretien ces points :

- Lors de la surveillance de son environnement, ce veilleur se base sur la revue de la


presse en faisant la distinction entre trois types d’informations. L’information
blanche qui est librement accessible à tous, l’information grise qui est moins
accessible et à plus forte valeur ajoutée et l’information noire qui est légalement
inaccessible. Il a du mal à distinguer l’information grise écrite et celle non écrite vu
qu’elles s’obtiennent à partir de sources informelles. Il n’est pas intéressé par le
troisième type d’information vu la difficulté d’accessibilité.

33
Ce contact correspond au quatrième entretien effectué dans cette étude.
34
Voir Annexe n°4_CH2_ Tableau 4. 2.

83
Chapitre 2

- D’après ce veilleur, l’utilisation des agents intelligents exige un certain degré de


maturité. Les outils de veille cités sont Intranet qui sert comme une base de
connaissance. La masse d’informations n’est pas analysée, elle est uniquement
stockée sous forme de requêtes standardisées pour Gaz de France. Pour la recherche
d’informations, il se base sur des bases de données payantes. Ce responsable m’a
orienté vers EDF, malheureusement ce dernier a refusé de répondre aux questions
posées dans le deuxième guide d’entretien pour des raisons de confidentialité. EDF,
Orange et autres…font partie des entreprises qui ont refusé de participer à ce genre
d’études malgré leur apport qui peut être bénéfique et enrichissant pour cette étude.

- Dans cette entreprise, les réseaux et les capacités humaines dominent l’utilisation
des technologies.

Concernant les trois autres entretiens35 semi-structurés dont les répondants utilisaient la
technologie des agents intelligents, nous synthétisons leurs réponses par rapport au plan de la
sous-section suivante dans le but de montrer cette technologie dans la réalité.

3.2. Présentation des agents intelligents

3.2.1. Définition des agents intelligents

Lors de ces entretiens, le chercheur a confirmé dans son idée que les agents intelligents
existent en réalité. Le problème majeur se situe dans la définition et la typologie de ces
agents. Durant mon quatrième entretien, M. Zanasi a défini ces agents comme « des outils de
traitement automatique de l’information ».

Le cinquième interviewé avec qui nous avons fait l’entretien ne trouve pas de définition à ces
agents. Il pense que c’est un mot générique à l’intérieur duquel se cache la notion de mobilité.
Et pour le cas de la France, on est encore devant les agents de recherche (Copernic). Selon lui,
le premier niveau d’intelligence est celui de l’exécution, autrement dit, l’exécution c’est le
stockage, le traitement, la communication de l’information. L’exécution est tournée vers
d’autres agents, d’autres sites Web ou d’autres agents humains. La capacité d’intelligence
d’un agent signifie sa capacité de traitement, d’adaptation et d’exécution…

35
Voir Annexe n°4_CH2_ Tableau 4. 3. (5ème et 6ème entretien)

84
Chapitre 2

Lors du sixième entretien nous n’avons pas parlé de la définition de ces agents, vu que cet
entretien a été téléphonique et nous avons profité de ce contact pour lui transmettre le
questionnaire dans une deuxième étape.

3.2.2. Place des agents intelligents dans le processus de la veille stratégique

Lors de ces trois derniers entretiens, nous n’avons pas évoqué la question sur la place des
agents intelligents et le processus de la veille stratégique mais nous avons déduit que les AI
peuvent intervenir à chaque phase du processus de la veille vu le rôle diversifié de cette
technologie. Il est possible de dire que la veille stratégique est active à partir du moment où
les responsables de cette cellule utilisent des outils capables de collecter, traiter, diffuser
l’information pour qu’elle soit utilisée en tant qu’outil d’aide à la décision. Ici le chercheur est
tombé dans le piège et a su répondre à une partie de ce véritable problème. Est-ce qu’on va
vérifier que l’AI est un outil d’aide à la décision pour assurer un processus de veille active ?
ou est-ce que c’est l’information obtenue par cet AI qui va jouer l’outil d’aide à la décision ?

Dans tous les cas, l’information ne peut pas être définie en tant qu’outil, elle pourra être
considérée comme étant un facteur de succès de la décision prise. Dans cette étude nous nous
sommes limités à l’étude de la qualité du système intelligent et non à la qualité de
l’information. Lors de notre cinquième entretien, le stratégiste nous a dit : « Quelle que soit la
décision prise, l’information circule. Il faut prendre en considération le relativisme dans la
liaison mécanique entre information et décision. On a l’intention de pré-décider avant de
collecter l’information sur des bases d’intelligence stratégique, chose plus subtile et plus
fine,… »

3.2.3. Positionnement du chercheur par rapport aux autres domaines

Historiquement, les agents intelligents sont quasiment tous basés sur les concepts
informatiques des années 80. L’agent intelligent est originaire de plusieurs domaines comme
l’intelligence artificielle, le génie civil et l’Interface Homme Machine (Caglayan et Harrison,
1997). L’originalité de cette étude est que nous associons cette technologie au domaine du
Management des Systèmes d’Information. (Voir Figrure 14)

Dans cette figure, le cercle et la flèche en pointillés ne font pas partie des domaines présentés
dans la figure des auteurs cités (Caglayan et Harrison, 1997). Ils représentent le
positionnement du chercheur par rapport aux agents intelligents. LeMoigne (1996) dit que :
« Bien que l’informatique ait beaucoup contribué à populariser le mot « système » et le

85
Chapitre 2

concept du système, il faut convenir,…, que les développeurs de systèmes d’information n’ont
pas développé de méthodes formalisées pour comprendre les systèmes et les inter-relations
entre leurs composants. Les chercheurs en génie logiciel ont été incapables de fournir la
moindre aide aux praticiens en ce qui concerne la définition des systèmes et la mise en œuvre
concomitante de leurs composants fonctionnels ». (p. 25)

Cette citation justifie notre positionnement par rapport aux autres domaines de recherche et
l’intérêt de notre sujet.

- Réseaux de neurones
- Objets
- Systèmes à base de
- Traitement de l’image et
connaissances
de la parole
- Systèmes Intentionnels
- Inférence d’évènements
- Raisonnement de haut-niveau
- Surveillance en ligne

Intelligence
artificielle Agents Intelligents Génie logiciel

- L’Adéquation Technologie-
Tâche
- L’Acceptation d’une
technologie
- La diffusion des innovations
- La théorie du comportement
planifié
- La théorie sociale cognitive

- Tutorat intelligent Management des


- Expériences interactives systèmes
- Ingénierie cognitive d’Information
- Modélisation de l’utilisateur

Interface Homme Machine

Figure 14. Domaines d’influence à l’origine des agents intelligents (Caglayan et


Harrison, 1997)

Les principales architectures ne comptent pas suffisamment dans l’interaction Homme-


Machine (Human Computer Interaction). La modélisation de l’utilisateur est une discipline

86
Chapitre 2

élaborée par l’intelligence artificielle et il y a eu des recherches réalisées sur ces aspects
comme Computer Supported Cooperative Work (CSCW) et Human Computer Interaction
(HCI) ; ces recherches ont montré l’effet faible des « agents humains » sur la conception des
principales architectures d’agents. Ces applications qui exigent l’habileté des agents humains
sont dans la plupart des cas des softwares agents, par exemple dans les domaines des loisirs,
de l’art, de l’éducation, et des processus de contrôle des agents.

Nous sommes partis d’un premier modèle conceptuel que nous n’avons pas pu valider
empiriquement, du fait de nos difficultés d’accès au terrain. Nous avons fixé comme objectif
de chercher la nature de la relation entre l’utilisateur et l’AI en distinguant trois niveaux
d’analyse à travers les trois étapes du processus informationnel (collecte, traitement et
diffusion des informations).

La collecte de données par le biais des entretiens semi-structurés a été intéressante en terme
de conseils de la part des interviewés, mais elle n’a pas donné lieu à des traitements car les
données collectées sont insuffisantes en terme de nombre d’entretiens réalisés et de précision
pour faire une analyse pertinente et généralisable. C’est la raison pour laquelle que nous avons
élargi la méthode de recherche en passant d’une étude qualitative vers une étude quantitative
(Chapitre 4).

Suite aux problèmes rencontrés à l’accès au terrain et au faible recours à cette technologie,
nous avons limité notre étude au premier niveau. C’est pourquoi, nous nous focalisons sur le
rôle de l’Interaction Homme-Agent Intelligent dans le Management des Systèmes
d’Information.

87
Chapitre 2

Conclusion
Dans ce chapitre, notre intérêt a porté sur les classifications et les caractéristiques de la
technologie de traitement automatique de l’information dans le but de montrer leur évolution
et leur intérêt dans le monde des affaires.

La confrontation entre les différents domaines traitant l’Agent Intelligent (AI) a permis de
proposer un premier modèle théorique dont l’objectif est de montrer qu’il y a trois niveaux
d’analyse qui émergent de l’impact de l’utilisation des AI sur le processus informationnel. Le
premier niveau est réservé à l’interaction Agent Humain (AH)/Agent Intelligent (AI) ou
Système Multi-Agent (SMA) c’est lors de lancement de requêtes par l’utilisateur, il pourra
être en interface avec un ou plusieurs AI. Le deuxième niveau est un milieu artificiel car il est
réservé à l’interaction entre les AI lors de la phase de traitement-exploitation des informations
et le troisième niveau est réservé à l’interaction AI/AH lors de la diffusion et la
communication des informations recherchées ou traitées. L’étude qualitative nous a permis
de délimiter notre champ d’intérêt au niveau AH/AI. Les raisons de notre choix sont :

- Notre domaine de recherche étant la gestion des organisations dont l’un des
principaux intérêts est d’étudier le comportement humain.

- Le deuxième niveau relève du domaine de l’informatique et de l’IA

Néanmoins, il aurait été intéressant d’étudier l’impact de la relation H/SMA sur le processus
de la veille stratégique. Vu la confidentialité de l’utilisation de plusieurs agents intelligents et
la spécificité de ces systèmes, nous avons donc préféré le niveau 1 et le niveau 3 serait une
voie future de recherche à travers une étude qualitative longitudinale. (un seul cas en
profondeur).

Pour mieux comprendre leur perception vis-à-vis de ces systèmes, il est utile de traiter la
nature de l’interaction entre l’utilisateur et la machine (ou logiciels). C’est pourquoi nous
consacrerons le troisième chapitre à étudier les dimensions théoriques de l’interaction homme
- machine dans le management des systèmes d’information.

88
CHAPITRE 3

Dimensions théoriques de l’Interaction


Homme-Machine dans le management des
systèmes d’information

“The behavior of system is exactly what is observable,


and to observe a system is exactly to communicate with it”

Milner R., Communication and Concurrency.


Prentice. Hall, 1989.
Chapitre 3

Introduction
Ce chapitre a deux objectifs principaux. Le premier est de rapprocher le domaine de
l’Interaction Homme-Machine du champ du Management des Systèmes d’Information. Ce
rapprochement peut expliquer le rôle de cette interaction dans le MSI à savoir que cette
interaction a montré son intérêt dans d’autres disciplines.

Le deuxième objectif est de présenter les différents modèles de mesure de l’évaluation des SI
en tenant compte de trois niveaux (l’individu, le système et l’organisation). La sélection de
ces modèles facilitera la construction de notre propre modèle.

Section 1 : Rôle de l’Interaction Homme - Machine


L’Interaction Homme-Machine est de nature interdisciplinaire et étudiée par les chercheurs,
les éducateurs, et les praticiens. Nous pouvons citer comme disciplines : la science de
l’informatique, la psychologie, le management des systèmes d’information, la science de
l’information et l’ingénierie des facteurs humains.

Devant le développement rapide et le déploiement de la technologie, les facteurs de


l’interaction homme-machine sont devenus plus critiques et fondamentaux. Les objectifs de
cette interaction supposent de s’assurer de l’utilisabilité36 et de la fonctionnalité du système,
de fournir à l’utilisateur un support d’interaction et améliorer l’expérience de l’utilisateur.
(Carey et al. 2004).

Pour assurer ces objectifs, il faut traiter l’efficience et l’efficacité de l’utilisateur sur le plan
individuel et organisationnel.

Pour enrichir ces objectifs, les directeurs/managers et les concepteurs/développeurs ont besoin
d’être informés sur le jeu entre les utilisateurs, les tâches, les contextes de la tâche, la
technologie de l’information et les environnements dans lesquels les systèmes sont utilisés.

En tant qu’éducateurs, notre rôle est d’équiper la nouvelle génération de managers, de


concepteurs et d’installateurs des systèmes d’information avec des connaissances et des
compétences basées sur l’interaction homme-machine.

36
L’utilisabilité d’un logiciel désigne la possibilité d’utilisation de ce logiciel. Elle se réfère à la maniabilité et à
la bonne accessibilité générale d’une application.

90
Chapitre 3

1. Définition de l’Interaction Homme-Machine

La définition de l’interaction homme-machine dépend de la situation du contexte et de la


discipline prise en considération.

L’Interaction Homme-Machine (IHM) est « une discipline qui concerne la conception,


l’évaluation et l’implémentation des systèmes informatiques interactifs pour l’utilisation
humaine et l’étude des phénomènes majeurs qui les environnent » (Hewett et al., 1992)

Comme tout champ interdisciplinaire, l’IHM (HCI : Human-Computer Interaction) attire les
chercheurs, les éducateurs, et les praticiens des différents champs. Les organisations, les
groupes d’intérêts spéciaux et les groupes de travail ont comme cible l’IHM ou les études
reliées à l’IHM.

Dans cette recherche, nous nous focalisons sur le rôle de l’interaction homme-agent intelligent
dans le Management des Systèmes d’Information.

Zhang et al. (2002) fournissent comme point de départ une définition pour la compréhension
de l’Interaction Homme-Machine dans le domaine des systèmes d’information.

Dans le champ des systèmes d’information, les principes de cette interaction sont explorés
dans une perspective distinctive : les chercheurs et les éducateurs en Management des
systèmes d’information prennent en considération l’importance managériale et
organisationnelle.

L’analyse de l’Interaction Homme-Machine dans les Systèmes d’Information : « c’est l’étude


scientifique de l’interaction entre les personnes, les ordinateurs et l’environnement de travail.
La connaissance gagnée à travers cette étude est utilisée pour créer les systèmes d’information
et les environnements de travail qui aident à rendre les hommes plus productifs et plus
satisfaits dans leur vie de travail ». (Beard & Peterson, 1988)

En général, les études de l’IHM dans le MSI concernent l’interaction des méthodes humaines
avec l’information, les technologies et les tâches spécialement dans les contextes des affaires,
managérial, organisationnel et culturel.

Le champ de la recherche en IHM a été largement défini et il a eu plus d’attention durant ces
années récentes parce que les technologies ont été développées plus rapidement.

91
Chapitre 3

Pour utiliser une technologie avancée, nous avons besoin d’élargir notre compréhension aux
humains, à leur tâche dans les différents contextes et au rôle joué entre les humains, les
technologies de l’information et les environnements/contextes.

Les études d’interaction homme-machine dans le domaine de management des systèmes


d’information ont ciblé les sortes d’interaction des agents humains avec l’information, les
technologies et les tâches et en particulier dans les contextes d’affaires, managérial,
organisationnel et culturel.

Zhang et al. (2002) ont examiné trois revues en Systèmes d’Information (Management
Information Systems Quarterly, Information Systems Research et Journal of Association of
Information Systems) pour chercher le pourcentage de l’ensemble d’articles qui ont évoqué le
sujet d’interaction Homme-Machine. Il est de l’ordre de 33%. Ce résultat montre bien l’intérêt
crucial de ces travaux dans ce domaine.

Nous allons visualiser brièvement (Tableau 10) une chronologie qui soulève l’importance de
l’interaction Homme-Machine :

Auteurs Travaux
Bostrom and Heinen, 1977 L’échec des Systèmes d’information peut être
dû au « choix de conception faux » résultant
du manque de développement des aspects
humains /sociaux du système utilisé.
Gerlach and Kuo, 1991 Les concepteurs de logiciels ont besoin de
développer leur objectif à travers les besoins
fonctionnels pour introduire les besoins
comportementaux des utilisateurs.
Davis 1989 ; Venkatesh & Davis, 1996 ; Leurs études sur l’acceptation d’une
Venkatesh et al., 2003. technologie ont montré l’importance à la fois
de l’utilité perçue et de la facilité d’utilisation
perçue pour l’utilisateur d’une technologie en
SI.
Galletta, 2004 Le problème de l’inadéquation peut être dû à
la non-expérience des concepteurs d’une part
et le stade de développement des utilisateurs
d’autre part.

Autrement dit, les concepteurs doivent


acquérir une grande expérience pour mieux
connaître les besoins des utilisateurs et
d’utilisabilité de cette technologie.
Tableau 10. Evolution des recherches dans l’Interaction Homme-Machine

Le développement des systèmes modernes est très différent car la fonction du SI et les
membres de la hiérarchie jouent un rôle interactif dans l’organisation des affaires.

92
Chapitre 3

Cinq points méritent d’être soulevés pour montrer l’intérêt managerial de cette recherche :

- Les programmeurs et les analystes passent beaucoup plus de temps en interaction


avec les utilisateurs un par un.

- Les systèmes développés aujourd’hui sont plus complexes, forçant la direction des
SI à dépenser plus de temps aussi en interaction avec les utilisateurs pour déterminer
les besoins informationnels et de prise de décision existants.

- Le développement de certaines approches est basé sur l’effet de retour itératif auprès
des utilisateurs vis à vis de la fonctionnalité et de l’utilisabilité des systèmes.

- L’information est un actif important pour la direction managériale.

- Les SI ont un rôle stratégique et opérationnel dans l’organisation.

2. Caractéristiques de la recherche en MSI/IHM

Quelques études traditionnelles nommées IHM trouvent leurs origines auprès de la science de
l’informatique, la psychologie cognitive, l’ingénierie de l’industrie, l’ergonomie et d’autres
disciplines divers.

L’IHM trouve aussi son origine dans le MSI, la science de l’information, la communication et
les disciplines de la psychologie sociale. Dans notre recherche nous nous limitons à démontrer
les caractéristiques des études en MSI/IHM sur les aspects suivants :

- La cible de la recherche et domaine/champ d’application,

- Le rattachement de disciplines et le support théorique,

- Les méthodologies de recherche.

2.1. Cible de la recherche, domaine et Champ d’application

Cette recherche peut être conduite pour examiner des issues variées aux niveaux individuel,
du groupe, des organisations et des industries. La plupart des études MSI/IHM se sont
améliorées au niveau individuel pour l’analyse, et quelques-unes sont spécifiquement
consacrées aux groupes (GDSS). Pourtant, il existe des études qui sont ciblées sur les
communautés virtuelles.

93
Chapitre 3

3ième niveau Objectif Organisationnel

Système social
2ème niveau Système
Environnement Travail technique Environnement
général

1er niveau Personnel Technologie

Figure 15. Les niveaux d’analyse dans l’IHM. (Preece et al., 1994)

Cette figure montre les trois niveaux d’analyse qui impliquent les différents éléments pris en
considération. (Eason, 1991, in Preece et al., 1994).

- Dans cette figure, le peuple peut désigner une ou plusieurs personnes;

- Le travail peut être synonyme des activités définies intégrant les tâches;

- L’environnement se réfère aux aspects physiques, organisationnels et sociaux de


l’environnement ; et

- La technologie peut être un artefact technologique intégrant tout type d’ordinateurs


ou de postes de travail (Eason, 1991)

Ces éléments peuvent être modifiés pour inclure des concepts plus larges afin d’adresser des
sujets modernes dans l’utilisation et le développement de la technologie présente. Par
exemple, les technologies peuvent intégrer les données et les informations, les machines et les
logiciels, les applications, les procédures aussi bien que le personnel d’assistance technique.

Des études en MSI/IHM s’efforcent de trouver un équilibre entre les perspectives d’affaires,
managériale, organisationnelle, sociale, technique/d’ingénierie. (Baskerville et Myers, 2002),
et elles se sont centrées sur les tâches ou problèmes organisationnels.

Des études spécifiques sur le développement avancé de technologies pour l’assistance


managériale ou organisationnelle (Krishnan et al., 2001; Zhang, 1998) sont considérées
pertinentes dans la discipline de MSI parce qu’elles intègrent un support théorique pour la
conception aussi bien que les implications organisationnelles, managériales et théoriques.

94
Chapitre 3

D’autres études en MSI/IHM, sont en revanche centrées sur la découverte ou la


compréhension en couvrant les trois niveaux de la figure ci-dessus.

Les technologies sont utilisées comme des exemples pour découvrir les perceptions de
l’utilisateur, les attitudes, le comportement et la performance. (Par exemple des études portent
sur l’acceptation de technologies, l’efficacité de l’ordinateur personnel, et l’usage du SI).

Plutôt que de se centrer sur le simple niveau de performance de la tâche, les études en
MSI/IHM se sont intéressées aux tâches individuelles qui peuvent être liées directement aux
objectifs de l’organisation. L’utilité d’une technologie pour l’accomplissement des tâches
organisationnelles et l’adéquation entre les tâches et la technologie pour assister les tâches
(Goodhue, 1995) joue un rôle important dans ces études (Davis, 2002; Strong, 2002).

La majorité des études en MSI/IHM se focalise, en premier lieu, sur les utilisateurs adultes
dans les contextes des affaires ou organisationnel où se trouvent la performance du travail
individuel et la satisfaction au travail, et les objectifs organisationnels sont des problèmes
primaires pour l’entreprise.

D’autres études s’intéressent à des contextes autres que les affaires et l’organisationnel
(exemple, Venkatesh et Brown, 2001).

Peu d’études prennent en considération les types d’utilisateurs au sens large (comme les
adultes, les enfants, les handicapés physiques et/ou mentaux, et les personnes âgées) pour des
types d’intentions au sens large (comme la distraction, la culture, les librairies, et les
applications de la vie critique dans la médecine, la défense, et la conception des automobiles).

Les séries de divers thèmes identifiés par Carey sur les études IHM/MSI au cours des années
antérieures portent sur : (Beard et Peterson, 1988; Carey, 1988, 1991, 1995, 1997)

- L’Interaction Homme/Machine: les méthodes de communication entre l’utilisateur


et l’ordinateur ;

- Les outils de spécification de l’interface et les problèmes de conception: ils


détaillent les techniques de conception pour l’interface utilisateur – ordinateur ;

- Le SI professionnel ;

- La présentation de l’information: Comment les données sont présentées à


l’utilisateur (graphiques, textes, …) ?

95
Chapitre 3

- La documentation système/utilisateur: Les procédures de communication et de


documentation pour assister l’utilisateur dans l’accomplissement des tâches ;

- Les impacts organisationnels

- La formation et l’implication de l’utilisateur final: les méthodes utilisées pour avoir


des utilisateurs impliqués dans les phases de conception du système, son
implémentation et son utilisation

- L’utilisateur final

L’ensemble de ces thèmes a l’intention de fournir une gamme de sujets reliée à l’histoire, le
rattachement des disciplines, les théories, les pratiques, les méthodologies et les techniques, le
développement et les applications de l’interaction entre les humains, les tâches, les
technologies de l’information et les contextes (organisationnel et culturel…).

Les centres d’intérêts intègrent les points suivants:

- Les aspects cognitifs, motivationnels, comportementaux et affectifs de l’interaction


technologie/homme ;

- L’analyse de la tâche de l’utilisateur et la modélisation ;

- Les documents/genres numériques et le comportement de la recherche de


l’information humaine ;

- La conception et l’évaluation de l’interface de l’utilisateur pour le B2B, le B2C, le


e-commerce, les marchés électroniques, la gestion de la chaîne de valeur, les groupes
de collaboration, la négociation et la vente aux enchères, les systèmes de l’entreprise,
Intranets et Extranets ;

- Les approches intégrées et/ou innovatrices, les directives, et les analyses standards,
la conception, et le développement des dispositifs interactifs et les systèmes

- Les interfaces de la conception de l’ordinateur pour l’utilisateur ou le support de la


décision collaborative, intégrant la conception des interfaces de l’ordinateur standard,
aussi bien que la conception des dispositifs des petits écrans mobiles

- Le développement et les applications des visualisations de l’information


multidimensionnelle

- L’utilisation de l’ingénierie métrique et les méthodes d’évaluation de l’interface


utilisateur

96
Chapitre 3

- Les études de l’utilisation pour l’évaluation de l’utilisateur final dans le travail

- L’acceptation de la technologie de l’information et la diffusion des perspectives


cognitives, motivationnelles, culturelles et de la conception de l’interface de
l’utilisateur

- L’impact de la technologie interfaces/information sur les attitudes, le comportement,


la performance, la perception et la productivité

- Les problèmes liés à la formation et l’apprentissage des logiciels, intégrant les


aspects de l’apprentissage perceptuel, cognitif, et motivationnel

- Les variables démographiques et la technologie

- Les problèmes de l’enseignement de l’IHM

2.2. Disciplines rattachées et support théorique

Plusieurs disciplines sont rattachées au MSI/IHM : la science de l’informatique, l’ingénierie,


le management, la science en management, la psychologie cognitive, la psychologie sociale,
la psychologie organisationnelle et plus récemment la psychologie du consommateur et le
marketing.

La justification des théories existantes mérite des efforts à répondre aux problèmes. De plus,
ces théories doivent être développées ou avancées pour une étude à la fois empirique et
conceptuelle. A travers les divers thèmes de recherche en MSI/IHM, l’étude des réactions
individuelles pour évaluer une technologie, vue par Compeau et al. (1999), est un sujet
important dans la recherche des systèmes d’information récente.

Plusieurs auteurs ont étudié les différents aspects de ce phénomène auprès d’une variété des
supports théoriques, intégrant :

- La diffusion des innovations (DOI : Diffusion Of Innovations) (exemple, Moore et


Benbasat, 1991),

- Le Modèle de l’acceptation d’une technologie (TAM: Technology Acceptance


Model) (exemple, Davis, 1989, Venkatesh et Davis, 1996),

- La théorie du comportement planifié (TPB: Theory of Planned Behavior) (exemple,


Mathieson 1991; Taylor et Todd, 1995), et

97
Chapitre 3

- La théorie sociale cognitive (SCT : Social Cognitive Theory) (exemple, Compeau &
Higgins 1995, 1995; Hill et al. 1986, 1987).

2.3. Méthodologies de recherche

Les études suivent la procédure de développement systèmes/interfaces, puis cherchent à


évaluer ou comparer ces interfaces avec les autres alternatives, ce qui est similaire à ce qui a
été réalisé dans les études traditionnelles en IHM.

D’autres études sont orientées vers les sciences sociales. La figure 16 montre les approches de
recherche ou les stratégies pour les sciences sociales, réalisées au cours des deux dernières
décennies. Cette figure présente les considérations majeures auxquelles doivent faire face les
chercheurs lors de la conduite d’une étude de recherche. Les huit stratégies identifiées sont
classifiées en deux dimensions (McGrath, 1981):

- Du particulier à l’universel, et

- De l’indiscret au discret.

98
Chapitre 3

Opérations de recherche
indiscrète

Expérimentations en Simulations expérimentales


laboratoires B

Tâches de décision
Etudes expérimentales
II II
III I

III I
C
IV IV
Etudes de cas
Questionnaire
A

Théorie formelle Simulations informatiques

Opérations de recherche
discrète

Systèmes de comportement Systèmes de comportement


universel particulier

Figure 16. Les stratégies de recherche (Source : McGrath, 1981)


I. Cadres des systèmes naturels
II. Réalisation et création des cadres
III. Le comportement non dépendant au cadre
IV. Non observation du comportement demandé
A. Le point de maximum de généralisation supérieur aux acteurs
B. Le point maximum de précision de mesure de comportement
C. Le point maximum du système caractéristique du contexte

Ces stratégies varient dans leur capacité à atteindre trois objectifs en conflit dans la recherche
comportementale :

- Précision,

- Généralisation, et

- Concrétisation ou faisabilité à la situation réelle (Diesing, 1991).

99
Chapitre 3

Il est probablement impossible de maximiser plus d’un objectif parmi ces trois dans le temps.
C’est pourquoi une étude particulière devra concevoir la construction d’un échange pour
atteindre un but particulier.

Il est à noter qu’un examen attentif de ces stratégies montre des écarts avec ces classifications.

Cependant, la classification d’études fournit une compréhension globale des caractéristiques


des différentes stratégies.

En utilisant la taxinomie de McGrath, Baecker et al. (1995, p81) a résumé la recherche de


l’IHM et l’évaluation des méthodes en quatre groupes majeurs décrite dans le tableau 11 :

Champ de stratégies Stratégies défensives


(Dispositions sous conditions possibles) (Dispositions silencieuses)
Etudes sur le terrain Etudes de jugement
Ethnographie et analyse d’interaction Utilisation des méthodes d’inspection,
Recherche contextuelle exemple l’évaluation heuristique
Expérimentation sur le terrain Etude par échantillonnage
Test de beta des produits Questionnaires
Etude de changement technologique Interviews
Stratégies expérimentales Stratégies théoriques
(Dispositions d’invention pour rechercher (Pas d’observation de comportement
les objectifs) demandé)
Simulations expérimentales Théories formelles
Utilisation d’un test Conception de théorie (les sept phases de
Utilisation d’ingénierie Norman)
Théorie comportementale
Expérimentations en laboratoires Simulations d’ordinateurs
Expériences contrôlées Théorie de traitement de l’information
humaine
Tableau 11. La recherche IHM et évaluation des stratégies (Source: Baecker et al. 1995)

Les études en IHM/MSI utilisent les théories formelles ou modèles, les simulations
d’ordinateur, les études par échantillonnage, les expériences contrôlées, l’expérimentation sur
le terrain, et l’étude sur le terrain intégrant les études de cas. L’accent est mis sur la
compréhension simultanée des comportements universels et particuliers par les méthodes
discrètes et indiscrètes.

Ces trois objectifs sont testés: la précision (exemple, les expériences contrôlées), la généralité
(exemple, les théories formelles, et les études par échantillonnage), et l’intérêt au contexte.

Il est à noter que la demande d’atteindre ces trois objectifs est plus élevée dans la discipline
du MSI que dans les autres.

100
Chapitre 3

Même quand l’étude de recherche est conduite en utilisant une expérience contrôlée (qui a
tendance à être moins basée sur un contexte et moins généralisable), il est peu probable que la
communauté en MSI accepte, à moins que les problèmes de contexte et de généralité soient
adressés exclusivement à cette étude.

En conclusion, la recherche en MSI/IHM étudie les attitudes humaines, les intentions, et le


comportement dans les dispositions du travail réel avec les technologies de l’information
courantes. Dans le MSI/IHM, la construction d’un système ou l’implémentation est
principalement pour les concepts « résistants ». Il existe toujours des concepts théoriques qui
servent de base, et qui ont des implications théoriques éventuelles.

La recherche en MSI/IHM utilise un raisonnement théorique pour analyser ce qu’on fait, ce


qu’on ne fait pas et pourquoi. Ensuite, elle fournit des suggestions de conceptions meilleures,
ou plus de technologies de l’information efficaces. Enfin, elle fournit des suggestions pour la
pratique organisationnelle.

3. Réalité de l’IHM dans le développement des systèmes

L’Interaction Homme-Machine a créé des méthodes structurées à partir des recherches


académiques et de celle des auteurs industriels. Ces idées sont largement ignorées par les
ingénieurs des logiciels. (Sutcliffe, 2000).

Dans les approches de développement de systèmes, les problèmes et l’intérêt de l’IHM ne


sont pas considérés systématiquement.

Des essais ont été effectués pour lier l’utilisation et les facteurs de l’utilisateur à travers le
cycle de vie du développement des systèmes (Hefley et al., 1995; Mantei et Teorey, 1989).
Les chercheurs ne fournissent pas de méthodologie claire pour l’intégration de l’IHM à partir
des processus de conception et d’analyse du système.

La méthodologie peut nous aider à préparer les étudiants à développer les systèmes
d’informations organisationnelles centrés sur l’humain : ceux qui procurent des gains aux
utilisateurs humains et contribuent au succès des organisations et des affaires.

Ce manque d’intégration est reflété dans quelques manuels de conception et d’analyse des
systèmes, qui contiennent des chapitres sur la phase de conception du cycle de vie du
développement des systèmes, et sur les problèmes de l’interface avec l’utilisateur.

101
Chapitre 3

Le tableau suivant montre le sommaire des manuels récents écrits par les académiciens du
MSI en adoptant les programmes du MSI :

Manuels Méthodologie/Approche Les thèmes de l’IHM


couverts
Dennis & Wixom, 2003 Le cycle de vie du modèle est Un chapitre : phase de
composé de 5 phases conception sur le design de
l’interface de l’utilisateur.
Hoffer et al., 2005 Le cycle de vie du modèle est Deux chapitres : phase de
composé de 5 phases conception sur les formes et
les rapports de conception et
les dialogues et les interfaces
de conception.
Kendall & Kendall, 2005 Le modèle de cycle de vie est Quatre chapitres : phase de
composé de 4 phases conception sur l’input,
l’output, l’interface avec les
utilisateurs et la procédure
d’entrée des données.
Satzinger et al. 2004 Le modèle du cycle de vie est Un chapitre : phase de
composé de 3 phases conception sur l’interface de
(analyse, conception et l’utilisateur.
implémentation)
Valacich et al., 2004 Le modèle du cycle de vie est Un chapitre : phase de
composé de 4 phases. conception sur l’interface
humaine.
Whitten et al., 2004 Le modèle du cycle de vie qui L’objectif de communication
soutient plusieurs objectifs intègre des problèmes en IHM
(connaissance, processus, et qui courent à travers le cycle
communication) et plusieurs de vie entière.
vues.
Tableau 12. Les thèmes de l’IHM couverts dans les manuels de la conception et
l’analyse des systèmes.(Zhang et al., 2005)

En comparant ces manuels récents, on constate qu’ils couvrent tous les problèmes de
l’interface de l’utilisateur à une certaine étendue. Ils démontrent que la conception nette des
interfaces de l’utilisateur est importante dans le succès des systèmes d’information.

Le manque d’intérêts de l’IHM dans la conception et l’analyse des systèmes est liée à la
mauvaise perception de l’IHM et de ses rôles dans le développement des systèmes.

Cette mauvaise perception est due au fait que l’IHM est focalisée uniquement sur la
conception de l’interface de l’utilisateur final, du point de vue de la conception de la forme,
de l’assortiment du menu, des couleurs, de la conception des icônes et de l’assortiment de la
visualisation de l’écran.

102
Chapitre 3

Cette vue coïncide avec les manuels populaires de la conception et du design des systèmes
présentés dans le tableau ci-dessus.

La conception de la forme, l’assortiment de menu, de couleurs, la conception des icônes et


l’assortiment de la visualisation de l’écran, ont été pris en considération par l’IHM dans le
développement des systèmes d’information. Mais ils sont loin d’être exhaustifs ou les plus
importants.

Les utilisateurs des systèmes d’information sont davantage frustrés par les problèmes qui sont
au-delà du niveau de l’écran d’un ordinateur.

Les problèmes majeurs touchent à l’organisation illogique des données/informations dans un


système, le manque de support de tâche, l’inadéquation entre la nature de la tâche et le
support fourni, le manque de contrôle au sein d’un système, la difficulté dans la navigation
l’incohérence entre les modèles mentaux et les opérations de système.

Ces incompatibilités affectent les réactions de l’utilisateur face à l’acceptation d’un système
d’information, et à son utilisation efficace.

Ces problèmes peuvent s’enraciner dans la négligence des facteurs comportementaux,


affectifs et cognitifs de l’être humain et les dynamiques des interactions humaines avec les
technologies. Ces problèmes peuvent avoir lieu durant le processus de développement de
l’IHM.

Une bonne compréhension des facteurs comportementaux, affectifs, cognitifs de l’être humain
est demandée afin de résoudre ces problèmes. Ces facteurs sont impliqués dans les tâches de
l’utilisateur, les processus de résolution de problème et les contextes de l’interaction.

Il est important de comprendre les besoins en systèmes le plutôt possible. Il est important
aussi que l’interaction technologie/être humain soit comme au début et durant le processus du
cycle de vie du développement des systèmes.

Une autre mauvaise perception est que l’IHM se focalise uniquement sur l’utilisation.
Cependant l’utilisabilité a occupé une partie dominante du champ de l’IHM. Des études
empiriques sur l’acceptation d’une technologie par l’utilisateur ont prouvé que l’utilisabilité
est à la fois un prédicteur important de l’acceptation d’une technologie et de son usage.
(Davis, 1989; Venkatesh et al., 2003). D’autres recherches plus récentes vont au delà de
l’utilisabilité pour explorer d’autres facteurs affectant les interactions humaines avec les
technologies.

103
Chapitre 3

Les réactions affectives de l’utilisateur et ses expériences holistiques ont gagné plus
d’attention et sont devenues plus importantes. (Agarwal et Karahanna, 2000; Webster et
Martocchio, 1993; Zhang et al., 2002).

4. Perspectives de la recherche en MSI/IHM

Le champ de l’IHM largement défini est un courant de recherche puissant pour le MSI. Son
futur est brillant car:

1. Le nombre de développeurs d’interface a augmenté,

2. Plus de personnes sont en face de plus de difficultés à utiliser les systèmes (Galletta,
2002),

3. Plus de personnes sont affectées par l’avancement technologique au sein de leurs


organisations, leurs sociétés et leur foyer.

Avec ce futur brillant et une direction de recherche viable, la prochaine question est : quels
sont les thèmes pour la recherche future en MSI/IHM?

Il peut être utile d’encourager la discussion et de découvrir les thèmes intéressants et les
problèmes de recherche. Ces aires sont décrites comme suit :

- La construction des relations et la gestion des construits

- La modélisation de la tâche et l’adéquation organisationnelle

- L’acceptation de l’utilisateur

- L’amélioration des mesures dans l’IHM

- L’importance de l’expérience holistique dans l’interaction des humains avec les


technologies (ce qui implique que tout programme est un système d’explication
globale et qui ne peut être expliqué par ses différents composants)

- L’importance d’un grand champ d’utilisateurs

- Une nouvelle taxinomie du MSI/IHM

4.1. Construction des relations et Gestion des construits

L’articulation dans la recherche en MSI/IHM doit changer de la seule focalisation sur les
individus interagissant avec les ordinateurs, aux individus communiquant entre eux et avec les
organisations par le biais de l’interface de l’ordinateur (Benbasat, 2002).

104
Chapitre 3

La clé des variables dépendantes étudiées dans la recherche du MSI/IHM doit inclure la
construction des relations et la gestion des construits plutôt que de consacrer une attention
exclusive à l’efficacité et à l’efficience, dont le rôle est central dans la recherche antérieure.

La construction de relations et la gestion des construits peuvent jouer un rôle important dans
la recherche sur l’IHM associée avec l’architecture de l’interface business-to-consumer
(BtoC).

L’objectif est donc de concevoir des interfaces qui réduisent la distance entre les
consommateurs et les entités avec lesquelles ils interagissent. Exemples: l’âge du e-commerce
comporte les architectures qui : (1) permettent aux consommateurs de mieux essayer les
produits via l’IHM, (2) améliorent la présence sociale entre le consommateur et la firme qui
est représentée par la seule interface de l’ordinateur (la page web), (3) rendent l’utilisation des
recommandations des agents plus faciles à utiliser (exemple, les moteurs de recherche, qui ont
besoin d’évaluer un grand nombre de produits offerts sur Internet) et (4) simulent l’interaction
avec les vendeurs dans un espace physique (l’utilisation des signes graphiques représentant un
utilisateur en espace virtuel (lors d’une discussion virtuelle) pour assister l’aide) (Benbasat,
2002).

4.2. Modélisation de la tâche et l’adéquation organisationnelle

Une autre optique pour la compréhension des problèmes ouverts par la recherche future et
actuelle en MSI/IHM est celle de l’adéquation technologie-tâche (Task-Technology Fit :TTF),
considérée comme une recherche puissante dans le MSI (Goodhue, 1995; Goodhue et
Thompson, 1995; Dishaw et Strong, 1998, 1999).

A travers la perspective de l’adéquation technologie-tâche (TTF), les variables présentées


dans le triangle central de la figure des niveaux d’analyse dans l’IHM, sont libellées
Technologie, Tâche (plutôt que travail), et différences individuelles (plutôt que Peuple). Les
modèles de l’adéquation technologie-tâche se focalisent sur l’adéquation entre la tâche et la
technologie, c’est à dire sur l’assortiment des technologies aux demandes de la tâche
(Goodhue, 1995). Ils se focalisent sur les différences individuelles, par exemple l’utilisateur
fréquent ou occasionnel, qui touche à l’adéquation. Par exemple, l’interface de l’utilisateur
peut fournir l’adéquation pour une tâche d’affaire, mais uniquement pour les utilisateurs
fréquents.

105
Chapitre 3

Beaucoup de recherches en MSI, comportant la recherche en MSI/IHM, se sont intéressées à


la détermination des dimensions de l’adéquation entre la sélection des technologies de
l’information et les besoins des tâches individuelles et organisationnelles, et à la mesure du
degré d’inadéquation avec ces dimensions.

Afin d’avancer dans la recherche en MSI/IHM, nous avons donc besoin de modèles meilleurs
concernant les tâches organisationnelles. Cependant nous pouvons mener des expériences
pour mesurer l’adéquation, puis une construction théorique pour quelques expériences donne
un modèle des tâches organisationnelles utilisées. Par exemple, une étude sur l’adéquation
maintenance-outils de CASE (boîtier qui renferme les pièces internes d’un ordinateur) a
utilisé les tâches de maintenance développées à travers l’analyse du protocole (Dishaw et
Strong, 1998; Vessey, 1986). Par contre, il y a peu de tâches organisationnelles, qui aient bien
développé des modèles d’activités impliquées, ce qui limitent la progression de la recherche.

Le domaine de la recherche future est le développement des dimensions et des mesures pour
l’adéquation organisationnelle.

Dans la recherche en MSI/IHM, le contexte, typiquement une tâche organisationnelle ou un


processus, est une composante importante de la majorité des études.

Pour dater la plupart des études TTF et les études en MSI/IHM ont employé le niveau
d’analyse individuel, bien que quelques recherches soient focalisées sur les groupes et les
systèmes d’assistance d’un groupe (Zigurs et Buckland, 1998).

Comme la recherche en MSI modifie les outils de la productivité individuelle pour les adapter
aux systèmes de l’entreprise, nous avons besoin de développer les dimensions et les mesures
de l’adéquation organisationnelle. Par exemple, les systèmes d’entreprise sont considérés
comme l’intégration de développement et d’interdépendance avec les organisations. Nous
avons besoin de connaître comment et combien de caractéristiques des systèmes d’entreprise
peuvent s’adapter ou fournir une valeur aux organisations.

4.3. Acceptation de l’utilisateur

L’intégration de l’acceptation de l’utilisateur de la technologie de l’information avec le


développement technologique doit être étudiée (Davis, 2002). Il est souhaitable de créer une
estimation discrète qui pourra:

- Gérer l’attention de l’utilisateur et

106
Chapitre 3

- Exploiter l’intention de l’utilisateur.

L’acquisition de compétences et l’aide à la décision à travers la visualisation et le contrôle


dynamique sont d’autres directions qui ont besoin de la recherche. De plus, l’assistance des
équipes virtuelles avec l’aide des connaissances devient indispensable dans l’accroissement
de la visualisation et la globalisation des équipes de travail (Davis, 2002).

4.4. Amélioration des mesures dans l’IHM

A cause des problèmes notés dans les méthodologies de recherche (Newsted et al. 1997) et
qui ne sont pas encore surmontés, les mesures de l’IHM ont des méthodes longues à suivre
(Carey, 2002). Le tableau suivant montre les variables de l’IHM identifiées dans le passé :

Indépendantes Dépendantes
Utilisateur/analyste Caractéristiques de Performance
l’interface
1. Indirecte 1. Contenu 1. Efficacité de la décision
A. Aptitude A. Exactitude
B. Attitude B. Opportunité
C. Style de décision C. Qualité
D. Confidentialité
2. Directe 2. Forme 2. Satisfaction
A. Formation
B. Expérience
C. Implication
3. Dispositif de décision 3. Présentation 3. Apprentissage
A. Tâche Facilité
B. Niveau de gestion Temps
C. Incertitude 4. Média 4. Sensibilité du système
D. Opportunité 5. Contexte 5. Rapidité d’utilisation
E. Structuration 6. Taux d’erreur
F. Contexte
Tableau 13. Les variables de l’IHM (Carey, 2002)

Le problème de mesure est-il relatif aux études de l’IHM face au défi méthodologique ? Si
oui, quel est ce défi? Doit-on réinventer ou doit-on bénéficier des études de la science sociale
sur les méthodologies de recherche?

4.5. Accentuation sur l’expérience holistique de l’interaction des


humains avec les technologies

Historiquement, les études en IHM sont lourdement orientées vers l’aspect cognitif de
l’expérience humaine, comme la création de modèles pour l’utilisateur et la tâche,

107
Chapitre 3

l’acceptation d’une technologie, l’efficacité d’un ordinateur personnel, l’adéquation


technologie-tâche, l’adéquation cognitive, et d’autres.

De plus, des études ont examiné uniquement les problèmes reliés au travail.

Comme l’être humain est non rationnel (noté par Herbert Simon), nous avons une gamme
complète d’opportunités pour interagir avec les technologies pour différents objectifs dans les
approches non-rationnelles ou celles de la rationalité liée. Une vue holistique de l’IHM doit
inclure les aspects cognitifs, émotionnels et affectifs dans toutes les interactions possibles
entre les êtres humains et les technologies.

Diverses études en MSI/IHM prennent déjà en compte le côté cognitif de l’IHM. Des
exemples intègrent les études sur la vivacité (exemple, Webster & Martocchio, 1992; Agarwal
& Karahanna, 2000), l’expérience coulée (exemple, Trevino & Webster, 1992; Webster, et al.
1993; Ghani, 1995; Hoffman & Novak, 1996; Novak et al. 2002; Finneran & Zhang, 2000),
les besoins sociaux et esthétiques (exemple, Tractinsky et al., 2000), l’émotion (Venkatesh,
2000), et l’équilibre entre l’action et les relations, la cognition et l’affectation (exemple,
Te’eni, 2000).

En fait, avec l’étendue d’interaction avec les technologies dans notre vie quotidienne pour
différentes raisons, nous pouvons examiner de nouveau le sens de la vie.

Nous pouvons reprendre la question de base : de quoi nous avons besoin dans notre vie ?

Nous pouvons revisiter les modèles de Maslow ou autres besoins de bases et ensuite décider
d’utiliser les technologies pour approvisionner, dans la hiérarchie des besoins, les besoins
élevés des êtres humains. Cette approche pourrait ouvrir une nouvelle direction entière
d’opportunités pour la recherche future de l’Interaction Homme-Machine.

4.6. Accentuation d’un grand champ d’utilisateurs

“Pousser la recherche de l’interaction homme-machine pour donner du pouvoir à chaque


citoyen” (Shneiderman, 2000) apparaît un choix logique, cependant cela demande plus
d’attention.

Comme discuté auparavant, les recherches en MSI/IHM donnent un peu plus de place aux
utilisateurs adultes (à la fois débutants et experts) dans les cadres organisationnels.

Les développements technologiques ont poussé cette limite pour enrichir un plus grand champ
d’utilisateurs, comme les personnes appartenant à différents groupes d’âge, les personnes

108
Chapitre 3

appartenant à différentes ethnies, cultures ou langage, et les personnes appartenant à des


niveaux d’éducation peu élevées... Les problèmes d’utilité universelle, d’utilisation
universelle, d’acceptation et d’adoption universelle ont été attribués à des dimensions mais
plus d’attention à leurs relations mérite d’être soulevé.

4.7. Nouvelle taxinomie37 du MSI/IHM

Nous pouvons faire plus de progrès lorsque nous savons où nous en sommes et ce qui a été
fait.

En raison de la nature interdisciplinaire du sous-champ du MSI/IHM et du développement


technologique, une taxinomie est demandée pour illustrer les études de MSI/IHM et les
directions futures possibles.

Les taxinomies existantes (Beard & Peterson, 1988; Killingsworth et al, 1997; Martin, 1997)
ont besoin d’être ré-évaluées pour leur convenance dans les situations d’aujourd’hui.

Par exemple, la prise de décision est une tâche organisationnelle dans ces taxinomies. Cet
objet a changé significativement dans les années antérieures (par exemple, les banques en
ligne (Bhattacherjee, 2001), l’utilisation générale du World Wide Web (Agarwal et
Karahanna, 2000), et la recherche d’informations sur World Wide Web (Zhang, 2000).

Les taxinomies existantes considèrent l’analyse du système comme l’une des composantes
d’un modèle. Peu d’attention est accordée à l’impact des systèmes ou des technologies de
l’information sur le niveau individuel, du groupe et des organisations. Ces domaines,
cependant, ont attiré une attention significative dans le champ du MSI récemment, et
évidemment sous l’effet du développement et de la maturité des divers modèles théoriques
(comme, le modèle de l’acceptation de la technologie (TAM : Technology Acceptance Model
(Davis, 1989; Venkatesh and Davis, 1996), Le modèle de l’adéquation technologie-tâche
(TTF : Task-Technology Fit model (Goodhue et al. , 1995), Le modèle de l’adéquation
cognitive (cognitive fit model (Vessey, 1991; Vessey and Galletta, 1991)).

Une autre limite de cette taxinomie est la focalisation profonde sur l’influence cognitive et la
productivité, plutôt que sur l’utilisateur holistique et l’expérience pragmatique au moment où

37
La taxinomie vise à proposer un ordre à l’intérieur duquel se rangeront les êtres réels. La classification,
d’ampleur plus générale, porte non seulement sur les organismes les plus divers mais aussi sur des objets
artificiels et idéaux, les sciences et les techniques, les livres, les œuvres d’art… (Encyclopédie Universalis)

109
Chapitre 3

l’interaction avec la technologie de l’information se fait dans le travail ou dans d’autres


environnements.

En conclusion, les travaux de recherche sur l’Interaction Homme-Machine permettent de


comprendre les relations et les variables qui influencent l’interaction technologie / être
humain à l’intérieur du cadre managérial et/ou organisationnel, à travers une évidence
empirique.

Cette compréhension est utilisée :

- Pour aider les professionnels en SI à développer les systèmes plus utilisés et donc
plus réussis ;

- Pour aider les utilisateurs en SI (directeurs, employés et consommateurs) à être plus


productifs et satisfaits des systèmes d’information ;

- Pour accroître l’efficacité organisationnelle en tant que résultat de la productivité


des utilisateurs et des professionnels en SI ;

- Pour fournir aux chercheurs une connaissance cumulative et cohésive pour étendre
les limites théoriques.

Zangh et Li (2004) présentent un modèle qui met en jeu cinq composantes : Agent humain,
technologie, interaction, tâche et contexte. Il existe différentes manières de compréhension
des êtres humains par rapport à leurs caractéristiques spécifiques pertinentes et leur
interaction avec les technologies de l’information.

La technologie a été largement définie y compris les machines, les logiciels, les applications,
les données, les informations, les connaissances et les procédures.

Ces auteurs nous proposent un cadre conceptuel de cette Interaction Homme-Machine. Ce


cadre est schématisé comme suit :

110
Chapitre 3

Technologie
- Technologie basique
- Technologie avancée

Contexte
Tâche/Travail Contexte global

Utilisabilité
Conception

Evaluation
Utilisation
Objectifs de la tâche Contexte social

Impact
Caractéristiques de la tâche Contexte
organisationnel

Humain
- Démographie
- Physique
- Niveau de cognition
- Niveau d’émotion

Figure 17. Cadre conceptuel de l’IHM (Zangh et Li, 2004)

Pour mieux comprendre la relation Homme-Machine, il faut :

- Chercher à comprendre les besoins et les problèmes de bases qui affectent


l’interaction homme-machine.

- Chercher à mesurer l’efficacité des techniques utilisées par l’humain dans les
situations de résolution des problèmes (La plupart des études sont utilisées pour
l’interaction des utilisateurs avec les ressources du WEB)

Plusieurs modèles théoriques en MSI ont été développés au service de cette relation.

Nous en approfondissons quelques-uns pour construire le second modèle théorique particulier


à cette étude, avec l’objectif principal d’évaluer la relation entre l’agent humain/l’agent
intelligent. Ces modèles sélectionnés seront détaillés dans la section suivante.

111
Chapitre 3

Section 2 : Processus d’évaluation des Systèmes


d’Information : Instruments de mesure
Dans la littérature des systèmes d’information, les chercheurs sont intéressés aux mesures
subjectives du succès des systèmes d’information. En effet, ils ont fait le lien entre les
perceptions des utilisateurs, en tant que variable de mesure, et le succès du système
d’information.

Ces études suggèrent que les attitudes des utilisateurs puissent être utilisées en tant qu’une
mesure substitut à la qualité du système, la qualité de l’information, l’utilisation du système,
la satisfaction de l’utilisateur, l’impact individuel et l’impact organisationnel. (Delone &
McLean, 1992)

Les mesures du succès du système d’information qui sont perceptibles, ont été employées
d’une manière extensive. Quelques instruments de mesure ont été liés à la satisfaction de
l’utilisateur en information (UIS38) en tant qu’une mesure substitut du succès du système
d’information.

Auteurs Instruments de mesure


Miller, 1989 Mesure de la satisfaction de l’utilisateur en
Bailey et Pearson, 1983 (une version de 22 information en tant qu’une mesure substitut
items, puis une version de 13 items du succès d’un système d’information.
développée par Ives et al., 1983 et Baroudi et
Orlikowski, 1986)
Difficultés conceptuelles et méthodologiques L’une des difficultés avec l’instrument UIS
associées à ces auteurs (Galletta et al., 1989 ; est la distinction entre les aspects cognitifs
Melone, 1990 ; Treacy, 1985) (croyances sur les caractéristiques du
système) et les aspects affectifs (attitudes vis
à vis du système ou vis à vis de l’utilisation
du système)
Goodhue, 1988 Cette confusion introduit des biais et des
erreurs de mesure.
Doll et Torkzadeh, 1988 L’instrument UIS n’est pas conforme pour
mesurer les activités de succès de EUC39
parce qu’il est destiné uniquement à
l’environnement informatique conventionnel.
De ce fait, ils proposent un instrument de 12
items mesurant cinq facteurs.
Doll et Torkzadeh, 1991 Pour pallier la limite des mesures reliées à la
performance, ces auteurs considèrent les
comportements reliés à la performance

38
User Information Satisfaction (UIS)
39
End-User Computer (EUC)

112
Chapitre 3

comme étant un problème spécifique, c’est


pourquoi le développement des mesures
généralisable est difficile.
Rosenblueth et al, 1943 Une des propriétés génériques du système est
qu’il a des objectifs orientés, l’évaluation du
succès d’un SI peut prendre en compte les
impacts individuels et organisationnels du
système.
Delone et McLean, 1992 La qualité du système et la qualité de
l’information sont pris en compte pour
affecter la satisfaction de l’utilisateur et
l’utilisation du système. Ces derniers agissent
comme des antécédents sur les impacts
individuels et organisationnels.
Etezadi-Amoli et al., 1996 L’unité d’analyse est l’utilisateur, ces auteurs
ont limité le domaine du modèle du succès du
SI et ils l’ont appliqué au modèle de succès de
EUC.
Variables indépendantes : qualité du système
et la qualité de l’information.
Variable dépendante : Performance perçue par
l’utilisateur.
Tableau 14. Exemples d’instruments de mesure pour l’évaluation des SI.

Ce tableau donne une idée générale sur les travaux réalisés sur l’évaluation des facteurs clés
de réussite lors de l’utilisation d’un SI. Nous détaillerons dans cette section les instruments de
mesure qui ont évalué la performance des SI afin de déboucher un modèle propre à cette
étude.

113
Chapitre 3

1. Modèle de Goodhue et Thompson (1995) : Adéquation


Technologie-Tâche

1.1. Problématique

Ces auteurs ont construit un modèle théorique multidimensionnel qui met en relation les
caractéristiques de la tâche, les caractéristiques de l’individu et les caractéristiques du TSI.

Ils se proposent d’étudier l’impact de ce sous-système utilisateur - TSI sur la performance


individuelle des utilisateurs considérée comme la variable dépendante de la réussite des TSI.

1.2. Méthode

Ils ont construit un modèle théorique à partir de la revue de la littérature. Dans ce modèle ils
ont tenté d’expliciter l’impact des TSI sur la performance individuelle. L’opérationnalisation
des variables de ce modèle est effectuée en référence à des recherches antérieures (Davis,
1989 ; Baily et Pearson, 1983).

Ce modèle a été testé sur un échantillon de 600 individus appartenant à 26 départements


différents dans deux organisations et utilisant 25 applications TSI. Le test des hypothèses a été
effectué par recours aux techniques statistiques usuelles : tests de corrélation, analyses en
composantes principales et régressions linéaires.

1.3. Résultats

Evolution des Modèles Limites


- Recherches focalisées sur l’Utilisation du Bien que ces perspectives donnent lieu à
TSI : basées sur les théories d’attitudes et de l’impact de la technologie de l’information sur
comportement individuel (Bagozzi, 1982 ; la performance, le degré d’utilisation n’est pas
Fishbein et Ajzen, 1975 ; Triandis, 1982) toujours volontaire. Les utilisateurs du système
Les aspects de la technologie ont un impact considèrent beaucoup plus l’utilisation comme
sur les perceptions et les attitudes des étant une fonction d’affectation du travail que
utilisateurs. Ces perceptions et attitudes sont des systèmes de qualité, d’utilité ou des
étudiées en terme d’utilité perçue (Davis, attitudes des utilisateurs face à leur utilisation.
1989) ou de satisfaction de l’utilisateur de De plus, l’utilisation d’un système n’implique
l’information, (Baroudi, et al, 1986) pas nécessairement une grande performance.
L’utilisation du TSI a un impact positif sur la
performance.

- Recherches focalisées sur l’adéquation Selon ce courant c’est l’adéquation entre la


technologie / tâche :L’adéquation détermine technologie et la tâche dont celle-ci est le
la performance. Deux études sont liées aux support qui est l’élément déterminant de la

114
Chapitre 3

laboratoires d’expérimentation, l’une sur performance individuelle et dans certains cas


l’impact de la représentation des données sur de son degré d’utilisation.
la performance. Goodhue affirme que les TSI ont un impact
L’autre porte sur la séparation entre les positif sur la performance des individus si un
représentations des données (caractéristiques niveau satisfaisant d’adéquation entre les
de la technologie) et les tâches. Cette fonctionnalités techniques des TSI et les tâches
séparation peut entraîner le ralentissement de à effectuer est assuré.
la performance de la prise de décision par le D’autres travaux ont conclu que l’adéquation
besoin des translations additionnelles entre TSI-tâche est un précurseur de l’utilisation au
les représentations des données ou les niveau individuel (Floyd 1986, 1988)
processus de décision. (Vessey, 1991) Cette dimension est définie par : « le degré de
correspondance entre les besoins fonctionnels
relatifs à la tâche, les capacités individuelles et
les fonctionnalités techniques offertes par les
TSI »
Tableau 15. Résultats des travaux de Goodhue & Thompson (1995)

La dimension Adéquation -Technologie -Tâche est utilisée comme variable déterminante de la


performance individuelle, conjointement avec la première variable explicative identifiée « le
degré d’utilisation du TSI », dans un schéma causal simple assorti d’une boucle de rétroaction
qui va de la variable expliquée « la performance individuelle » à ses deux variables
explicatives.

Le troisième modèle combine les deux perspectives précédentes. Dans ce modèle la


performance est déterminée à la fois par l’utilisation et l’adéquation technologie/tâche.

115
Chapitre 3

Caractéristiques Précurseurs
de la technologie d’utilisation : Utilisation Impact sur la
Croyances, performance
Utilisation
émotion

Caractéristiques Adéquation
de la tâche Technologie/
Tâche
Adéquation
Caractéristiques Impact sur la
de la technologie performance
Utilisation

Caractéristiques Adéquation
de la tâche Technologie/
Utilisation
Tâche
&
Adéquation

Caractéristiques Précurseurs Utilisation Impact sur la


de la technologie d’utilisation performance

Figure 18. Trois modèles sur le lien entre la technologie et la performance (Goodhue et
Thompson, 1995)

1.4. Opérationnalisation du modèle théorique

L’ensemble des construits identifiés à partir de la revue de la littérature et leurs liens de


causalité sont explicités dans cette sous-section.

Goodhue et Thompson ont proposé un modèle réduit dans lequel ils mettent l’accent sur cinq
dimensions :

1. La dimension caractéristique de la tâche est mesurée par ces critères :

- La complexité de la tâche (l’aspect routinier versus non-routinier)


- L’interdépendance entre les tâches (transversalité)
- Le niveau hiérarchique de l’utilisateur.

2. La dimension caractéristique de la technologie est mesurée par ces critères :

- Les fonctionnalités du TSI


- Le département d’appartenance de l’utilisateur

116
Chapitre 3

3. La dimension adéquation – technologie – tâche est mesurée par huit critères : la


qualité des données, l’ajustement par rapport aux besoins, l’accessibilité, la compatibilité, la
pertinence, la conformité, la facilité d’apprentissage et les relations avec les concepteurs.

4. La dimension utilisation de la TSI est mesurée par le critère degré de dépendance


perçue envers la TSI. Les auteurs considèrent ce critère comme plus adéquat que les critères
purement techniques (temps de connexion au système, nombre de requêtes) et plus explicite
que le critère binaire utilisation versus non-utilisation, car il prend en compte la part non
volontaire de l’utilisation, car il prend en compte la part non volontaire de l’utilisation due
aux caractéristiques inhérentes à la configuration de la tâche.

5. La dimension impacts sur la performance est mesurée par rapport aux perceptions
des utilisateurs quant à leur efficacité dans l’accomplissement de leurs tâches, donc en termes
de performance perçue.

Ces critères sont adaptés à partir des études antérieures, notamment les travaux de Lucas
(1973), Davis (1989), Baroudi et Orlikoawski (1988), Baily et Pearson (1983), Doll et
Torkzadeh (1988)… Ils sont évalués par des mesures perceptuelles collectées auprès des
utilisateurs moyennant un questionnaire.

Les liens de causalité entre ces dimensions sont explicités dans les hypothèses suivantes :

H1. Le degré de l’adéquation technologie-tâche est déterminé à la fois par les


caractéristiques de la tâche et celles du TSI.

H2. Le degré d’adéquation technologie-tâche a un impact sur le degré d’utilisation du


TSI.

H3. Le degré d’adéquation technologie-tâche et le degré d’utilisation du TSI ont


conjointement un pouvoir explicatif des impacts perçus sur la performance des utilisateurs.

117
Chapitre 3

2. Approche empirique de Franz et Robey (1986)

2.1. Problématique

Franz et Robey ont proposé d’enquêter sur la relation tridimensionnelle entre l’engagement
des utilisateurs, l’utilité perçue du TSI et le contexte organisationnel. Ils ont examiné les
impacts directs et médiateurs de ce contexte sur chacune des deux premières variables.

2.2. Méthode

Il s’agit d’un schéma classique de recherche hypothético-déductive où les auteurs procèdent à


la conceptualisation des relations entre les trois blocs de variables dans un modèle théorique.
Ils ont confronté ce modèle à la réalité moyennant un travail d’enquête par questionnaire au
près d’un échantillon de 118 utilisateurs des TSI dans 38 organisations.

Processus de prise de décision :


Niveaux hiérarchiques impliqués
Décisions structurées/non structurées
Caractéristiques organisationnelles :
Taille
Age
Décentralisation/Centralisation
Caractéristiques du département TSI :
Taille
Age
(II) Place dans la structure organisationnelle (IV)
Périmètre et étendue des impacts

(III)
Engagement des utilisateurs :
Dans le processus de conception des TSI Utilité perçue des TSI
Dans le processus d’implémentation des
TSI
(I)

Figure 19. Le modèle théorique de Franz et Robey (1986)

Ces auteurs ont proposé des critères de mesure pour chacune des trois principales variables et
ont construit sous forme d’hypothèses de recherche, quatre types de relations susceptibles de
les unir:

118
Chapitre 3

- Le contexte organisationnel : cette variable comprend des déterminants tels que la


taille, l’âge et le degré de décentralisation/centralisation ; des déterminants relatifs au
département TSI (âge, taille, périmètre d’impact) ; et enfin les déterminants du
processus décisionnel dans l’organisation étant entendu qu’il s’agit d’un système
d’information d’aide à la décision, ce qui correspond aux caractéristiques de la tâche.

- L’engagement des utilisateurs : entendu au sens de l’ensemble des activités et


attitudes des utilisateurs qui traduisent leur implication dans le projet de mise en
place du TSI. Deux principales phases sont distinguées : la phase de conception,
définition des besoins et construction de la solution technico-organisationnelle ; et la
phase d’implantation de la solution proprement dite, comprenant le test et
l’apprentissage des fonctionnalités.

- L’utilité perçue du TSI : elle est conçue comme la variable substitut de l’évaluation
de la réussite du TSI, du point de vue des utilisateurs. Elle est assortie d’une mesure
multi-dimensionnelle (12 items du questionnaire) et évaluée par une échelle
psychométrique.

Sur cette base, les hypothèses de recherche concernent :

1. La relation de cause à effet entre l’engagement des utilisateurs et l’utilité perçue du


TSI. Plus l’engagement est important, plus importante sera l’utilité perçue.

2. Certaines caractéristiques du contexte organisationnel sont les antécédents de


l’engagement des utilisateurs.

3. Certaines caractéristiques du contexte organisationnel modèrent la relation entre


l’engagement des utilisateurs et l’utilité perçue du TSI.

4. Certaines caractéristiques du contexte organisationnel affectent directement l’utilité


perçue du TSI.

119
Chapitre 3

3. Modèle de l’acceptation des TSI de Davis (1989)

3.1. Problématique

Davis a proposé un instrument d’évaluation des TSI qui met en valeur de nouvelles variables
dépendantes et indépendantes et étudie leurs interactions. La principale hypothèse est : la
réussite d’un TSI est tributaire de l’acceptation de cet outil par les utilisateurs. Cette
acceptation, évaluée par le degré d’utilisation de l’outil, dépend de deux facteurs explicatifs :
l’utilité perçue et la facilité perçue d’utilisation et de manipulation.

3.2. Méthode

Davis a développé deux construits : Utilité Perçue et Facilité d’Utilisation. Ces deux
construits multidimensionnels ont été évalués chacun par 14 critères de mesure (assortis d’une
échelle d’évaluation de 7 intervalles).

Le nombre de critères a été réduit suite à un test de validation (Doll, Hendrickson and Deng,
1998) à six critères pour chaque construit. Cette étude, utilisant un échantillon de 902
répondants, a conduit par :

- une analyse factorielle confirmatoire à valider et ajuster l’instrument original


proposé par Davis ;

- une analyse de l’invariance multigroupe à valider l’équivalence de ces instruments


auprès des groupes supérieurs en se basant sur le type d’application, l’expérience
avec l’informatique et le sexe.

Cette étude a permis de déterminer les impacts sur le degré d’acceptation des TSI (Davis’s
Technology Acceptance Model : TAM) évalués par les utilisateurs.

120
Chapitre 3

Facilité d’utilisation
Utilité Perçue perçue

PU1 PU6 EOU EOU


1 6

PU2 PU5 EOU EOU


2 5

PU3 PU4 EOU EOU


3 4

Figure 20. Le modèle opérationnel de Davis (1989)

La variable dépendante “Degré d’utilisation des TSI” est ensuite introduite dans les analyses,
avec ces deux sous-critères de mesure : « Degré d’utilisation immédiat » et « Degré
d’utilisation attendu ». L’étude des relations de corrélation de ces mesures avec les 12 critères
des variables indépendantes Utilité Perçue et Facilité d’utilisation perçue, permettent à
l’auteur de conclure que :

- Des relations de corrélation positives existent entre les deux variables indépendantes
et la variable dépendante.

- L’utilité perçue est plus fortement corrélée avec le degré d’utilisation que ne l’est la
facilité perçue d’utilisation.

- Une relation de corrélation directe existe entre l’utilité perçue et le degré


d’utilisation. La facilité d’utilisation perçue joue le rôle de variable médiatrice entre
ces deux dimensions.

L’utilité perçue et la facilité d’utilisation perçue peuvent former un schéma causal sur le degré
d’utilisation du TSI comme ils peuvent être considérés comme des antécédents sur cette
même variable.

L’auteur note que l’instrument d’évaluation qu’il a développé pourrait être utilisé en tant
qu’outil de diagnostic des problèmes liés à l’utilisation des TSI dans les organisations.

121
Chapitre 3

Le modèle d’acceptation de la technologie (TAM) de Davis est un modèle basé sur la théorie
de l’action raisonnée (Theory of Reasoned Action, Ajzen and Fishbein, 1980). Les résultats
de ce modèle ont permis d’approfondir la recherche sur l’évaluation des TSI et en élargissant
son application aux problèmes liés à l’acceptation dans le e-commerce.

Venkatesh et Davis (1996) ont proposé un « modèle d’acceptation de la technologie 2 » qui


tient compte des facteurs liés au contexte social (les normes, l’utilisation volontaire, l’image
véhiculée par la technologie) et des facteurs cognitifs en rapport avec l’auto-évaluation du
travail accompli par les utilisateurs et la facilité d’utilisation perçue.

D’autres travaux ont montré l’existence des caractéristiques individuelles et qui sont intégrés
dans le modèle en tant que déterminants de l’acceptation et de la réussite des TSI. Ces
caractéristiques sont liées à l’âge, au revenu et à la formation initiale des utilisateurs (Morris
et Venkatesh, 2000). Les résultats de ces études sont résumés dans le chapitre 6 de notre
thèse.

Des travaux ultérieurs ont permis d’affiner la théorisation et l’opérationnalisation de ce


modèle (Venkatesh et Davis, 1996 ; Gefen et al., 2000, Dasgupta et al., 2002).

Straub et Gefen (1999) ont validé l’instrument de mesure du modèle de Davis (TAM) en
utilisant la méthode d’équations structurelles. Le modèle testé est composée de rois variables :

- « L’intention à utiliser » (IUSE) une nouvelle technologie de l’information est le


produit de deux construits :

- « L’utilité perçue » (PU) d’utilisation de la technologie de l’information ;

- « La facilité d’utilisation perçue » (EOU) de son utilisation.

PU H1

H3 IUSE

EOU H2

Figure 21. Le Modèle TAM de Straub, 1999 (repris de Davis, 1989)

Ce modèle est le modèle de base pour l’adoption de la technologie de l’information. Il


considère les deux construits : PU et EOU comme étant un système et qui ont un impact sur :

122
Chapitre 3

- les attitudes à travers l’utilisation ;

- l’intention d’utilisation ;

- l’acceptation de la technologie de l’information (mesurée souvent par l’utilisation)

PU influence certaines variables comme par exemple l’intention d’utiliser un système.

Les attitudes à travers l’utilisation peuvent être choisies en tant que variables dépendantes,
elles sont des variables standards pour utiliser la technologie de l’information.

123
Chapitre 3

4. Evaluation de la validité des Modèles de succès des SI :


Rai et al. (2002)

DeLone & McLean notent la nature multidimensionnelle et interdépendante du succès des SI,
ce qui demande une attention de la part du chercheur en ce qui concerne la définition et la
mesure de chaque aspect du modèle.

La sélection des dimensions de succès et des mesures doivent être contingentes dans le
contexte de l’investigation empirique.

Il existe une discussion particulière dans la littérature concernant la mesure de l’utilisation des
SI et qui a été employée comme étant une mesure du succès des SI dans des études
quantitatives. (Davis 1989, Goodhue 1995, Igbaria et al. 1995, Seddon & Yip 1992). Elle a été
mesurée par différentes manières intégrant des algorithmes informatiques de l’utilisation
actuelle (Straub et al. 1995), l’utilisation actuelle estimée (Adams et al. 1992, Thompson et al.
1994), fréquence d’utilisation estimée (Davis 1989, Hartwick & Barki 1994, Igbaria et al.
1995) et la dépendance au système (Goodhue & Thompson 1995).

Seddon propose, « …pour une utilisation volontaire, de systèmes similaires par des
utilisateurs compétents, les mesures de l’utilisation des SI (comme le nombre d’heures et la
fréquence d’utilisation) peuvent avoir une influence sur les bénéfices de l’utilisation » (1997,
p.243)

Goodhue & Thompson (1995) notent que si la conceptualisation du comportement de


l’utilisateur est entouré par des disciplines en relation concernant les attitudes et le
comportement. Les mesures comme le nombre d’heures et la fréquence d’utilisation peuvent
être problématiques. Cependant, la décision d’utiliser un système est influencée par les
attitudes et les croyances. Les variations d’heures d’utilisation ou la fréquence d’utilisation
peut être la conséquence du poids de la tâche ou de l’adéquation technologie-tâche. Vu la
difficulté d’observation empirique de la proportion de temps choisie par l’utilisateur à utiliser
un système, ces auteurs notent que l’utilisation peut être reflétée par : « la durée pour laquelle
un système d’information a été intégré pour chaque travail routinier individuel ». (p. 223)

A titre d’informations, plus le système d’information est inclus dans le travail routinier de
l’utilisateur, plus la personne devient dépendante du système. (Goodhue & Thompson, 1995).
Par conséquent, l’utilisation du SI est expliquée en terme de dépendance de l’utilisateur au SI.

124
Chapitre 3

Chaque modèle propose une taxinomie de catégories : qualité du système, qualité de


l’information, satisfaction de l’utilisateur et l’utilisation des SI. Chacun des deux intègre une
variable additionnelle. L’utilité perçue que Delone et McLean n’ont pas intégré dans leur
taxinomie, mais qui est une composante intégrée dans le modèle de Seddon. Les variables des
impacts organisationnels et sociétaux n’ont pas été étudiées parce que les données sont
collectées dans une seule organisation.

4.1. Modèle de DeLone & McLean (1992)

Qualité du Utilisation du
système SI

Impact Impact
individuel organisationnel

Qualité de Satisfaction de
l’information l’utilisateur

Ce lien n’est pas pris en considération dans le modèle de Rai et al.(2002)


Figure 22. Le modèle théorique de deLone et McLean, 1992.

Dans le modèle DeLone & McLean, la qualité du système et la qualité de l’information sont
décrits par leur affectation à la fois à l’utilisation du SI et à la satisfaction de l’utilisateur et
qui sont à leur tour des antécédents directs sur l’impact individuel. DeLone & McLean (1992,
p.62) conceptualisent leur modèle en terme d’idées offertes par Shannon & Weaver (1949) et
Mason (1978). Shannon & Weaver (1949) groupent les problèmes de communication à
travers trois niveaux hiérarchiques : le niveau technique, le niveau sémantique, et le niveau
d’efficacité. Le niveau technique concerne cette question : comment le système peut-il
transférer les symboles de communication ?

Le niveau sémantique concerne l’interprétation du sens par le receveur comme la


comparaison du sens de l’intention de l’envoyeur.

Le niveau de l’efficacité est relié à : comment le sens transporté par le receveur affecte -t-il le
comportement actuel ?

125
Chapitre 3

Mason adapte les trois niveaux de Shannon & Weaver des problèmes de communication au
contexte du SI. Mason a interprété le niveau de l’efficacité pour inclure l’influence des
utilisateurs et a défini le niveau influence-efficacité en terme d’événements qui peuvent
influencer les utilisateurs.

Les évènements intègrent l’information reçue, l’évaluation de l’information et l’application de


l’information.

L’évaluation et l’application de l’information peuvent en fait changer le comportement de


l’utilisateur.

La qualité du système appartient au niveau technique, la qualité de l’information appartient au


niveau sémantique. L’utilisation du système, la satisfaction de l’utilisateur et l’impact
individuel appartiennent au niveau de l’influence-efficacité.

La hiérarchie des niveaux fournit une base pour la modélisation de la qualité du système et la
qualité de l’information comme des antécédents de l’utilisation du SI, la satisfaction de
l’utilisateur et l’impact individuel.

DeLone & McLean (1992) ont appliqué les arguments de Mason au modèle de l’utilisation et
la satisfaction de l’utilisateur (réponse à l’output de l’utilisation des SI) comme des
antécédents de l’impact individuel (effet de l’information sur le comportement).

L’aspect central du modèle de McLean et DeLone est que l’utilisation du SI est considéré
comme une variable de succès du SI. Par conséquent, elle est intégrée dans leur modèle de
succès. Ils nomment l’utilisation des SI comme la « consommation » des outputs du SI
(1992), et ils la considèrent précurseur de l’impact individuel.

Dans leur modèle, l’utilisation des SI est requis pour la réalisation d’un impact significatif des
bénéfices du système.

DeLone & McLean notent l’importance de spécification des dimensions du succès du SI et


associent les relations soigneusement dans un contexte donné. Dans le modèle de Rai et al.
(2002) la satisfaction de l’utilisateur a un impact sur l’utilisation du SI, en supposant que le
niveau élevé de la satisfaction construit une grande dépendance de l’utilisateur au système.
Mais ils n’ont pas spécifié un lien causal de l’utilisation d’un système à la satisfaction de
l’utilisateur. La mesure de l’utilisation des SI est une variable comportementale. Leur
spécification de la relation entre la satisfaction de l’utilisateur et l’utilisation du SI
(dépendance au système) est uniforme avec le modèle de l’acceptation de la technologie

126
Chapitre 3

(Technology Acceptance Model : TAM), la théorie du comportement planifié (Theory of


Planned Behavior), et le système de la chaîne de valeur proposé par Torkzadeh & Doll (1991),
dans lequel ils suggèrent que les attitudes ont un impact sur le comportement.

Dans le but d’intégrer l’utilité perçue dans le modèle de Delone & McLean, ces auteurs ont
décidé de savoir dans quelle catégorie de leur taxonomie elle pourra se présenter. Quoique
DeLone & McLean n’ont pas intégré l’utilité perçue dans leur taxinomie, ils ont supposé
qu’elle faisait partie de l’impact individuel.

Cette mesure est en parallèle avec “l’évaluation personnelle su SI”, que DeLone & McLean
intègrent sous la catégorie de l’impact individuel.

Les perceptions de l’utilité dérivent des évaluations personnelles du SI. La mesure est ainsi
reliée directement aux divers construits additionnels (exemple : la productivité individuelle
améliorée, la tâche de la performance l’influence ou la puissance individuelle) à l’intérieur de
la catégorie de l’impact individuel qui est reliée aux aspects de la performance du travail.
C’est une composante clé de l’utilité perçue et qui a été conceptualisé par Seddon (1997) ou
Davis (1989).

D’ailleurs, l’utilité perçue est une mesure globale de la perception des utilisateurs, donc elle
ne doit pas être compatible avec les autres caractéristiques des catégories de McLean &
DeLone. Les catégories de la qualité du système et de la qualité de l’information sont reliées
aux qualités spécifiques d’un système ou de l’information générée par un système. Les
catégories de la satisfaction de l’utilisateur et l’utilisation du SI ne sont pas définies en terme
de perception. Cependant, l’utilité peut être perceptive, en partie de l’effet que le SI peut avoir
sur l’organisation et la société. Cette mesure est reliée spécifiquement aux utilisateurs et donc
elle est uniforme avec la catégorie de l’impact individuel, la catégorie de l’impact
organisationnel ou la catégorie de l’impact sociétal.

D’après ce raisonnement, l’utilité perçue est positionnée dans le modèle de DeLone &
McLean comme un impact individuel.

127
Chapitre 3

4.2. Modèle de Seddon (1997)

Conséquences individuelles,
Bénéfices nets de la Organisationnelles et sociale de
future utilisation Utilisation l’utilisation des SI.
des SI

Qualité du Utilité Individus


système perçue

Organisations
Qualité de Satisfaction de
l’information l’utilisateur
Société

Figure 23. La modèle théorique de Seddon (1997)

Rai et al (2002) ont dégagé la différence principale qui existe entre les modèles de Seddon et
DeLone & McLean : celle de la définition et de l’emplacement de l’utilisation des SI.

Seddon suggère que l’utilisation doit précéder les impacts et les bénéfices, mais qu’elle n’a
pas de cause sur eux.

Seddon (1997) considère l’utilisation des SI comme une variable liée au comportement
reflétant l’espérance du bénéfice net à travers l’utilisation d’un SI.

Cette définition alternative de l’utilisation du SI est une conséquence du succès du SI, plutôt
qu’une caractéristique inhérente au succès du SI.

De plus, l’utilisation du SI comme un comportement est séparée du modèle de succès du SI, et


le SI relié au comportement est modelé comme étant causé par le succès du SI.

Cela suppose trois classes de variables inter-reliées.

Les deux premières classes de variables :

- Qualité de l’information et du système ;

128
Chapitre 3

- Les perceptions du bénéfice net de l’utilisation d’un SI.

Elles constituent le modèle de succès de l’utilisation du SI.

La troisième classe de variables se focalise sur l’utilisation des SI comme un comportement et


elle constitue un modèle de comportement partiel de l’utilisation du SI.

Le modèle contient un lien direct dominant de la qualité du système et de l’information vers


l’utilité perçue et la satisfaction de l’utilisateur.

L’utilité perçue a un impact sur la satisfaction de l’utilisateur. Le modèle de succès du SI et le


modèle de comportement partiel de l’utilisation du SI sont liés par un lien allant de la
satisfaction de l’utilisateur vers des bénéfices nets espérés de l’utilisation future du SI, et qui à
son tour, a un impact sur l’utilisation du SI.

Rai et al. tiennent en considération l’impact direct de la satisfaction de l’utilisateur sur


l’utilisation du SI, et ne tiennent pas compte des bénéfices nets espérés de l’utilisation future
du SI.

129
Chapitre 3

Conclusion
Dans le cadre de ce chapitre, nous avons montré l’importance de l’existence humaine dans les
modèles d’évaluation des systèmes d’information. Cette démonstration nous a obligé à nous
orienter vers le domaine de l’Interaction Homme-Machine pour pouvoir expliciter la
perception de l’utilisateur auprès de sa machine ou son logiciel. C’est pourquoi nous avons
consacré la première section à présenter les dimensions théoriques de l’Interaction Homme-
Machine dans le Management des Systèmes d’Information.

L’intérêt des modèles de mesure exposés dans la deuxième section de ce chapitre est la
structuration de la littérature sur l’évaluation des TSI autour des principaux niveaux
d’évaluation : le système, l’individu et l’organisation.

Notre objectif est de présenter les travaux que nous jugeons significatifs pour chacun des trois
niveaux. Ces travaux fournissent les matériaux de base à la caractérisation théorique et
opérationnelle de notre modèle théorique présentée dans le chapitre 4 et 5. Le choix de ces
modèles a conduit à mettre en évidence deux modèles importants dans la littérature des
Systèmes d’Information. Le premier est celui de l’adéquation technologie-tâche de Goodhue
et Thompson (1995). Le second modèle est celui de l’acceptation d’une technologie de Davis
(1989). Ces deux modèles peuvent répondre à la problématique de notre recherche :
Comment les agents intelligents sont-ils intégrés et utilisés dans le cadre du processus de
veille startégique?

Le quatrième chapitre fait l’objet, en premier lieu, d’une présentation du positionnement


épistémologique et méthodologique de cette étude, et en deuxième partie d’un exposé de la
deuxième phase de collecte de données de cette recherche.

Notre modèle sera présenté avec les hypothèses dans la synthèse de la première partie de cette
recherche (section suivante).

130
Synthèse de la Partie 1. Structure globale
du deuxième modèle théorique

L’étude reprend un certain nombre de variables issues de la littérature en systèmes


d’information, qui s’inscrivent dans la problématique de l’évaluation de l’utilisation des
agents intelligents dans le cadre du processus de veille stratégique. Ainsi, nous avons testé
l’influence de l’adéquation technologie/tâche et de l’acceptation de cette technologie sur son
degré d’utilisation.

Pour chercher cet impact, nous proposons maintenant le second modèle théorique, fondé sur
une lecture et une synthèse dense de la littérature sur l’évaluation des systèmes d’information,
dans lequel nous mettons en relation Cinq Variables Latentes du premier ordre :

Variable I. Caractéristiques Tâche/Travail

Variable II. Caractéristiques de la technologie (l’appartenance à un département et les


AI utilisés, Fonctionnalités des AI)

Variable III. Adéquation entre Technologie / Tâche.

Variable IV. Degré d’utilisation de la technologie des Agents Intelligents.

Variable V. L’acceptation des AI (Satisfaction de l’utilisateur, Facilité d’utilisation des


AI, Utilité perçue, Intention d’utilisation des AI dans le processus de prise de décision).

131
Degré d’utilisation des Agents
Intelligents (AI):
Intensité d’utilisation

H2 H4
Q2 Q3

Adéquation Technologie/Tâche
Acceptation des AI :
• Qualité des données H3 • Facilité d’utilisation des AI
• Localisation des données
• Utilité perçue des AI
• Autorisation d’accès
• Degré de satisfaction
• Compatibilité (Conformité)
• Intention de leur utilisation
• Pertinence des systèmes dans le processus de prise
Q2
• Qualité du service des AI. de décision

H1 Q1

Caractéristiques de la
Caractéristiques de la technologie :
tâche :
• Système utilisé
• Aspects • Département
• Interdépendance • Fonctionnalités AI

Figure 24. Proposition du deuxième modèle théorique40

40
La présentation finale de ce modèle théorique est fixée après un suivi d’un processus itératif entre la théorie et
la pratique. Elle est adaptée aux résultats finaux de la modélisation.

132
Nous proposons dans ce modèle cinq variables à expliquer du premier ordre41 :

Variable I. La dimension « Caractéristiques de la tâche » est expliquée par :

a. Aspects routiniers ou non routiniers (complexité de la tâche)

b. Interdépendance entre les tâches (tâches délimitées par le développement versus


tâches transversales)

Variable II. La dimension « Caractéristiques de la technologie » est mesurée par :

a. Système utilisé : Agent Intelligent

b. Appartenance à un département

c. Fonctionnalités des AI : sont les capacités du système à aider l’individu ou le groupe


dans sa tâche (Eireman, Niederman et Adams, 1995) et elles déterminent le type du système
utilisé (Benbasat et Nault, 1990 ; Wierenga et Van Bruggen, 2000)

Variable III. Le construit « Adéquation Technologie / Tâche » qui a pour but


d’évaluer la perception de l’utilisateur vis-à-vis du système utilisé. Cette dimension est définie
par le degré de correspondance entre les besoins fonctionnels relatifs à la tâche et les
fonctionnalités techniques offertes par les TSI. Elle est expliquée par six critères :

a. Qualité des données : mesure la correspondance entre les besoins et les données
disponibles, elle mesure aussi l’exactitude de ces données disponibles, ces données se
trouvent-elles à un niveau de détail approprié pour les tâches de mon groupe ?

b. Localisation des données : mesure la facilité de déterminer la disponibilité et le sens


exact des données (l’existence en temps voulu et sous le format voulu de l’information
recherchée).

c. Autorisation d’accès : mesure l’accessibilité des données (facilité de connexion de


l’utilisateur à l’AI et facilité d’extraction de l’information recherchée).

d. Compatibilité : entre les différentes sources de données.

e. Pertinence du système : c’est le fait de s’assurer que les AI ne posent pas de


problèmes inattendus les rendent plus difficile à utiliser.

41
Le test des hypothèses a été effectué entre les variables du second ordre.

133
f. Relations avec l’équipe SI42 : consistant à mesurer à travers cette sous-dimension
l’intérêt des AI, le temps de réponse envisagé pour répondre à mes requêtes, la validité et la
qualité technique de ces systèmes.

Variable IV. Le construit « Degré d’utilisation des AI » est expliquée par :

a. Intensité : c’est la fréquence d’utilisation, c’est à dire une appréciation subjective de


l’augmentation ou de la diminution du degré d’utilisation. Le degré d’utilisation de
l’utilisateur dans l’intégration du système dépend de la stratégie adoptée par
l’entreprise.

Variable V. Le construit de l’acceptation de la technologie des AI :

En se basant sur le « Modèle d’Acceptation d’une Technologie » de Davis’86, cette


dimension sera expliquée par :

a. Facilité d’utilisation de la technologie des AI (Davis’89) : mesure le degré de croyance


d’un utilisateur quant à l’effort à fournir pour utiliser le système. Pour mesurer la facilité
d’utilisation nous référons à l’instrument de mesure de Davis (1989) composé de six items,
car il est prouvé valide et fiable par Doll et al. (1998).

b. Utilité perçue des AI : Cette grandeur n’est pas directement observable. Cette notion vient
d’origine de l’analyse microéconomique : c’est la mesure de la valeur d’usage d’un
hardware ou d’un software pour un utilisateur. Elle mesure à la fois de l’impact des AI sur
la productivité et l’impact des AI sur la qualité de travail. L’utilité perçue est définie par le
degré d’amélioration des performances attendues de l’utilisation du système (Davis, 1989).

c. Satisfaction de l’utilisateur des AI: C’est le degré de continuité d’utilisation par l’individu
de cette innovation. La satisfaction auprès des services rendus des AI mesure l’étendu du
degré d’utilisation individuelle de cette technologie. C’est une croyance positive de la
perception individuelle qui montre la valeur des AI . (Compeau and Meister, 2002).

Cette variable est considérée comme une dimension de succès des AI. Elle peut influencer
l’intention, mais est également une conséquence de l’utilisation (Delone et McLean, 2003), de
l’utilité et la facilité d’utilisation perçues (Seddon, 1997).

d. Intention d’utilisation des AI dans le processus de prise de décision : Le manager peut


accepter un système, lorsqu’il l’utilise ou a l’intention de l’utiliser dans le processus de

42
Ce facteur mesure la qualité du service offert par les AI. Lors du traitement des données le libellé de ce facteur
a été modifié.

134
prise de décision. L’intention d’un utilisateur à utiliser un système adopté par
l’organisation ainsi que sa satisfaction par cette utilisation dépendent de l’utilité et de la
facilité d’utilisation perçues du système.

Dans le cadre de ce modèle, et des variables sus-indiquées, nous formulons quatre


hypothèses :

Hypothèse 1 (H1), se rapportant aux Variables I, II et III :

L’adéquation Technologie / Tâche dépend à la fois des caractéristiques de la tâche et de la


technologie.

Hypothèse 2 (H2), se rapportant aux Variables III et IV :

L’Adéquation Technologie/Tâche a un impact sur le degré d’utilisation des AI.

Hypothèse 3 (H3), se rapportant aux Variables III et V :

Les variables de l’adéquation Technologie/Tâche ont un impact sur les variables de


l’acceptation de cette technologie.

Hypothèse 4 (H4), se rapportant aux Variables V et IV :

Les variables de l’acceptation de la technologie des AI ont un impact sur le degré d’utilisation
des AI.

Au bout de l’analyse, nous conclurons que les AI sont des outils d’aide à la décision, si et
seulement si nous constatons un impact positif.

Le modèle de Delone et McLean (2003) reprend l’intention d’utiliser le système et


l’utilisation du système mais contrairement au TAM, il mesure l’acceptation du système grâce
à la satisfaction au lieu de l’utilité et la facilité d’utilisation perçues.

Quand au modèle de Seddon (1997), il suggère que l’utilité et la facilité d’utilisation perçues
sont des antécédents de la satisfaction.

En résumé, l’objectif de ce sous-modèle (TAM) est de tester les liens existant entre la
satisfaction, l’utilité et la facilité d’utilisation perçues, ainsi que leur impact sur l’intention
d’utiliser le système et l’intensité d’utilisation.

A travers ces quatre hypothèses nous essayons de répondre aux questions de recherche
posées. Nous présentons dans le tableau suivant l’adéquation entre ces deux éléments :

135
Questions de recherche Hypothèses de recherche Justification

Q1 : Comment peut-on H1 : se propose d’étudier Cette hypothèse permet de justifier


faire le choix entre les l’adéquation technologie- les fonctionnalités de cette
différents AI pour tâche à travers l’étude des technologie et le choix de son
collecter, traiter et caractéristiques de la tâche utilisation. Le contexte d’utilisation
diffuser les et celle de la technologie. des AI est déterminé par
informations ? l’adéquation entre la tâche et la
technologie (nature de la tâche et
caractéristiques de l’individu et de la
technologie).

Q2 : Quelles sont les H2 : stipule que le degré L’intensité d’utilisation des AI


caractéristiques de d’utilisation des AI dépend montre la dépendance perçue
l’utilisation des AI ? de l’adéquation entre la (Sanders, 1984) des utilisateurs par
technologie adoptée et la rapport à cette technologie. Le fait de
tâche effectuée. vérifier l’impact de la dimension de
l’adéquation tâche-technologie sur
cette variable peut déterminer les
caractéristiques de l’utilisation des
AI.

Q2 : Comment sont-ils H3 : se propose de montrer Le fait de démontrer l’impact de


intégrés dans le que l’acceptation des AI par l’adéquation tâche-technologie sur
processus de veille l’utilisateur dépend de l’acceptation de l’utilisation des AI
stratégique ? l’adéquation entre l’AI permet de mettre l’accent sur
utilisé et la tâche accomplie. l’engagement de l’individu dans
l’utilisation de cette technologie pour
répondre à ses besoins liés au
processus informationnel.

Q3 : Quel est l’impact de H4 : postule que le degré L’acceptation de la technologie des


la perception des AI sur d’utilisation des AI dépend AI détermine l’intensité de son
l’intensité d’utilisation ? de l’acceptation de cette utilisation. Cette hypothèse permet
dernière par l’utilisateur. d’évaluer la perception des
utilisateurs envers cette technologie.
Tableau 16. Rapprochement entre les hypothèses et les
questions de recherche.

136
PARTIE 2. Méthodologie de recherche et
mise en application du modèle théorique

Nous consacrons cette deuxième partie de la thèse à l’étude empirique. Dans le quatrième
chapitre, nous présentons une vue d’ensemble de la méthodologie et l’épistémologie de la
recherche en SI. Cette vue a facilité notre positionnement par rapport à notre méthodologie
suivie. Nous présentons aussi l’instrument de mesure de collecte de données.

Dans le cinquième chapitre, une statistique descriptive a été réalisée afin de présenter la
composition de notre échantillon.

Une analyse exploratoire a été faite suite à cette première description de l’échantillon. Cette
analyse est composée d’une Analyse en Composantes Principales, une classification et une
analyse de variance. Chaque méthode est réalisée pour un but bien précis et qui sera explicité
lors du développement de ce chapitre.

Dans le dernier chapitre, nous abordons la phase confirmatoire des résultats. L’objectif de
cette analyse est de tester les hypothèses de notre recherche. Les résultats finaux seront
présentés en détail dans ce chapitre.

137
CHAPITRE 4

Positionnement épistémologique et
méthodologie de la recherche

“Research with the purpose of discovering, classifying, and measuring


natural phenomena and the factors behind such phenomena”

Kerlinger F.N., Foundations of Behavioural Research,


3rd ed. New York: Holt Rinehart and Winston, 1986.

138
Chapitre4

Introduction
Le positionnement épistémologique et la méthodologie suivie se présentent comme les seuls
moyens pour répondre aux objectifs de cette recherche.

Ce chapitre est composé de deux sections. La première a pour objet de faire un rappel des
classifications paradigmatiques et méthodologiques dans le champ des systèmes
d’informations en s’inspirant des travaux de Hirschheim et Chen (2004).

La deuxième section a pour objet de présenter les méthodes de recueil de données sur
lesquelles cette recherche va se fonder.

Section 1 : Architecture de la recherche

1. Positionnement épistémologique

1.1. Classifications paradigmatiques

Landry et Banville (1992) ont classifié les chercheurs en trois groupes :

- Le courant principal des navigateurs qui héritent du positivisme logique ;

- L’unité des partisans qui favorisent le monisme méthodologique ;

- Les chevaliers du changement qui défendent le pluralisme méthodologique.

Cette classification permet de faire la différence entre ceux qui soutiennent un seul paradigme
(le courant principal des navigateurs et l’unité des partisans) et ceux qui défendent le
pluralisme méthodologique (les chevaliers du changement)

Par analogie à la typologie de Burrel et Morgan, le groupement de Landry et Banville a


différencié les fonctionnalistes (le courant principal des navigateurs et l’unité des partisans)
des non-fonctionnalistes (interprétativisme, humanisme radical et structuralisme radical).

Selon Hirshheim et Klein (1992), le néo-humanisme, le structuralisme radical n’ont pas atteint
un stade mature de développement dans la communauté de recherche en SI43.

43
La classification paradigmatique alternative a été trouvée par Chua (1986), dans laquelle trois paradigmes de
base sont mentionnés : positivisme, interprétativisme et la théorie critique (Hirshheim & Klein, 2003). La théorie
critique n’est pas encore établie dans le champ de SI (Orlikowski & Baroudi, 1991)

139
Chapitre4

Orlikowski & Baroudi (1991) et Goles & Hirshheim (2000) indiquent que le positivisme
domine la recherche en SI cependant d’autres paradigmes sont relativement faibles en
nombre. En effet, le seul paradigme réel alternatif et observable est celui de
l’interprétativisme (Walsham, 1995, 1995 ; Nandhakumar et Jones, 1997 ; Trauth et Jessup,
2000)

Les différences majeures entre le positivisme et l’interprétativisme concernant la recherche


sont triples. La première différence est ontologique. Les positivistes pensent que la réalité
existe objectivement et indépendamment des expériences humaines alors que les
interprétativistes accentuent le sens subjectif de la réalité qui est construite et reconstruite à
travers le processus de l’interaction sociale et humaine. (Burrell et Morgan, 1979)

La deuxième différence est épistémologique. Les positivistes s’intéressent aux théories de


tests hypothético-déductive. La connaissance scientifique doit contribuer à la vérification ou
l’infirmation et rechercher des résultats généralisables. Ainsi, la relation causale est toujours
présente et l’accouplement étroit à l’explication, la prévision, et le contrôle est prévu
(Orlikowski et Baroudi, 1991). Au contraire, les interprétativistes assument que la
connaissance scientifique doit être obtenue à travers la compréhension de l’interaction sociale
et humaine par laquelle le sens subjectif de la réalité est construit (Walsham, 1995).

La troisième différence est méthodologique. Les positivistes affirment que pour tester une
théorie hypothético-déductive, la recherche doit prendre une position de valeur-libre et
employer des mesures objectives pour collecter une recherche évidente. La méthode
quantitative comme le questionnaire est un instrument positiviste typique.

De l’autre côté, les interprétativistes argumentent que pour comprendre le sens encastré dans
l’interaction sociale et humaine, les chercheurs ont besoin de s’engager dans le cadre de
l’investigation sociale et apprendre comment l’interaction prend place auprès de la
perspective des participants. Les études de cas, qui engagent les chercheurs dans un cadre
réel social, doivent être plus appropriées pour la génération de connaissance interprétative.
(Orlikowski et Baroudi, 1991).

En résumé, la recherche positiviste est décrite à travers ces trois points :

- La formulation d’hypothèses, modèles ou les relations causales entre les construits ;

- L’utilisation des méthodes quantitatives qui testent des théories ou des hypothèses,
bien que ce ne soit pas toujours nécessaire ;

140
Chapitre4

- Les chercheurs sont objectifs et l’interprétation a une valeur libre.

Un exemple classique cité dans Hirschheim et Klein (1992) est celui de Dickson et al. (1977)
sur la discussion de Minnesota.

Cependant, les études interprétatives peuvent être observées par :

- L’évidence à partir de la perspective non-déterministe (libre volonté),

- L’engagement des chercheurs à examiner un cadre culturel et social spécifique,

- Une analyse basée sur les points de vue des participants (Orlikowski et Baroudi,
1991 ; Walsham, 1995).

Exemples d’études interprétatives qui intègrent ces attributs : Orlikowski (1993) et


Orlikowski & Robey (1991).

1.2. Classifications méthodologiques

Des études différentes ont été appliquées entre les chercheurs pour classifier la méthodologie
de recherche. Nous citons à titre d’exemple l’étude de Cash et Nunamaker (1989 ; 1990 ;
1991) qui comparent les méthodes de recherche qualitative aux méthodes de recherche
expérimentales et de questionnaire. Ils ont découvert qu’il existe 17 % de papiers qui incluent
dans leurs analyses utilisées des méthodes de recherche qualitatives.

Alavi et al. (1989) ont analysé des articles empiriques et non-empiriques. Ils ont trouvé que
les articles empiriques constituent uniquement 46.5% des publications dans une période de
1968 à 1988. De plus, ils ont divisé les études empiriques en 8 catégories : expérimentations
en laboratoires, expérimentation sur le terrain, l’étude du terrain, l’étude de cas, le
questionnaire, les instruments de développement en MSI, les descriptions ex-post et autres.
Ces catégories ont été détaillées dans le troisième chapitre au niveau des stratégies de
recherche inspirées par McGrath (1981).

Orlikowski et Baroudi (1991) ont examiné 155 articles dans quatre journaux majeurs (du nord
américain). Les catégories majeures trouvées dans leurs résultats sont : le questionnaire
(49.1%), expérimentations en laboratoires (27.1%), les études de cas (13.5%), les méthodes
mixtes (3.2%), le développement d’instruments (2.6%), l’analyse de protocole (1.3%), et la
recherche en action (0.6%).

Galliers & Land (1987) et Galliers (1991) ont crée une taxonomie pour les approches de la
recherche en SI en discutant dix modes : le théorème/la démonstration, les expériences de

141
Chapitre4

laboratoire, expérimentation sur le terrain, l’étude de cas, le questionnaire, la prévision et la


recherche sur le futur, la simulation et jeux du hasard / jeux de rôles, le
subjectif/l’argumentatif, le descriptif/l’interprétatif, et la recherche d’action.

L’un des examens le plus récent est fait par Farhoomand et Drury (1999) dans lequel les
études de méthodologie sont classées comme suit : le non-empirique (39%), le questionnaire
(32%), l’étude de cas (17%), expérimentation en laboratoires (10%) et expérimentation sur le
terrain (2%).

A travers ces différentes taxonomies nous notons ces comparaisons : l’empirique versus le
non-empirique (Alavi et al., 1989) et le quantitatif versus le qualitatif (Cash et Nunamaker,
1989). L’examen détaillé de l’architecture de la recherche apparaît ambigu. C’est le cas de
Galliers (1991) qui intègre plus de méthodologies de recherche que les autres (la prévision et
la recherche sur le futur, la simulation et jeux du hasard/jeux de rôles, le théorème/la
démonstration) en négligeant la communauté du SI. En plus, Alavi et al. (1989) fait la
distinction entre l’étude de cas et l’étude du terrain, cette distinction n’est pas bien articulée.
La plupart des études de cas sont conduites sur le terrain ; donc l’essai de séparer l’étude du
terrain de l’étude de cas apparaît non nécessaire.

La classification méthodologique de Hirschheim et Chen (2004) suit principalement celle de


Orlikowski et Baroudi (1991) pour deux raisons :

- La première raison est que Orlikowski et Baroudi (1991) se sont intéressés non
seulement à la méthodologie mais aussi ils ont pris une tendance paradigmatique.
Donc, pour le même objectif, les deux études peuvent fournir une comparaison
meilleure si la même classification est utilisée.

- La deuxième raison est que leur échantillon est collecté entre 1985 et 1991 auprès de
quatre recherches américaines majeures, cependant la recherche de Hirschheim et
Chen est réalisée entre 1991 et 2001 auprès de huit journaux majeurs. Une bonne
réflexion peut être dégagée si la même classification est utilisée, afin de montrer la
progression des champs de recherche.

Cependant, trois catégories de Orlikowski et Baroudi (1991) ont été modifiées par Hirschheim
et Chen (2004) pour ces trois raisons :

- La méthode mixte n’est pas considérée comme une catégorie claire dans leur liste
(Orlikowski et Baroudi, 1991) ; Hirschheim et Chen comparent la méthode mixte
avec les méthodes quantitatives et qualitatives. Les articles qui utilisent plus d’une

142
Chapitre4

architecture de recherche (exemple, expérimentation en laboratoires et l’étude de


cas) sont comptés dans chaque catégorie et seront considérés comme une méthode
mixte.

- L’analyse du protocole et le développement de l’instrument se sont orientés plus


vers les praticiens. C’est pour cela, qu’elles ne font pas partie des centres d’intérêts
de Hirschheim et Chen (2004) et qu’ils placent ces études sous la rubrique « autres ».

- Hirschheim et Chen (2004) distinguent entre « l’architecture de mesures répétées »,


et «inter-sectoriels, séquences multiples ». Cependant l’architecture de mesure
répétée implique des occasions multiples. Son objectif est de comprendre le
changement d’un phénomène dans le temps passé, ce qui rend le croisement de
sections ou les occasions multiples plus dynamiques.

2. Procédure de la recherche

2.1. Représentations paradigmatiques

Goles et Hirshheim (2000) ont indiqué, « Bien que la proportion des articles positivistes /
non-positivistes varie d’une étude à l’autre, l’accord incontestable est que le positivisme
domine la recherche en systèmes d’information » (en anglais : « Although the proportion of
positivist to non-positivist articles varies somewhat from study to study, the indisputable
consensus is that positivism dominates information systems research » (p. 254).

Hirschheim et Klein (1992) expliquent que des exemples de recherches en systèmes


d’information dans le structuralisme radicale et le néo-humanisme (humanisme radicale) sont
rarement trouvés. L’attention est portée dans la recherche en SI, en se référant à Walsham
(1995), à l’approche interprétative.

2.1.1. Positivisme

Les critères de classification des articles positivistes sont les hypothèses citées, les
propositions, la formation d’un modèle, des variables de mesures quantifiables, les inférences
tirées (dessinées) des échantillons aux populations (Orlikowski et Baroudi, 1991), tous ces
critères démontrent la croyance que « les données objectives peuvent être collectées pour
prévoir la relation à travers les facteurs et pour tester les hypothèses ou les théories »
(Walsham, 1995).

143
Chapitre4

2.1.2. Interprétatif

Les critères de sélection des articles interprétatifs sont triplés. Le premier critère, le plus
important est que les articles ne doivent impliquer aucun indicateur positiviste décrit dessus,
que les chercheurs imposent dans les perspectives non-déterministes.

Le deuxième critère est que les perspectives de participants sont prises comme des sources
primaires de compréhension et d’investigation du phénomène. Quant au troisième critère, les
phénomènes sont examinés avec le respect des circonstances contextuelles et culturelles
(Walsham, 1995).

2.2. Représentations méthodologiques

L’analyse de la méthodologie de recherche de Hirschheim et Chen (2004) se focalise sur ces


aires : empirique versus non-empirique ; quantitatif versus qualitatif et l’inter-sectoriel (cross-
sectional) versus longitudinal.

2.2.1. Empirique versus non-empirique

Bien que les études empiriques se basent sur les observations et les données, les études non-
empiriques développent des idées et des concepts (Alavi et al. 1989). Ces deux approches
participent à différentes contributions à la communauté de recherche.

Les études non-empiriques aident à développer des concepts et construire des théories. Les
études empiriques fournissent une évidence concrète pour tester les théories. Comme cette
discipline est devenue plus mature, nous pouvons nous attendre au test d’une théorie pour
surmonter les efforts de construction d’une théorie. Donc, une comparaison entre les études
empiriques et non-empiriques peut servir comme une indication significative au progrès fait
dans ce domaine.

Le critère de classification, utilisé par Hirschheim et Chen (2004), des études empiriques et
non-empiriques est déterminé par les observations ou les données réelles obtenues dans les
articles, qui peuvent être collectées à travers les approches quantitatives, qualitatives ou
mixtes, intégrant les données archivées44.

44
Dans le cas où ces auteurs localisent des articles avec des données et des observations dans la catégorie de
non-empirique. Dans d’autres cas, les articles sont purement descriptifs sans les questions de recherche testées,
les professionnels sont orientés vers le développement des systèmes ou les analyses et la simulation
mathématique.

144
Chapitre4

2.2.2. Quantitatif versus qualitatif

Les méthodes de recherche qualitatives, comme par exemple l’étude de cas, ont attiré une
grande attention (Benbasat et al., 1987 ; Lee, 1989 ; Klein et al., 1991 ; Trauth et O’Conner,
1991 ; Visala, 1991 ; Walsham, 1995 ; Darke et al., 1998 ; Silverman, 1998 ; Klein et Myers,
1999 ; Markus et Lee, 1999), la comparaison entre les méthodes de recherche qualitatives et
quantitatives dans la recherche en SI a été traitée insuffisamment.

Cependant, la première approche utilise typiquement des analyses numériques pour illustrer la
relation des facteurs dans le phénomène étudié, la deuxième approche développe la
description et la compréhension de la situation après les facteurs. Pour faire une comparaison
significative, les deux méthodes peuvent être classées dans les études empiriques.

Comme les études non-empiriques impliquent typiquement la description et l’argumentation


des théories et des cadres théoriques, elles peuvent être classées comme la méthode de
recherche qualitative.

Il est possible que la recherche utilise les deux méthodes qualitatives et quantitatives dans
différents stades de l’étude. Dans certains cas, elles seront classées dans la méthode de
recherche mixte.

2.2.3. Inter-sectoriel versus longitudinal

Comme il est indiqué avant, contrairement à Orlikowski et Baroudi (1991), la classification de


Hirschheim et Chen (2004) fait la distinction entre « l’architecture de mesures répétées » et
« les séquences multiples ». Quatre catégories sont désignées : longitudinal, architecture de
mesure répétée, les occasions multiples et l’inter-sectoriel. Chacune de ces catégories requiert
différents efforts de recherche et de temps d’engagement.

Hirschheim et Chen (2004) définissent le longitudinal comme une recherche qui évolue dans
une période interrompue de temps et focalisé sur des processus. L’inter-sectoriel, est une
recherche qui collecte des données à travers une occasion à une période de temps particulière
(Orlikowski et Baroudi,1991).

Les séquences multiples sont comme l’inter-sectoriel en nature, mais elles impliquent plus
qu’une seule période de collecte de données ou cadres, qui peuvent avoir différentes
expérimentations, traitements ou sujets…

145
Chapitre4

Les architectures de mesures répétées sont celles qui conduisent les études sur des périodes de
temps variées pour examiner comment un phénomène pourra évoluer sur des périodes de
temps variées.

En résumé, la science conventionnelle suggère que les journaux aux Etats Unis sont plus
orientés vers le positivisme et utilisent plus les méthodes quantitatives, cependant les journaux
européens tendent vers la recherche interprétativiste en utilisant les méthodes qualitatives.

Recherche Etude Recherche Etude Etude


positiviste quantitative interprétativiste qualitative mixte
Journaux des 58% 46% 7% 13% 6%
Etats Unis
Journaux 23% 14% 12% 17% 4%
Européens
Tableau 17. Les Journaux aux Etats Unis versus les Journaux Européens : Positivisme
versus Interprétatif. (Hirschheim et Chen, 2004)

D’après ce tableau, nous notons la dominance du positivisme dans la recherche en SI,


cependant l’interprétativisme va progresser dans ce domaine (Monod, 2002).

D’après cette architecture des recherches en MSI, notre positionnement épistémologique se


situe dans une logique positiviste. Cette dernière cherche à construire un modèle théorique
pour tester l’impact de l’utilisation des Agents Intelligents sur l’utilité perçue des utilisateurs
et sur le processus de la prise de décision.

Nous avons retenu une approche de base positiviste (questionnaire structuré comportant des
questions fermées) tout en offrant aux personnes interrogées la possibilité d’exprimer leurs
points de vue dans le cadre des questions ouvertes.

L’architecture de notre recherche est présentée dans le tableau 18 :

Questions de la Question principale :


recherche Etudier l’impact de l’utilisation des AI sur la veille stratégique à
travers l’évaluation de la perception de l’utilisateur vis à vis cette
technologie.
Questions secondaires :
- Comment peut-on faire le choix enre les différents agents
intelligents pour collecter, traiter et diffuser les informations ?
- Quelles sont les caractéristiques de l’utilisation des AI et comment
sont-ils intégrés dans le processus de veille stratégique ?
- Quel est l’impact de la perception des AI sur l’intensité
d’utilisation ?
Choix Deux caractères dominent dans le positivisme d’Auguste Comte :
épistémologiques La science ne s’occupe que des phénomènes et non pas de la « nature

146
Chapitre4

des choses » ;
La science ne connaît que des lois et ignore le « mode de production
des phénomènes », c’est à dire la causalité45.
Positionnement Le positivisme d’Auguste Comte et la vanité des limites stables
positiviste introduites entre les phénomènes et les réalités sous-jacentes
reconstruites déductivement pour les expliquer46.
Choix Deux phases :
méthodologiques une phase d’exploration du terrain basée sur une étude qualitative ;
une phase de collecte de données basée sur une étude quantitative.
Entretiens semi- Explorer le terrain pour chercher une étude de cas. Cet objectif a
structurés échoué.
Enquête quantitative En nous appuyant sur la revue de littérature de MSI, nous avons
construit un questionnaire envoyé à un grand nombre d’entreprises.
L’échantillon est formé par 156 utilisateurs (PDG, DG, analystes,
concepteurs et utilisateurs), sélectionnés dans l’annuaire de pouvoir47
et des annuaires électroniques48…et appartenant à des entreprises
très diversifiées tant par leur secteur d’activité que par leur chiffre
d’affaire.
Tableau 18. L’architecture de cette étude

Notre étude s’est déroulée en deux phases principales qui regroupent la problématique.
Chaque phase contient sa propre technique de recueil de données.

Pendant la première phase :

Des entretiens semi-structurés ont été formulés dans le but de trouver une étude de cas pour
accéder au terrain. Malheureusement, ces entretiens n’ont pas permis d’atteindre l’objectif. La
chronologie des entretiens effectués auprès des responsables de veille et des utilisateurs
d’agents intelligents montre qu’en une année nous n’avons pu interviewer que cinq personnes
et un directeur l’année d’après. Vu cette difficulté de prospection de terrain, nous avons
décidé de construire un questionnaire et de lancer une enquête auprès des utilisateurs de la
technologie agents intelligents.

45
Encyclopédie de la Pléiade, Logique et connaissance scientifique, Volume publié sous la direction de Jean
Piaget, 1967, Editions Gallimard.
46
Idem.
47
Cet annuaire se trouve à la bibliothèque d’étude de l’Université Dauphine. Il présente les principaux dirigeants
des 5000 premières entreprises françaises, réparties en 18 secteurs d’activités. Le choix de nos secteurs dépend
du domaine d’application des agents intelligents.
48
L’adresse du site est : http://www.info-décideurs.com (et autres adresses électroniques consultés)

147
Chapitre4

Pendant la deuxième phase :

Cette phase consiste à développer un instrument de mesure de l’utilité perçue de la


technologie des agents intelligents compte tenu de son adéquation avec la tâche des
utilisateurs et le contexte de son utilisation.

Section 2 : Construction de l’instrument de mesure


L’examen de la perception qu’ont les individus de l’usage qu’ils font des technologies de
l’information a permis de dégager deux conclusions importantes :

- La perception par les individus de leur capacité à utiliser les technologies de


l’information influent sur les bénéfices attendus et sur l’efficacité perçue de leur
usage (Compeau, Higgins et Huff, 1999)

- L’utilisation des technologies de l’information améliore la perception individuelle


de la capacité à les utiliser.

Dans ce cadre, pour tester l’utilité d’un système intelligent, il est intéressant de reproduire la
réalité des comportements des utilisateurs. Pour cela, la recherche a nécessité un cadre
expérimental dans la mesure où le contexte d’utilisation a dû faire l’objet d’un contrôle précis.
De plus, il s’agit de tester les effets d’un système pionnier (système qui crée une nouvelle
technologie de traitement de l’information) sur le processus de la prise décision, notamment
en terme de choix et d’utilisation de cette technologie.

1. Opérationnalisation des variables

Pour tester les hypothèses de la recherche, un questionnaire a été construit et a été administré
par deux spécialistes dans le domaine de la conception des Agents Intelligents. Ce
questionnaire49 est destiné à des Directeurs, Concepteurs et des Utilisateurs Experts/non-
Experts.

Après la collecte des données, une analyse factorielle sera utilisée dans le but de purifier les
items choisis dans le questionnaire.

49
Le questionnaire de notre étude est consulté en ligne sur ce site Web :
http://www.darpmi.net/myrtille/QuestVFH.doc
(Version HTML)

148
Chapitre4

Items
I. Adéquation Technologie-Tâche (Goodhue and Thompson, 1995)
1. Qualité des données
Actualisation des données
Je ne parviens pas obtenir des données qui soient suffisamment actuelles Item 1
pour répondre à mes besoins
Les données sont suffisamment à jour pour répondre à mes besoins. Item 2
Exactitude des données
Les données disponibles dans l’entreprise me permettent en grande partie de Item 3
mener mes tâches
Les agents intelligents que je peux utiliser ne repèrent pas des données qui Item 4
me seraient très utiles dans mon travail
Exactitude du niveau de détail
Notre entreprise stocke des données à un niveau de détail approprié pour les Item 5
tâches de mon groupe.
Les données disponibles dans mon entreprise sont suffisamment détaillées. Item 6
2. Localisation
Disponibilité des données
Il est facile de trouver les données dont l’entreprise dispose sur un sujet Item 7
donné.
Il est aisé de localiser les données dont dispose notre entreprise sur un Item 8
problème particulier, même dans le cas où je n’aie pas utilisé ces données
auparavant.
Sens exact des données
Il est facile de découvrir la définition exacte du champ des données relatives Item 9
à mes tâches.
Dans les rapports ou systèmes que je suis amené à traiter, le sens exact des Item 10
éléments de données est soit évident soit facile à déterminer.
3. Autorisation
Autorisation d’accés
Les données qui me seraient utiles ne sont pas disponibles car je ne dispose Item 11
pas de la bonne autorisation.
L’obtention de l’autorisation d’accès aux données qui seraient utiles à mon Item 12
travail prend du temps et est difficile.
4. Compatibilité
Compatibilité des données acquises
Parfois je trouve que des données normalement équivalentes mais provenant Item 13
de deux sources différentes sont incohérentes.
Parfois il m’est difficile de comparer ou de consolider des données Item 14
provenant de différentes sources car ces données sont définies de manières
différentes.
Lorsqu’il est nécessaire de comparer ou de consolider des données Item 15
provenant de différentes sources, il peut y avoir des incohérences imprévues
ou difficiles à surmonter.
5. Pertinence des systèmes
Dépendance d’accés aux systèmes intelligents

149
Chapitre4

Je suis assuré(e) que les Agents Intelligents sont actualisés et disponibles Item 16
lorsque j’en ai besoin.
Les agents intelligents que j’utilise sont sujets à des problèmes inattendus Item 17
qui les rendent plus difficiles à utiliser pour mon travail.
Les agents intelligents sont sujets à des problèmes et à des arrêts fréquents. Item 18
6. Relation avec l’équipe SI
Intérêt des AI
Les AI traitent les problèmes de gestion de mon groupe de manière sérieuse. Item 19
Les AI ont un réel intérêt pour la résolution de mes problèmes de gestion. Item 20
Flexibilité des AI
Les AI prennent parfois trop de temps pour communiquer avec moi par Item 21
rapport à mes requêtes.
Je sais généralement ce qu’il advient de mes requêtes auprès des AI. Item 22
Lorsque je lance une requête pour un service ou une assistance, Item 23
généralement les AI répondent à mes demandes dans un délai raisonnable.
Conseils des AI
Compte tenu de mon expérience antérieure, j’utiliserais dans le futur les Item 24
conseils d’agents intelligents en cas de besoin.
Je suis satisfait(e) du niveau du conseil technique et de gestion que je reçois Item 25
des AI.
II. Mesures des caractéristiques Tâche/Travail
Aspect non-routinier
Je suis fréquemment amené à traiter des problèmes mal définis. Item 26
Je suis fréquemment amené à traiter des problèmes de gestion non- Item 27
routiniers.
Interdépendence des tâches
Les problèmes de gestion que je traite impliquent en général plus d’une Item 28
fonction de l’organisation.
Les problèmes que je traite impliquent souvent plusieurs services Item 29
fonctionnels.
III. Mesures des caractéristiques de la technologie (Davis, 1989)
Système utilisé
Je sais ce que sont les agents intelligents. Item 30
Facilité d’utilisation des Agents Intelligents (AI)
Je trouve que les AI sont faciles à utiliser. Item 31
Il serait facile pour moi de devenir compétent(e) dans l’utilisation des AI. Item 32
Apprendre à manipuler des AI a été facile pour moi. Item 33
Je trouve qu’il est aisé d’interagir avec les AI. Item 34
Mes interactions avec les AI sont claires et compréhensibles. Item 35
Je trouve qu’il est facile d’interagir avec les AI. Item 36
IV. Utilité perçue des Agents Intelligents (AI) (Davis, 1989)
Degré de satisfaction des AI
L’information fournie par les AI. Item 37
L’interface entre les AI et les utilisateurs. Item 38
Le processus d’utilisation des AI. Item 39
La capacité des AI à être utiles dans le futur. Item 40
Les AI dans leur ensemble. Item 41
Fonctionnalités des AI
Rechercher des informations sur les consommateurs. Item 51

150
Chapitre4

Stocker, traiter et extraire une grande quantité d’informations. Item 52


Gagner du temps pour la prise de décision grâce à leur flexibilité. Item 53
Résoudre les problèmes sémantiques et syntactiques. Item 54
Impact sur la productivité
L’utilisation des AI dans mon travail me permet d’accomplir mes tâches Item 42
plus rapidement.
L’utilisation des AI améliore la performance dans mon travail. Item 43
L’utilisation des AI dans mon travail améliore ma productivité. Item 44
Impact sur la qualité de travail
L’utilisation des AI augmente mon efficacité dans mon travail. Item 45
L’utilisation des AI rend mon travail plus facile. Item 46
Les AI sont utiles dans mon travail. Item 47
V. Intention d’utilisation des AI dans le processus de prise de décision
J’utiliserai des AI pour identifier des problèmes. Item 48
J’utiliserai des AI pour évaluer des solutions. Item 49
J’utiliserai des AI pour sélectionner des solutions. Item 50

M F
Sexe
Age

Quelle langue parlez-vous à votre domicile ?

Oui Non
Avez-vous déjà recherché des informations sur les AI ? Item 63
Combien de fois avez-vous eu recours à la technologie des AI ?
Item 55
Jamais Rarement Parfois Souvent Toujours

Pouvez-vous me citer quelques Agents Intelligents ?


Quel est votre Département / Service d’appartenance ?

- Directeur
Vous êtes : - Concepteur
Précisez s’il vous plaît votre tâche, si vous cochez - Utilisateur
Autre :______________________________________________________
- Autre
____________________________________________________________

VI. Degré d’utilisation des AI

151
Chapitre4

Combien de temps par jour consacrez-vous en moyenne à l’utilisation des Item 57


AI ? (Exprimez-le en total d’heures et/ou de minutes d’utilisation par jour).
Quelle quantité maximale de temps consacrez-vous par jour à l’utilisation Item 58
des AI ? (Exprimez-la en total d’heures et/ou de minutes d’utilisation par
jour).
Quelle quantité minimale de temps consacrez-vous à l’utilisation des AI ? Item 59
(Exprimez-la en total d’heures et/ou de minutes d’utilisation par jour).

2. Déroulement de l’enquête

La préparation du matériel de l’enquête a été l’étape la plus délicate et la plus importante de


cette recherche. Ainsi, une étude quantitative a été mise en place pour répondre à cette
exigence.

Lors du passage à l’étude quantitative, la diffusion du questionnaire vers tout type


d’entreprise nous a permis de découvrir les champs d’application des agents intelligents…

Lors du premier envoi du questionnaire, une lettre de confidentialité a été signée par le Pr.
Kalika et a été envoyée en pièce jointe aux questions (Voir annexe n°1_CH4).

Une lettre a été envoyée comme première page du questionnaire pour définir le sujet de thèse,
ses objectifs et le positionnement du chercheur (Voir annexe n°2_CH4). La lettre
électronique envoyée aux personnes interrogées est présentée dans l’annexe n°3_CH4. Deux
relances ont été effectuées auprès des personnes interrogées sous forme de lettres
électroniques (Voir annexes n°4 et n°5_CH4) au bout de quinze jours du premier envoi. Le
fait de ne pas avoir des réponses incite le chercheur à fouiller de nouvelles adresses
électroniques pour avancer la collecte des données. Une lettre de remerciement a été envoyé à
chaque répondant lors de la réception du questionnaire rempli (Voir annexe n°6_CH4).

Le refus des interrogés à répondre à notre questionnaire a été justifié par certains d’entre eux,
quelques réponses négatives de leur part ont été récapitulées dans l’annexe n°6Bis_CH4.

Nous avons reçu des réponses négatives de la part des entreprises de la télécommunication, le
personnel n’étant pas autorisé à répondre à ce genre d’enquêtes. Ainsi, une réponse négative
de la part d’une entreprise aéronautique, pour des raisons de confidentialité malgré que le
directeur était conscient de la pertinence des informations fournies par le questionnaire.

D’autres réponses positives ont été reçues et présentées dans l’annexe n°6Bis_CH4.

152
Chapitre4

Nous avons cherché les personnes interrogées formant cet échantillon grâce à « l’annuaire du
Pouvoir » 2003, les annuaires électroniques et la visite de deux forums50. Nous avons
rassemblé les adresses des participants dans un carnet d’adresse dans lequel nous avons noté
les coordonnées de la personne contactée pour faciliter leur relance (son téléphone, son
adresse postale et son adresse mail).

Le questionnaire de notre étude a été administré par courrier électronique sur 9 mois (de
Juillet 2004 - Mars 2005). Nous avons contacté 750 entreprises (en moyenne 4 personnes ont
été contactées par entreprise) et nous avons collecté 15651 réponses. Il a été envoyé aux
entreprises appartenant à différents secteurs d’activité (Industrie, automobile, commerce et
distribution, banque et institutions financières, etc.) et aux boites de conseil de services et de
distribution informatique.

50
Ces deux forums sont : EQUIPMAG’04 et la GEIDE (Fin 2004).
51
Le Trente et unième répondant a été éliminé de l’échantillon lors de la classification des utilisateurs des AI.
Lors du traitement statistique l’échantillon est composé de 155 répondants.

153
Chapitre4

Conclusion
Dans ce chapitre nous avons essayé de présenter, en premier lieu, l’architecture de la
recherche en SI dans le but de montrer notre positionnement épistémologique et
méthodologique de cette étude. En deuxième lieu, la collecte de données par le biais de
soumission d’un questionnaire auprès d’utilisateurs d’AI appartenant à différents
départements faisant partie de grandes entreprises.

Le questionnaire est construit dans le but d’opérationnaliser les variables du modèle théorique
et de chercher le domaine d’application de la technologie des agents intelligents, ainsi que le
profil des utilisateurs qui peuvent répondre à cette enquête diffusée.

Les deux prochains chapitres seront consacrés à la présentation de trois analyses de données à
savoir : analyses descriptive, exploratoire et confirmatoire.

154
CHAPITRE 5

Etude des analyses descriptive et


exploratoire

“The right men at the right place”, ……versus


“The right agent (architecture) to do the right thing”,

Müller J. P., In Singh M.P. and Rao A.S., eds., Intelligent Agent V,
Springer-Verlag:Berlin, Germany, 1999, p.211.
Chapitre5

Introduction
La première section de ce chapitre est consacrée à la description des caractéristiques de la
population.

La deuxième section a pour objet d’aborder les modalités de traitement de données utilisées
dans la phase exploratoire.

Section 1 : Analyse descriptive des données


Dans cette section nous présentons les caractéristiques de la population ainsi que la réalisation
de la collecte des données par le biais du courrier électronique.

Nous avons contacté des directeurs de SI, de finance et de marketing, des utilisateurs
(responsables commerciaux, ingénieurs, consultants, électroniciens, informaticiens…), des
concepteurs et autres répondants qui n’ont pas précisé leur fonction. Nous présentons la
répartition de l’échantillon par rapport aux secteurs d’activité et aux fonctions occupées des
participants. Ainsi qu’une répartition donnée en fonction des départements auxquels
appartiennent ces participants.

Secteurs d’activité des entreprises Fréquence Pourcentage


Conseil, Ingénierie et formation 29 18,7
Commerce et distribution 6 3,9
Informatique, Bureautique, Réseaux et Télécoms 49 31,6
Matériel électrique, Electronique 46 29,7
Banques, Sociétés financières 14 9
Industrie, Automobile, CCI 11 7,1
Total 155 100,0
Tableau 19. Répartition des participants par rapport aux secteurs d’activités des
entreprises

Ces personnes opèrent dans des grandes entreprises appartenant à ces secteurs d’activité :

- Le conseil, l’ingénierie et la formation (18,7 %)

- Le commerce et la distribution (3,9 %)

- L’informatique, le bureautique, les réseaux et télécoms (31,6 %)

- Le matériel électrique, l’électronique (29,7 %)

- Les banques et les sociétés financières (9 %)

- Et l’industrie, l’automobile, la CCI (7,1 %).

156
Chapitre5

Les départements représentés sont :

- Systèmes d’Information (9%)

- Marketing et Management (14,8 %)

- Finance et Gestion (8,4 %)

- Informatique (30,3 %)

- Recherche et Développement (36,7 %).

Ces personnes ont précisé leur statut en fonction de l’utilisation de la technologie des AI : les
directeurs (18,7%), les concepteurs (16,8%), les utilisateurs (45,8%) et les analystes (15,5%).

Départements Fréquence Pourcentage


Systèmes d’information 14 9
Marketing et Management 23 14,8
Finance et gestion 13 8,4
Informatique 47 30,32
Recherche et Développement 57 36,77
Non renseigné 1 0,6
Total 155 100,0
Tableau 20. Répartition des participants par rapport au département

Fonction Fréquence Pourcentage


Directeur 29 18,7
Concepteur 26 16,8
Utilisateur 71 45,8
Analyste 24 15,5
Non renseigné 5 3,2
Total 155 100,0
Tableau 21. Répartition des participants par rapport à leur fonction

Enfin, la population de l’échantillon utilisée pour le traitement statistique des données


correspond à la population totale de cette enquête, soit 155 utilisateurs des AI. Elle est de sexe
masculin à 78,1% et féminin à 21,9%. L’âge moyen des participants est de 35 ans, nous
présentons la répartition de ses caractéristiques sous deux tableaux (25 et 26):

Sexe Fréquence Pourcentage


Masculin 121 78,1
Féminin 34 21,9
Total 155 100,0
Tableau 22. Répartition des participants par rapport au sexe

157
Chapitre5

Age Fréquence Pourcentage


19-30 67 43,20
31-40 43 27,70
41-50 31 20,00
51-60 14 9,00
Total 155 100,0
Tableau 23. Répartition des participants par rapport à l’âge

L’outil technologique utilisé dans cette étude est l’agent intelligent. Dans le questionnaire
nous avons laissé le choix au participant de nous préciser l’outil utilisé par lui-même comme
étant un agent intelligent. Nous avons proposé une classification de ces agents selon leurs
fonctions. Les agents intelligents sont :

- Des outils de collecte (méta-moteurs, crawlers, Cybion Eye…) ;

- Des outils de tri et d’aide à l’analyse (technologie d’analyse statistique, analyse


sémantique et/ou syntaxique, analyse pour représentation cartographique,…) ;

- Des outils de diffusion (newsletters maker, portails, logiciels push…).

Les deux tiers de participants ont cité le nom des agents intelligents utilisé dans le processus
de traitement de l’information52.

52
Les AI sont classifiés avec leurs utilisateurs lors de la phase de la classification de l’échantillon.

158
Chapitre5

Section 2 : Analyse Exploratoire des données


Dans cette section nous présentons une méthodologie d’analyse exploratoire en trois phases :
analyse factorielle, classification des utilisateurs des AI et analyse de variance. Cette dernière
méthode a été réalisée afin de montrer le lien entre les variables nominales et les variables
continues du modèle de l’Adéquation Technologie-Tâche (1er modèle) et du modèle de
l’acceptation d’une technologie (2ème modèle).

1. Analyse en composantes principales

Pour tester la validité des construits, nous commençons par une Analyse en Composantes
Principales (ACP) sans rotation afin de :

- Visualiser et analyser les corrélations entre les variables ;

- Eliminer certaines variables redondantes ou non pertinentes ;

- Construire un ensemble de facteurs non corrélés réutilisables par d’autres méthodes


lors de la phase confirmative.

Les résultats de ce traitement sont présentés dans ce qui va suivre.

1.1. ACP avec pour variables actives du premier modèle « Adéquation


technologie-Tâche »

Le tableau 24 présente les résultats du traitement des questions concernant le premier modèle
théorique. Le construit « Adéquation Technologie-Tâche » est multidimensionnel, cette
analyse factorielle a permis de restituer plusieurs facteurs correspondant à diverses facettes du
concept initial.

Cette ACP a amené de révéler que la première partie du questionnaire évaluait les principaux
aspects du construit de « l’Adéquation Technologie-Tâche ». Ainsi, pour ce construit ont été
mis en évidence :

- La qualité et la localisation des données : Item 3 ; Item 5 ; Item 6 ; Item 7 ; Item 8 ;


Item 9 et Item10. (1/3 de la variance totale)

- La qualité du service offert par les AI : Item 20 ; Item 21 ; Item 22 ; Item 23 et Item
25.

159
Chapitre5

Le premier axe, avec 33 % de la variance totale, est fortement lié à toutes les variables qui
mesurent l’adéquation technologie-tâche. Le deuxième axe explique 11 % de la variance
totale, nous avons pris seulement en compte le premier axe. Cela s’explique par les faibles
corrélations entre les items du premier modèle. Nous avons retenu les items dont la
coordonnée en valeur absolue est supérieure à 0,6.

Libellé de la variable Axe 1 Axe 2


ITEM1 -0,20 0,36
ITEM2 0,57 -0,18
ITEM3 0,74 -0,20
ITEM4 -0,19 0,39
ITEM5 0,68 -0,19
ITEM6 0,67 -0,35
ITEM7 0,77 -0,33
ITEM8 0,65 -0,48
ITEM9 0,76 -0,24
ITEM10 0,78 -0,25
ITEM11 0,67 0,45
ITEM12 0,19 0,57
ITEM13 0,37 0,53
ITEM14 0,39 0,38
ITEM15 0,42 0,50
ITEM16 0,65 -0,30
ITEM17 0,55 0,39
ITEM18 0,26 0,41
ITEM19 0,38 0,30
ITEM20 0,65 0,04
ITEM21 0,71 0,43
ITEM22 0,72 0,04
ITEM23 0,74 -0,11
ITEM24 0,48 -0,11
ITEM25 0,67 -0,12
ITEM26 0,30 0,33
ITEM27 0,26 0,22
ITEM28 0,45 0,16
ITEM29 0,74 0,16
Valeur Propre 9,53 3,11
Pourcentage de l’inertie 32,87 10,74
Tableau 24. ACP des variables du premier modèle « Adéquation Technologie-Tâche »53

Les valeurs-tests des modalités illustratives54 sur le premier axe montrent qu’il est caractérisé
par les deux départements « informatiques » et « R&D », par les « utilisateurs » et les

53
Voir les résultats de l’ACP détaillés dans l’annexe n°7. 1. 1.

160
Chapitre5

« analystes » et le secteur « Matériel électrique et électronique » (Valeurs-tests positives). Ces


caractéristiques s’opposent aux participants faisant partie de la fonction « direction » et des
secteurs de « conseil », de « banques » et d’« industries » (valeurs-tests négatives).

1.2. ACP avec pour variables actives du deuxième modèle de


l’« Acceptation de la technologie des AI »

Une ACP a été réalisée avec pour variables actives du deuxième modèle. La structure
factorielle révèle l’ensemble des facteurs qui sous-tendent un construit avec des items
associés. Le tableau 25 montre les indicateurs de mesure dégagés suite au traitement :

- La facilité d’utilisation des AI : Item 31 ; Item 32 ; Item 35 et Item 36.

- La satisfaction des utilisateurs des AI : Item 38 ; Item 39 ; Item 40 et Item 41.

- L’utilité perçue des AI sur la productivité et la qualité du travail : Item 42 ; Item 43 ;


Item 45 ; Item 46 et Item 47.

- L’intention d’utiliser les AI dans le processus de prise de décision : Item 48 et Item


49.

- Les fonctionnalités des AI : Item 51 ; Item 52 et Item 54.

- L’intensité d’utilisation des AI : Item 57 et Item 58.

Le premier axe explique plus de 40 % de la variance totale, et le deuxième axe explique plus
de 10 %. Ce deuxième axe représente deux indicateurs de mesure (Item 33, Item34) relatifs à
la facilité d’utilisation des AI et fortement corrélés négativement au deuxième axe.

Libellé de la variable Axe 1 Axe 2


ITEM30 0,73 0,16
ITEM31 0,74 -0,40
ITEM32 0,77 -0,13
ITEM33 0,13 -0,76
ITEM34 0,39 -0,78
ITEM35 0,70 -0,44
ITEM36 0,72 -0,51
ITEM37 0,62 -0,12
ITEM38 0,72 -0,21
ITEM39 0,74 -0,19
ITEM40 0,69 0,14
ITEM41 0,80 0,20

54
Les valeurs-tests des modalités illustratives, relatives au premier modèle, sont présentées dans l’annexe 7.1.2.

161
Chapitre5

ITEM42 0,83 0,09


ITEM43 0,86 0,08
ITEM44 0,55 -0,01
ITEM45 0,79 0,04
ITEM46 0,61 -0,11
ITEM47 0,75 0,02
ITEM48 0,58 0,10
ITEM49 0,60 -0,01
ITEM50 0,35 -0,19
ITEM51 0,63 0,37
ITEM52 0,57 0,29
ITEM53 0,36 0,15
ITEM54 0,62 0,31
ITEM55 -0,04 -0,30
ITEM57 0,58 0,45
ITEM58 0,61 0,43
ITEM59 0,41 0,42
Valeur Propre 11,63 3,05
Pourcentage de l’Inertie 40,12 10,55
Tableau 25. ACP des variables du deuxième modèle « Acceptation d’une Technologie»
55

Les valeurs-tests des modalités illustratives56 du deuxième modèle opposent sur le premier axe
le département « R&D », les « analystes » et le secteur « Matériel électrique et électronique »
(Valeurs-tests positives) aux départements « Système d’information », « Marketing »,
« Finance », la fonction de « direction », les secteurs de « conseil », de « commerce », de
« banque » et d’« industrie » (Valeurs-tests négatives).

Par ailleurs, notons que les limites de l’ACP viennent du fait que c’est une méthode de
projection, qui entraîne une perte d’information. Pour compléter l’étude de la validité et la
fiabilité des items, nous avons fait appel au logiciel « PLS57-Graph » qui sera utilisé et
présenté dans le chapitre 6.

Concernant les logiciels maîtrisés, j’ai fait des formations durant des séminaires organisés au
sein de notre centre de recherche CREPA avec Messieurs A. Schwarz et E. Compoy. J’ai
suivi une autre formation à Toulouse organisée par M. P. Russel. Ces formations m’ont
permis d’utiliser ces logiciels (SPSS, PLS, AMOS) dans mon travail de thèse lors du

55
Voir les résultats de l’ACP détaillés dans l’annexe n°7. 2. 1.
56
Les valeurs-tests des modalités illustratives, liées au premier modèle, sont présentées dans l’annexe 7.2.2.
57
Partial Least Squares.

162
Chapitre5

traitement statistique de mes données. La validation des résultats finaux de cette recherche est
réalisée en collaboration avec M. B. Goldfarb.

2. Classification

Devant l’absence de théorie il est difficile de déterminer la fréquence d’utilisation de l’agent


en fonction de sa classe dans l’application, la méthode de classification a été réalisée à la suite
des deux ACP : avec les variables du premier modèle de « l’Adéquation Technologie-Tâche »
et avec les variables du deuxième modèle de « l’Acceptation d’une technologie ».

2.1. Groupe de variables actives se référant au modèle théorique de


l’Adéquation Technologie-Tâche

2.1.1. Répartition des utilisateurs dans chaque classe

La classification58 nous a amené à retenir cinq classes d’utilisateurs de la technologie des AI


au sein de notre échantillon concerné.

Classes Nombre d’utilisateurs Variables nominales représentatives à chaque classe59


1 26 Département : Marketing & Management
Secteur : Banques, Sociétés financières
2 36 Département : Systèmes d’Information
Secteur : Conseil, Ingénierie, Formation..
3 15 Département : Informatique
4 34 Département : Informatique
Secteur : Informatique, Bureautique, Réseaux et Télécoms
5 44 Département : R&D
Secteur : Matériel électrique, Electronique
Langue : Français
Tableau 26.Classification des utilisateurs des AI

Pour caractériser une classe par les variables nominales, nous observons les variables qui ont
une valeur test supérieure à 2 en valeur absolue. Le tableau 26 présente les variables qui
caractérisent ces cinq classes retenues.

58
Pour réaliser la classification nous avons utilisé SPAD. Nous remercions Madame Pardoux pour son aide
précieuse et son suivi continu durant cette phase exploratoire.
59
Voir l’annexe 8. 1. 1. : Caractérisation par les modalités des classes de la partition.

163
Chapitre5

2.1.2. Interprétation des classes

1ère Classe :
ITEM19
ITEM12

ITEM41
ITEM34
ITEM39
ITEM25
ITEM38
ITEM58
ITEM51
ITEM54
ITEM31
ITEM47
ITEM45
ITEM57
ITEM40
ITEM22
ITEM43
ITEM23
ITEM52

ITEM36

ITEM42
ITEM30
ITEM35
ITEM32

ITEM10
ITEM16
ITEM1
ITEM4

ITEM2

ITEM5

ITEM6
ITEM9
ITEM3
ITEM7
ITEM8
4,00

2,00

0,00
Valeur-Test

-2,00

-4,00

-6,00

-8,00
Items Valeur-Test

Figure 25.Valeurs-Tests de la Classe 1/ 5 60

La figure 25 présente les valeurs-tests des items pour la première classe. Dans cette classe, les
répondants sont à majorité rattachés au département du Marketing et Management. Quatre
répondants sur 26 n’ont pas donné d’exemples d’agents intelligents. C’est une population qui
n’est pas trop réticente à nous donner des précisions sur les agents utilisés.

La valeur-test évalue la distance entre la moyenne dans la classe et la moyenne générale en


nombre d’écart-type. Cette valeur dépasse la valeur 2 pour les items 19, 12, 1, 4. Le premier
item mesure la qualité du service offert par les AI. Le deuxième item mesure l’autorisation
d’accès aux données. Le troisième item mesure la qualité des données en terme
d’actualisation et le quatrième item mesure la qualité des données en terme d’exactitude.

C’est une population qui ne parvient pas à obtenir des données actualisées, et les agents
intelligents utilisés ne repèrent pas des données utiles dans leur travail. Elle pense que ces
agents traitent les problèmes de gestion de leur groupe d’une manière sérieuse. Les agents
cités dans cette classe sont : les moteurs de recherche, Internet, Copernic, Business Objects.

60
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 1/ 5.

164
Chapitre5

C’est un cocktail d’agents de recherche, de traitement, de diffusion d’information et d’aide à


la décision.

Ce groupement d’agents est utilisé par les personnes qui ne parviennent pas à obtenir des
données suffisamment actuelles pour répondre à leurs besoins. Donc c’est le type d’agents
qui ne permet pas d’actualiser les données de l’entreprise, en plus il n’arrive pas à repérer des
données utiles dans leur travail (c’est le cas des moteurs de recherche cités ci-dessus dont le
rôle se limite à la recherche des informations externes). Les utilisateurs de cette classe ont des
difficultés quant à l’autorisation d’accès aux données. En revanche, ils considèrent que cette
technologie est capable de traiter les problèmes de gestion du groupe de manière sérieuse. Le
rôle de ces agents consiste à traiter les informations internes au sein d’un groupe.

L’agent d’alerte, cité dans la batterie d’agents (nommé crawler d’alerte), est un outil très
important pour la veille, son rôle est d’effectuer de la surveillance sur certains sites et détecter
les éventuels changements.

C’est une classe qui n’est pas satisfaite ni des AI dans leur ensemble ni de leur processus
d’utilisation. Elle trouve qu’il n’est pas aisé d’interagir avec les AI. Elle n’est pas satisfaite de
l’interface avec les AI. Cela est expliqué par le fait que ces utilisateurs appartiennent à des
entreprises dont les données disponibles ne sont pas suffisamment détaillées, autrement dit,
elles ne leur permettent pas de mener convenablement leur tâche.

Les utilisateurs de cette classe sont peu adhérents aux fonctionnalités de cette technologie par
rapport à la première et la quatrième fonctionnalité proposées dans le questionnaire. Cette
population n’est pas d’accord sur le fait que les agents cités font de la recherche sur les
consommateurs ou peuvent résoudre les problèmes sémantiques et syntaxiques. Elle ne
trouve pas que les AI sont faciles à utiliser. Pour elle, l’utilisation des AI n’augmente pas
l’efficacité dans le travail et ne sont pas utiles. Elle ne permet pas d’accomplir les tâches plus
rapidement et n’améliore pas la performance dans le travail. La mauvaise perception de cette
technologie peut être due à son utilisation faible et à la qualité des données disponibles. Une
donnée doit être bien détaillée pour pouvoir la consolider sur tout axe là où veut l’utiliser.

Ainsi, c’est une catégorie d’utilisateurs trouvant des difficultés pour découvrir la définition
exacte du champ des données relatives à leurs tâches. Dans ces entreprises, le recours à cette
technologie n’est pas adéquat aux besoins de l’utilisateur, c’est à dire l’utilisateur n’est pas
assuré de l’actualisation et de la disponibilité des AI lorsqu’il en a besoin. Ces utilisateurs
achètent des prestations auprès des sociétés spécialisées, pour faire des recherches ciblées sur

165
Chapitre5

leur clientèle ou ils peuvent faire recours aux organisations des forums. Le tableau suivant
montre que le secteur d’activité des entreprises interrogées représente un milieu très
concurrentiel ce qui exige des informations mises à jour et d’actualité.

Nous présentons dans le tableau 2761 les agents intelligents les plus cités par les répondants.
Ce tableau exprime le nom des AI, le nombre d’utilisateurs, le secteur d’activité de
l’entreprise, la fonction de l’utilisateur et son département :

Noms des agents Nombre Secteur Fonction de Son


d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Google 5 Industrie, Auto, CCI Directeur Marketing et
Management
Industrie, Auto, CCI Analyste Marketing et
Management
Banques, Sociétés Utilisateur Marketing et
financières Management
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Commerce et Directeur Marketing et
distribution Management
SAP 4 Banques, Sociétés Analyste Finance et Gestion
financières
Banques, Sociétés Analyste Finance et Gestion
financières
Banques, Sociétés Analyste Finance et Gestion
financières
Banques, Sociétés Analyste Finance et Gestion
financières
Moteurs de 3 Informatique, Utilisateur Informatique
recherche Bureautique,
Réseaux et Télécoms
Conseil, Ingénierie, Non indiquée Système
Formation d’Information
Informatique, Directeur Marketing et
Bureautique, Management
Réseaux et Télécoms
Hyperion 3 Industrie, Auto, CCI Analyste Marketing et
Management
Commerce et Directeur Marketing et
distribution Management
Banques, Sociétés Analyste Finance et Gestion
financières
Copernic 2 Informatique, Directeur Informatique
Bureautique,
Réseaux et Télécoms
Industrie, Auto, CCI Directeur Marketing et
Management
Business Objects 2 Industrie, Auto, CCI Analyste Marketing et
Management
Commerce et Non indiquée Marketing et
distribution Management

61
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 1/5.

166
Chapitre5

Impromptu 2 Banques, Sociétés Analyste Finance et Gestion


financières
Banques, Sociétés Analyste Finance et Gestion
financières
Autres62 14 Voir l’annexe 8.1.2 Voir l’annexe 8.1.2 Voir l’annexe 8.1.2
(b) Classe 1/5 (b) Classe 1/5 (b) Classe 1/5
Pas de réponses 4 Conseil, Ingénierie, Utilisateur Système
Formation d’Information
Banques, Sociétés Directeur Finance et Gestion
financières
Industrie, Auto, CCI Concepteur R&D
Conseil, Ingénierie, Concepteur R&D
Formation
Tableau 27. Les AI utilisés par les répondants de la classe 1/5 et leurs domaines
d’application

2ème Classe :
ITEM18
ITEM12
ITEM15
ITEM13
ITEM14

ITEM59
ITEM26
ITEM35
ITEM16
ITEM52
ITEM36
ITEM27

ITEM53
ITEM17
ITEM49
ITEM32
ITEM57
ITEM51
ITEM44
ITEM30
ITEM54
ITEM58
ITEM38
ITEM39
ITEM10
ITEM46
ITEM31
ITEM37
ITEM47
ITEM45
ITEM40
ITEM42
ITEM21
ITEM11
ITEM22
ITEM19
ITEM43
ITEM48
ITEM28
ITEM23
ITEM41
ITEM25
ITEM24
ITEM20
ITEM29
ITEM6
ITEM8
ITEM2

ITEM5
ITEM7

ITEM3

ITEM9

0,00
-1,00
-2,00
-3,00
Valeur-Test

-4,00
-5,00
-6,00
-7,00
-8,00
-9,00
Items Valeur-Test

Figure 26.Valeurs-Tests de la Classe 2/ 5 63

La figure 26 présente les valeurs-tests des items pour la deuxième classe. La deuxième classe
est caractérisée par les utilisateurs des AI appartenant au département des systèmes
d’information. Dix répondants sur 36 n’ont pas cité d’exemple d’agents intelligents.

C’est une population qui n’adhère pas au questionnaire. Nous pouvons considérer les
utilisateurs comme « atypiques », c’est à dire, ils ont des petits groupes à gérer donc ils n’ont

62
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b)
Classe 1/5)
63
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 2/ 5.

167
Chapitre5

pas besoin d’échanger beaucoup d’informations. Se sont des utilisateurs qui font la recherche
sur le web. Cette recherche leur permet d’avoir des informations tardives. Donc ils ne sont pas
satisfaits de ces outils qui se limitent à la recherche d’informations. Ils vont faire appel aux
cabinets de conseils qui leur donnent des informations actualisées. Ces derniers peuvent
fournir l’information traitée à temps et qui a son tour sera utilisée dans le processus de prise
de décision.

Les utilisateurs de cette deuxième classe diffèrent des premiers par le fait qu’ils ne sont pas
d’accord que les AI soient sujets à des problèmes et à des arrêts fréquents. Ils appartiennent à
des entreprises qui disposent de données équivalentes et cohérentes même si elles proviennent
de deux sources différentes. En revanche, ces entreprises ne disposent pas de données
suffisamment détaillées, et ce n’est pas aisé pour elles de les localiser sur un problème
particulier. La mise à jour des données est indispensable pour répondre aux besoins des
utilisateurs.

En ce qui concerne l’aspect de la tâche, ces utilisateurs sont fréquemment amenés à traiter des
problèmes de gestion bien définis et routiniers. Ainsi, les problèmes traités n’impliquent pas
plusieurs services fonctionnels de l’organisation.

La présence de l’item 30 dont la valeur test est négative montre que les utilisateurs de cette
classe ne maîtrisent pas cette technologie. Ce qui explique qu’ils ne sont ni satisfaits des AI,
ni conscients des fonctionnalités de cette technologie. Ils ont la même perception que les
utilisateurs de la première classe. En effet, ils considèrent que l’utilisation des AI n’augmente
pas l’efficacité dans le travail et qu’elle n’est pas d’une grande utilité. Ils partagent aussi
l’avis des premiers utilisateurs sur le fait que c’est une technologie qui n’a pas d’impact
positif sur la productivité. (Présence des items 44, 42, 43)

C’est une population qui n’envisage pas d’utiliser cette technologie dans le processus de prise
de décision (Items 48 et 49), ni dans la phase de l’identification des problèmes, ni dans la
phase d’évaluation des solutions.

Par rapport à la qualité de service rendu par les AI, les utilisateurs de cette classe pensent que
le temps de communication (de saisie des critères de recherche) avec les AI est court. Ils ne
savent pas ce qu’il advient de leur requêtes auprès des AI. Pour eux, ces AI n’ont pas un
intérêt réel pour la résolution des problèmes de gestion et ne répondent pas à leurs demandes
dans un délai raisonnable (temps de traitement de la demande).

168
Chapitre5

Ces utilisateurs risquent de ne pas faire recours à cette technologie dans le futur compte tenu
de leur expérience antérieure.

C’est une population qui utilise quasiment les mêmes outils technologiques que la première
mais qui ne voit aucun intérêt de cette technologie.

Noms des agents Nombre Secteur Fonction de Son


d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Google 7 Matériel électrique, Directeur R&D
Electronique
Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Informatique, Concepteur Informatique
Bureautique,
Réseaux et Télécoms
Banques, Sociétés Utilisateur Informatique
financières
Banques, Sociétés Directeur Informatique
financières
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Informatique, Concepteur Systèmes
Bureautique, d’Information
Réseaux et Télécoms
Copernic 5 Conseil, Ingénierie Directeur Non indiqué
et Formation
Commerce et Directeur Finance & Gestion
Distribution
Conseil, Ingénierie Utilisateur Systèmes
et Formation d’Information
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Banques, Sociétés Directeur Informatique
financières
Intranet 5 Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Informatique, Utilisateur Finance & Gestion
Bureautique,
Réseaux et Télécoms
Banques, Sociétés Utilisateur Informatique
financières
Banques, Sociétés Directeur Finance & Gestion
financières
Informatique, Concepteur Systèmes
Bureautique, d’Information
Réseaux et Télécoms
Internet 3 Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms

169
Chapitre5

Lotus Notes 2 Conseil, Ingénierie Utilisateur Finance & Gestion


et Formation
Industrie, Auto, CCI Directeur Marketing &
Management
Base de 2 Conseil, Ingénierie Utilisateur Finance & Gestion
Connaissances et Formation
GEIDE Conseil, Ingénierie Concepteur Informatique
et Formation
Cognos 2 Industrie, Auto, CCI Directeur Marketing &
Management
Banques, Sociétés Directeur Informatique
financières
Yahoo 2 Banques, Sociétés Utilisateur Informatique
financières
Informatique, Concepteur Systèmes
Bureautique, d’Information
Réseaux et Télécoms
Website Watcher 2 Matériel électrique, Non indiquée R&D
Electronique
Conseil, Ingénierie Directeur R&D
et Formation
Autres64 22 Voir l’annexe n° 8.1. Voir l’annexe n° Voir l’annexe n° 8.1.
2. (b) Classe 2/ 5 8.1. 2. (b) Classe 2. (b) Classe 2/ 5
2/ 5
Pas de réponses 10 Voir l’annexe n° 8.1. Voir l’annexe n° 8.1. Voir l’annexe n° 8.1.
2. (b) Classe 2/ 5 2. (b) Classe 2/ 5 2. (b) Classe 2/ 5
Tableau 28. Les AI utilisés par les répondants de la classe 2/5 et leurs domaines
d’application65

Dans ce groupe notons la présence des agents pour la recherche d’informations (Copernic,
Digout 4U, Exalead, Google,…) et des agents pour la veille (Website Watcher, Webspecter,
Memoweb…). Ces noms de logiciels introduisent la métaphore humaine : les caractéristiques
de l’homme sont présentes dans sa mémoire (Memo Web, Digimind), dans ses actions
(Google : aller chercher ; Webseeker : chercher ; Webspectator : regarder ; Website Watcher :
surveiller ; Digout 4U/ for you : creuser) et dans sa prédiction (Yahoo/oracle).

Ainsi, ces agents introduisent le monde animal dans le nom de l’agent KB Crawl. Ce dernier
terme exprime l’activité des agents des moteurs de recherche qui consiste à visiter des sites
web et envoyer des contenus de pages au moteur d’indexation. (Wisdom, 200566)

Les noms des AI, choisis par les fournisseurs de ces logiciels dédiés à la veille, montrent bien
leur objectif purement marketing pour attirer les utilisateurs sur leurs produits.

64
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b)
Classe 2/5)
65
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 2/5.
66
J. R. Wisdom, Les agents intelligents sur Internet : enjeux économiques et sociétaux, Thèse à l’ENST Paris,
2005.

170
Chapitre5

3ème Classe :

ITEM24

ITEM25

ITEM33

ITEM57

ITEM58

ITEM14

ITEM21

ITEM18

ITEM12

ITEM15

ITEM11

ITEM17

ITEM13
ITEM4
4,00

2,00

0,00
Valeur-Test

-2,00

-4,00

-6,00

-8,00
Items Valeur-Test

Figure 27.Valeurs-Tests de la Classe 3/ 5 67

La figure 27 présente les valeurs-tests des items pour la troisième classe. L’effectif de cette
classe est le plus faible (15). Quatre répondants sur 15 n’ont pas donné d’exemples d’agents.

C’est une population qui est consciente de la qualité du service des AI et de la facilité de son
utilisation. Elle envisage d’utiliser cette technologie dans le futur vu qu’elle est satisfaite du
niveau de conseil technique et de gestion qu’elle reçoit des AI. Les utilisateurs de cette classe
sont à majorité des informaticiens, ils ont l’habitude de s’adresser au web plus que les autres.
Ils sont familiers à la technologie.

Cette population partage le même avis que la deuxième classe en ce qui concerne la
compatibilité des données acquises provenant de sources différentes.

Elle a par contre la facilité d’accès aux données (Items 11 et 12). Pour eux, les AI utilisés ne
sont pas sujets à des problèmes inattendus qui les rendent plus difficiles à utiliser. Autrement
dit, ils ne sont pas sujets à des problèmes et à des arrêts fréquents.

67
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 3/ 5.

171
Chapitre5

Noms des agents Nombre Secteur Fonction de Son


d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Méta-Moteurs 2 Conseil, Ingénierie, Directeur Systèmes
Formation d’Information
Matériel électrique, Utilisateur R&D
Electronique
Copernic 2 Industrie, Auto, CCI Concepteur Systèmes
d’Information
Industrie, Auto, CCI Directeur R&D
Data Mining 1 Conseil, Ingénierie, Directeur Systèmes
Formation d’Information
Text Mining 1 Conseil, Ingénierie, Directeur R&D
Formation
ERP 1 Industrie, Auto, CCI Directeur Finance & Gestion
Autres 68 9 Voir l’annexe n° 8.1. Voir l’annexe n° Voir l’annexe n° 8.1.
2. (b) Classe 3/ 5 8.1. 2. (b) Classe 2. (b) Classe 3/ 5
3/ 5
Pas de réponses 3 Conseil, Ingénierie, Utilisateur R&D
Formation
Informatique, Concepteur R&D
Bureautique,
Réseaux et Télécoms
Conseil, Ingénierie, Directeur Systèmes
Formation d’Information
Tableau 29. Les AI utilisés par les répondants de la classe 3/5 et leurs domaines
d’application69

Les agents intelligents cités par cette population sont rarement cités : Data Mining, Text
Mining, ERP…C’est une population qui tentera dans le futur d’utiliser les conseils d’agents
intelligents en cas de besoin. Elle perçoit la facilité d’utilisation de cette technologie.

Elle contredit le fait que les AI prennent trop de temps pour communiquer avec l’utilisateur et
le fait qu’ils ne repèrent pas des données utiles aux besoins.

68
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.1.2 (b)
Classe 3/5)
69
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 3/5.

172
Chapitre5

4ème Classe :

ITEM18
ITEM11

ITEM19
ITEM27

ITEM42
ITEM43
ITEM48
ITEM21

ITEM38
ITEM23

ITEM58
ITEM47
ITEM22
ITEM29
ITEM26
ITEM40
ITEM30
ITEM49
ITEM45
ITEM36
ITEM41
ITEM16
ITEM31
ITEM25

ITEM51
ITEM35
ITEM50
ITEM46
ITEM44
ITEM15

ITEM28
ITEM37
ITEM52

ITEM57
ITEM10

ITEM14
ITEM59
ITEM5

ITEM4

ITEM9

ITEM6

ITEM3

ITEM7

ITEM2
8,00

6,00

4,00
Valeur-Test

2,00

0,00

-2,00

-4,00
Items Valeur-Test

Figure 28. Valeurs-Tests de la Classe 4/ 5 70

La figure 28 présente les valeurs-tests des items pour la quatrième classe. Cette dernière est
sur-représentée par les répondants qui appartiennent au département informatique. L’AI pour
cette population est l’ordinateur (La valeur test de l’item 58 qui mesure l’intensité maximale
d’utilisation est égale à 4,42). Cette classe est utile pour l’étude de l’interaction homme-
machine. Cet outil est utilisé par des personnes qui sont fréquemment amenées à traiter des
problèmes de gestion non-routiniers et mal définis (Items 27, 26). Ils traitent des problèmes
impliquant plusieurs services fonctionnels (Items 29, 28).

Ces utilisateurs perçoivent l’ordinateur comme un outil d’aide à la décision (Items 48, 49 et
50).

Ils accordent attention aux variables telles que la qualité des données (Items 5, 4, 6, 3, 2), la
localisation des données (Items 9, 7 et 10) et la qualité du service offert par les ordinateurs
(Items 19, 21, 23, 22 et 25). Pour eux l’ordinateur est sujet à des problèmes et à des arrêts
fréquents, mais il est actualisé et disponible en cas de besoin.

Ces utilisateurs sont d’accord sur le fait qu’il est nécessaire de comparer ou de consolider des
données provenant de différentes sources (item 15), mais ils ne trouvent pas de difficultés
pour comparer ces données (item14).

70
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 4/ 5.

173
Chapitre5

Dans cette classe l’ordinateur est considéré comme un agent intelligent. D’autres agents
sont présentés dans le tableau 30 :

Noms des agents Nombre Secteur Fonction de Son


d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Moteurs de 1 Conseil, Ingénierie, Directeur Marketing &
recherche ; Tableaux Formation Management
de bord
multidimensionnels ;
e-learning ;
composants logiciels
spécialisés
Internet 1 Conseil, Ingénierie, Directeur Marketing &
Formation Management
Ordinateur 32 Informatique, Analyste Informatique
Bureautique,
Réseaux et Télécoms
Tableau 30. Les AI utilisés par les répondants de la classe 4/5 et leurs domaines
d’application71

Ces agents de recherche semblent être des agents importants pour les veilleurs. Ils
automatisent la recherche des informations sur les consommateurs (présence de l’item 51).
C’est le cas des tableaux de bord multidimensionnels qui constituent un outil de « reporting ».
Autrement dit, c’est un « rétroviseur » qui permet de visualiser l’historique.

L’ordinateur est un agent d’interface qui permet de se connecter au web. Il contient des outils
autonomes et indépendants. Notons que ces utilisateurs n’ont pas précisé les logiciels utilisés
pour rechercher et traiter l’information.

71
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 4/5.

174
Chapitre5

5ème Classe :

ITEM32
ITEM10
ITEM14
ITEM59
ITEM17
ITEM20

ITEM41
ITEM54
ITEM57

ITEM43
ITEM21
ITEM42
ITEM23
ITEM13
ITEM22
ITEM39
ITEM51
ITEM52
ITEM29
ITEM47
ITEM30
ITEM45
ITEM58
ITEM53

ITEM40
ITEM35

ITEM11
ITEM25
ITEM16
ITEM31
ITEM12
ITEM15
ITEM37
ITEM36
ITEM49

ITEM38

ITEM27
ITEM7

ITEM3
ITEM8

ITEM9

ITEM2

ITEM6

ITEM5

ITEM4
10,00
8,00
6,00
Valeur-Test

4,00
2,00
0,00
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test

Figure 29. Valeurs-Tests de la Classe 5/ 5 72

La figure 29 présente les valeurs-tests des items pour la cinquième classe. Cette dernière est
une population formée par des électroniciens. Ces derniers sont liés au domaine de la
recherche. Ils sont familiers à cette technologie dans des fins de recherche et de traitement
informatique.

La valeur test est positive pour les variables liées à : la qualité des données (Items 3, 2, 6, 5) ;
la localisation des données (Items 10, 7, 8 et 9), l’autorisation d’accès aux données (Items 11
et 12), la compatibilité des données (Items 14, 13 et 15), la pertinence des systèmes (17 et 16);
la qualité du service des AI (Items 20, 21, 23, 22 et 25) et les caractéristiques de la tâche (Item
29). Nous sommes confrontés des utilisateurs qui ne traitent pas des problèmes non-routiniers
(Item 27)

Les utilisateurs de cet outil s’accordent sur le fait que l’ordinateur de montage puce repère des
données qui seraient utiles dans le travail (la valeur test de l’item 4 est négatif).

Dans cette classe, l’ordinateur de montage puce est considéré comme un agent intelligent.
D’autres agents sont présentés dans le tableau 31:

72
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 1. 2. (a) classe 5/ 5.

175
Chapitre5

Noms des agents Nombre Secteur Fonction de Son


d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Google 1 Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Ordinateur de 43 Matériel électrique, Concepteur R&D
Montage Puce Electronique
Tableau 31. Les AI utilisés par les répondants de la classe 5/5 et leurs domaines
d’application73

Ces agents résolvent les problèmes sémantiques et syntaxiques (présence de l’item 54). Ils
répondent aussi aux besoins de stockage, traitement et extraction d’une grande quantité
d’information (présence de l’item 52 et 51).

C’est une population qui a l’intention d’utiliser cette technologie dans le processus de prise de
décision (présence des items qui mesurent l’intention d’utiliser cette technologie dans le
processus de décision et présence de l’item 53 qui propose l’utilisation des AI afin de gagner
du temps pour la prise de décision).

2.1.3. Différenciation des classes

Le but de cette sous-section est de différencier les cinq classes de la première analyse en
fonction des modalités qui les caractérisent. Cette différenciation est répartie sur trois groupes
d’items. Le choix des regroupements est basé sur les résultats de l’analyse factorielle
précédente.

73
Ce tableau est construit sur la base de l’annexe 8.1.2. (b) Classe 5/5.

176
Chapitre5

1er groupe d’Items allant de l’Item1 à l’Item 10 74

10

4
VT C1
Valeur-Test

2 VT C2
VT C3
0 VT C4
Item 1 Item 2 Item 3 Item 4 Item 5 Item 6 Item 7 Item 8 Item 9 Item 10 VT C5
-2

-4

-6

-8
Items

Figure 30. Comparaison des Valeurs-Tests des cinq classes (Item1-Item10)

La figure 30 montre clairement, l’absence de la participation de la classe 3 à la réponse aux


questions 1 à 10. Cette classe est présente uniquement avec l’item 4 (valeur-test négative).
Pour cette classe, les AI utilisés repèrent des données très utiles dans leur travail.

La quatrième et la cinquième classe sont caractérisés par ce groupe d’items. Il y a un


désaccord de la classe 5 au niveau de l’item 4.

L’item 1 caractérise uniquement la première classe, cela montre que c’est la seule classe qui
parvient à obtenir des données suffisamment actuelles pour répondre aux besoins.

Cette figure nous permet de conclure que :

- Classe 1 : Nous remarquons une contradiction de réponses au niveau du 1er et 2ème


item qui mesurent l’actualisation des données, ces deux items donnent une
information peu fiable à exploiter. C’est une classe qui ne dispose pas de données
disponibles pour mener ses tâches mais qui a des AI qui repèrent des données
exactes. Elle a des problèmes au niveau de la localisation des données.

- Classe 2 : Cette classe ne dispose pas de données actualisées et exactes. Elle a des
problèmes de localisation des données.
74
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.

177
Chapitre5

- Casse 3 : Cette classe a des AI qui repèrent des données utiles, mais on ignore si elle
dispose de données de qualité ou pas.

- Classe 4 : Cette classe dispose de données actualisées et qui n’a pas de problèmes de
localisation de données. Par contre les AI utilisés par cette classe ne repèrent pas des
données très utiles.

- Classe 5 : Cette classe n’a pas de problèmes au niveau de la qualité et de la


localisation de données et elle dispose d’AI repérant des données utiles.

2ème groupe d’Items allant de l’Item11 à l’Item 1875

10

4
VT C1
Valeur-Test

2 VT C2
VT C3
0 VT C4
Item 11 Item 12 Item 13 Item 14 Item 15 Item 16 Item 17 Item 18 VT C5
-2

-4

-6

-8
Items

Figure 31. Comparaison des Valeurs-Tests des cinq classes (Item11-Item18)

La figure 31 permet de caractériser les cinq classes :

- Classe 1 : Cette classe a des difficultés d’autorisation d’accès aux données. Elle
utilise des AI qui ne sont pas sujets à des problèmes inattendus.

- Classe 2 : Cette classe accède facilement aux données, trouvant les données acquises
de différentes sources sont compatibles. Elle n’assure pas le fait que les AI utilisés
sont actualisés et disponibles à tout moment. En revanche, ils ne sont pas sujets à des
problèmes inattendus.

- Classe 3 : Cette classe a les mêmes caractéristiques que la deuxième.


75
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.

178
Chapitre5

- Classe 4 : Cette classe n’a pas des difficultés d’autorisation d’accès aux données. Il
n’est pas difficile pour elle de comparer des données provenant de différentes
sources. C’est une classe qui ne perçoit pas la pertinence des systèmes utilisés .

- Classe 5 : Cette classe a des problèmes d’autorisation d’accès aux données, elle
trouve que les données acquises de différentes sources sont incompatibles et que
c’est difficile de les comparer. Malgré que les AI utilisés sont actualisés, ils sont
sujets à des problèmes inattendus.

3ème groupe d’Items allant de l’Item19 à l’Item 2976

2
VT C1
Valeur-Test

0 VT C2
Item Item Item Item Item Item Item Item Item Item Item VT C3
-2 19 20 21 22 23 24 25 26 27 28 29 VT C4
VT C5
-4

-6

-8

-10
Items

Figure 32. Comparaison des Valeurs-Tests des cinq classes (Item19-Item29)

La figure 32 amène aux remarques suivantes :

- Classe 1 : Une absence remarquable de cette classe au niveau de l’ensemble de ces


items. C’est une classe qui trouve que les AI traitent des problèmes de gestion de
groupe d’une manière sérieuse. Pour elle, les AI ne sont pas flexibles parce qu’elle
ne sait pas ce qu’il advient à ses requêtes auprès des AI et ils ne répondent pas à ses
demandes dans un délai raisonnable. Ce qui implique la non satisfaction de cette
classe du conseil technique de cette technologie.

76
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 1.

179
Chapitre5

- Classe 2 : Cette classe est présente sur tous les items mais qui n’est pas adhérente à
cette technologie. Cela est dû à la nature des problèmes de gestion traités par cette
classe. Ils ont des problèmes bien-définis, routiniers et qui n’impliquent pas toutes
les fonctions de l’organisation.

- Classe 3 : Les AI utilisés par cette classe ne prennent pas trop de temps de
communication d’où le caractère prospectif de cette technologie.

- Classe 4 : Elle est consciente que les AI traitent des problèmes de gestion du groupe
d’où sa perception de la flexibilité de cette technologie. Elle est satisfaite par ses
conseils techniques. Elle est aussi confrontée à traiter des problèmes non-routiniers et
qui impliquent plusieurs services fonctionnels.

- Classe 5 : Elle ressemble à la quatrième classe au niveau de la qualité du service


offert par les AI. Mais c’est une classe qui est confrontée à des problèmes routiniers
et impliquant plus qu’une fonction de l’organisation.

2.2. Groupe de variables actives se référant au modèle théorique de


l’Acceptation de la Technologie des AI

2.2.1. Répartition des utilisateurs dans chaque classe :

Classes Nombre d’utilisateurs Variables nominales représentatives


à chaque classe 77
1 38 Département : Finance & Gestion
Tâche : Directeurs
2 29 Secteur : Conseil, Ingénierie, Formation
3 13 Secteur : Informatique, Bureautique, Réseaux et
Télécoms
4 75 Départements : R&D /Informatique
Secteurs : Matériel électrique et électronique/
Informatique, Bureautique, Réseaux et
Télécoms.
Tableau 32. Classification des utilisateurs des AI (2ème analyse)

La deuxième analyse est réalisée sur le deuxième groupe des items (30 à 59). Quatre classes
ont été retenues et sont caractérisées par les variables nominales. Ces dernières sont
présentées dans le tableau 32.

77
Voir l’annexe 8. 2. 1. : Caractérisation par les modalités des classes de la partition.

180
Chapitre5

2.2.2. Interprétation des classes

1ère Classe :

ITEM33
ITEM44
ITEM55
ITEM34

ITEM16
ITEM18
ITEM59
ITEM35

ITEM30
ITEM41

ITEM15
ITEM51
ITEM22
ITEM12
ITEM10
ITEM52

ITEM17
ITEM14

ITEM13
ITEM57
ITEM21
ITEM58
ITEM11
ITEM5

ITEM2

ITEM7
ITEM9

ITEM3
6,00
4,00
2,00
Valeur-Test

0,00
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test

Figure 33. Valeurs-Tests de la Classe 1/ 4 78

La figure 33 représente les valeurs-tests des items pour la première classe. Cette dernière est à
majorité caractérisée par des répondants appartenant au département de la finance et de la
gestion. Elle ne perçoit pas bien cette technologie. Elle n’est pas satisfaite de cette technologie
et de ses fonctionnalités. Malgré qu’elle fait quand même appel à cette technologie (la valeur-
test de l’item 55 est positif). En plus, elle est consciente de la facilité d’apprentissage à
manipuler les AI (items 33, 34) et de son utilité perçue par rapport à l’amélioration de la
productivité du travail (item 44).

Les utilisateurs de cette technologie ne sont pas assurés que les AI sont actualisés et
disponibles lorsqu’ils en ont besoin (la valeur test de l’item 16 est négatif). Pour eux, c’est
une technologie qui n’est pas sujet à des problèmes et à des arrêts fréquents (la valeur test de
l’item 18 est négatif). Les interactions de ces utilisateurs avec les AI ne sont pas claires et
compréhensibles (Item 35).

Dans cette classe, on remarque aussi l’absence de la variable de l’intention d’utiliser les
agents intelligents dans le processus de prise de décision. Cette population n’a pas l’intention
d’utiliser ces agents comme un outil d’aide à la décision. En se basant sur les agents cités, on

78
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 1/ 4.

181
Chapitre5

note une présence dominante des agents de recherche et de veille, avec moins de traitement et
pas de prise de décision. Ces agents sont présentés dans le tableau 33 :

Noms des agents Nombre Secteur Fonction de Son


d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Google 7 Conseil, Ingénierie Directeur Non indiqué
et Formation
Matériel électrique, Directeur R&D
Electronique
Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Informatique, Concepteur Informatique
Bureautique,
Réseaux et Télécoms
Industrie, Auto, CCI Directeur Marketing et
Management
Industrie, Auto, CCI Analyste Marketing et
Management
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Copernic 5 Conseil, Ingénierie Directeur Non indiqué
et Formation
Industrie, Auto, CCI Concepteur Systèmes
d’Information
Industrie, Auto, CCI Directeur R&D
Industrie, Auto, CCI Directeur Marketing et
Management
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Moteurs de 4 Informatique, Utilisateur Informatique
recherche Bureautique,
Réseaux et Télécoms
Conseil, Ingénierie, Non indiquée Systèmes
Formation d’Information
Informatique, Directeur Marketing et
Bureautique, Management
Réseaux et Télécoms
Conseil, Ingénierie, Directeur Marketing &
Formation Management
Internet 4 Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Conseil, Ingénierie, Directeur Marketing &
Formation Management
Industrie, Auto, CCI Directeur Finance & Gestion
SAP 3 Banques, Sociétés Analyste Finance et Gestion
financières
Banques, Sociétés Analyste Finance et Gestion
financières
Banques, Sociétés Analyste Finance et Gestion
financières

182
Chapitre5

Meta-moteurs 2 Conseil, Ingénierie, Directeur Systèmes


Formation d’Information
Matériel électrique, Utilisateur R&D
Electronique
Impromptu 2 Banques, Sociétés Analyste Finance et Gestion
financières
Banques, Sociétés Analyste Finance et Gestion
financières
Lotes Notes 2 Conseil, Ingénierie Utilisateur Finance & Gestion
et Formation
Banques, Sociétés Analyste Finance et Gestion
financières
KM 2 Informatique, Directeur R&D
Bureautique,
Réseaux et Télécoms
Matériel électrique, Directeur R&D
Electronique
ERP 2 Informatique, Directeur R&D
Bureautique,
Réseaux et Télécoms
Industrie, Auto, CCI Directeur Finance & Gestion
Business Objects 2 Commerce et Non indiquée Marketing et
distribution Management
Industrie, Auto, CCI Analyste Marketing et
Management
Reconnaissance 2 Conseil, Ingénierie, Non indiquée Système
Vocale Formation d’Information
Conseil, Ingénierie, Directeur Marketing &
Formation Management
Hyperion 2 Industrie, Auto, CCI Analyste Marketing et
Management
Banques, Sociétés Analyste Finance et Gestion
financières
Data Mining 1 Conseil, Ingénierie, Directeur Systèmes
Formation d’Information
Autres 79 19 Voir l’annexe n° 8.2. Voir l’annexe n° 8.2. Voir l’annexe n° 8.2.
2. (b) Classe 1/ 4 2. (b) Classe 1/ 4 2. (b) Classe 1/ 4
Pas de réponses 5 Commerce et Directeur Systèmes
Distribution d’Information
Conseil, Ingénierie, Utilisateur R&D
Formation
Informatique, Concepteur R&D
Bureautique,
Réseaux et Télécoms
Conseil, Ingénierie Non Indiquée Marketing &
et Formation Management
Industrie, Auto, CCI Concepteur R&D
Tableau 33. Les AI utilisés par les répondants de la classe 1/4 et leurs domaines
d’application80

79
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.2.2 (b)
Classe 1/ 4)
80
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 1/4.

183
Chapitre5

2ème Classe :

ITEM33
ITEM34
ITEM27
ITEM18
ITEM13
ITEM15
ITEM31
ITEM50
ITEM32
ITEM59
ITEM28
ITEM19
ITEM52

ITEM11
ITEM25
ITEM16
ITEM38
ITEM57
ITEM17
ITEM24
ITEM37
ITEM47
ITEM30

ITEM53
ITEM39
ITEM10
ITEM20
ITEM23
ITEM46
ITEM22
ITEM29
ITEM58
ITEM21
ITEM51
ITEM48
ITEM40
ITEM49
ITEM42
ITEM54
ITEM41
ITEM43
ITEM45
ITEM44
ITEM2

ITEM3
ITEM9

ITEM7

ITEM5
ITEM8

ITEM6
4,00
2,00
Valeur-Test

0,00
-2,00
-4,00
-6,00
-8,00
Items Valeur-Test

Figure 34. Valeurs-Tests de la Classe 2/ 4 81

La figure 34 présente les valeurs-tests des items pour la deuxième classe. Les répondants de la
deuxième classe ne perçoivent pas bien cette technologie. Ils sont conscients de la facilité
d’utilisation des AI (items 33, 34). Ils se rapprochent des utilisateurs de la première classe.

C’est une classe qui regroupe en majorité les agents de recherche. Cette population n’envisage
pas d’utiliser ces agents dans le processus de prise de décision (au niveau des trois phases).

Noms des agents Nombre Secteur Fonction de Son


d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Google 5 Banques, Sociétés Utilisateur Informatique
financières
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Banques, Sociétés Directeur Informatique
financières
Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Informatique, Concepteur Systèmes
Bureautique, d’Information
Réseaux et Télécoms
Copernic 4 Banques, Sociétés Directeur Informatique
financières
Informatique, Directeur Informatique
Bureautique,
Réseaux et Télécoms

81
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 2/ 4.

184
Chapitre5

Conseil, Ingénierie Utilisateur Systèmes


et Formation d’Information
Commerce et Directeur Finance & Gestion
Distribution
Intranet 3 Informatique, Utilisateur Finance & Gestion
Bureautique,
Réseaux et Télécoms
Banques, Sociétés Utilisateur Informatique
financières
Informatique, Concepteur Systèmes
Bureautique, d’Information
Réseaux et Télécoms
Ordinateur 3 Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Informatique, Concepteur Informatique
Bureautique,
Réseaux et Télécoms
Informatique, Utilisateur Systèmes
Bureautique, d’Information
Réseaux et Télécoms
Internet 2 Informatique, Utilisateur Informatique
Bureautique,
Réseaux et Télécoms
Industrie, Auto, CCI Concepteur R&D
Moteurs de 2 Conseil, Ingénierie, Directeur Marketing &
recherche Formation Management
Conseil, Ingénierie Directeur Marketing &
et Formation Management
Yahoo 2 Banques, Sociétés Utilisateur Informatique
financières
Informatique, Concepteur Systèmes
Bureautique, d’Information
Réseaux et Télécoms
Autres 82 16 Voir l’annexe n° 8.2. Voir l’annexe n° 8.2. Voir l’annexe n° 8.2.
2. (b) Classe 2/ 4 2. (b) Classe 2/ 4 2. (b) Classe 2/ 4
Pas de réponses 6 Voir l’annexe n° 8.2. Voir l’annexe n° 8.2. Voir l’annexe n° 8.2.
2. (b) Classe 2/ 4 2. (b) Classe 2/ 4 2. (b) Classe 2/ 4
Tableau 34. Les AI utilisés par les répondants de la classe 2/4 et leurs domaines
d’application83

82
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 8.2.2 (b)
Classe 2/ 4)
83
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 2/4.

185
Chapitre5

3ème Classe :

ITEM11

ITEM16
ITEM40
ITEM29
ITEM30
ITEM41
ITEM48
ITEM44
ITEM49
ITEM10
ITEM22
ITEM20
ITEM37
ITEM25
ITEM46
ITEM42
ITEM47
ITEM43
ITEM23
ITEM45
ITEM33
ITEM39
ITEM38
ITEM32
ITEM31
ITEM35
ITEM34
ITEM36
ITEM9
0,00
-1,00
-2,00
Valeur-Test

-3,00
-4,00
-5,00
-6,00
-7,00
-8,00
-9,00
Items Valeur-Test

Figure 35. Valeurs-Tests de la Classe 3/ 4 84

La figure 35 présente les valeurs-tests des items pour la troisième classe. C’est une population
qui n’est pas satisfaite par cette technologie, elle n’a pas l’intention de l’utiliser dans le
processus de prise de décision et elle n’est pas consciente de l’utilité de cette technologie dans
la productivité et la qualité de travail. Elle n’a pas donné des précisions sur les fonctionnalités
et l’intensité d’utilisation de cette technologie (absence totale des items qui mesurent à la fois
les fonctionnalités et l’intensité d’utilisation des agents).
Noms des agents Nombre Secteur Fonction de Son
d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Google 2 Banques, Sociétés Utilisateur Marketing et
financières Management
Commerce et Directeur Marketing et
distribution Management
SAS 1 Commerce et Directeur Marketing et
distribution Management
BO 1 Banques, Sociétés Directeur Finance & Gestion
financières
Cognos 1 Industrie, Auto, CCI Directeur Marketing &
Management
Website Watcher 1 Matériel électrique, Non indiquée R&D
Electronique
Autres 85 7 Voir l’annexe n° 8.2. Voir l’annexe n° 8.2. Voir l’annexe n° 8.2.
2. (b) Classe 3/ 4 2. (b) Classe 3/ 4 2. (b) Classe 3/ 4
Pas de réponses 6 Voir l’annexe n° 8.2. Voir l’annexe n° 8.2. Voir l’annexe n° 8.2.
2. (b) Classe 3/ 4 2. (b) Classe 3/ 4 2. (b) Classe 3/ 4
Tableau 35. Les AI utilisés par les répondants de la classe 3/4 et leurs domaines
d’application86

84
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 3/ 4.
85
La rubrique Autres regroupe des AI indispensables et utilisés à la veille (à consulter dans l’annexe 7.2.2 (b)
Classe 3/ 4)

186
Chapitre5

4ème Classe :

ITEM41
ITEM43
ITEM42
ITEM58
ITEM11
ITEM22
ITEM23
ITEM21
ITEM10
ITEM47
ITEM45
ITEM57
ITEM29
ITEM30
ITEM51
ITEM40
ITEM32

ITEM35
ITEM54
ITEM52
ITEM25
ITEM16
ITEM31
ITEM20
ITEM36
ITEM38
ITEM39
ITEM17
ITEM49
ITEM48

ITEM15
ITEM13
ITEM37
ITEM59
ITEM46
ITEM44
ITEM14
ITEM28
ITEM24
ITEM18
ITEM19
ITEM53
ITEM12
ITEM50
ITEM26
ITEM27
ITEM3

ITEM9
ITEM7

ITEM5

ITEM8
ITEM2
ITEM6
10,00

8,00
Valeur-Test

6,00

4,00

2,00

0,00
Items
Valeur-Test

Figure 36. Valeurs-Tests de la Classe 4/ 4 87

La figure 36 présente les valeurs-tests des items pour la quatrième classe. Cette dernière est
faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 4/ 4
La valeur test dépasse 1,96 dans chacune des variables explicatives (du deuxième modèle
théorique). C’est population composée de 70 utilisateurs.
C’est une classe qui utilise intensivement les AI, elle est satisfaite de cette technologie, avec
une bonne perception de cet outil. Elle a aussi l’intention de l’utiliser dans le processus de
prise de décision au niveau des trois phases (identification des problèmes, évaluation et
sélection des solutions).
Cette classe correspond à la 4ème et 5ème classe de la première classification. L’ordinateur et
l’ordinateur de montage puce sont considérés comme des AI pour cette population. Dans cette
classe on note la présence d’une autre réponse qui est celle du Text Mining.
Noms des agents Nombre Secteur Fonction de Son
d’utilisateurs d’activité de l’utilisateur département
l’entreprise
Text Mining 1 Conseil, Ingénierie, Directeur R&D
Formation
Ordinateur 74 Informatique, Analyste Informatique
Bureautique,
Réseaux et Télécoms
Ordinateur de Matériel électrique, Concepteur R&D
Montage Puce Electronique
Tableau 36. Les AI utilisés par les répondants de la classe 4/4 et leurs domaines
d’application88

86
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 3/4.
87
Cette figure est faite sur la base des résultats présentés dans l’annexe 8. 2. 2. (a) classe 4/ 4.

187
Chapitre5

2.2.3. Différenciation des classes

1er groupe d’Items allant de l’Item30 à l’Item 41 89:

12,00

10,00

8,00

6,00

4,00
VT C1
Valeur-Test

2,00 VT C2
0,00 VT C3
Item Item Item Item Item Item Item Item Item Item Item Item VT C4
-2,00
30 31 32 33 34 35 36 37 38 39 40 41
-4,00

-6,00

-8,00

-10,00
Items

Figure 37. Comparaison des Valeurs-Test des quatre classes (Item30-Item41)

Cette figure nous montre les remarques suivantes :

- Classe 1 : Cette classe ne connaît pas bien la technologie des AI. Elle perçoit la
facilité des AI, mais ses interactions avec les AI ne sont pas claires et
compréhensibles. Elle n’est pas satisfaite des AI dans leur ensemble.

- Classe 2 : Cette classe trouve qu’il n’est pas facile d’utiliser les AI mais il est aisé
d’interagir avec eux. C’est une population qui n’est pas satisfaite de cette
technologie.

- Classe 3 : Cette classe perçoit la difficulté d’utilisation des AI et elle n’est pas
satisfaite de cette technologie.

- Classe 4 : Cette classe connaît bien cette technologie et elle perçoit la facilité de son
utilisation, ce qui implique sa satisfaction totale.

88
Ce tableau est construit sur la base de l’annexe 8.2.2. (b) Classe 4/4.
89
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.

188
Chapitre5

2ème groupe d’Items allant de l’Item 42 à l’Item 5090 :

12,00

10,00

8,00

6,00

4,00
VT C1
Valeur-Test

2,00 VT C2
0,00 VT C3
Item 42 Item 43 Item 44 Item 45 Item 46 Item 47 Item 48 Item 49 Item 50 VT C4
-2,00

-4,00

-6,00

-8,00

-10,00
Items

Figure 38. Comparaison des Valeurs-Test des quatre classes (Item42-Item50)

Nous observons dans cette figure les remarques suivantes :

- Classe 1 : Une absence de réponses remarquables au niveau de ce groupe d’items


(42 à 50). Elle est présente uniquement à l’item 44 qui confirme que l’utilisation des
AI améliore la productivité des utilisateurs.

- Classe 2 : Elle perçoit que ces agents n’ont pas d’impact ni sur la productivité de
l’utilisateur ni sur la qualité du travail. Donc, elle n’a pas l’intention de l’utiliser
dans le processus de prise de décision.

- Classe 3 : Elle la même perception que la deuxième classe.

- Classe 4 : Elle perçoit que ces agents ont un impact positif sur la productivité de
l’utilisateur et sur la qualité du travail. Donc elle a l’intention d’utiliser cette
technologie dans le processus de prise de décision.

90
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.

189
Chapitre5

3ème groupe d’Items allant de l’Item 51 à l’Item 5991 :

10,00

8,00

6,00

4,00
VT C1
Valeur-Test

2,00
VT C2
VT C3
0,00
VT C4
Item 51 Item 52 Item 53 Item 54 Item 55 Item 56 Item 57 Item 58 Item 59
-2,00

-4,00

-6,00

-8,00
Items

Figure 39. Comparaison des Valeurs-Test des quatre classes (Item51-Item59)

Dans cette figure nous observons les conclusions suivantes :

- Classe 1 : Elle perçoit que les AI sont limités à la recherche, stockage et extraction
d’une grande quantité d’informations. C’est une classe qui fait recours quand même à
cette technologie. Le degré d’intensité d’utilisation de la technologie est faible.

- Classe 2 : On observe les mêmes remarques que pour la première classe.

- Classe 3 : Une absence totale remarquable de cette classe dans ce groupe d’items
(51 à 59).

- Classe 4 : Cette classe est consciente des fonctionnalités des AI et nous observons
que l’intensité d’utilisation de cette technologie est élevée.

91
Cette figure est réalisée sur la base des résultats présentés dans l’annexe 8. 3. 2.

190
Chapitre5

2.3. Croisement des deux partitions

Figure 40. Répartition des répondants suite à la classification des deux analyses.

Cette figure montre que :

- Les individus de la classe 1/ 4 sont répartis à majorité sur les trois premières classes
de la première classification.

- Les individus de la classe 2/ 4 sont répartis à majorité sur la classe 2/ 5 et en


moyenne sur la classe 1/ 5.

- Les individus de la classe 3/ 4 sont répartis en proportion égale entre les classes 1/ 5
et 2/ 5.

- Les individus de la classe 4/ 4 regroupent ceux des deux classes 4/ 5 et 5/ 5.

Après l’analyse des données produites de la méthode de classification, nous passons à


l’analyse de la variance.

191
Chapitre5

3. Analyse de variance

L’analyse de variance permet d’étudier la liaison entre une variable qualitative et une variable
quantitative.

Le principe de cette analyse est de savoir si les différences entre les moyennes des groupes
définis par les modalités sont significatives. On teste l’hypothèse H0 :

H0 = égalité des moyennes (pas de différences significatives entre les moyennes


observées).

On se donne le risque de premier espèce standard égal à 5 %. Si on rejette H0, on conclut à


une différence significative entre au moins deux moyennes.

Cette analyse92 consiste à chercher, en premier lieu, le degré de lien entre ces trois variables
nominales qui sont la tâche, le département, et les AI utilisés sur les variables des deux
modèles théoriques93. En deuxième lieu, nous cherchons par le biais de cette analyse le degré
de lien entre ces trois variables nominales qui sont le sexe, l’âge et la langue sur les variables
du deuxième modèle théorique.

Nous Récapitulons les résultats94 basés sur l’analyse de la variance sous forme des tableaux
suivants :

Tâche Département AI utilisés


Qualité des données * 95 ** 96 **
Localisation des données * ** **
Compatibilité des données * * *
Pertinence des systèmes ** *** 97 **
Qualité du service offert
* *** ***
par les AI
Tableau 37. Degré d’influence des caractéristiques de la Tâche (Tâche) et celles de la
Technologie (Département et AI utilisés) sur les variables de l’adéquation technologie-
tâche.

92
Pour faire cette analyse nous avons utilisé le logiciel SPSS.10
93
Les variables du 1er modèle théorique sont : Qualité des données (QD), Localisation des données (LD),
Compatibilité des données (CD), Pertinence des systèmes (RS), Qualité du service des AI (QS).
Les variables du 2ème modèle sont : L’Intention d’utiliser les AI dans le processus de prise de décision (ItoUse),
Satisfaction des utilisateurs de cette technologie (Sat), Fonctionnalités de cette technologie (F), Productivité des
utilisateurs (P), Qualité du travail (JQ) et Facilité d’utilisation de cette technologie (EOUse).
94
Ces résultats sont présentés dans l’annexe n°9_CH5.
95
* : une faible influence
96
** : une influence modérée
97
*** : une grande influence

192
Chapitre5

Il y a une faible influence entre la tâche, la qualité des données, la compatibilité des données,
la qualité du service des AI, la facilité d’utilisation des AI, la satisfaction des utilisateurs, les
fonctionnalités des AI, la productivité et la qualité du travail des utilisateurs.

Il y a une influence modérée entre la tâche, la pertinence des systèmes.

Une faible influence entre le département et la compatibilité des données.

L’influence est modérée entre le département, la qualité des données, la localisation des
données, l’intention d’utiliser les AI, la facilité d’utilisation des AI, la satisfaction des
utilisateurs et les fonctionnalités des systèmes.

Une influence élevée entre le département, la pertinence des systèmes, la qualité du service
des AI, la productivité et la qualité du travail.

Une faible influence entre les AI utilisés, la compatibilité des données, l’intention d’utiliser
cette technologie, la facilité d’utilisation des AI, la productivité de l’utilisateur.

L’influence est modérée entre les AI utilisés, la qualité des données, la localisation des
données, la pertinence des systèmes, la satisfaction des utilisateurs et les fonctionnalités des
systèmes.

Une grande influence est entre les AI utilisés, la qualité du service des AI et la qualité de
travail des utilisateurs.

Tâche Département AI utilisés


Intention d’utiliser les AI * ** *
Facilité d’utilisation * ** *
Satisfaction des
* ** **
utilisateurs
Fonctionnalités des AI * ** **
Productivité * *** *
Qualité du travail * *** ***
Intensité d’utilisation * ** **
Tableau 38 . Degré d’influence de la tâche, du département et les AI utilisés sur le
modèle de l’Acceptation d’une Technologie.

Sexe Age Langue


Intention d’utilisation * (n.s.)98 *(n.s.) *(n.s.)
Facilité d’utilisation (n.s.) (n.s.) *(n.s.)
Satisfaction des utilisateurs (n.s.) *(n.s.) *(n.s.)

98
(n.s.) : non significatif.

193
Chapitre5

Fonctionnalités des AI (n.s.) (n.s.) *(n.s.)


Productivité (n.s.) (n.s.) *(n.s.)
Qualité du travail (n.s.) (n.s.) *(n.s.)
Intensité d’utilisation *(n.s.) *(n.s.) (n.s.)
Tableau 39. Degré d’influence du sexe, de l’âge et de la langue sur les variables du
modèle de l’Acceptation d’une Technologie.

Il n’y a pas une influence significative entre le sexe et l’ensemble de ces variables. A
l’exception d’une faible influence non significative entre le sexe et l’intention d’utiliser cette
technologie dans le processus de prise de décision.

Il n’y a pas d’influence significative entre l’age et ces variables. A l’exception d’une faible
influence non significative entre l’âge, l’intention d’utilisation et la satisfaction des
utilisateurs.

Il y a une faible influence non significative entre la langue et l’ensemble des variables
présentées ci-dessus.

194
Chapitre5

Conclusion
Nous avons consacré ce chapitre à détailler la description des caractéristiques de la population
ciblée.

Nous avons passé ensuite à la phase exploratoire des données qui consiste à faire :

- Une Analyse en Composantes Principales : ayant pour objet de décrire d’une façon
synthétique des tableaux de données dans lesquels les individus (n) sont décrits par
un ensemble de variables quantitatives (k).

- Une classification des utilisateurs des agents intelligents : ayant pour objet de
positionner des individus par rapport aux variables du modèle théorique. L’objectif
étant de dégager une typologie de ces individus.

- Une analyse de variance : ayant pour objet de déterminer si une (ou plusieurs)
variables explicatives (nominales) ont ou non une influence sur une variable à
expliquer (quantitatives).

L’analyse exploratoire n’est pas suffisante pour discuter et confirmer les hypothèses de la
recherche c’est pourquoi nous réservons le chapitre 6 à l’analyse confirmatoire.

195
CHAPITRE 6

Analyse confirmatoire :
Validation des hypothèses de recherche

“…Information is power…So, plan, do, act, check…”

FOURATI A., Lors d’un entretien, le 17 Mai 2006.


Chapitre6

Introduction
Après avoir présenté les résultats de la phase exploratoire dans le chapitre précédent, nous
consacrons ce chapitre à la phase confirmatoire qui consiste à valider les hypothèses de notre
recherche.

Dans une première section, nous testons le modèle global théorique en utilisant le logiciel
PLS-Graph (Chin, 1998).

Dans une deuxième section, nous décomposons le modèle initial en deux modèles pour
pouvoir analyser l’ensemble des effets linéaires par modèles d’équations structurelles en
utilisant le logiciel AMOS.4.

Dans une troisième section, nous comparons nos résultats avec les travaux effectués
antérieurement.

Section 1. Validation du modèle retenu (PLS)


Les trois étapes générales de considérations méthodologiques sont pertinentes pour
l’application du PLS (Partial Least Squares) dans le contexte de la recherche en management:
(1.1.) répartition de la fiabilité et de la validité de l’échelle de mesure; (1.2.) détermination de
la nature appropriée des relations entre les indicateurs et les construits; et (1.3.) interprétation
des plages de coefficients (« path coefficients), détermination du modèle adéquat et sélection
d’un modèle final auprès de l’étape des alternatives disponibles. (Hulland J. 1999).

1. Indicateurs, Fiabilité et Validité

A travers les paramètres estimés sous PLS pour les liens entre les indicateurs de mesure et les
construits (loadings) et les liens entre les différents construits (path coefficients)
simultanément, le modèle sous PLS est toujours analysé et interprété à travers deux étapes:

- La répartition de la fiabilité et la validité du modèle de mesure suivie par,

- La répartition du modèle structurel.

Le suivi de cette séquence rassure le chercheur sur la disponibilité d’indicateurs de mesure


fiables et sur la validité des construits avant le passage aux conclusions sur la nature des
relations entre les construits. (Hulland J. 1999)

Pour avoir un modèle de mesure adéquat, nous pouvons suivre ces étapes:

197
Chapitre6

- La fiabilité des items,

- La validité convergente des indicateurs de mesures avec les construits, et

- La validité discriminante. ( Hulland J. 1999)

1.1. Fiabilité des items

En utilisant le PLS, la fiabilité des items est examinée par les « loadings » (ou une simple
corrélation) des indicateurs de mesures en respectant leurs construits théoriques.

En se référant à Chin (1998), “les loadings standardisés doivent être supérieurs à 0.707”,
autrement dit, il y a un peu plus de variance partagée entre le construit et ses items qu’ entre la
variance des erreurs (Carmines and Zeller, 1979). Si nous considérons que les loadings sont
des corrélations, cela implique qu’il y a plus de 50 % de la variance dans la variable observée
( i.e., le carrée du loading) qui est due au construit.

Dans la pratique, si le modèle estimé possède des loadings inférieurs à 0.707, nous éliminons
un item particulièrement quand de nouveaux items ou de nouvelles échelles développées sont
employées. Pour des relations futures, nous devons ré-examiner les items éliminés et essayer
de déterminer la raison pour laquelle ces items n’ont pas atteint le seuil de 0.7. Un faible
loading peut être le résultat :

- D’un item mal-exprimé (ce problème contribue à une faible fiabilité),

- D’un item inapproprié (ce problème contribue à une mauvaise validité de contenu),

- D’un transfert impropre d’un item d’un contexte à un autre (ce problème contribue à
la non-généralisation des items au sein des contextes et/ou des domaines).Dans le
cadre de notre étude, deux itérations ont été effectuées sous PLS. Les résultats sont présentés
dans le tableau 40.

Variables latentes retenues du modèle théorique


EO
F Ito
Construits Items TaC QLD QS IU Sat Use PUse
Use
Item28 0.90
TaC
Item29 0.96
Item51 0.85
F Item52 0.84
Item54 0.79

198
Chapitre6

Item3 0.81
Item5 0.80
Item6 0.83
QLD Item7 0.87
Item8 0.82
Item9 0.83
Item10 0.83
Item20 0.83
Item22 0.84
QS
Item23 0.87
Item25 0.84
Item57 0.84
IU
Item58 0.94
Item38 0.81
Item39 0.84
Sat
Item40 0.85
Item41 0.88
Item31 0.88
Item32 0.85
EOUse
Item35 0.91
Item36 0.92
Item42 0.94
Item43 0.95
PUse Item45 0.93
Item46 0.79
Item47 0.88
Item48 0.89
ItoUse
Item49 0.88
Tableau 40. « Loadings » dans l’anlayse sous PLS 99

Pour l’ensemble des construits, tous les items possèdent un seuil de loadings raisonnable
(supérieur à 0.707). La majorité est au-dessus de 0.8, donc la validité convergente est
démontrée. Les items qui sont au-dessous de 0.7 ont été éliminés.

1.2. Validité convergente

Les indicateurs multiples sont utilisés pour un construit “individuel”, le chercheur doit être
concerné par la fiabilité des items de mesure individuels, mais il doit aussi vérifier dans quelle
mesure les items peuvent démontrer la validité convergente (Hulland J. 1999).

La validité convergente consiste à calculer la variance moyenne partagée entre un construit et


ses items. Les chercheurs utilisant le PLS avaient recours à une ou deux mesures de la validité

99
Voir Annexe n°1_CH6.

199
Chapitre6

convergente: alpha de cronback et la consistance interne100 développés par Fornell et Larcker


(1981). L’interprétation des valeurs obtenues est similaire, ainsi la directive offerte par
Nunnally (1978) peut être adoptée. Nunnally a considéré le seuil de 0.7 comme un record
pour une fiabilité composée “modeste” (composite reliability) appliquée dans les stades de
recherche antérieure101. Pour cette étude, ces valeurs sont présentées dans la colonne 1 du
tableau 41 pour cette étude.

En calculant la consistance interne, nous nous focalisons sur les valeurs de fiabilité composée
( ) développés par Werts et al. (1974). Les mesures de la fiabilité composée fournissent un
support additionnel à la fiabilité et à la validité convergente.(Khalifa & Cheng, 2002)

Après la génération du Bootstrap, toutes les fiabilités composées pour chaque construit sont
au dessus de 0.80. (présenté dans le tableau 41).

Variables latentes Items de mesure


Caractéristiques de la tâche
(TaC) Item28
( = 0.936) Item29

Caractéristiques de la
Item51
technologie tels que :
Item52
Fonctionnalités des AI (F)
Item54
( = 0.870)
Item3
Item5
Qualité et Localisation des Item6
Données (QLD) Item7
( = 0.941) Item8
Item9
Item10
Item20
Qualité du Service offert par les
Item22
AI (QS)
Item23
( = 0.914)
Item25
Intensité d’Utilisation des AI
Item57
(IU)
Item58
( = 0.887)
Satisfaction des utilisateurs Item38
(Sat) Item39
( = 0.912) Item40

100
“ Internal consistency” = (( yi)² / (( yi)² + var ( j)).
101
“This discussion of convergent validity and the preceding discussion of item reliability can only be applied to
measures that are reflective, rather than formative”. (Hulland J. 1999).

200
Chapitre6

Item41

Item31
Facilité d’utilisation des AI
Item32
(EOUse)
Item35
( = 0.940)
Item36
Item42
Item43
Utilité perçue des AI (PUse) Item45
( = 0.957) Item46
Item47

Intention d’utiliser les AI sur le


Item48
processus de prise de décision
Item49
(ItoUse)
( = 0.886)
Tableau 41. Signification & Fiabilité Composite ( ) par construit102

La validité convergente de chaque facteur utilisée dans ce modèle semble être acceptable. En
effet, les facteurs relatifs aux caractéristiques de la tâche, à la qualité des données, à la
localisation des données, à la qualité du service des AI, à la satisfaction des utilisateurs, la
facilité d’utilisation des AI, à l’utilité perçue présentent une forte cohérence interne avec une
fiabilité composée ( ) de 0,9.

Les facteurs liés aux fonctionnalités des AI, à l’intensité d’utilisation, l’intention d’utiliser les
AI pour le processus de prise de décision, présentent une cohérence interne acceptable avec
une fiabilité composée ( ) de 0,8. Ces trois facteurs ont posé des problèmes d’ajustement lors
du test des relations entre les variables latentes de notre modèle théorique.

1.3. Validité discriminante

Le complément méthodologique traditionnel à la validité convergente est celui de la validité


discriminante. Il représente l’étendu par lequel les indicateurs de mesure attribués aux
variables latentes diffèrent-ils aux autres mesures des autres construits du modèle.

La validité discriminante consiste à prouver que la variance partagée entre un construit et ses
mesures (AVE) est supérieure à la variance partagée entre deux construits (r²ij)103.

Dans le contexte du PLS, le seul critère adéquat à la validité discriminante est que le construit
doit plutôt partager la plus grande variance avec ses indicateurs de mesure qu’avec les autres

102
Voir Annexe n°2_CH6.
103
La variance partagée entre construits i et j est égale au carré du coefficient de corrélation entre ces construits:
r²ij.

201
Chapitre6

construits du modèle donné (Hulland J. 1999). Pour appliquer la validité discriminante,


Fornell et Larcker (1981) suggèrent l’utilisation de “Average Variance Extracted”104 (la
variance moyenne partagée entre le construit et ses indicateurs de mesure).

Cette mesure doit être plus grande que la variance partagée entre le construit et les autres
construits du modèle. (la corrélation carrée entre deux construits). Ce-ci peut être démontré
dans la matrice de corrélation qui inclue les corrélations entre les construits dans les éléments
de la partie gauche inférieure de la diagonale de la matrice, et les valeurs de la racine carrée
de l’AVE calculée pour chaque construit tout au long de la diagonale.

Pour avoir une validité discriminante adéquate, les valeurs présentées dans la diagonale de la
matrice doivent être significativement plus grandes que les éléments en dehors de la diagonale
correspondants aux lignes et aux colonnes (Hulland J. 1999).

Nous présentons les AVE, la racine carré de l’AVE et les corrélations entre les construits dans
le tableau 42, en fournissant une validité discriminante plus claire.

F Ito
AVE TaC QLD QS IU Sat EOUse PUse
Use
TaC 0.879 0.937

F 0.690 0.538 0.830

QLD 0.694 0.477 0.693 0.833

QS 0.726 0.587 0.719 0.724 0.852

IU 0.798 0.402 0.378 0.449 0.373 0.893

Sat 0.722 0.461 0.702 0.635 0.842 0.254 0.849

EOUse 0.797 0.365 0.594 0.630 0.782 0.164 0.787 0.892

PUse 0.817 0.513 0.691 0.685 0.840 0.288 0.837 0.720 0.903

Ito
0.795 0.567 0.465 0.451 0.637 0.290 0.646 0.554 0.648 0.891
Use
Tableau 42. Matrice des valeurs de l’“Average Variance Extracted ” et corrélations
entre les construits sous l’analyse du PLS105

104
AVE = yi² /( yi² + var ( j)).

202
Chapitre6

2. Relations entre les Construits – Indicateurs de mesure

Après l’évaluation de la validité discriminante, l’étape du cross loadings a été examinée. La


contribution de chaque indicateur attribué à sa variable latente doit être supérieure à la
contribution des autres indicateurs (Chin, 1998). Les résultats confirmant cette condition sont
présentés dans l’annexe n° 4_CH6106.

3. Résultats et Discussion

Pour simplifier l’interprétation des résultats, nous traitons chaque hypothèse du modèle à part.
Dans cette étude, chaque variable latente du second ordre testée, sera numérotée afin
d’indicer les hypothèses dérivées en fonction de la numérotation de ces variables.

Nous présentons ces variables comme suit :

V1 = QLD ; V2 = QS ; V3 = Sat ; V4 = IU ; V5 = EOUse ; V6 = PUse ; V7 = ItoUse; V8 =


TaC; V9 = F.

Hypothèse H1: L’Adéquation Technologie-Tâche (QLD, QS) dépend à la fois des


caractéristiques de la tâche (TaC) et de la technologie (F).

L’étude de cette hypothèse nous a conduit à une formulation plus précise : les caractéristiques
de la tâche (interdépendance des tâches) et de la technologie (fonctionnalités des AI) ont un
impact positif sur l’adéquation technologie-tâche. Cette formulation génère elle-même quatre
hypothèses dérivées (Voir Tableau 43).
R²=0.495 R²=0.573

QLD QS

8.68** 8.94**

2.02*
3.96**

TaC F

105
Voir Annexes n°2 et n°3_CH6.
106
Nous remercions M. A. Schwarz pour son aide précieuse et sa validation des résultats lors du traitement des
données sous PLS-Graph.

203
Chapitre6

TaC F
QLD 0.147 (H18) 0.614 (H19)
QS 0.282 (H28) 0.567 (H29)
Légende :
TaC : caractéristique de la tâche. (V8)
F : fonctionnalités des AI. (V9)
QLD : qualité et localisation des données. (V1)
QS : qualité du service offert par les AI. (V2)
Tableau 43. Influence des caractéristiques de la tâche et de la de la technologie sur
l’adéquation technologie-tâche107 (** = 0.005, * = 0.025)108

Les caractéristiques de la tâche et de la technologie expliquent 50% de la variance pour la


qualité des données. Les caractéristiques de la technologie a un grand effet avec une plage de
coefficient de 0.614. Les caractéristiques de la tâche ont un faible effet avec une plage de
coefficients de 0.147.

L’effet des caractéristiques de cette technologie des AI est plus dominant avec des plages de
coefficients directes de (0.614 et 0.567) en comparaison avec les caractéristiques de la tâche
(plages de coefficients sont de 0.147 et de 0.282). Ces résultats montrent que l’augmentation
des fonctionnalités des AI dépend de l’adéquation technologie-tâche dans le même sens.
Ainsi, l’augmentation de l’interdépendance des tâches peut fournir un support adéquat à la
technologie-tâche.

L’effet des caractéristiques de la tâche sur l’adéquation technologie-tâche :

Goodhue & Thompson (1995) ont mesuré la tâche en prenant en considération ses
caractéristiques non routinières, ses interdépendances et la tâche du participant. Ils ont trouvé
que l’effet le plus élevé provenant de ces caractéristiques est celui des tâches non-routinières.
Ils ont expliqué cet effet par l’idée que les responsables sont constamment forcés d’utiliser les
technologies des systèmes d’information pour aborder les nouveaux problèmes, comme la
veille des nouvelles données en combinaison avec les méthodes non-familières. Ils ont donc
plus de demandes en terme de systèmes. L’interdépendance des tâches de travail est observée
pour influencer les perceptions de compatibilité et la pertinence des systèmes. Enfin, deux
facteurs de l’adéquation technologie-tâche sont clairement affectés par la tâche des
utilisateurs: la compatibilité et la facilité d’accès aux données.

Dans notre étude, les items mesurant les tâches non-routinières sont éliminés pour des raisons
de fiabilité des items. Aussi, ce construit a été mesuré uniquement par l’interdépendance des

107
Voir l’annexe n°5_CH6
108
Pour un échantillon de 155 : pour T>=1.96, nous avons un seuil de signification à p < 0.025 et pour T>=2.57,
nous avons un seuil de signification à p < 0.005. Voir l’annexe n°5bis_CH6

204
Chapitre6

tâches. Les deux facteurs de l’adéquation technologie-tâche affectés sont : la qualité et la


localisation des données (QLD) et la qualité de service offert par les AI (QS).

Nous considérons la tâche des utilisateurs comme étant une variable nominale. Nous
mesurons l’influence de cette variable sur l’adéquation technologie-tâche en utilisant
l’analyse de la variance sous SPSS.10 (dans le chapitre précédent). La tâche de l’utilisateur a
un effet faible sur la qualité et la localisation des données, la compatibilité des données
provenant de différentes sources et la qualité du service des AI. Elle a un effet modéré sur la
pertinence des systèmes.

L’effet des caractéristiques de la technologie sur l’adéquation technologie-tâche:

Goodhue & Thompson ont pris en considération deux variables pour les caractéristiques de la
technologie: “systèmes utilisés” et “département”. Ces deux variables sont significatives
ensemble sur les huit facteurs de l’adéquation technologie-tâche. Le département est
significatif sur l’apprentissage et la facilité d’utilisation. Les systèmes utilisés sont
significatifs sur la localisation des données et la pertinence des systèmes. Dans notre étude,
nous vérifions l’influence de ces deux variables sur l’adéquation technologie-tâche en utilisant
l’analyse de la variance. Le département a un effet modéré sur la qualité des données, la
localisation des données. Il a une liaison forte avec la pertinence des systèmes et la qualité du
109
service offert par les AI aux utilisateurs . Les agents utilisés ont une liaison forte sur leur
qualité de service. Ainsi, ils ont un effet modéré sur la qualité, la localisation des données et la
pertinence des systèmes.

Lors de l’opérationnalisation des caractéristiques de la technologie nous avons pris en compte


les fonctionnalités des AI.

Les fonctionnalités de cette technologie influencent deux variables de l’adéquation


technologie-tâche prises en considération dans notre modèle : la qualité et la localisation des
données, la qualité du service des AI.

Afin de justifier cette influence, nous pensons que les fonctionnalités des AI aide l’utilisateur
à maintenir les éléments nécessaires des données ou à les maintenir au bon niveau de
l’entreprise.

109
Le facteur qualité du service des AI correspond au facteur de la relation de la technologie de l’information
avec l’équipe SI dans le modèle initial de Goodhue et Thompson (1995). Lors de la construction du modèle
théorique nous avons considéré ce facteur comme étant la mesure de la relation des AI avec les utilisateurs en
général mais après une réflexion nous sommes rendus compte que ce facteur mesure la qualité du service offert
par les AI aux utilisateurs qui appartiennent à cinq départements différents.

205
Chapitre6

En plus, ces fonctionnalités aident l’utilisateur à déterminer quelles sont les données
disponibles et quels sont les éléments des données qui doivent être exclus ou inclus lors de la
recherche.

Enfin, elles ont un grand effet sur la qualité du service offert par les AI, ce-ci peut-être
expliqué par l’interaction évidente entre l’utilisateur et l’agent intelligent. Ceci montre bien
l’intérêt réel des AI pour aider l’utilisateur à résoudre ses problèmes. Cela montre aussi
l’importance du temps d’exécution pour une requête lancée auprès des services des AI, car les
fonctionnalités de cette technologie peut augmenter la disponibilité et la qualité d’assistance
technique des AI.

Hypothèse H2: L’adéquation technologie-tâche (QLD, QS) a un impact positif sur l’intensité
d’utilisation des AI (IU).

L’étude de cette hypothèse nous a conduit à une triple reformulation plus précise : d’une part,
(H41 & H42) la qualité, la localisation des données (QLD)et la qualité du service es AI (QS)
ont un impact positif sur l’intensité d’utilisation des agents intelligents ; d’autre part, (H48) la
caractéristique de tâche (TaC) a un impact positif sur l’intensité d’utilisation des AI (IU)
(Voir tableau 44).

R²=0.302

IU

3.57** 1.71
1.38

QLD QS

TaC

206
Chapitre6

TaC QLD QS
IU 0.171 (H48) 0.262 (H41) -0.323 (H42)
Légende :
TaC : caractéristique de la tâche. (V8)
QLD : qualité et localisation des données. (V1)
QS : qualité du service offert par les AI. (V2)
IU: intensité d’utilisation des AI. (V4)

Tableau 44. Influence de l’adéquation technologie-tâche (QLD, QS) et de


l’interdépendance des tâches (TaC) sur l’intensité d’utilisation des AI (IU)110
(** = 0.005)111
La qualité et la localisation des données, la qualité du service des AI offerte aux utilisateurs et
les caractéristiques de la tâche expliquent 30%112 de la variance de l’intensité d’utilisation
des AI.

La qualité et localisation des données ont un grand effet avec une plage de coefficient de
0.262 par rapport à la caractéristique de la tâche (plage de coefficient = 0.171). Par ailleurs, la
qualité de service de le technologie (plage de coefficient = -0.323) a un effet négatif et non
significatif sur l’intensité d’utilisation des AI.

Si nous nous référons à Goodhue et Thompson, pour démontrer la relation entre l’adéquation
technologie-tâche et l’utilisation, nous retrouvons que leurs résultats fournissent un support
concis pour la relation supposée. Quoique la régression soit intacte et que les plages de
coefficient des trois variables du construit de l’adéquation technologie-tâche soient
statistiquement significatives (qualité du service offert par les AI, rapidité et pertinence des
systèmes), le R² ajusté est égal à 0.02. En plus, la pertinence des systèmes et la qualité du
service offert par les AI ont des plages de coefficients négatives. Ces auteurs ont interprété
leurs résultats en faisant recours aux théories des attitudes et des comportements. Les deux
liens négatifs sont justifiés par le fait que les utilisateurs supposent que les systèmes sont
moins pertinents et leurs relations avec les utilisateurs moins positives.

Ces auteurs ont donné plus d’interprétation dans le cas de l’effet causal des relations (à
travers le mécanisme du feedback). Pour ces auteurs, les individus utilisant ces systèmes pour
de grandes transactions et très dépendants d’eux sont plus frustrés par les moments difficiles
d’utilisation de ces systèmes. Les utilisateurs qui ont une forte dépendance semblent être
bloqués dans leur travail en considérant les systèmes comme étant non pertinents.
110
Voir l’annexe n°5_CH6
111
Voir l’annexe n°5bis_CH6
112
Une part de ce pourcentage vient de ces trois variables (EOUse, PUse, ItouUse)

207
Chapitre6

Similairement, les personnes qui sont très dépendantes des systèmes sont plus frustrées avec
de mauvaises relations avec le département du SI et ils peuvent donner de mauvaises
évaluations concernant ces relations. Ceci est tout à fait différent des nombreux travaux
montrant le lien entre les attitudes de l’utilisateur et l’utilisation (Davis, 1989; Hartwick and
Barki, 1994; Moore and Benbasat, 1992; Thompson et al., 1991), mais uniforme avec des
arguments donnés par Melone (1990) qui souligne les circonstances de l’utilisation
influençant les attitudes.

Le manque de support pour cette proposition est expliqué par le fait que ces auteurs ont
conceptualisé l’utilisation comme la dépendance aux systèmes d’information. Dans notre
étude, nous avons opérationnalisé l’utilisation comme l’intensité ou la fréquence d’utilisation.
En revanche, Goodhue et Thompson ont soulevé des questions sur l’applicabilité des
conceptualisations. Ils ont pensé que la conceptualisation est responsable de ce faible lien
entre l’adéquation technologie-tâche et le comportement. Ils ont trouvé un R² supérieur à 0.10
pour chaque nouvelle régression. Pour chaque cas, le lien le plus fort est entre les croyances
négatives des utilisateurs sur la pertinence des systèmes et leurs relations avec l’équipe du SI.
Ce lien est plus élevé avec l’utilisation. Donc, il est clair que leur conceptualisation n’est pas
responsable du manque de support pour cette proposition.

Nos résultats montrent que la qualité et la localisation des données ont l’effet le plus élevé sur
l’intensité d’utilisation des AI. Nous pouvons expliquer que les participants à ce questionnaire
se sont montrés très dépendants à ces systèmes (l’intensité d’utilisation est élevée) ont
considéré que les systèmes sont pertinents. Ainsi, les données provenant de différents niveaux
hiérarchiques incitent les utilisateurs à s’en servir des AI pour déterminer quelles sont les
données qui sont disponibles et où sont-elles localisées. Donc, nous notons que les besoins
correspondant cette technologie augmentent la fréquence d’utilisation.

Goodhue et Thompson ont donné plus d’explications : un lien direct entre l’adéquation
technologie-tâche et l’utilisation peut ne pas être justifié en général. Pour eux, l’adéquation
technologie-tâche peut ne pas être dominante sur la décision d’utiliser une technologie. En
revanche, d’autres influences venant de la théorie des attitudes et de comportement comme les
habitudes (Ronis et al., 1989), les normes sociales (l’utilisation volontaire) peuvent dominer
dans ces organisations. Cela suggère que le test du lien entre l’adéquation technologie-tâche
et l’utilisation demande beaucoup plus d’attention et de détail d’autres variables à travers la
recherche des attitudes et du comportement.

208
Chapitre6

H3: L’Adéquation Technologie-Tâche (QLD, QS) a un effet positif sur l’Acceptation


des Agents Intelligents (Sat, EOUse, PUse, ItoU). L’étude de cette hypothèse génère huit
sous-hypothèses. Par ailleurs, nous avons testé l’effet des caractéristiques de la technologie
(F) sur la facilité d’utilisation des AI (EOUse). (Voir tableau 45)

R²= 0.620
0.22
F EOUse

6.12** R²= 0.725


1.18
QLD 2.46*
PUse

0.64
6.8**
0.95 R²= 0.794

Sat
QS
2.88**

R²= 0.468

1.46 ItoUse

209
Chapitre6

QLD QS F
EOUse 0.127 (H51) 0.675 (H52) 0.021 (H59)
PUse 0.144 (H61) 0.626 (H62) Non testée
Sat -0.047 (H31) 0.333 (H32) Non testée
ItoUse -0.086 (H71) 0.224 (H72) Non testée
Légende :
F : fonctionnalités des AI. (V9)
QLD : qualité et localisation des données. (V1)
QS : qualité du service offert par les AI. (V2)
EOUse: facilité d’utilisation des AI. (V5)
PUse: utilité perçue des AI. (V6)
Sat : satisfaction des utilisateurs des AI. (V3)
ItoUse: intention d’utiliser les AI dans le processus de prise de décision. (V7)

Tableau 45. Influence de l’Adéquation Technologie-Tâche sur l’Acceptation des AI113


(** = 0.005, * = 0.025)114

La qualité et la localisation des données, la qualité du service offert par les AI et les
fonctionnalités de cette technologie expliquent 62% de la variance de la facilité d’utilisation
des AI. L’effet de la qualité du service offert par les AI est beaucoup plus dominant avec une
plage de coefficient de 0.675 en comparaison avec la qualité et la localisation des données, et
les fonctionnalités des AI. (les plages de coefficients respectives sont 0.127; 0.022).

L’effet de la qualité de service des AI sur les variables de l’acceptation d’une technologie est
plus important que la qualité et la localisation des données. (Voir Tableau 45)

Ce tableau montre que l’effet le plus élevé sur les variables l’acceptation des AI est celui de la
qualité du service offerte par les AI. Cet effet est significatif au seuil de 0.005 entre ces
variables : QS/EOUse ; QS/PUse et QS/Sat.

Les travaux de Goodhue et Thompson méritent plus d’attention sur la généralisation de


l’impact des facteurs spécifiques de l’Adéquation Technologie-Tâche appliqués sur un
échantillon composé de deux firmes. Notre contribution dans cette étude est que notre
échantillon est composé de six secteurs d’activités différents.

Les instruments de l’utilité perçue et de la facilité d’utilisation sont acceptés à travers la


communauté de recherche de Management des Systèmes d’Information comme étant un outil
d’évaluation des applications des systèmes d’information (Doll et al., 1998). Franz & Robey

113
Voir l’annexe n°5_CH6
114
Voir l’annexe n°5bis_CH6

210
Chapitre6

(1986), sont intéressés à l’étude de la relation entre l’implication de l’utilisateur, l’utilité


perçue des systèmes, et les facteurs organisationnels. Il existe une influence modérée possible
des facteurs organisationnels sur la relation entre l’implication et l’utilité, ainsi qu’un effet
exogène des facteurs organisationnels sur l’utilité des systèmes.

Dans la littérature nous notons l’importance de l’utilité perçue et sa relation directe ou


indirecte avec d’autres variables. Dans notre étude, nous adoptons le support puissant en
terme de validité et de fiabilité de Davis, en rajoutant la mesure de la satisfaction de
l’utilisateur en tant que variable perceptuelle. Elle indique dans quelle mesure l’utilisateur
croit que l’agent intelligent fournit les besoins en informations.

Beaucoup de recherches se sont concentrées sur la recherche d’une mesure valide de la


satisfaction de l’utilisateur final. Les travaux de Baily and Pearson (1983) ont développé un
instrument différentiel sémantique, avec 39 items afin de mesurer satisfaction des utilisateurs
auprès des ordinateurs. Cette approche a été révisée par Ives et al. (1983) avec un instrument
de 13 items. L’instrument de Doll and Torkzadeh (1988) est composé de 12 items, et qui est
formé de cinq facteurs : contenu de l’information, exactitude, format, facilité d’utilisation, et
la rapidité. Cette approche a été confirmée par ces auteurs en 1994 pour être validée comme
une mesure standardisée de la satisfaction de l’utilisateur en intégrant des applications
spécifiques. Delone et Mclean (1992) ont fourni 6 variables dépendantes majeures qui
contribuent au succès des SI : la qualité du système et de l’information, l’utilisation, la
satisfaction, l’impact individuel, et l’impact organisationnel. Les agents intelligents forment
une technologie spécifique des TSI, ces variables peuvent expliquer la façon de leur
application.

211
Chapitre6

H4: L’Acceptation des agents intelligents (EOUse, PUse, ItoU) a un effet positif sur
l’intensité d’utilisation de cette technologie (IU). L’examen de cette hypothèse génère : d’une
trois sous-hypothèses ; d’autres part, six relations entre les variables du modèle de
l’acceptation des AI ont été testées (EOUse/PUse ; EOUse/Sat ; EOUse/ItoU ; PUse/Sat ;
PUse/ItoU ; Sat/ItoU). (Voir tableau 46)

R²= 0.794 R²= 0.468 R²= 0.302

1.52 0.82
Sat ItoUse IU

4.52**
2.31*

1.09
0.23
3.17** 2.21*

EOUse PUse

1.51

EOUse PUse Sat ItoUse


PUse 0.140 (H65)

Sat 0.273 (H35) 0.393 (H36) Non testée

ItoUse 0.032 (H75) 0.296 (H76) 0.240 (H73)

IU -0.343 (H45) -0.176 (H46) Non testée 0.106 (H47)


Légende :
EOUse: facilité d’utilisation des AI. (V5)
PUse: utilité perçue des AI. (V6)
Sat : satisfaction des utilisateurs des AI. (V3)
ItoUse: intention d’utiliser les AI dans le processus de prise de décision. (V7)
IU: intensité d’utilisation des AI. (V4)

Tableau 46. Influence de l’Acceptation des AI sur l’intensité d’utilisation des AI 115
(** = 0.005, * = 0.025)116

La facilité d’utilisation, l’utilité perçue des AI et la satisfaction des utilisateurs, expliquent


46% de la variance de l’intention d’utiliser les AI dans le processus de prise de décision.

115
Voir l’annexe n°5_CH6
116
Voir l’annexe n°5bis_CH6

212
Chapitre6

L’utilité perçue a l’effet le plus élevé avec une plage de coefficient de 0.296 sur l’intention
d’utiliser cette technologie dans le processus de prise de décision. Cet effet est significatif au
seuil de 0.025. La facilité d’utilisation a l’effet le plus faible avec une plage de coefficient de
0.032 sur l’intention d’utiliser les AI. (Voir Tableau 46)

L’effet de la satisfaction et de la facilité d’utilisation des AI n’est pas significatif sur


l’intention d’utilisation de cette technologie. Cela montre que les normes subjectives ne sont
pas importantes dans la compréhension des choix individuels pour utiliser un AI.

Nos résultats montrent que la facilité d’utilisation et l’utilité perçue d’une technologie ont un
impact positif et significatif au seuil de 0.005 sur la satisfaction des utilisateurs et nous
remarquons que ces deux variables freinent l’intensité d’utilisation ; à savoir que l’effet de la
facilité d’utilisation est significatif au seuil de 0.025.

Le test de toutes les hypothèses du modèle intégré (TTF/TAM) sous PLS-Graph, montre
que les décisions prises pour utiliser un AI sont liées à la compréhension des
fonctionnalités et qualité de service offertes par cette technologie d’une part et de leur
adéquation aux besoins perçus des utilisateurs d’autre part.

213
Chapitre6

Section 2. Modèles d’Equations Structurelles :


Analyse des effets linéaires
Dans la première section nous avons testé les relations de tout le modèle global théorique en
utilisant le logiciel PLS-Graph. Cette analyse a permis de filtrer les relations qui n’ont pas de
sens entre les variables latentes. Sur la base de cette analyse nous proposons deux modèles
testés sur le logiciel AMOS 4. pour montrer la significativité des relations.

1. Premier Modèle de l’Adéquation Technologie-Tâche :


Démarche méthodologique117

1.1. Elaboration et spécification

Le premier modèle d’équations structurelles repose sur l’articulation de deux types de


modèles : le modèle de mesure et le modèle de relations linéaires. Ces deux modèles forment
le modèle global de l’Adéquation Technologie-Tâche (Figure 41).

Le modèle de mesure représente les relations linéaires supposées entre les variables latentes et
leurs indicateurs :

- Première variable latente : La qualité et la localisation des données (QLD)118 : Cette


variable est mesurée par ces indicateurs : item3, item5, item6, item7, item8, item9 et
item10.

- Deuxième variable latente : La qualité du service offert par les AI (QS) : Cette
variable est mesurée par ces indicateurs : item21, item22, item23 et item25.

- Troisième variable latente : La satisfaction des utilisateurs de la technologie des AI


(Sat) : Cette variable est mesurée par ces indicateurs : item38, item39, item40 et
item41.

- Quatrième variable latente : L’intensité d’utilisation des AI (IU) : Cette variable est
mesurée par ces indicateurs : item57 et item58.

Ce modèle résulte, à la fois, de l’analyse factorielle en composantes principales présentée


dans le chapitre 5 et de l’Analyse Factorielle Confirmatoire (en utilisant le logiciel PLS-

117
Nous avons suivi la méthodologie détaillée dans l’ouvrage de Roussel, Durrieu, Compoy et El Akremi (2002)
118
Cette variable (QLD) représente deux variables latentes (QD et LD) séparées lors des traitements statistiques
réalisées sous SPAD. Le nombre élevé de variables latentes examinées sous ce logiciel n’a pas posé de
problème. Vu que ces deux variables sont fortement corrélées, on les a fusionnées lors de la spécification du
modèle sous PLS Graph et AMOS 4.

214
Chapitre6

Graph) qui a été présentée dans la section 1 de ce chapitre sur le test des échelles du
questionnaire d’enquête. Dans le modèle de mesure, on observe que chaque variable latente
est reliée aux indicateurs par un lien. Ce dernier est en réalité la contribution factorielle
estimée par l’AFC. Chacun de ces items a fait l’objet d’une étude théorique lors de
l’élaboration de l’échelle du questionnaire servant à obtenir une mesure du concept. On peut
observer aussi que le processus d’estimation intègre une erreur de mesure pour chaque
indicateur (ei119).

Quand au modèle structurel, il représente l’ensemble des relations linéaires supposées entre
les variables latentes (QLD, QS, Sat et IU). Il figure le système d’hypothèses élaboré pour
tenter d’expliquer un phénomène observé. Signalons que la lettre Dj désigne l’erreur de
mesure estimée d’une variable latente à expliquer.

La spécification d’un modèle consiste à déterminer les différents paramètres qui devront être
estimés : coefficients de régression, de corrélations, de covariances, contributions factorielles,
erreurs de mesure. En pratique, la spécification de ce premier modèle théorique s’opère en
deux étapes. La première est graphique. Elle consiste à représenter les différentes variables
latentes et les paramètres du modèle, ainsi que les relations linéaires et de mesure du modèle
global. La seconde correspond à la saisie d’informations dans le logiciel.

L’étape de spécification de ce modèle a été complexe pour le concepteur. Des difficultés sont
aperçues lors du choix de l’élimination des indicateurs de mesure des variables latentes.

119
ei : erreur de mesure pour chaque indicateur (i pour désigner l’item)

215
Chapitre6

1
e3 ITEM3
e57 e58
1 1 1
e5 ITEM5

Item57 Item58
1
e6 ITEM6 1

1 1
e7 ITEM7 IU D4
QLD

1
e8 ITEM8

1 1
e9 ITEM9

1
e10 ITEM10

1
e21 Item21

1
e23 ITEM23
1
1 QS Sat D3
1
e25 ITEM25

1 1
e22 Item22

Item38 Item39 Item40 Item41


1 1 1 1

e38 e39 e40 e41

Figure 41. Présentation du modèle de l’Adéquation Technologie Tâche conçue par


AMOS 4.120

120
Ce modèle présenté a subi les modifications nécessaires pour avoir un « bon » ajustement du modèle global.
Nous remercions Monsieur le Professeur B. Goldfarb pour son aide précieuse au niveau de la spécification et la
finalisation des deux modèles.

216
Chapitre6

QS QLD Sat IU
Sat 0,919 0,000 0,000 0,000
IU 0,805 0,298 -0,609 0,000
ITEM58 0,000 0,000 0,000 1,040
ITEM22 0,820 0,000 0,000 0,000
ITEM38 0,000 0,000 0,730 0,000
ITEM39 0,000 0,000 0,757 0,000
ITEM40 0,000 0,000 0,781 0,000
ITEM41 0,000 0,000 0,918 0,000
ITEM57 0,000 0,000 0,000 0,585
ITEM21 0,656 0,000 0,000 0,000
ITEM23 0,865 0,000 0,000 0,000
ITEM25 0,762 0,000 0,000 0,000
ITEM3 0,000 0,779 0,000 0,000
ITEM5 0,000 0,722 0,000 0,000
ITEM6 0,000 0,748 0,000 0,000
ITEM7 0,000 0,840 0,000 0,000
ITEM8 0,000 0,733 0,000 0,000
ITEM9 0,000 0,821 0,000 0,000
ITEM10 0,000 0,847 0,000 0,000
Tableau 47. Matrice de l’estimation des effets directs standardisés 121

1.2. Estimation du modèle théorique

A ce stade, il faut choisir la procédure d’estimation du modèle qui est nécessaire pour estimer
l’ensemble des paramètres. Nous avons choisi la méthode du maximum de vraisemblance.
« C’est une méthode itérative qui détermine les estimations finales des paramètres à travers
une recherche numérique à partir d’une solution de base fournie par la méthode TSLS (Two
Stage Least Squares) »122 (Akrout, 2005). C’est une méthode qui est devenue populaire dans
l’estimation des modèles de structure intégrant des variables latentes.

1.3. Identification du modèle théorique

L’identification d’un modèle théorique signifie qu’il est possible de trouver une solution
unique. Il est possible d’établir une estimation unique de chaque paramètre (coefficients de
régression, de covariance, de régression, contributions factorielles). Lors de l’identification de
notre premier modèle nous avons rencontrer des problèmes liés à son niveau de complexité en

121
Cette matrice est présentée sous forme de graphique dans l’annexe n°6_CH6.
122
Cette méthode est définie par le Pr. F. Akrout dans un document préparé et présenté dans un programme de
formation destiné aux enseignants de la Faculté de Sciences Juridiques, Economiques et de Gestion de Jendouba
(23-24-26 Juin 2005)

217
Chapitre6

raison de l’apparition de solutions alternatives défendables tant du point de vue métrique que
théorique (Hair et al., 1998). Pour parvenir à l’identification de ce modèle, deux conditions
doivent être réunies :

- La première est qu’il y ait au moins autant d’observations dans la base de données
(155 observations) que de paramètres à estimer. Le fait de diviser notre modèle
théorique initial en deux modèles est expliqué par la taille de l’échantillon. Plus le
nombre de variables latentes et d’indicateurs est grand, plus la taille de l’échantillon
doit être grande. Le choix d’une procédure d’estimation détermine la taille d’un
échantillon. Des tailles minimales de cent à cent cinquante individus peuvent être
traitées par la méthode d’estimation la plus courante du maximum de vraisemblance.

- La deuxième renvoie aux problèmes des degrés de liberté123. Ces derniers


représentent l’écart entre le nombre de corrélations ou de covariances potentielles et
estimées. Ils peuvent se définir comme les coefficients non estimés d’un modèle
(Roussel et al. 2002)

L’un des problèmes majeurs de la sous-identification relève de la mesure des variables


latentes. Trois indicateurs par variable latente permet d’obtenir des estimations uniques (Hair
et al., 1998). Pour la mesure de chaque variable latente, nous avons fixé le premier paramètre
à 1 (la contribution factorielle de son premier indicateur est égal à 1). Avec cette solution, on
établit un indicateur de référence qui servira de valeur étalon pour la métrique des variables
latentes (Roussel et al., 2002). En fixant ces paramètres, le risque de sous identification du
modèle sera réduit.

1.4. Interprétation des résultats

L’interprétation des résultats intervient suite à l’estimation du modèle théorique et à son


identification. Elle a pour objectif d’évaluer la qualité de l’ajustement du modèle aux données.

123
df =ddl = ½ [ (p + q) (p + q + 1)] – t.
où : ddl = degrés de liberté (df = « degrees of freedom »)
p = nombre d’indicateurs des variables latentes à expliquer
q = nombre d’indicateurs de variables latentes explicatives
t = nombre de coefficients estimés dans le modèle théorique.

218
Chapitre6

1.4.1. La qualité de l’ajustement du premier modèle aux données

Un bon ajustement est une condition pour procéder à l’interprétation des résultats.
L’ajustement est évalué successivement pour : le modèle global, le modèle de mesure et le
modèle structurel.

1.4.1.1. L’ajustement du modèle global

Pour faire l’ajustement du modèle global, il faut faire appel à plusieurs indices aux
caractéristiques différentes. Ces indices seront présentés sous forme du tableau 48. Ce dernier
présente les valeurs clés admises des principaux indices d’ajustement (Roussel et al., 2002),
ainsi que les propres valeurs du premier modèle testé :

Indices Valeur Clé Valeur admise liée au


premier modèle global
Indices absolus
 Aucune. 218,8
GFI et AGFI > 0,9 GFI = 0,852 ; AGFI = 0,778
RMR La plus proche de 0. 0,095
RMSEA < 0,08 et si possible < 0,05. 0,086
Indices incrémentaux
NFI > 0,9 0,892
IFI > 0,9 0,939
CFI > 0,9 0,938
Indices de parcimonie
 normé (ddl =102) La plus faible entre 1 et 2 ou 2,146
3.
AIC, CAIC et ECVI La plus faible possibleAIC = 320,850
(comparaison). CAIC = 527,064
ECVI = 2,083
PNFI et PGFI La plus forte possible PNFI = 0,699
(comparaison). PGFI = 0,593
Tableau 48. Ajustement et pouvoir explicatif du 1er modèle 124

1.4.1.2. L’ajustement du modèle de mesure

L’estimation du modèle de mesure sépare trois types d’analyse :

- La fiabilité des variables latentes : La fiabilité de cohérence interne a été évaluée par
la valeur du rhô dans la section précédente (Voir Tableau 41 Signification et Fiabilité
composite par construit). Nous avons montré que la fiabilité de cohérence interne de

124
Pour plus d’indices d’ajustement du modèle global voir l’annexe n°6.1._CH6. Les principaux indices absolus
sont commentés dans l’annexe n°6.2._CH6. La définition des indices d’ajustement du modèle global est
présentée dans le même annexe.

219
Chapitre6

chaque construit du modèle théorique initial est bonne si la valeur de rhô ( ) est
supérieure à 0,8 (Fornell et Larker, 1981).

- La validité des construits : Pour apprécier la validité des construits, nous avons tenu
compte de la validité convergente et la validité discriminante.

La validité convergente existe quand deux mesures différentes d’un même concept sont
fortement corrélées. Pour mesurer la validité convergente, nous adoptons l’approche de
Anderson et Gerbing (1988)125 qui consiste à vérifier la significativité de la contribution
« loading » de chaque indicateur à la mesure du construit. Par référence au tableau suivant, on
peut remarquer que tous les liens de régression entre la variable latente et ses mesures sont
significatifs. Les valeurs de C.R. sont supérieures à 1,79. En cas de liens non significatifs, la
validité convergente ne peut être atteinte que si on élimine l’item dont la relation avec son
construit n’est pas significative (cette étape a été vérifiée aussi lors de la section 1 du chapitre
6).

Estimate S.E. C.R. P


ITEM10 <-- QLD 1
ITEM9 <-- QLD 0,855 0,068 12,665 0
ITEM8 <-- QLD 0,79 0,078 10,185 0
ITEM7 <-- QLD 1,029 0,094 10,908 0
ITEM6 <-- QLD 0,741 0,073 10,116 0
ITEM5 <-- QLD 0,792 0,082 9,72 0
ITEM3 <-- QLD 0,886 0,083 10,655 0
ITEM25 <-- QS 1
ITEM23 <-- QS 1,489 0,132 11,308 0
ITEM21 <-- QS 1,632 0,196 8,344 0
ITEM57 <-- IU 1
ITEM41 <-- Sat 1
ITEM40 <-- Sat 0,782 0,062 12,634 0
ITEM39 <-- Sat 0,806 0,067 11,997 0
ITEM38 <-- Sat 0,811 0,08 10,103 0
ITEM22 <-- QS 1,674 0,162 10,312 0
ITEM58 <-- IU 1,861 0,387 4,807 0
Tableau 49. Regression Weights

Cette méthode a été critiquée par Steekamp et Tripp (1991)126 du fait qu’il faut associer à ce
critère de significativité des contributions factorielles : celui de la variance moyenne extraite.

125
Anderson, J.C. and Gerbing, D.W. (1988), « Structural equation modeling in practice : a review and
recommended two-step approach”, Psychological Bulletin, Vol. 103 N°. 4, pp. 411-23.
126
Steenkamp J.B.E.M. et H.C.V. Trijp (1991): «The use of Lisrel in validating Marketing Constructs »,
International Journal of Research in Marketing, Vol. 8, pp. 283-299.

220
Chapitre6

Il doit être supérieur à 0,5 (Fornell et Larker, 1981)127. Ce critère a été vérifié aussi lors du
traitement des données sous PLS-Graph (Section 1 du chapitre 6). Ce critère indique que
chaque indicateur lié à une variable latente partage plus de variance avec elle qu’avec d’autres
construits. Le tableau suivant montre la valeur de la variance moyenne extraite pour chaque
construit :

Estimate AVE

0,615
ITEM10 <-- QLD 0,84
ITEM9 <-- QLD 0,816
ITEM8 <-- QLD 0,727
ITEM7 <-- QLD 0,836
ITEM6 <-- QLD 0,752
ITEM5 <-- QLD 0,729
ITEM3 <-- QLD 0,783
0,596
ITEM25 <-- QS 0,758
ITEM23 <-- QS 0,851
ITEM21 <-- QS 0,656
ITEM22 <-- QS 0,811
0,640
ITEM41 <-- Sat 0,925
ITEM40 <-- Sat 0,776
ITEM39 <-- Sat 0,753
ITEM38 <-- Sat 0,732
0,715
ITEM57 <-- IU 0,585
ITEM58 <-- IU 1,043
Tableau 50. AVE et Coefficients de régression standardisés 128

La validité discriminante a été vérifiée dans la première section de ce chapitre. C’est une
méthode qui consiste à vérifier si la variance moyenne extraite pour chacun des deux
construits est plus grande que le ( ²)129 de ces deux construits (Fornell et Larker, 1981).

QLD QS Sat IU
QLD AVE = 0,615/
= 0,93
QS (0,861)²= AVE = 0,596/
0,74 = 0,81

127
Claes Fornell et David F Larcker (1981), « Evaluating structural equation models with unobservable variables
and measure… », Journal of Marketing Research, Feb 18, pp. 39-51.
128
Voir Annexe 6. 3. _CH6
129
: « Phi » indique la relation de symétrie entre deux variables latentes explicatives de type covariance.

221
Chapitre6

Sat (0,714)²= (0,938)²= AVE = 0,640/


0,50 0,87 = 0,87
IU (0,518)²= (0,494)²= (0,345)²= AVE = 0,715/
0,26 0,24 0,11 = 0,75
Tableau 51. Matrice des fiabilités et des liens structurels130.

L’utilisation de cette approche n’est pas perçue dans nos travaux (C’est le cas de l’AVE de la
variable QLD et son lien structurel avec la variable QS avec un ²= 0,74, et c’est le cas de
l’AVE de la variable Sat et son lien structurel avec la variable QS avec un ²= 0,87). C’est
pourquoi, nous nous basons sur de cronbach. Nous notons que les liens structurels élevés au
carré sont inférieurs aux valeurs de alpha de cronbach, ce qui permet de retenir la validité
discriminante.

- L’ajustement du modèle de mesure : Les indices incrémentaux sont utilisés pour


confronter les modèles concurrents et signaler celui qui présente le meilleur
ajustement relatif. Cette analyse a été faite lors de la spécification et de la fixation du
modèle de mesure final.

1.4.1.3. L’ajustement du modèle structurel

L’ajustement du modèle structurel est évalué dans cette étape. Cela nécessite de vérifier que
les relations linéaires entre les variables latentes désignées par les coefficients structurels sont
statistiquement différentes de zéro. Le logiciel AMOS.4 propose un test t de Student, le même
évoqué précédemment pour évaluer la validité convergente. Vu qu’on dispose de 155
observations, il est recommandé de choisir un seuil de signification de 2,5%. Dans ce cas, la
valeur de t doit être supérieur à 1,96. (Roussel et al., 2002)

Estimate S.E. C.R. P


Sat <-- QS 1,195 0,108 11,109 0,000
IU <-- QLD 0,126 0,068 1,845 0,065
IU <-- QS 0,575 0,267 2,151 0,032
IU <-- Sat -0,335 0,169 -1,980 0,048
Tableau 52. Coefficients de Régression

Enfin, il est recommandé d’analyser pour chacune des variables latentes dépendantes le
pourcentage de variance expliquée. Le logiciel AMOS. 4 produit automatiquement cet indice.
(Voir le tableau 53). Plus le résultat est élevé, plus on peut considérer que la variable

130
Voir Annexe 6. 4._CH6 et 6. 5._CH6.

222
Chapitre6

endogène (dépendante) est bien expliquée par les autres variables qui lui sont associées.
(Roussel et al. 2002)

Estimate
Sat 0,845
IU 0,327
Tableau 53. Squared Multiple Correlations

La variable satisfaction est bien expliquée par les variables qui lui sont associées (Qualité de
service) alors que la variable intensité d’utilisation des AI est faiblement expliquée par les
autres variables (Qualité et localisation des données, Qualité de service et satisfaction des
utilisateurs).

1.4.2. Résolution du modèle d’équations structurelles

Pour résoudre un modèle d’équations structurelles, la méthode de Jöreskog et Sörbom est


appropriée à ce cas de figure. Elle repose sur le principe de l’élimination progressive des
relations non significatives. Cette méthode se compose de six étapes (Roussel et al., 2002) :

- Vérifier la signification des corrélations entre les variables latentes à expliquer ;

- Test 1 : Tester si les variables à expliquer ont toutes les variables explicatives
comme causes communes ;

- Test 2 : Tester si une première variable à expliquer influence l’autre variable


expliquée ;

- Test 3 : Tester si une seconde variable à expliquer influence l’autre variable


expliquée ;

- Test 4 : Tester si les deux variables à expliquer s’influencent réciproquement ;

A l’issue de ces quatre tests, retenir comme modèle celui qui a le meilleur ajustement aux
données à l’issue du test des quatre hypothèses citées ci-dessus.

1.4.2.1. La corrélation entre les variables latentes expliquées

Dans notre cas pratique, le premier modèle conçu sur l’adéquation technologie-tâche (Voir
Annexe n°6_CH 6) désigne les relations à tester : d’une part, entre les variables indépendantes
de la qualité et la localisation des données (QLD) et la qualité de service offerte par les AI
(QS), d’autre part, les variables dépendantes de la satisfaction des utilisateurs (Sat) et
l’intensité d’utilisation des AI (IU). L’Annexe n°6_CH 6 nous présente les corrélations

223
Chapitre6

significatives entre les indicateurs des variables à expliquer. Celles observées entre les deux
indicateurs de l’intensité d’utilisation Y1131 (0,34) et Y2 (1,08). Les indicateurs de la
satisfaction des utilisateurs de cette technologie sont également positives et significatives
respectivement avec Y3 (0,53), Y4 (0,57), Y5 (0,61) et Y6 (0,84).

Ces deux variables latentes dépendantes (Sat et IU) étant liées statistiquement, ce résultat
permet de tester les hypothèses 1 à 4.

1.4.2.2. Test 1

Ce test consiste à valider ou infirmer la proposition suivante : si les variables expliquées ont
toutes les variables explicatives comme causes communes. Ce test nécessite de mettre en
relation chaque variable à expliquer avec toutes les variables explicatives. Si la corrélation
partielle entre 4 (0,33) et 3 (0,85) est de zéro, ce qui n’est pas le cas et que les variables
dépendantes sont reliées aux variables indépendantes, l’hypothèse 1 est vérifiée. Alors les
variables à expliquer 4 et 3 auront indépendamment les mêmes causes. Dans ce cas le test 1
invalide la proposition sus-mentionnée : les variables explicatives ne sont pas toutes des
causes communes aux variables à expliquer, il est possible de tester les hypothèses suivantes.

1.4.2.3. Test 2

Le test 2 consiste à valider ou invalider la proposition suivante : la variable expliquée


Satisfaction des utilisateurs 3 influence la seconde variable expliquée Intensité d’utilisation
des AI 4.

Dans ce modèle, la Satisfaction des utilisateurs 3 a un effet négatif et significatif sur


132
l’intensité d’utilisation des AI 4 ( = - 0,61 ; t = -1,980). Elle est également associée à la
133
qualité de service offert par les AI de manière positive et significative ( = 0, 92 ; t =
11,109). Aucune autre variable explicative n’est reliée significativement à 3. Concernant
l’intensité d’utilisation, la qualité et la localisation des données (QLD) et la qualité du service
offert par les AI (QS), elles sont associés positivement à l’intensité d’utilisation. La variable
QLD a un lien non significatif avec l’intensité d’utilisation (t = 1,845) alors que le lien entre
la variable QS et IU est significatif (t = 2,151).

131
Y : Indicateur des variables latentes à expliquer ; X : indicateur des variables latentes explicatives.
132
: « Bêta » indique la relation linéaire entre deux variables latentes à expliquer. Dans notre cas, cette relation
est linéaire non réciproques entre Sat et IU. Cette relation est dite récursive ou asymétrique.
133
: « Gamma » indique la relation d’asymétrie correspondant à une relation linéaire ou structurelle entre une
variables latente explicative et une variables latente expliquée.

224
Chapitre6

1.4.2.4. Test 3

Ce test aurait permis de valider ou infirmer la proposition suivante : la variable expliquée IU


4 influence l’autre variable expliquée de la Satisfaction des utilisateurs 3.

Dans notre cas cette relation a été éliminée lors de la re-spécification de ce modèle. Cette
élimination est due au fait que l’intensité de l’utilisation n’a statistiquement pas de lien avec la
satisfaction des utilisateurs.

1.4.2.5. Test 4

Ce dernier test cherche à vérifier ou infirmer la proposition selon laquelle les deux variables
expliquées s’influencent réciproquement. Nous n’avons pas testé cette proposition parce que
les deux variables dépendantes (Sat et IU) sont liées par une relation linéaire non réciproque.

En résumé, la qualité et la localisation des données a un effet positif mais non significatif
sur l’intensité d’utilisation des AI.

La qualité de service a un effet positif et significatif sur l’intensité d’utilisation et sur la


satisfaction des utilisateurs.

La satisfaction des utilisateurs influencerait négativement l’intensité d’utilisation des AI.

2. Deuxième Modèle de l’Acceptation d’une Technologie :


Démarche méthodologique

2.1. Elaboration, Spécification, estimation et identification du modèle

Dans cette sous-section nous présentons directement l’interprétation des résultats et la


résolution du deuxième modèle d’équations structurelles. Les trois premières étapes
concernant l’élaboration, la spécification du modèle, son estimation et son identification
seront présentées brièvement puisque nous avons suivi la même démarche appliquée dans le
premier modèle.

Le deuxième modèle d’équations structurelles repose sur l’articulation de deux types de


modèles : le modèle de mesure et le modèle structurel. Ces deux modèles forment le modèle
global de l’Acceptation de la Technologie des AI (Figure 42).

225
Chapitre6

Le modèle de mesure représente les relations linéaires supposées entre les variables latentes134
et leurs indicateurs :

- Troisième variable latente : La satisfaction des utilisateurs de la technologie des AI


(Sat) : Cette variable est mesurée par ces indicateurs : item38, item39, item40 et item41.

- Quatrième variable latente : L’intensité d’utilisation des AI (IU) : Cette variable est
mesurée par ces indicateurs : item57 et item58.

- Cinquième variable latente : La facilité d’utilisation des AI (EOUse) : Cette variable


est mesurée par ces indicateurs : item31, item32, item35, item36.

- Sixième variable latente : L’utilité perçue des AI (PUse)135 : Cette variable est
mesurée par ces indicateurs : item42, item43, item45, item46 et item47.

- Septième variable latente : L’intention d’utiliser cette technologie dans le processus


de prise de décision (ItoUse) : cette variable est mesurée par ces deux indicateurs :
item48 et item49.

L’élaboration et la spécification de ce modèle résultent à la fois de l’analyse factorielle en


composantes principales présentée dans le chapitre 5 et de l’Analyse Factorielle
Confirmatoire (en utilisant le logiciel PLS-Graph) qui a été présentée dans la section 1 de ce
chapitre sur le test des échelles du questionnaire d’enquête.

134
Nous avons gardé l’ordre de numérotation des variables latentes par rapport au premier modèle de
l’Adéquation Technologie Tâche.
135
Cette variable (PUse) représente deux variables latentes (P et JQ) séparées lors des traitements statistiques
réalisées sous SPAD. Le nombre élevé de variables latentes examinées sous ce logiciel n’a pas posé de
problème. Vu que ces deux variables sont fortement corrélées, on les a fusionnées lors de la spécification du
modèle sous PLS et AMOS 4.

226
Chapitre6

e38 e39 e40 e41 e57 e58


e48 e49
1 1 1
1 1 1 1 1
Item57 Item58
Item38 Item39 Item40 Item41 Item49
Item48
1
1 1 D4
1
IU
Sat ItoUse
1
1
D7

D3

1 D6

EOUse
PUse

1 1

Item31 Item32 Item35 Item36 Item42 Item43 Item45 Item46 Item47

1 1 1 1 1 1 1 1 1

e31 e32 e35 e36 e42 e43 e45 e47


e46

Figure 42. Présentation du modèle de l’Acceptation d’une Technologie conçue par


AMOS 4.

227
Chapitre6

EOUse PUse Sat ItoUse IU


PUse 0,734 0,000 0,000 0,000 0,000
Sat 0,423 0,609 0,000 0,000 0,000
ItoUse 0,023 0,123 0,672 0,000 0,000
IU -0,040 -0,007 0,000 0,315 0,000
ITEM42 0,000 0,945 0,000 0,000 0,000
ITEM35 0,776 0,000 0,000 0,000 0,000
ITEM45 0,000 0,924 0,000 0,000 0,000
ITEM32 0,816 0,000 0,000 0,000 0,000
ITEM49 0,000 0,000 0,000 0,776 0,000
ITEM48 0,000 0,000 0,000 0,761 0,000
ITEM41 0,000 0,000 0,857 0,000 0,000
ITEM40 0,000 0,000 0,794 0,000 0,000
ITEM39 0,000 0,000 0,764 0,000 0,000
ITEM38 0,000 0,000 0,756 0,000 0,000
ITEM58 0,000 0,000 0,000 0,000 1,608
ITEM57 0,000 0,000 0,000 0,000 0,379
ITEM43 0,000 0,978 0,000 0,000 0,000
ITEM46 0,000 0,711 0,000 0,000 0,000
ITEM47 0,000 0,829 0,000 0,000 0,000
ITEM31 0,889 0,000 0,000 0,000 0,000
ITEM36 0,880 0,000 0,000 0,000 0,000
Tableau 54. Matrice de l’estimation des effets directs standardisés 136

2.2. Interprétation des résultats

Afin d’interpréter les résultats. Il faut évaluer la qualité de l’ajustement de ce modèle aux
données.

2.2.1. La qualité de l’ajustement du deuxième modèle aux données

L’ajustement est évalué successivement pour : le modèle global, le modèle de mesure et le


modèle structurel.

2.2.1.1. L’ajustement du modèle global

Pour faire l’ajustement du modèle global, il faut se baser sur plusieurs indices aux
caractéristiques différentes. Ces indices seront présentés sous la forme du tableau suivant.

136
Cette matrice est présentée sous forme de graphique dans l’annexe n°7_CH6.

228
Chapitre6

Le tableau 55 présente les valeurs clés admises : les principaux indices d’ajustement (Roussel
et al., 2002), ainsi que les propres valeurs du deuxième modèle testé :

Indices Valeur Clé Valeur admise liée au premier modèle global


Indices absolus
 Aucune. 250,8
GFI et AGFI > 0,9 GFI = 0,856; AGFI = 0,793
RMR La plus proche de 0. 0,054
RMSEA < 0,08 et si possible < 0,094
0,05.
Indices incrémentaux
NFI > 0,9 0,897
IFI > 0,9 0,938
CFI > 0,9 0,938
Indices de parcimonie
 normé (ddl La plus faible entre 1 2,366
=106) et 2 ou 3.
AIC, CAIC et La plus faible possible
AIC = 344,826
ECVI (comparaison). CAIC = 534,867
ECVI = 2,239
PNFI et PGFI La plus forte possible PNFI = 0,699
(comparaison). PGFI = 0,593
Tableau 55. Ajustement et pouvoir explicatif du 2ème modèle 137

2.2.1.2. L’ajustement du modèle de mesure

Pour estimer le modèle de mesure, nous citons trois types d’analyse :

- La fiabilité des variables latentes : La fiabilité de cohérence interne a été évaluée par
la valeur du rhô dans la section précédente (Voir Tableau 41 Signification et Fiabilité
composite par construit). Nous avons montré que la fiabilité de cohérence interne de
chaque construit du modèle théorique initial est bonne si la valeur de rhô ( ) est
supérieure à 0,8 (Fornell et Larker, 1981).

- La validité des construits : L’évaluation de la validité des construits consiste à


vérifier la validité convergente et la validité discriminante.

Rappelons que la validité convergente existe quand deux mesures différentes d’un même
concept sont fortement corrélées. Le tableau 56 montre tous les liens de régression entre la
variable latente et ses mesures sont significatifs. Les valeurs de C.R. sont supérieures à 1,79.
En cas de liens non significatifs, la validité convergente ne peut être atteinte que si on élimine
l’item dont la relation avec son construit n’est pas significative. C’est le cas de l’item 58

137
Pour plus d’indices d’ajustement du modèle global voir l’annexe n°7. 1._CH6

229
Chapitre6

mesurant l’intensité d’utilisation des AI qui n’a pas une relation significative. Pour atteindre
cette validité, il faut normalement l’éliminer. Nous l’avons gardé pour tester la relation de la
variable de l’intensité avec les autres variables du modèle.

Estimate S.E. C.R. P


ITEM36 <-- EOUse 1
ITEM31 <-- EOUse 0,984 0,07 14,148 0
ITEM47 <-- PUse 1
ITEM38 <-- Sat 1
ITEM39 <-- Sat 0,976 0,098 9,927 0
ITEM40 <-- Sat 0,956 0,092 10,394 0
ITEM41 <-- Sat 1,106 0,097 11,366 0
ITEM48 <-- ItoUse 1
ITEM49 <-- ItoUse 0,915 0,106 8,659 0
ITEM32 <-- EOUse 0,953 0,079 12,14 0
ITEM58 <-- IU 4,432 3,315 1,337 0,181
ITEM57 <-- IU 1
ITEM45 <-- PUse 1,24 0,08 15,536 0
ITEM43 <-- PUse 1,163 0,068 17,023 0
ITEM46 <-- PUse 0,764 0,074 10,283 0
ITEM35 <-- EOUse 0,911 0,057 16,011 0
ITEM42 <-- PUse 1,134 0,071 15,876 0
Tableau 56. Regression Weights

Le critère de significativité des contributions factorielles a été associé à la variance moyenne


extraite. Il doit être supérieur à 0,5 (Fornell et Larker, 1981). Ce critère a été vérifié aussi lors
du traitement des données sous PLS-Graph (Section 1 du chapitre 6).

Le tableau 57 montre la valeur de la variance moyenne extraite par chaque construit :

Estimate AVE
0,708
ITEM36 <-- EOUse 0,88
ITEM31 <-- EOUse 0,889
ITEM32 <-- EOUse 0,816
ITEM35 <-- EOUse 0,776
0,779
ITEM47 <-- PUse 0,829
ITEM45 <-- PUse 0,924
ITEM43 <-- PUse 0,978
ITEM46 <-- PUse 0,711
ITEM42 <-- PUse 0,945
0,630
ITEM38 <-- Sat 0,756
ITEM39 <-- Sat 0,764

230
Chapitre6

ITEM40 <-- Sat 0,794


ITEM41 <-- Sat 0,857
0,591
ITEM48 <-- ItoUse 0,761
ITEM49 <-- ItoUse 0,777
1,367
ITEM58 <-- IU 1,61
ITEM57 <-- IU 0,379
Tableau 57. AVE et Coefficients de régression standardisés 138

La validité discriminante est une méthode qui consiste à vérifier si la variance moyenne
extraite (AVE) par chacun des deux construits est plus grande que le ( )² de ces deux
construits (Fornell et Larker, 1981).

EOUse PUse Sat IU ItoUse


EOUse AVE =
0,708/
= 0,91
PUse (0,734)²= AVE = 0,779/
0,538 = 0,94
Sat (0,870)²= (0,919)²= AVE = 0,630/
0,756 0,844 = 0,87
IU (0,174)²= (0,201)²= (0,212)²= AVE = 1,367/
0,030 0,040 0,044 = 0,75
ItoUse (0,698)²= (0,758)²= (0,805)²= (0,281)²= AVE=
0,487 0,574 0,648 0,078 0,591/
= 0,74
Tableau 58. Matrice des fiabilités et des liens structurels 139

L’utilisation de l’approche de la comparaison de l’AVE avec la valeur des liens structurels


( ) n’est pas constatée dans nos travaux (C’est le cas de l’AVE de la variable ItoUse et son
lien structurel avec la variable Sat avec un ²= 0,648 ; c’est le cas aussi de l’AVE de la
variable PUse et son lien structurel avec la variable Sat avec un ²= 0,844). Nous avons
comparé de cronbach avec les liens structurels. Comme on peut le remarquer, les liens
structurels élevés au carré sont inférieurs aux valeurs de alpha de cronbach, ce qui permet de
retenir la validité discriminante.

- L’ajustement du modèle de mesure : Nous avons utilisé les indices incrémentaux


pour confronter les modèles concurrents et signaler celui qui présente le meilleur
ajustement relatif. Cette analyse a été faite lors de la spécification et du choix du
modèle de mesure final.

138
Voir Annexe 7. 2._CH6
139
Voir Annexe 7. 3._CH6 et 6. 5._CH6.

231
Chapitre6

2.2.1.3. L’ajustement du modèle structurel

L’ajustement du modèle structurel est évalué dans cette étape. Cela nécessite de vérifier que
les relations linéaires entre les variables latentes désignées par les coefficients structurels sont
statistiquement différentes de zéro. Dans ce cas, la valeur de t doit être supérieure à 1,96.
(Roussel et al., 2002).

Estimate S.E. C.R. P


PUse <-- EOUse 0,679 0,072 9,367 0,000
Sat <-- EOUse 0,399 0,067 5,911 0,000
Sat <-- PUse 0,621 0,083 7,527 0,000
ItoUse <-- EOUse 0,025 0,258 0,097 0,923
ItoUse <-- Sat 0,777 0,553 1,406 0,160
ItoUse <-- PUse 0,146 0,36 0,405 0,686
IU <-- PUse -0,003 0,036 -0,088 0,930
IU <-- ItoUse 0,115 0,103 1,118 0,264
IU <-- EOUse -0,016 0,033 -0,491 0,623
Tableau 59. Coefficients de Régression

Ce tableau montre les relations testées non significatives entre ces variables et dont la valeur
du C.R. n’atteint pas 1,96 :

ItoUse <-- EOUse


ItoUse <-- Sat
ItoUse <-- PUse
IU <-- PUse
IU <-- ItoUse
IU <-- EOUse
Tableau 60. Présentation des relations non significatifs du 2ème modèle

Enfin, nous présentons dans le tableau 61 le pourcentage de variance expliquée pour chacune
des variables latentes dépendantes. Le logiciel AMOS. 4 produit automatiquement cet indice.
Plus le résultat est élevé, plus on peut considérer que la variable endogène (dépendante) est
bien expliquée par les autres variables qui lui sont associées. (Roussel et al. 2002).

232
Chapitre6

Estimate
PUse 0,539
Sat 0,928
ItoUse 0,65
IU 0,08
Tableau 61. Squared Multiple Correlations

La variable satisfaction est bien expliquée par les variables qui lui sont associées (La facilité
d’utilisation des AI et l’utilité perçue des AI) alors que la variable intensité d’utilisation des
AI est faiblement expliquée par les autres variables (La facilité d’utilisation des AI, l’utilité
perçue des AI et l’intention d’utiliser cette technologie dans le processus de prise de décision).

L’utilité perçue est moyennement expliquée par la facilité d’utilisation des AI. Ainsi,
l’intention d’utiliser cette technologie est moyennement expliquée par les autres variables (la
satisfaction des utilisateurs, la facilité d’utilisation et l’utilité perçue).

2.2.2. Résolution du modèle d’équations structurelles

Pour résoudre un modèle d’équations structurelles, nous suivons les étapes de la méthode de
Jöreskog et Sörbom140 qui a été appropriée dans le premier modèle.

Le deuxième modèle proposé va être interprété avec les relations non significatives dans le
but de tester le maximum de relations entre les variables.

2.2.2.1. La corrélation entre les variables latentes expliquées

Dans notre cas pratique, le deuxième modèle conçu sur l’acceptation de la technologie des AI
(Voir Annexe n°7_CH 6) désigne les relations à tester entre d’une part, la variable
indépendante de la facilité d’utilisation des AI (EOUse), d’autre part, les variables
dépendantes de l’utilité perçue (PUse), la satisfaction des utilisateurs (Sat), l’intensité
d’utilisation des AI (IU) et l’intention d’utiliser les AI dans le processus de prise de décision
(ItoUse).

2.2.2.2. Test 1

Dans ce test, nous examinons si les variables expliquées ont toutes une variable explicative
comme cause commune. Ce test nécessite de mettre en relation chaque variable à expliquer
140
Jöreskog, K.G.et Sörbom, D. (1996). LISREL 8 : user’s reference guide. Chicago, IL : Scientific Software
International, Inc.

233
Chapitre6

avec toutes les variables explicatives. Si la corrélation partielle entre 3 (0,93), 4 (0,08), 6

(0,54) et 7 (0,65) est de zéro, ce qui n’est pas le cas et que les variables dépendantes sont
reliées aux variables indépendantes, la proposition est vérifiée. Alors les variables à expliquer
3, 4, 6 et 7 auront indépendamment les mêmes causes. Dans ce cas la proposition est
invalidée, les variables explicatives ne sont pas toutes des causes communes aux variables à
expliquer, il est possible de passer aux tests suivants.

2.2.2.3. Test 2

Le test 2 consiste à valider ou invalider la proposition suivante : la variable expliquée Utilité


perçue des AI 6 influence les variables expliquées : la satisfaction des utilisateurs 3,

l’intention d’utiliser les AI dans le processus de prise de décision 7, et l’intensité


d’utilisation des AI 4.

Dans ce modèle, l’utilité perçue des AI 6 a un effet positif et significatif sur la Satisfaction
des utilisateurs 3 ( = 0,61 ; t = 7,527). Elle est également associée à la facilité d’utilisation
des AI de manière positive et significative ( = 0, 73 ; t = 9,367).

L’utilité perçue des AI 6 a un effet positif et non significatif sur l’intention d’utiliser les AI
dans le processus de prise de décision 7 ( = 0,12 ; t = 0,405).

L’utilité perçue des AI 6 a un effet négatif et non significatif sur l’intensité d’utilisation des
AI 4 ( = - 0,01 ; t = - 0,088)

2.2.2.4. Test 3

Selon ce test, la variable expliquée Satisfaction des utilisateurs 3 influence l’autre variable
expliquée de l’intention d’utiliser les AI dans le processus de prise de décision 7. La
première variable (Sat) a une influence positive mais non significative sur la deuxième
variable (ItoUse) ( = 0,67 ; t = 1,406). La variable Satisfaction des utilisateurs est associée à
la facilité d’utilisation des AI de manière positive et significative ( = 0, 42 ; t = 5,911).

La variable de l’intention d’utiliser les AI dans le processus de prise de décision influence


positivement l’intensité d’utilisation des AI, mais cette relation est non significative. ( =
0,31 ; t = 1,118). L’intention d’utiliser les AI (ItoU) est associée à la facilité d’utilisation
(EOUse) d’une manière positive et non significative ( = 0, 02 ; t = 0,097).

Aussi, l’intensité d’utilisation (IU) est négativement associée à la facilité d’utilisation des AI
(EOUse) avec un seuil non significatif. ( = - 0, 04 ; t = -0,491).

234
Chapitre6

2.2.2.5. Test 4

Le dernier test cherche à vérifier ou infirmer la proposition selon laquelle les variables
expliquées s’influencent réciproquement. Dans notre modèle pratique, nous n’avons pas ce
genre de relations à tester. Les variables dépendantes (PUse, Sat, ItoUse et IU) sont reliées par
des relations directionnelles dites récursives ou asymétriques.

En résumé, la facilité d’utilisation des AI a un effet positif et significatif sur l’utilité


perçue des AI et la satisfaction des utilisateurs de cette technologie.

La facilité d’utilisation des AI (EOUse) et l’utilité perçue (PUse) ont un effet non
significatif sur l’intention d’utiliser les AI et l’intensité d’utilisation.

L’utilité perçue (PUse) a un effet positif et significatif sur la satisfaction des utilisateurs.

235
Chapitre6

Section 3. Comparaison de nos résultats avec les


travaux effectués

1. Présentation des travaux antérieurs

Legris et al. (2003) ont présenté dans leur article les études utilisant le modèle de
l’Acceptation d’une Technologie (TAM) dans le but de :

- Fournir une analyse critique des méthodes de recherche ;

- Montrer la convergence ou la divergence des résultats ;

- Présenter la valeur ajoutée de ce modèle en expliquant l’utilisation d’un système.

Dans sa version originale, ce modèle avait cinq composantes :

L’utilité perçue (Perceived Usefulness), la facilité d’utilisation (PEOU), l’attitude envers


(Attitude Towards : AT), l’intention d’utilisation (Behavioural Intention to use : BI), et
l’utilisation actuelle (Actual system use : U).

Sur la base de ces cinq composantes présentes, dix relations peuvent être examinées : (1)
PEOU-PU ; (2) PU-AT ; (3) PEOU-AT ; (4) PU-BI ; (5) PEOU-BI ; (6) AT-BI ; (7) AT-U ;
(8) BI-U ; (9) PEOU-U ; (10) PU-U.

Le tableau suivant montre qu’il n’y a pas une étude qui a incorporé toutes ces relations.
Auteurs Logiciels Taille de Modèle utilisé
l’échantillon (TAM)
Davis F.D. (1989) Editeur de texte : 107 étudiants du TAM + TRA
programme MBA (“Theory of reasoned
permettant d’éditer un action”: Théorie de
fichier texte sans les l’action raisonnée ;
caractéristiques de Fishbein and Ajzen,
formatage ou les 1975)
caractères de contrôle
Davis F.D. (1989, E-mail, éditeur de 112 professionnels et TAM
1993) texte managers
Mathieson K. (1991) Tableur 262 étudiants en cours TAM + TPB
de l’introduction à la (“Theory of Planned
gestion Behaviour”: Théorie
du comportement
planifié, Mathieson,
1991)
Davis F.D., Bagozzi « Writeone » : 200 et 40 étudiants de TAM, TAM
R., Warshow P.R. compositeur MBA
(1989) « chartmaster » :

236
Chapitre6

Tableur
Subramaninan G.H. « Voice mail 75 et 104 sujets TAM
(1994) system » : Courrier
vocal : possibilité
dans un système
téléphonique de
recevoir des messages
vocaux destinés à l’un
des usager et de les
stocker de manière
informatique
« Customer dial-up
system » :
Branchement de
l’ordinateur au réseau
Internet au moyen
d’un modem par un
câble téléphonique
existant
Taylor S. & Todd P. Université de calcul, 786 étudiants TAM + normes
(1995, 1995) centre de ressources, subjectives + contrôle
étudiants de l’école de de comportement
commerce perçu.
Taylor S. and Todd P. Université de calcul, 786 étudiants TAM + TPB + TPB
(1995, 1995) centre de ressources, décomposé.
étudiants de l’école de
commerce
Keil M., Beranek Logiciels de 118 développeurs des TAM
P.M., Konsynski B.R. formation techniques de ventes
(1995) nouvelles
Szajna B. (1996) Courriers 61 étudiants gradués TAM
électroniques
Chau P.Y.K. (1996) Boîtier qui renferme 2500 professionnels TAM modifié par
les pièces internes en technologies de l’utilité à court et long
d’un ordinateur l’information terme.
Venkatesh V. Davis Trois expériences 108 étudiants TAM modèle des
F.D. (1989) avec six logiciels antécédents de la
facilité d’utilisation
perçue
Jackson C.M., Chow Tableur, base de 244, 156, 292, 210 TAM validation des
S., Leitch R.A. (1997) données, logiciels de étudiants instruments de
traitement de texte, l’utilité perçue et de la
graphique facilité d’utilisation.
Igbaria M., Cragg P., Calcul personnel 596 Utilisateurs de TAM dans les petites
Zinatelli N., Cavaye PC entreprises
A. (1997)
Bajaj A., Nidumolu Outils de correction 25 étudiants TAM + faire une
S.R. (1998) des erreurs de boucle pour retourner
programmation l’ajustement
Gefen D. & Keil M. Logiciels de 307 développeurs des TAM pour tester

237
Chapitre6

(1998) formation techniques de l’attention des


nouvelles ventes développeurs perçue
Agarwal R. & Prasad Logiciels de 205 utilisateurs de TAM pour tester les
J. (1997, 1999) traitement de texte, 100 firmes différences
Tableur, graphique individuelles
Lucas H.C., Spitler Poste de travail multi- 54 courtiers en TAM + normes
V.K. (1999) fonctionnel bourse, 81 assistants sociales et qualité du
de vente de système perçu.
compagnies
financières
Straub D.W., Microsoft windows 77 adopteurs Adaptation TAM +
Karahanna E., 3.1 potentiels, 153 normes subjectives.
Chervany N.L. (1999) utilisateurs dans une
société
Hu P.J., Chau P.Y.K., Logiciels de « télé 407 physiciens TAM
Liu Sheng O.R., Yan médecine »
Tam K. (1999)
Dishaw M.T.& Strong Outils de maintenance 60 projets de TAM et TTF (“Task-
D.M. (1999) de logiciels maintenance dans 50 Technology Fit”:
firmes, non indiqué Adéquation
pour le nombre de technologie-tâche ;
sujets Goodhue et
Thompson, 1995)
Venkatesh V. & 4 systèmes différents 48 directeurs de salle, Extension de TAM en
Davis F.D. (1996, dans quatre 50 membres de incluant les normes
2000) organisations services financiers, 51 subjectives et TTF
employés de petites
firmes en
comptabilité, 51
employés des petites
banques
d’investissement
Venkatesh V. & Recherche de 342 travailleurs TAM + normes
Morris M.G. (2000) l’information et des subjectives, sexe et
données expérience.
Tableau 62. Détails méthodologiques (Legris et al., 2003)

L’analyse des relations entre les variables testées est présentée dans le tableau suivant. Cela
montre une proportion élevée de résultats positifs pour l’ensemble de ces relations. Ces
résultats favorables mettent en valeur ces variables qui sont reliées à l’intention d’adopter la
technologie de l’information. Ces variables ne sont pas suffisantes pour prédire l’adoption
d’une technologie de l’information.

PEOU PU- PEOU PEOU PEOU


Auteurs -PU AT -AT PU-BI -BI AT-BI AT-U BI-U -U PU-U
Davis et al.
(1989)

238
Chapitre6

Poste de
formation Oui141 Oui Non142 Oui Oui Oui 143
Oui
fin du semestre Oui Oui Oui Oui Oui Oui Oui
Davis (1989,
1993) Oui Oui Oui Oui Oui
Mathieson (1991) Oui Oui Oui Oui Oui
Davis et al.
(1989)
Compositeur Oui Oui Oui Oui Oui Oui
Tableur Oui Oui Oui Oui Oui Oui
Subramanian
(1994)
Courrier vocal Non Oui Non
Client connecté à
Internet Non Oui Non
Taylor & Todd
(1995, 1995)
Avec expérience OUi OUi OUi OUi Non Oui
Sans expérience OUi OUi OUi OUi Non Oui
Taylor & Todd
(1995, 1995) Oui Oui Oui Oui Non Oui
Keil et al. (1995) Oui Non Oui
Szajna (1996)
Pré-
implémentation Oui Oui Oui Oui Non Non
Post-
implémentation Oui Oui Oui Oui Non Non
Chau (1996) Oui Oui Oui
Davis et al.
(1989) Oui Oui Oui
Jackson et al.
(1997) Non Non Oui Non Oui Non
Igbaria et al.
(1997) Oui Oui Oui
Bajaj & Invers
Nidumolu (1998) Non e144 Oui Oui Non
Gefen & Keil
(1998) Oui Non Oui
Agarwal & Prasad
(1997, 1999) Oui Oui Oui Oui Oui
Lucas & Spitler
(1999)
Oui Non Non Non Non

141
Oui indique une relation significative et positive.
142
Non indique une relation non-significative.
143
Le blanc est une relation non mesurée.
144
Inverse est une relation significative mais négative.

239
Chapitre6

Karahanna et al.
(1999)
Utilisateurs
potentiels Oui Oui Oui
Utilisateurs
actuels Oui Oui Oui
Hu et al. (1999) Non Oui Non Oui Oui
Dishaw & Strong
(1999) Oui Oui Non Oui Non Non
Venkatesh&Davis
(1996, 2000) Oui Oui Oui Oui
Venkatesh&
Morris (2000) Oui Oui Oui
Tableau 63. Types de relations trouvées (Legris et al., 2003)

Nous présentons les résultats de ces auteurs d’une façon détaillée dans le tableau 64.

Auteurs Résultats
Davis (1989, 1993) TAM sert d’intermédiaire entre les effets des caractéristiques du système sur le
comportement de l’utilisation expliquant 36% de la variance de l’utilisation.
L’utilité perçue a plus d’influence (de 50%) que la facilité d’utilisation sur la
détermination de l’utilisation.
Davis et al. (1989) L’utilité perçue prévoit des intentions d’utilisation alors que la facilité
d’utilisation est secondaire et agit à travers l’utilité perçue.
Les attitudes ont un impact faible servant d’intermédiaire entre les perceptions
et l’intention à utiliser la technologie.
Mathieson (1991) Les deux modèles (TAM et TRA) prévoient mieux les intentions à utiliser une
technologie.
TAM est plus facile à appliquer, mais il fournit seulement une information
générale.
TPB fournit mieux une information spécifique pour les développeurs.
Davis et al. (1989) L’utilité et le plaisir expliquent 62% (1ère étude) et 75% (2ème étude) de la
variance dans les intentions d’utilisation
Ils servent d’intermédiaires entre les effets sur les intentions d’utilisation de la
qualité des résultats perçus et la facilité d’utilisation perçue.
La mesure de l’importance de la tâche modère les effets de la facilité
d’utilisation et la qualité des résultats sur l’utilité et non sur le plaisir.
Subramaninan (1994) L’utilité perçue (et non pour la facilité) est un déterminant de l’utilisation
future.
Taylor & Todd (1995, TAM modifié explique l’utilisation pour les expérimentés et les non
1995) expérimentés.
Un lien fort entre l’intention comportementale et le comportement des
utilisateurs expérimentés.
Les variables antécédentes prévoient mieux les intentions des utilisateurs non
expérimentés.
Taylor and Todd Les modèles améliorés se basent sur l’ajustement et l’explication du
(1995, 1995) comportement.
TPB fournit une compréhension complète des intentions d’utilisation
Les attitudes dans le modèle TAM ne sont pas des prévisions significatives sur
l’intention d’utilisation.
Keil et al. (1995) L’utilité est un facteur plus important que la facilité dans la détermination de
l’usage du système

240
Chapitre6

L’adéquation demande/tâche joue un rôle dans le partage des perceptions que


ce soit pour les systèmes faciles ou non à utiliser.
Szajna (1996) Questions sur les mesures des rapports individuels versus la mesure de
l’utilisation actuelle.
La composante de l’expérience peut être importante dans le modèle TAM.
Chau (1996) Les résultats indiquent que la facilité d’utilisation a une influence large sur
l’acceptation de la technologie.
Davis et al.(1989) La perception individuelle de la facilité d’utilisation d’un système particulier
est ancrée par l’efficacité de son ordinateur personnel à tout moment.
L’utilisation objective a un impact sur la facilité d’utilisation d’un système
spécifique seulement après l’expérience directe avec le système.
Jackson et al. (1997) L’effet direct de l’implication de situation sur l’intention comportementale, en
plus de l’attitude, est significatif dans la direction négative.
L’attitude semble jouer un rôle d’intermédiaire
L’implication intrinsèque joue un rôle significatif dans les perceptions
partagées.
Igbaria et al. (1997) La facilité d’utilisation est un facteur dominant dans l’explication de l’utilité
perçue et l’usage d’un système, et l’utilité perçue a un grand effet sur
l’utilisation.
Les variables exogènes influencent à la fois l’utilité perçue et la facilité
d’utilisation particulièrement pour l’assistance en management et l’assistance
externe.
L’assistance est relativement faible pour l’influence de l’assistance et la
formation interne.
Bajaj & Nidumolu L’utilisation passée influence la facilité d’utilisation d’un système. C’est un
(1998) facteur clé déterminant l’utilisation future.
Gefen & Keil (1998) Les managers en SI peuvent influencer à la fois l’utilité perçue et la facilité
d’utilisation perçue d’un IS à travers l’échange social avec l’utilisateur.
Agarwal & Prasad Il apparaît que rien d’inhérent dans les différences individuelles qui
(1997, 1999) déterminent fortement l’acceptation de l’utilisation.
Identifier les variables des différences individuelles (niveau d’éducation,
l’étendu des expériences prioritaires, participation en formation) qui ont des
effets significatifs sur les croyances du modèle TAM.
Lucas & Spitler Les variables organisationnelles comme les normes sociales et la nature du
(1999) travail sont plus importants dans la prévision de l’utilisation d’une technologie
que dans les perceptions de l’utilisateur envers une technologie.
Straub et al. (1999) L’attitude de pré-adoption est basée sur les perceptions de l’utilité, la facilité
d’utilisation, la démonstration des résultats et la visibilité.
L’attitude de pré-adoption est uniquement basée sur les croyances
instrumentales de l’utilité et l’amélioration des perceptions de l’image.
Hu (1999) TAM est capable de fournir une description de l’intention de l’utilisateur à
utiliser une technologie.
L’utilité perçue peut être un déterminant significatif de l’attitude et l’intention.
La facilité d’utilisation est un déterminant non significatif.
Dishaw & Strong Proposition d’intégration de TAM et des construits de l’adéquation
(1999) technologie-tâche
Le modèle intégré conduit à une meilleure compréhension de choix sur
l’utilisation des TI.
Venkatesh & Davis Le modèle étendu compte pour 40-60% de la variance dans les perceptions de
(1996, 2000) l’utilité et 34-52% de la variance dans les intentions d’utilisation.
Le processus d’influence sociale (normes subjectives et image) et les processus
instrumentaux cognitifs (la pertinence du travail, la qualité des résultats, la
démonstration des résultats et la facilité d’utilisation perçue) influencent
significativement l’acceptation de l’utilisateur.

241
Chapitre6

Venkatesh & Morris En comparant la technologie utilisée par les hommes ou les femmes. La
(2000) relation entre le sexe et la technologie est plus influencée par leurs perceptions
de l’utilité.
Les femmes sont plus influencées par la perception de la facilité d’utilisation
et les normes subjectives, à travers l’effet des normes subjectives diminuées
tout le temps.
Tableau 64. Résumé des résultats des recherches antérieures (Legris et al., 2003)

Les nouvelles études effectuées entre 2000 et 2005 reprennent les mêmes variables à tester les
plus connues sont réalisées par Rai et al. (2002), Davis et al. (2003), Sabherwal et al.
(2004)…

Après avoir évoqué les principales études, nous récapitulons nos propres résultats et la
confirmation des hypothèses testées suite au traitement des données.

2. Récapitulation de nos résultats et leur comparaison aux


travaux antérieurs

2. 1. Récaputation des résultats de cette étude

Nous présentons dans cette sous-section les résultats de la méthode d’équations structurelles.
Dans ce tableau nous présentons les relations testées qui structurent les deux modèles conçus
dans le but d’affirmer et d’infirmer les hypothèses théoriques et qui sont constatées à partir
l’élaboration de ces deux modèles.

242
Chapitre6

Hypothèses Relations Résultats produits sous AMOS 4. Conclusion


de ces deux Premier Deuxième Modèle
modèles 145 Modèle (TTF (TAM) 147
modifié)
146

H12 QLD <--> QS ( = 0,801 ; La relation entre la


t = 6,365) qualité et la
localisation des
données avec la qualité
de service est bi-
directionnelle et
indique une co-
variance entre ces
deux variables latentes
explicatives. C’est une
relation significative.
H32 Sat <-- QS ( = 0,92 ; La qualité du service
t = 11,109). des AI a un impact
positif et significatif
sur la satisfaction des
utilisateurs de cette
technologie.
H41 IU <-- QLD ( = 0,30 ; La qualité et la
t = 1,845). localisation des
données a un impact
positif mais non
significatif sur
l’intensité d’utilisation
des AI.
H42 IU <-- QS ( = 0,81 ; La qualité du service
t = 11,109). des AI a un impact
positif et significatif
sur l’intensité
d’utilisation des AI.
H43 IU <-- Sat ( = - 0,61 ; La satisfaction des
t = 2,151) utilisateurs des AI a un
impact négatif et
significatif sur
l’intensité d’utilisation
de cette technologie.
H65 PUse <-- ( = 0,73 ; La facilité d’utilisation
EOUse t = 9,367) des AI a un impact
positif et significatif
sur l’utilité perçue de
cette technologie.

145
Les hypothèses sont indicées en fonction de la numérotation des variables latentes. (V1 = QLD ; V2 = QS ;
V3 = Sat ; V4 = IU ; V5 = EOUse ; V6 = PUse ; V7 = ItoUse.)
146 
ddl = 2,146; p = 0,000; RMSEA= 0,086; AGFI = 0,778; NFI = 0,892; RMR = 0,095.
147 
ddl = 2,366 ; p = 0,000; RMSEA= 0,094; AGFI = 0,793; NFI = 0,897; RMR = 0,054.

243
Chapitre6

H35 Sat <-- EOUse ( = 0,42 ; La facilité d’utilisation


t = 5,911) des AI a un impact
positif et significatif
sur la satisfaction des
utilisateurs.
H36 Sat <-- PUse ( = 0,61 ; L’utilité perçue de
t = 7,527) cette technologie a un
impact positif et
significatif sur la
satisfaction des
utilisateurs.
H75 ItoUse <-- ( = 0,02 ; La facilité d’utilisation
EOUse t = 0,097) des AI a un impact
positif faible et non
significatif sur
l’intention d’utiliser
cette technologie.
H73 ItoUse <-- Sat ( = 0,67 ; La satisfaction des
t = 1,406) utilisateurs a un impact
positif et non
significatif sur
l’intention d’utiliser
cette technologie.
H76 ItoUse <-- ( = 0,12 ; L’utilité perçue de
PUse t = 0,405) cette technologie a un
impact positif faible et
non significatif sur
l’intention d’utiliser
cette technologie.
H46 IU <-- PUse ( = - 0,01 ; L’utilité perçue de
t = -0,088) cette technologie a un
impact négatif et non
significatif sur
l’intensité d’utilisation
de cette technologie.
H47 IU <-- ItoUse ( = 0,31 ; L’intention d’utiliser
t = 1,118) cette technologie a un
impact positif et non
significatif sur
l’intensité d’utilisation
de cette technologie.
H45 IU <-- EOUse ( = -0,04 ; La facilité d’utilisation
t = -0,491) des AI a un impact
négatif et non
significatif sur
l’intensité d’utilisation
de cette technologie.
Légende

244
Chapitre6

QLD : qualité et localisation des données.


QS : qualité du service offert par les AI.
Sat : satisfaction des utilisateurs des AI.
IU: intensité d’utilisation des AI.
EOUse: facilité d’utilisation des AI.
PUse: utilité perçue des AI.
ItoUse: intention d’utiliser les AI dans le processus de prise de décision.
Tableau 65. Résultats de la méthode d’équations structurelles examinée sur les deux
modèles

D’après ce tableau récapitulatif des relations linéaires entre les variables latentes des deux
modèles nous concluons que :

1. Le premier modèle TTF modifié explique que :

a. L’intensité d’utilisation des AI dépend fortement de la qualité de service offerte par


cette technologie.

b. La satisfaction des utilisateurs peut freiner l’intensité d’utilisation des AI.

c. Les autres variables de ce premier modèle (la qualité et la localisation des données)
et celles du deuxième modèle (la facilité d’utilisation des AI, l’utilité perçue des AI et
l’intention de les utiliser dans le processus de prise de décision) n’ont pas d’effet significatifs
sur l’intensité d’utilisation des AI.

2. Le deuxième modèle TAM explique que :

a. L’utilité perçue des AI a plus d’influence sur la satisfaction des utilisateurs que la
facilité d’utilisation des AI.

b. L’utilité perçue et la facilité d’utilisation des AI ne prévoient pas des intentions


d’utilisation alors que la satisfaction des utilisateurs a un impact fort servant d’intermédiaire
entre les perceptions (PUse et EOUse) et l’intention d’utiliser cette technologie.

c. L’utilité perçue et la facilité d’utilisation des AI peuvent être des déterminants


significatifs à la satisfaction des utilisateurs. Ces deux variables ne peuvent pas l’être sur
l’intention et l’intensité d’utilisation.

245
Chapitre6

2. 2. Comparaison de nos résultats aux travaux antérieurs

En se basant sur les travaux antérieurs et nos propres résultats, ces derniers convergent avec
ceux de Dishaw & Strong (1999) au niveau de la combinaison des deux modèles classiques
(TTF/TAM), ces auteurs se sont basés sur l’évaluation de l’utilisation des outils de
maintenance appliquée sur un échantillon composé de firmes financières (60 projets dans 50
firmes). Ils ont réussi à démontrer des relations positives entre les variables perceptuelles : la
facilité d’utilisation / l’utilité perçue (EOU/PU) ; l’utilité perçue / l’attitude envers (PU/AT) ;
l’utilité perçue / l’intention d’utilisation (PU/BI) ; l’attitude envers / l’intention d’utilisation
(AT/BI). Et à trouver des relations négatives entre ces deux variables : l’intention d’utilisation
/l’utilisation actuelle (BI/U) ; l’utilité perçue / l’utilisation actuelle (PU/U).

Dans notre recherche nous avons remplacé les variables suivantes : « l’attitude envers : AT»
par la variable « Satisfaction des utilisateurs :SAT » ; « l’intention d’utilisation : BI» par
« l’intention d’utilisation des AI dans le processus de prise de décision : ItoUse » et
« l’utilisation actuelle : U » par « l’intensité d’utilisation des AI : IU ». Le test des relations
entre ces variables est présenté dans le tableau suivant :

Relations
testées liées
aux travaux
PEOU- PEOU- PEOU- PEOU-
antérieurs
PU PU-AT AT PU-BI BI AT-BI AT-U BI-U U PU-U
Résultats de Oui148 Oui 149
Oui Oui Non150 Non
Strong &
Dishaw
(1999)

Relations
testées liées
à notre
EOU- PU- EOU- PU- EOU- SAT- SAT- Ito EOU-
étude
PU SAT SAT ItoUse ItoUse ItoUse IU Use-IU IU PU-IU
Résultats de Oui Oui Oui Non Non Non Inverse Non Non Non
151
notre étude
(2006)

Tableau 66. Comparaison des résultats de nos


travaux à ceux de Dishaw & Strong (1999).

148
Oui indique une relation significative et positive.
149
Le blanc est une relation non mesurée.
150
Non indique une relation non-significative.
151
Inverse est une relation significative mais négative.

246
Chapitre6

Ce tableau montre que notre comparaison est envisagée dans le cadre de quelques relations
qui se rapprochaient de celles testées par Dishaw et Strong. D’autres relations ont été testées
et ne sont pas présentées dans ce tableau. Les relations exposées ci-dessus sont celles qui
peuvent être comparées aux travaux antérieurs. Ceci est dû aux raisons suivantes :

- Les autres études ont évalué l’utilisation d’autres technologies d’information.

- La taille de notre échantillon est relativement moyenne par rapport aux autres
travaux.(Voir Tableau 62)

- Notre recherche s’approche des travaux de Dishaw et Strong au niveau du choix des
modèles d’évaluation de l’utilisation des technologies de l’information. Le modèle
intégré (TTF/TAM) que nous avons testé sous PLS conduit à une meilleure
compréhension de choix de l’utilisation des AI.

247
Chapitre6

Conclusion
Dans ce chapitre, nous avons fait de l’analyse confirmatoire qui consiste à tester à l’aide des
indicateurs de structure les meilleurs modèles et à vérifier les variances restituées pour chaque
item. Une analyse structurelle a été réalisée pour analyser deux modèles. En se basant sur les
liens linéaires entre les variables mesurant des concepts, il s’agit de tester un modèle par
rapport à un autre. Des indices d’ajustement permettent de tester l’expérimentation par rapport
au modèle théorique. Les logiciels les plus utilisés sont EQS, LISREL, PLS et AMOS.

Dans cette analyse, nous avons utilisé en premier lieu le logiciel PLS-Graph dans le but de
tester la fiabilité des items de mesure, la validité convergente et discriminante entre les
variables latentes pour vérifier leurs corrélations. Nous avons testé toutes les relations
linéaires possibles entre les variables du modèle théorique. L’utilisation de ce logiciel nous a
permis d’avoir une vue globale sur les variables latentes constitutives de ce modèle, leurs
relations entre elles et avec leurs indicateurs de mesure. Cette vue a facilité de dégager deux
modèles structurels qui ont été examinés sous le logiciel AMOS 4. Ce logiciel est conçu un
matériel pédagogique servant à expliquer de manière visuelle les matrices d’équations
structurelles nécessaires pour la démarche LISREL.

C’est l’analyse confirmatoire ou confirmative des données qui permet d’apporter un soutien
empirique à un modèle théorique selon :

- La validité de mesure qui consiste à vérifier la capacité des variables observées à


mesurer les variables théoriques auxquelles elles sont affectées dans le modèle ;

- La validité structurelle qui permet de vérifier que les liens de « causalité » entre les
variables théoriques sont conformes à celles définies dans le modèle.

248
Synthèse de la Partie 2.
Résumé des résultats du processus
d’analyse des données

Nous avons testé la validité du modèle sur une réalité concrète par la construction et la
diffusion d’un questionnaire auprès d’utilisateurs d’agents intelligents appartenant à différents
départements faisant partie de grandes entreprises françaises. Ces étapes ont été explicitées
dans le chapitre 4.
Le processus d’analyse mis en œuvre est composé de trois étapes :
- La première analyse est descriptive pour tester l’homogénéité de l’échantillon.
- La deuxième analyse est exploratoire : une Analyse en Composantes Principale est
utilisée pour réduire le nombre de variables à tester. Nous avons fait appel à une
classification appliquée séparément sur les deux modèles (TTF/TAM) afin de
comprendre le comportement des utilisateurs des AI. Ces deux traitements ont été
réalisés sous le logiciel SPAD. Enfin une analyse de variance est mise en place pour
mesurer le degré d’influence entre les caractéristiques de la technologie sur les
variables des deux modèles d’une part. nous avons testé, d’autre part, l’influence des
variables démographiques sur le deuxième modèle. Le traitement de données de cette
analyse est réalisé sous SPSS.
Ces deux premières analyses sont présentées dans le chapitre 5.
- La troisième analyse est confirmatoire et elle est composée de deux traitements :
Dans le premier traitement, nous avons testé dans un premier temps toutes les relations
possibles qui forment un modèle intégré sous PLS-Graph, nous avons retenu dans un
second temps, 24 relations suite à l’élimination des variables latentes qui n’ont pas
vérifié la validité convergente. Ce test conduit à une compréhension de choix sur
l’utilisation des AI, mais l’utilisation de ce logiciel a montré ses limites. C’est pourquoi,
nous avons élaboré et spécifié dans le deuxième traitement, sous AMOS deux modèles
résultant du premier traitement (le premier modèle est composé de cinq relations et le
second est composé de neuf relations)
Cette dernière analyse est présentée dans le chapitre 6.

249
1. Résultats de la première phase descriptive des données

La population étudiée présente les caractéristiques suivantes :


- Six secteurs ont été identifiés dont les plus représentés sont l’informatique, les
réseaux et télécommunications (31,6%) et Matériel électrique et électronique
(29,7%).
- Cinq départements ont été repérés dans cet échantillon : R&D (37%) ceci est
expliqué par l’utilisation de cette technologie par les ingénieurs et les chercheurs ;
l’informatique (30%), les AI sont normalement conçus dans ce département ; le
département Marketing & Management (15%), ils sont utilisés pour la recherche des
informations sur les consommateurs et la veille des produits concurrents… ; le
département de systèmes d’information (9%), c’est un outil de traitement de
l’information ; le département de finance (8%)…
- Quatre tâches ont été spécifiées : le plus grand pourcentage de cette population est
composée par les utilisateurs finaux de cette technologie (46%), les directeurs
forment 19%, les concepteurs (17%) et les analystes (15%).

2. Résultats de la deuxième phase exploratoire

La deuxième phase exploratoire est composée de trois étapes :


- Afin de purifier et éliminer les items perturbateurs (nous avons passé de 59 à 32
items), une première ACP est effectuée sur le premier modèle (12 items sont
retenus), une deuxième ACP est réalisée sur le deuxième modèle (20 items sont
retenus dont trois font partis de la variable des fonctionnalités des AI)
- Deux classifications ont été réalisées sur les deux modèles. Cette méthode a permis
d’identifier les AI utilisés correspondant au secteur d’activité de l’entreprise, au
département de l’utilisateur et à sa fonction. Le choix entre ces AI dépend fortement
de ces trois variables et des fonctionnalités de cette technologie.
- Enfin, suite à l’utilisation de l’analyse de variance, nous remarquons qu’il y a une
influence élevée entre les caractéristiques de la technologie et l’intensité d’utilisation.
Et nous notons qu’il n’y a pas d’effets significatifs entre les variables
démographiques et les perceptions de l’utilisateur envers cette technologie.

250
3. Résultats de la phase confirmatoire

La troisième analyse confirmatoire consiste à tester les quatre hypothèses:


- La première hypothèse a été testée sous PLS-Graph et sous AMOS, nous notons que
l’impact des fonctionnalités des AI sur les variables de l’ATT est plus élevé que les
caractéristiques de la tâche. Ce qui montre que les fonctionnalités d’une technologie
peuvent favoriser une bonne adéquation entre l’AI et la tâche effectuée. Sous AMOS,
nous n’avons pas pu validé cette hypothèse.
- La deuxième hypothèse consiste à tester l’impact des variables de l’adéquation
technologie tâche sur l’intensité d’utilisation des AI. Le premier traitement sous PLS
nous montre que l’impact de la qualité et la localisation des données sur l’intensité
d’utilisation des AI est plus élevé que la qualité de service des AI. Cette relation
n’est pas vérifiée lors de l’utilisation du logiciel AMOS, en effet, l’intensité
d’utilisation dépend fortement de la qualité du service offerte par cette technologie.
- La troisième hypothèse consiste à tester l’impact des variables de l’adéquation
technologie tâche sur celles de l’acceptation des AI. Nous avons vérifié lors du
premier traitement sous PLS que l’impact de la qualité de service des AI sur les
perceptions de l’utilisateur est plus élevé que la qualité et la localisation des données.
Lors du deuxième traitement nous avons testé uniquement l’impact de la qualité de
service sur la satisfaction des utilisateurs, nous avons montré que c’est une relation
positive et significative. La satisfaction des utilisateurs de la qualité du service des
AI est expliquée par la multi-fonctionnalité de cette technologie.
- Le test de la quatrième hypothèse permet de déduire que:
Sous PLS, l’intensité d’utilisation des AI dépend de la facilité d’utilisation de cette
technologie.
Sous Amos, nous avons pu montrer que les variables de l’Acceptation de la
technologie n’ont pas d’effets significatifs sur l’intensité d’utilisation des AI.
PLS-GRAPH AMOS 4

H1: Tester l’impact des L’impact des fonctionnalités Testée et non validée.
caractéristiques de la tâche et des AI sur les variables de
celles de la technologie sur les l’Adéquation Technologie-
variables de l’Adéquation Tâche est plus élevé que les
Technologie-Tâche caractéristiques de la tâche

H2: Tester l’impact des L’impact de la qualité et la L’intensité d’utilisation

251
variables de l’Adéquation localisation des données sur dépend fortement de la qualité
Technologie-Tâche sur l’intensité de l’utilisation des de service des AI.
l’intensité d’utilisation des AI est plus élevé que leur
AI. qualité du service

H3: Tester l’impact des L’impact de la qualité du La qualité de service des AI a


variables de l’Adéquation service des AI sur les un impact positif et
Technologie-Tâche sur les perceptions de l’utilisateur est significatif sur la satisfaction
variables de l’Acceptation de plus élevé que la qualité et la des utilisateurs
la technologie des AI. localisation des données
H4: Tester l’impact des L’intensité d’utilisation des Les variables de l’Acceptation
variables de l’Acceptation de AI dépend de sa facilité de cette technologie n’ont pas
la technologie des AI sur le d’utilisation et non de son d’effets significatifs sur
degré de leur utilisation utilité perçue l’intensité d’utilisation

Tableau 67. Résultats de la phase confirmatoire

252
Conclusion Générale

« La science est d’un goût amer à ses débuts,


mais à la fin elle est aussi douce que le miel »,

Citée dans l’exposition de l’âge d’Or du monde arabe à l’IMA- Paris.

253
Conclusion générale

1. Rappel des questions et de la méthodologie de la


recherche

1.1. Questions de recherche

Au départ de cette recherche, il s’agissait d’étudier l’impact de l’utilisation de la technologie


des Agents Intelligents sur le processus de la veille stratégique. Puis, la problématique a été
affinée pour étudier la manière dont les agents intelligents sont intégrés et utilisés dans le
cadre du processus de veille stratégique, et pour mesurer la perception qu’en avaient les
utilisateurs à titre individuel.

Dans cette perspective, trois questions de recherche ont particulièrement retenu notre
attention :

- Comment peut-on faire le choix entre les différents agents intelligents pour collecter,
traiter et diffuser les informations ?

- Quelles sont les caractéristiques de l’utilisation des AI et comment sont-ils intégrés


dans le processus de veille stratégique ?

- Quel est l’impact de la perception des AI sur l’intensité d’utilisation ?

1.2. Méthodologie suivie

Notre démarche s’est appuyée sur un cadre théorique qui nous a permis de délimiter et
d’harmoniser différents champs de recherche, de construire un modèle théorique (Première
partie de la thèse) et de recourir à diverses méthodologies synthétisées (Deuxième partie),dans
le tableau 68. Celui-ci, tiré d’un article de Banker & Kauffman de 2004, montre toutes les
méthodologies auxquelles on peut recourir dans le cadre d’une recherche en Systèmes
d’Information. Il permet également d’expliquer les cinq grands courants de la recherche en
Systèmes d’Information :

- Le premier courant focalise son attention sur l’application des ordinateurs dans
l’assistance à la décision, au contrôle et à la prise de décision managériale.

- Le deuxième courant s’intéresse aux relations établies basées sur l’économie de


l’analyse de l’information.

254
Conclusion générale

- Le troisième courant fait ressortir la base cognitive pour la conception de systèmes


efficaces.

- Le quatrième courant centre ses analyses à la fois sur le lien entre la valeur de
l’investissement en SI et son impact économique et sur la perception d’un tel système
par son utilisateur.

- Le cinquième courant couvre l’économie des SI et des TI, et étudie l’application des
méthodes et perspectives théoriques de l’économie empirique et analytique aux
problèmes managériaux impliquant les SI et les TI.

255
Conclusion générale

Courants de recherche Niveaux d’analyse Théories Méthodologies utilisées Disciplines reliées


Aide à la décision et Niveau de système, en Théorie de la décision, Programmation mathématique, Science de l’informatique,
conception de la science. majorité en le optimisation de réseaux, théorie Prévision, Simulation et systèmes Recherche opérationnelle,
Qualité du système152 combinant avec les de contrôle. experts.
(Agent Intelligent) utilisateurs humains ou
Sciences économiques,
les processus d’affaires, Marketing, Management
jusqu’au niveau d’une stratégique.
unité stratégique
Valeur de l’information Preneurs de décision Economie de l’information, Arbres de décision, modèles Sciences économiques, Science
individuels, théorie des options réelles, analytiques, analyses statistiques, de la décision, management de
Technologies dans le théorie de partage de programmation mathématique, risque.
contexte du processus l’information. simulation. Intelligence artificielle.
d’affaires, les actions de Théorie de traitement de
la firme dans le contexte l’information
du marché.
Conception des systèmes Utilisateur focalisé, Style cognitif, Théorie de Expérience, argumentation, Psychologie cognitive, Science
Homme-Machines Implication des décision comportementale simulation, Systèmes de banc de décision, Science de
individus et des groupes. d’essai conception
Organisation SI et stratégie Niveaux couverts : Théorie de diffusion, théorie de Modèles, études de cas, champs Théorie organisationnelle,
individus, groupes, richesse de médias, RBV de la d’étude, Expérience, management stratégique,
unités d’affaires, firme, économie des coûts de Questionnaire, Etudes psychologie sociale, psychologie
organisations, place de transaction, Adéquation longitudinale et en coupe croisée, cognitive, Sciences économiques.
marché Technologie-Tâche, Modèle argumentation, triangulation des
de l’acceptation d’une études qualitatives et
technologie. quantitatives.
Economie des SI et des TI Niveaux couverts : Théorie de la firme, Economie Modélisation analytique, analyses Sciences économiques,
preneurs de décision de production, Théorie de jeux, empiriques et économétrie, Recherche opérationnelle,
individuels, Processus Théories de contrats, Réseaux Etudes longitudinale et en coupe Science de l’informatique,
d’affaires/Produit/Projet, externes. croisée, expérience, simulation Management stratégique.
Firme/unité d’affaires
stratégiques, Industrie,
Marché, Economie
Tableau 68. Les cinq courants de recherche en SI, 1954-2003 (Banker & Kauffman, 2004)

152
Qualité de système, théorie de traitement de l’information et intelligence artificielle sont ajoutés par l’auteur de cette thèse. Les flèches pointillées montrent notre parcours
au sein de la recherche SI.

256
Conclusion générale

Notre raisonnement s’est inscrit dans plusieurs de ces courants de recherche (voir parties
surlignées du tableau 68) ce qui a justifié le plan de notre thèse.

2. Principaux résultats, limites et prolongements possibles

2.1. Liens entre veille stratégique et Agents Intelligents

Notre travail de recherche, focalisé sur l’Agent Intelligent a montré que celui-ci est une
technologie de traitement automatique de l’information, aujourd’hui au cœur du système
d’information et de la veille stratégique. Il est donc au service du processus dynamique de
veille stratégique et du système d’information. Il reste que cet outil très récent ne se substitue
pas et n’élimine pas d’autres outils plus traditionnels mais toujours d’actualité. Notre choix a
été fait en fonction de la « modernité » de cette technologie et de son lien particulier avec la
veille stratégique.

2.2. Liens entre Agents Intelligents et autres domaines de recherche

A travers les caractéristiques et les applications de la technologie des agents intelligents nous
avons présenté trois types de classifications. La première est liée aux architectures de cette
technologie (domaine de l’intelligence artificielle), la deuxième est liée au domaine de
commerce et la troisième est liée au Web. Nous sommes toutefois conscients que notre
démarche, à ce niveau, est restée quelque peu technique. Nous avons présenté par la suite la
première phase d’exploration du terrain dont l’objectif est de comprendre l’utilisation des
outils de la veille stratégique.

2.3. Liens entre l’agent humain et l’AI

La technologie des AI est donc essentielle dans le processus de veille stratégique. Nous avons
cependant montré l’importance de la présence humaine dans tout modèle d’évaluation des SI.
Notre recherche nous a permis de positionner l’agent humain en face de l’agent intelligent
afin d’évaluer l’utilisation de cette technologie. Dans ce cadre, nous avons rencontré quelques
limites conceptuelles : le rapprochement du champ de l’IHM de celui du MSI a été difficile à
établir ; le choix entre les différents modèles d’évaluation des SI proposés par la littérature n’a
pas toujours été aisé à effectuer.

257
Conclusion générale

2.4. De nombreux domaines d’application

Dans notre travail de terrain, nous avons découvert de nombreux domaines d’application des
AI. Cependant, le nombre restreint des entretiens réalisés dans la première phase
d’exploration du terrain (6 entretiens) n’a pas permis de lancer l’étude empirique que nous
avions envisagé de mener. C’est donc un travail qui reste à faire afin de comprendre le
processus d’implémentation d’un AI dans une entreprise donnée, en fonction de son
organisation, et de saisir les domaines d’application les plus appropriés.

2.5. Une large typologie d’utilisateurs

Le recours à l’ACP a permis d’identifier et d’éliminer les items perturbateurs pour les deux
modèles utilisés. Neuf classes d’utilisateurs ont donc été retenues dans notre classification :
cinq pour le modèle TFF et quatre pour le modèle TAM. Dans le cadre de cette classification,
nous avons proposé une typologie des utilisateurs des AI en fonction de la technologie
utilisée, du secteur d’activité de l’entreprise, du département concerné et de la tâche de
l’utilisateur. Enfin, l’analyse de la variance a permis de chercher la liaison entre les variables
nominales (age, sexe, langue, département, tâche, AI utilisé) et les variables continues de
chaque modèle. Cependant, là aussi, nous avons rencontré quelques limites conceptuelles
liées au choix des variables intégrées dans le modèle théorique global, à la non prise en
compte de la qualité de l’information, à l’élimination de l’item 37 (qui mesure la satisfaction
des utilisateurs de l’information produite par les AI) lors de l’analyse confirmatoire sous PLS.
Nous avons choisi de suivre une approche qui considère la qualité du système et de
l’information comme un tout. Or, il existe d’autres approches qui les séparent et/ou qui
intègrent la variable temps de sorte à étudier séparément qualité du système et information.
Nous avons également été confronté à une limite empirique. Notre étude a été centrée sur une
perspective individuelle ce qui a exclu de notre champ de recherche l’impact organisationnel
de l’utilisation de la technologie des AI. Là aussi, le travail de recherche mériterait d’être
approfondi, notamment dans le choix d’autres variables de mesure, dans le cadre d’un
contexte élargi à la dimension organisationnelle. En faisant, par exemple, une étude pré et
post implémentation d’un AI dans une entreprise, en choisissant une organisation « idéale ».

2.6. Des instruments de mesure fiables et des variables significatives

Malgré ces limites, notre travail de recherche a permis, grâce aux méthodes d’équations
structurelles PLS Graph et AMOS 4, de tester toutes les relations du modèle théorique et les

258
Conclusion générale

relations existantes dans les deux sous-modèles re-spécifiés : la fiabilité et la validité des
instruments de mesure utilisés a été vérifiée ; des relations significatives, positives et
négatives entre les variables composant les deux modèles ont été trouvées. Pour autant, vu le
nombre élevé des variables latentes et la taille réduite de l’échantillon, nous n’avons pas pu
tester tout le modèle théorique sous AMOS. Dans ce cadre, il serait utile de poursuivre la
recherche en intégrant la variable temps, en faisant une étude longitudinale pour découvrir le
changement perceptuel des utilisateurs qui s’en suivrait.

3. Les implications conceptuelles et managériales

Au bout du compte, nous constatons que les résultats de notre recherche ont des implications
multiples en terme théoriques et pratiques.

3.1. Les contributions conceptuelles

Au plan théorique, une contribution essentielle de cette recherche est la nécessaire extension
du modèle de l’acceptation d’une technologie pour y inclure des facteurs identifiant les
besoins fonctionnels de cette technologie.

Des variables additionnelles, influençant l’utilité perçue, l’intensité d’utilisation de la


technologie et la satisfaction de l’utilisateur, doivent être identifiées et étudiées.

Pour la recherche, les différences et les superpositions entre les deux modèles doivent être
explorées au fond.

Les résultats de Dishaw & Strong (1999) suggèrent que les aspects de l’utilisation sont
déterminés par les perceptions des utilisateurs en fonction de l’utilité et la facilité d’utilisation
des outils et l’attitude générale envers l’utilisation des outils. Cependant, d’autres aspects sont
affectés en combinant une fonctionnalité spécifique à un outil aux besoins spécifiques d’une
tâche.

Notre modèle théorique global a été développé spécialement pour la technologie des AI.
Cependant, à l’exception du construit mesurant les fonctionnalités des AI (qui est spécifique à
cette technologie), tous les autres construits sont applicables à d’autres types de technologies
de l’information. Pour ces raisons, les résultats de notre recherche pourraient être étendus aux
différentes technologies de l’information (TI). Cette hypothèse mériterait une étude de
validation pour ces autres technologies.

259
Conclusion générale

Notre modèle a été testé dans plusieurs secteurs d’activités d’entreprises. Les participants à
notre enquête ont montré tout l’intérêt qu’il y a à utiliser cette technologie. D’après nos
résultats, l’utilisation des AI couvre les deux premiers stades du processus de prise de
décision : l’identification des problèmes ; la proposition de solutions alternatives. Nous ne
sommes toutefois pas arrivés au stade de la conception d’un AI qui sélectionne la solution
« idéale ». Par ailleurs, un AI qui couvrirait tout le cycle de prise de décision n’est pas encore
diffusé à tous les acteurs d’une organisation. Actuellement, un AI peut assurer :

- La phase de collecte des données disponibles et faire l’alimentation par n’importe


quel outil.

- La phase de traitement des informations et de structuration de celles qui ne le sont


pas. Cette exploitation respecte un certain nombre de règles qui ne sont pas toutes
écrites, mais qui sont partagées par l’ensemble des acteurs de l’entreprise.

- La phase de diffusion des informations sous forme de bases de connaissances.

Enfin, nous avons constaté que la mise en œuvre d’un AI dans une entreprise s’accompagne
d’un changement organisationnel, parfois culturel, dont les effets financiers (coût) ne sont pas
négligeables. Cela expliquerait, en partie, pourquoi cette technologie est plutôt utilisée dans
les grandes entreprises.

260
Conclusion générale

3.2. Les contributions managériales

En pratique, les éditeurs de logiciels doivent être conscients que l’utilisation actuelle ne
dépend pas uniquement de l’utilité perçue et de la facilité d’utilisation, mais aussi de la
fonctionnalité de l’outil et son lien avec les besoins de la tâche. De leur côté, les directeurs
utilisateurs de logiciels doivent se rendre compte que la faible utilisation des outils peut
résulter d’une inadéquation entre les fonctions de l’outil et les demandes de la tâche plutôt
que de l’utilité et l’utilisatbilité des outils.

L’absence de lien direct entre les variables du modèle (TTF) et celles du modèle (TAM) d’une
part, et le rôle de médiation apparent de la satisfaction des utilisateurs de ces outils, d’autre
part, mérite d’être poursuivi dans d’autres travaux.

Dans nos travaux, l’intensité d’utilisation des outils a été testée. Les résultats montrent un
effet direct positif de l’intensité et la qualité du service offert par les AI, et un effet direct
négatif de l’intensité et de la satisfaction des utilisateurs. Cependant, la faible taille de notre
échantillon n’a pas permis de diviser l’échantillon et tester les différences entre une grande et
une faible intensité d’utilisation.

L’un des objectifs de cette thèse fut aussi d’identifier les antécédents de l’intention d’utiliser
les AI dans le processus de prise de décision dans le but de faciliter les interventions
manageriales et augmenter la diffusion de cette technologie dans les organisations.

Nous l’avons montré, l’utilisation des AI, la qualité de service offert par les AI et la bonne
perception des AI peuvent encourager leur utilisation par les dirigeants lors de la prise de
décision. De plus, l’utilité perçue et la facilité d’utilisation des AI étant des déterminants
importants de la satisfaction des utilisateurs, les managers doivent fixer comme un objectif
important l’augmentation de la conscience des utilisateurs quant à la manière dont les tâches
peuvent être fournies par la technologie, et la réduction de leur inquiétudes relatives à la
complexité de la technologie.

Par ailleurs, l’innovation technologique se produisant à un rythme de plus en plus rapide, les
managers sont de plus en plus confrontés aux difficultés de diffusion des nouvelles
technologies dans leurs organisations (Abrahamson, 1991). Cependant, le taux de changement
technologique n’implique pas nécessairement le même taux d’adoption identique, car
l’adoption et l’usage dépendent de la psychologie de l’acceptation de l’utilisateur. Aussi, la

261
Conclusion générale

conduite de changement organisationnel est un vrai projet de structuration qui prend du temps
et de l’argent. Il faut donc accompagner l’évolution technologique dans chaque organisation
selon ses besoins et, pour cette raison, on comprend mieux pourquoi la définition des AI varie
d’un domaine à l’autre. Ainsi, par exemple, on considère généralement Google comme un AI
dans le domaine informatique parce que ses utilisateurs se contentent de la première phase de
collecte des informations. A l’opposé, un directeur appartenant au secteur de commerce et de
distribution nous a donné, en respectant la classification de leur rôle proposée dans notre
questionnaire, trois exemples de groupes d’AI auxquels son entreprise recourt : Google et Cie
pour la recherche des informations ; Hyperion, SAS, SASGraph, MapPoint pour le tri et l’aide
à l’analyse ; Calame pour la diffusion des informations. C’est là le signe d’une entreprise
stable, de grande taille et disposant des capacités pour investir dans cette technologie. Par
ailleurs, les AI peuvent être utilisés par de petits opérateurs. C’est le cas, à titre d’exemple,
des bibliothèques universitaires numérisées. Dans ce cas, les bases de données ainsi
accessibles et consultées par tous les chercheurs sont un puissant outil d’accélération du cycle
de la recherche.

A travers ces quelques exemples, on constate que chaque population d’utilisateurs identifie
ses besoins et met en place ses moyens organisationnels propres. Nous pouvons même
affirmer qu’au sein d’une même organisation, l’AI ne peut répondre à tous les besoins
exprimés par tous ses acteurs : les besoins d’un directeur diffèrent de ceux d’un concepteur…
C’est pourquoi il serait utile de poursuivre cette recherche par une étude multi-groupes
séparant les tâches des différents participants de sorte à identifier et évaluer leurs besoins
organisationnels spécifiques en fonction des fonctionnalités de l’outil technologique.

262
Bibliographie

Bibliographie
Bibliographie

ABRAHAMSON E., (1991), “Managerial fads and fashions: the diffusion and rejection
of innovations”, Academy of Management Review, Vol. 16, n°3, p.586-612.

AGARWAL R., KARAHANNA E., (2000), “Time Flies When You’re Having Fun:
Cognitive Absorption and Beliefs About Information Technology Usage,” MIS Quarterly,
Vol. 24, n°4, p. 665-694.

AGARWAL R., PRASAD J., (1999), “Are individual differences germane to the
acceptance of new information technologies?”, Decision Sciences, Vol. 30, n°2, p. 361-391.

AGUILAR F. J., (1967). Scanning the business environment. Macmillan, NY.

AHITUV N., ZIF J., MACHLIN I., (1998), “Environmental scanning and information
systems in relation to success in introducing new products”, Information and Management,
Vol. 33, p. 201-211.

AHONEN H. et al., (1998), “Applying data mining techniques for descriptive phrase
extraction in digital document collections”, IEEE Forum on Research and Technology
Advances in Digital Libraries (ADL’98), p. 2-11.

ALAMPALLI S., (2002), “Role of CI for Opportunity Assessment”, Competitive


Intelligence Magazine, Vol. 5, n°4, p. 21-24.

ALAVI M., CARLSON P., BROOKE G., (1989), “The ecology of MIS research: a
twenty year status review”, in: the proceedings of the tenth International Conference on
Information Systems, DeGross J.I., Hendersonm, J.C. & Konsynski, B.R. (eds), p. 363-375.
Boston, MA.

ALLEN B., (1994), “Case-based reasoning: business applications”, Communications of


the ACM, Vol.37, n°3, p. 40-42.

ANTHONY R.N., (1965). Planning and control systems: a framework for analysis.
Harvard university, Boston, USA.

APTE C., WEISS S., (1997), “Data mining with decision trees and decision rules”,
Future Generation Computer System, Vol.13, p. 197-210.

AURUM A., WOHLIN C., (2003), “ The fundamental nature of requirements


engineering activities as a decision-making process”, Information and Software Technology,
n°45, p. 945-954.

BAECKER R., GRUDIN J., BUXTON W., et al., (1995). Readings in Human-
Computer Interaction: Toward the Year 2000. 2nd edition San Francisco, CA: Morgan
Kaufmann Publishers, Inc.

BAILEY J., BAKOS Y., (1997), “An exploratory study of the emerging role of
electronic intermediaries”, International Journal of Electronic Commerce, Vol. 1, n°3, p. 7-
20.

BAILEY J.E., PEARSON S.W., (1983), “Development of a tool for measuring and
analysing computer user satisfaction”, Management science, p. 530-545.

264
Bibliographie

BAJAJ A., NIDUMOLU S.R., (1998), “A feedback model to understand information


system usage”, Information and Management, n°33, p. 213-224.

BALAKRISHNAN, WERNERFELT, (1986), “Technical change, competition and


vertical integration”, Strategic Management Journal, Vol. 7, n°4, p.347-359.

BANKER R. D., KAUFFMAN R. J., (2004), “The Evolution of Research on


Information Systems: A Fiftieth-Year Survey of the Literature”, Management Science, Vol.
50, n°3, March, p.281–298.

BARKI H., HARTWICK J., (1994), “Rethinking the concept of user involvement and
user attitude”, MIS Quarterly, Vol. 18, n°1, p.59-79.

BARNEY J., (1991), “Firm resources and sustained competitive advantage”, Journal of
Management, n°17.

BARR D.S., MANI G., (1994), “ Using neural nets to manage investments”, AI Expert,
p.16-21.

BARUA A., RAVINDRAN S., WHINSTON A. B., (1997), “Efficient selection of


suppliers over the Internet”, Journal of Management Information Systems, Vol.13, n°4, p.117-
137.

BASKERVILLE R., MYERS M., (2002), “Information Systems as a Reference


Discipline,” MIS Quarterly, Vol.26, n°1, p. 1-14.

BEAL R.M., (2000), “ Competing effectively : Environmental scanning, competitive


strategy, and organizational performance in small manufacturing firms” , Journal of Small
Business Management, Vol.38, n°1, p.27-47.

BEARD J.W., PETERSON T.O., (1988), “A taxonomy for the study of human factors
in Management Information Systems (MIS),”in J. M. Carey (ed.), Human Factors in MIS,
p.7-26, Norwood, NJ: Ablex.

BECKER B.G., (1997), “Using Mine Set for knowledge discovery”, IEEE Computer
Graphics and Application, p. 75-78.

BELKIN R., BROOKS H., ODDY R., (1986), “Using structural representations of
anomalous states of knowledge for choosing document retrieval strategies”, in Proceedings of
of the association of computing machinery special Internet Group of Information Retrieval
(ACM/SIGIR’86), Italie, p.11-22.

BENBASAT I., (2002) “HCI Research in MIS: A Personal View,” Panel presentation
at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

BENBASAT I., NAULT B.R., (1990), “An evaluation of empirical research in


managerial support systems”, Decision Support Systems, Vol.6, p. 203-226.

BENDOLY E., (2003), “Theory and support for process frameworks of knowledge
discovery and data mining from ERP systems”, Information and Management, Vol. 40, p.
639-647.

265
Bibliographie

BERSON A., SMITH S.J., (1997). Data warehousing, Data mining and OLAP.
McGraw-Hill, New York.

BERTINO E., CATANIA B., ZARRI G. P., (2001). Intelligent Database Systems.
Addison-Wesley, ACM Press.

BHATTACHERJEE A., (2001), “Understanding Information Systems Continuance: An


Expectation-Confirmation Model,” MIS Quartely, Vol. 25, n°3, p. 351-370.

BISP S., SORENSON E., GRUNERT K., (2001) “ Using the key success factor concept
in competitor intelligence and benchmarking”, Competitor Intelligence Review, Vol. 9, n°3,
p.55-67.

BLANKENSHIP A. B., BREEN G. E., DUTKA A., (1998). State of the art, Marketing
research, 2nd Edition, NTC Business Books, Lincdnwood, IL.

BONCELLA R. J., (2003), “ Competitive Intelligence and the Web”, Communications


of the Association for Information Systems, Vol. 12, p. 327-340.

BOSE I., MAHAPATRA R. K., (2001), “ Business data mining – a machine learning
perspective”, Information and Management, Vol. 39, p. 211-225.

BOURNOIS F., ROMANI P-J., (2000). L’intelligence économique et stratégique dans


les entreprises françaises. Ed. Economica, Paris.

BOYED, B.K., FULK J., (1996), “Executive scanning and perceived uncertainty: a
multidimensional model”, Journal of Management, Vol. 22, n°1, p.1-21.

BRACHMAN R.J., KHABAZA T., KLOESGEN W., et al., (1996), “Mining business
databases”, Communications of the ACM, Vol.39, n°11, p. 42-48.

BRIOT J. P., DEMAZEAU Y., Principes et architectures des systèmes multi-agents,


Lavoisier, 2001.

BRITTON C., (2002), “Deconstructing Advertising: What Your Competitor' s


Advertising Can Tell You About Their Strategy”, Competitive Intelligence Magazine, Vol. 5,
n°1, p.15-19.

BROCKHOFF K., (1998), “Technology management as part of strategic planning –


some empirical results”, R&D Management, Vol.28, n°3, p. 129-138.

BROMILEY, CUMMINGS, (1995), “Transactions costs in organisations with trust”,


Research in Negociation in Organizations, JAI Press, Greenwich, CT, p.219-247.

BROWN K., (2001). The interactive Market Place. NY: McGraw-Hill.

BURREL G., MORGAN, G. (1979). Sociological paradigms and organizational


analysis. Heinemann, London, UK.

BURWELL H. P., (1999). Online Competitive Intelligence: Increase Your Profits Using
Cyber-intelligence. Tempe, Arizona: Facts on Demand Press.

266
Bibliographie

BUTA P., (1994), “Mining for financial knowledge with CBR”, AI Expert, p. 34-41.

CAGLAYAN A., HARRISON C., (1998). Les agents. Applications bureautiques,


Internet et Intranet. Masson, Paris, 1998 pour la traduction française.

CANTER L. A., SIEGEL M. S., (1994). How to make a fortune on the information
superhighway: everyone’s guerrilla guide to marketing on the Internet and other on-line
services. Harper Collins, New York.

CAREY J. (1991). Human Factors in Information Systems: An Organizational


Perspective, Greenwich, CT: Ablex Publishing Corporation.

CAREY J. (1995). Human Factors in Information Systems: Emerging Theoretical


Bases. Greenwich, CT: Ablex Publishing Corporation.

CAREY J. (1997). Human Factors in Information Systems: The Relationship Between


User Interface Design and Human Performance. Greenwich, CT: Ablex Publishing
Corporation.

CAREY J. (2002), “Human Computer Interaction Research in the MIS Discipline,”


Panel presentation at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi.

CAREY J., (1988). Human Factors in Management Information Systems. Greenwich,


CT: Ablex Publishing Corporation.

CAREY J., GALLETTA D., KIM J., et al., (2004), “The role of human-computer
interaction in management information systems curricula: A call to action”, Communications
of the association for Information Systems, Vol.13, p. 357-379.

CARLSSON C., WALDEN, (1995), “Strategic management with a hyper-knowledge


support system”, Proceedings of the HICSS’27 Conference, IEEE Computer Society Press,
Los Alamitos, CA.

CARMINES E. G., ZELLER R.A., (1979), “Reliability and validity assessment”, Sage
University Paper Series on Quantitative Applications in the social sciences, p. 07-017. Sage,
Beverly Hills, CA.

CARON-FASAN M-L., (1997). Veille stratégique: création de sens à partir de signaux


faibles, Thèse, Grenoble.

CARTER C., CATLETT J., (1987), “Assessing credit card applications using machine
learning”, IEEE Expert Fall, p. 71-79.

CASH J., NUNAMAKER J. (1991). The information systems research challenge. Vol.
III: Survey Research Methods, Havard Business School Press, Boston, MA, USA.

CASH J., NUNAMAKER J., (1989). The information systems research challenge. Vol.
I: Qualitative Research Methods, Havard Business School Press, Boston, MA, USA.

CASH J., NUNAMAKER J., (1990). The information systems research challenge. Vol.
II: Experimental Research Methods, Havard Business School Press, Boston, MA, USA.

267
Bibliographie

CHAKRABARTI S., DOM B.E., KUMAR S.R., et al., (1999), “Mining the web’s link
structure”, IEEE Computer, p. 60-67.

CHAU P.Y.K., (1996), “An empirical investigation on factors affecting the acceptance
of CASE by systems developers”, Information and Management, Vol.30, p. 269-280.

CHEN W.S., HIRSCHHEIM R., (2004), “A paradigmatic and methodological


examination of information systems research from 1991 to 2001”, Information Systems
Journal, Vol.14, n°3, July, p. 197-235.

CHEVALLET J. P., (2002), « Les interfaces pour la recherche d’information », dans C.


Paganelli (dir), Interaction homme-machine et recherche d’information, Hermès Sciences
Publications, Paris.

CHILD J., (1972), “Organisational structure, environment, and performance: the role of
strategic choke”, Sociology, n°6, p.2-22.

CHIN W., (1998), “Issues and opinion on structural equation modelling”, MIS
Quarterly, Vol. 22, n°1, March, p. 7-16.

CHIN W., GOPAL A., (1995), “Adoption intention in GSS: Relative importance of
beliefs”, Data Base, Vol. 26, n°2/3, May/August, p. 42-63.

CHIN W., TODD P. A. (1995), “On the use, Usefulness, and Ease of Use of Structural
Equation Modelling in MIS Research: A note of Caution,” MIS Quarterly, Vol. 19, n°2, June
p. 237-246.

CHOO C.W., DETLOR B., TURNBULL D., (1998), “A behavioural model of


information seeking on the web: Preliminary results of a study of how managers and IT
specialists use the web”, 6th annual meeting of the American Society for Information Science.

CHUA W. F., (1986), « Radical developments in accounting thought », The Accounting


Review, Vol. 61, p. 601-632.

CODD E.F. et al., (1993), « Providing OLAP to user-Analysts: An IT Mandate », a


white paper, commissioned by Arbor Software (now Hyperion Solutions).

CODD E.F., (1970), “A relational model for large shared data banks”, Communications
of the ACM, Vol. 13, n°6, p. 370-387.

COHEN P., COHEN J., TERESI J., et al., (1990), “Problems in the Measurement of
Latent Variables in Structural Equations Causal Models”, Applied Psychological
Measurement, Vol.14, n°2, p. 183-196.

COLLINS J. et al., “A multi agents contracting system for plan execution. In Workshop
on Artificial Intelligence and Manufactoring : State of the Art and State of Practice”, AAAI
Press, Albuquerque, NM, August 1998, p.63-68.
COMPEAU D., HIGGINS C. A., HUFF S., (1999), “Social cognitive theory and
individual reaction to computing technology: a longitudinal study”, MIS Quarterly, Vol. 23,
n°2, p. 145-158.

268
Bibliographie

COMPEAU D., HIGGINS C., (1995), “Application of Social Cognitive Theory to


Training for Computer Skills,” Information Systems Research, Vol. 6, n°2, p.118-143.

COMPEAU D., HIGGINS C., (1995), “Computer Self-Efficacy: Development of a


Measure and Initial Test,” MIS Quarterly, Vol.19, n°2, p. 189-211.

CORVAISIER F. et al., (1997), « Recherche assistée de documents indexés sur


l’expérience : mesures de similarités des épisodes de recherche sur le web », dans Ingénierie
des connaissances.

COSTE-MANIERE E., WANG H.H., ROCK S.M., et al., (1996), “Joint evaluation of
mission programming for underwater robots”, in Proceedings of IEEE International
Conference on Roboticsand Automation, Minneapolis, MN. IEEE Computer Society Press:
Los Alamitos, CA; 2492-2497.

COTE M. et al., (2001), “NetSA : Une architecture multi agents réutilisable pour les
environnements riches en informations”, Information Interaction Intelligence, vol. 1, n°2.

CUNLAN M.J., (1983), “Environmental scanning: the effects of task complexity and
source accessibility on information gathering behavior”, Decision Sciences, Vol. 14, p. 194-
205.

DAFT R.L., (1992). Organization theory and design. NY: West Publishing Company.

DAFT R.L., SORMUNEN J., PARKS D., (1988), “Chief executive scanning,
environmental characteristics, and company performance: An empirical study”, Strategic
Management Jounal, Vol. 9, p.123-139.

DASGUPTA S. et al., (2002), “User acceptance of e-collaboration technology: An


extension of the technology acceptance model”, Group Decision and Negociation, Vol.11,
n°2, March, p.87-100.

DAVID J.F., MONOD E., (1997), « Les agents intelligents : une question de
recherche », Systèmes d’Informations et Management, n°2.

DAVIS F.D., (1989), “Perceived usefulness, perceived ease of use, and user acceptance
of information technologies”, MIS Quarterly, Vol. 13, n°3, p.319-340.

DAVIS F.D., (1993), “User acceptance of information technology: system


characteristics, user perceptions, and behavioural impacts”, Intentional Journal of Man
Machine Studies, Vol. 38, p. 475-487.

DAVIS F.D., BAGOZZI R., WARSHOW P.R., (1989), “User acceptance of computer
technology: a comparison of two theoretical models”, Management Science, Vol. 35, n°8, p.
982-1003.

DAVIS, F. (2002), “Human Computer Interaction Research in the MIS Discipline,”


Panel Presentation at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

DELONE W.H., MCLEAN E.R., (1992), “Information Systems Success: the quest of
the dependent variable”, Information Systems Research, March, p.60-95.

269
Bibliographie

DELONE W.H., MCLEAN E.R., (2003), “The Delone and McLean model of
information success: A ten-Year update”, Journal of Management Information Systems,
Vol.19, n°4, p.9-30.

DENNETT D.C., (1991), “Consciousness imagined”. In Consciousness Explained,


Dennett DC. Little, Brown and company: Boston; p. 431-435.

DESANCTIS G., GALLUPE R.B., (1987), “A foundation for the study of group
decision support systems”, Management Science, Vol. 33, p. 589-609.

DESANCTIS G., POOLE M.S., (1994), « Capturing the complexity in advanced


technology use : adaptative structuration theory”, Organization science, Vol. 5, p. 121-147.

DEWITT M., (1997). Competitive intelligence, Competitive advantage. Abacus, Grand


Rapids, MI.

DICKSON G., SENN J., CHERVANY N., (1977), “Research in Management


Information Systems: the Minnesota experiments”, Management Science, Vol. 23, p. 913-923.

DIESING P., (1991). How Does Social Science Work? Reflections on Practice.
Pittsburgh, PA: University of Pittsburgh Press.

DISHAW M. T., STRONG D.M., (1998), “Supporting Software Maintenance with


Software Engineering Tools: A Computed Task-Technology Fit Analysis,” Journal of
Systems and Software, Vol. 44, n°2, p. 107-120

DISHAW M.T., STRONG D.M., (1999), “Extending the technology acceptance model
with task-technology fit constructs”, Information and Management, Vol. 36, p. 9-21.

DOLL W. J., TORKZADEH G., (1991), “The measurement of end user computing
satisfaction: Theoritical and methodological issues”, MIS Quarterly, Vol. 15, n°1, p. 5-10.

DOLL W. J., TORKZADEH G., (1998), “Developing a multidimensional measure of


system-use in an organizational context”, Information and Management, Vol.33, p. 171-185.

DOLL W.J., HENDRICKSON A., DENG X., (1998), “Using Davis’s Perceived
Usefulness and Ease-of use Instruments for Decision Making: A Confirmatory and
Multigroup Invariance Analysis”, Decision Sciences, Vol.29, n°4, p. 839-869.

DOLLINGER J.M., (1984), “Environmental boundary spanning and information


processing effects on organizational performance”, Academy of Management Journal, Vol.27,
n°2, p. 51-368.

DOURS D., (1992), « L’ordinateur », Encyclopédie de Management, Librairie Vuibert.

DREYFUS H. L., (1997). What Computers still can’t do. MIT Press, Cambridge, MA.

DUNKAN, (1972), “Characteristics of organizational environments and perceived


uncertainty”, Administrative Science Quartely, Vol.17, p.313-327.

DURAND B., (1996). Simulation multi-agents et épidémiologie opérationnelle. Etude


d’épizooties de fièvre aphteuse. Thèse. Université de CAEN, 20/06/1996.

270
Bibliographie

EGELHOFF W. G., (1982), “Strategy and structure in multinational corporations: an


information-processing approach”, Administrative Science Quaterly, n°27, p. 435-458.

EIERMAN M.A., Niederman F., Adams C., (1995), “DSS theory: A model of
constructs and relationships”, Decision Support System, Vol. 14, p.1-26.

EL SAWY, OMAR A. (1985), “Personal Information Systems for strategic scanning in


turbulent environments: can the CEO go on line?”, MIS Quarterly, Mars, p.53-60.

ENGEL J., BLACKWELL, (1982). Consumer Behavior. 4th ed. CBS College
Publishing.

ETEZADI-AMOLI J., FARHOOMAND A.F., (1996), “A structural model of end user


computing satisfaction and user performance”, Information and Management, Vol. 30, p.65-
73.

ETTORE B., (1995), “Managing competitive intelligence”, Management Review,


Vol.10, p. 15-19.

FAHAY N., (1989), “Linking changes in revealed causal maps and environmental
change: an empirical study”, Journal of Management Studies, Vol. 26, p.361-378.

FARHOOMAND A.F., DURY D.H., (1999), “A historiographical examination of


information systems”, Communications of the Association for Information Systems, Vol. 1, p.
1-27.

FAYYAD U., PIATETSKY-SHAPIRO G., SMYTH P., (1996), “From data mining to
knowledge discovery in databases”, AI Magazine, p. 37-53.

FERBER J., (1995). Les systèmes multi agents. InterEditions, Paris.


FINNERAN C., ZHANG P., (2002), “The Challenges of Studying Flow within a
Computer-Mediated Environment”, in Proceedings of the Americas Conference on
Information Systems, Dallas, TX, p. 1047-1054

FLEISHER C. S., BENSOUSSAN B. E., (2003). Strategic and Competitive Analysis:


Methods and Techniques for Analyzing Business Competition. Upper Saddle River, New
Jersey: Prentice Hall.

FOISEL R., (1998). Modèle de réorganisation de systèmes multi-agents: une approche


descriptive et opérationnelle. Ph D. Thesis, Université Henri Poincaré, Novembre / 1998.

FORNELL C., BOOKSTEIN F.L., (1982), “Two Structural equation Models: LISREL
and PLS Applied to Consumer Exit-Voice Theory”, Journal of Marketing Research, Vol. 19,
n°4, p. 440-452.

FORNELL C., JAESUNG C., (1994), “Partial Least Squares”, in Richard P. Bagozzi,
ed., Advanced Methods of Marketing Research, Oxford, England: Blackwell Publishers, p. 52-
78.

FORNELL C., LARCKER D.F., (1981), “Evaluating structural equation models with
unobservable variables and measurement error”, Journal of Marketing Research, Vol. 18,
February, p. 39-50.

271
Bibliographie

FRANZ C.R., ROBEY D., (1986), “Organizational context, User involvement, and the
usefulness of information systems”, Decision Sciences, Vol. 17, n°3, p.329-356.

FULD L., (1985). Competitor intelligence: how to get it ? How to use it ?. John Wiely,
NY.

FULD L., (1995). The new competitor intelligence: the complete resource for finding,
analysing and using information about your competitors. John Wiley, NY.

GALBRAITH J. R., (1973). Desining Complex Organizations. Reading, MA: Addison-


Wesley.

GALBRAITH J. R., (1977). Organizational Design. Reading, MA: Addison-Wesley.

GALLETTA D., (2002), “HCI Research in MIS: A Personal View”, Panel Presentation
at AMCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

GALLIERS R.D., (1991), “Choosing appropriate information systems research


approaches: a revised taxonomy”, In Information Systems Research: Contemporary
Approaches and Emergent Traditions, Nissen, H-E., Klein H.K. & Hirschheim, R. (eds), p.
327-345. Elsevier Science Publishers, North Holland.

GALLIERS R.D., LAND F., (1987), “Choosing appropriate information systems


research methodologies”, Communications of the ACM, Vol. 30, p. 900-902.

GEFEN D., et al., (2000), “Structural equation modelling and regression: guidelines for
research practice”, CAIS, Vol.4, Art.7, Octobre.

GEFEN D., KEIL M., (1998), “The impact of developer responsiveness on perceptions
of usefulness and ease of use: an extension of the technology acceptance model”, The data
base for advances in information systems, Vol. 29, n°2, p. 35-49.

GELDERMAN M., (1998), “The relation between user satisfaction, usage of


information systems and performance”, Information & Management, Vol. 34, n°1, p. 11-18.

GELDERMAN M., (1998), “Translation and validation of the Doll and Torkzadeh end
user computing satisfaction instrument”, in: Hugh J. Watson (Ed.), Proceedings of HICSS 31,
Vol.VI, IEEE Computer Press, January, p. 537-546.

GERSHON N., EICK S.G.,(1997), “Information visualization applications in the real


world”, IEEE Computer Graphics and Application, p. 66-70.

GHANI J. (1995), “Flow in Human Computer Interactions: Test of a Model”, in J.


Carey (Ed.), Human Factors in Information Systems: Emerging Theoretical
Bases.Norwood,NJ: Ablex Publishing Corp.

GIALD T., GIALD B., (1986), “Business Intelligence. The quiet revolution”, Sloan
Management Review, Vol. 27, n°4, p.53-62.

GLITMAN E., (2000), “Comprehending Irrational Competitor Actions through Futures-


Based Analysis”, Competitive Intelligence Magazine, Vol. 3, n°4, p. 29-32.

272
Bibliographie

GOLES T., HIRSHHEIM R., (2000), “The paradigm IS dead, the paradigm is dead…
long live the paradigm: the legacy of Burrel and Morgan”. Omega, Vol. 28, p. 249-268.

GOODHUE D. L., (1995), “Understanding User Evaluations of Information Systems”,


Management Science, Vol. 41, n°12, p. 1827-1844.

GOODHUE D. L., THOMPSON R. L., (1995), “Task-Technology Fit and Individual


Performance”, MIS Quarterly, Vol. 19, n°2, p.213-236.

GORDON I., (1989). Beat the competition ! How to use competitive intelligence to
develop winning strategies ?. Blackwell, Oxford.

GORRY G.A., SCOTT M.S., (1971), “A framework for management information


systems”, Sloan Management Review, Vol. 13, n°1, p. 55-70.

GROVER V., SAEED K.A., (2004), “Strategic orientation and performance of internet-
based businesses”, Information Systems Journal, Vol.14, n°1, January, p. 23-42.

GUDIVADA V. N., (1997), “Information retrieval on the world wide web”, IEEE
Internet Computing, Vol. 1, n°6, p. 100-109.

GULATI R., (1998), “Alliances and Networks”, Strategic Management Journal,


Vol.19, n°4, p. 293-317.

GUTTMAN R. H., MAES P., (1998), “Agent-mediated Integrative negotiation for


Retail Electronic Commerce”, MIT Media Laboratry.

GUTTMAN R. H., MAES P., CHAVEZ A., DREILINGER D., (1997), “A Real-Life
Experiment in Creating an Agent Marketplace”, MIT Media Laboratry.

GUTTMAN R. H., MAES P., CHAVEZ A., DREILINGER D., (1998), “Results from a
Multi-Agent Electronic Marketplace Experiment”, MIT Media Laboratry.

GUTTMAN R. H., MOUKAS A. G., MAES P., (1998), “Agent-mediated electronic


commerce: A survey”, Software Agents Group, MIT Media Laboratory.

GUYOT B., (2004), « Eléments pour une approche informationnelle dans les
organisations », Sciences de la Société, n°63, Octobre.

HAMBRICK D.C., (1982), “Environmental scanning in U.S. corporations”, Long


Range Planning, Vol.17, n°2, p. 117-128.

HAN J. et al., (1997), “BD miner: a system for data mining in relational databases and
data warehouses”, in Proceedings of CASCON’97: Meetings of Minds, Toronto, Canada.

HERRING J. P., (1988), “Building a business intelligence system”, The Journal of


Business Strategy, May-June.

HERRING J. P., (1998)“What is intelligence analysis?”, Competitive Intelligence


Magazine, Vol. 1, n°2, p.13-16. http://www.scip.org/news/cimagazine_article.asp?id=196
(current September 1, 2003)

273
Bibliographie

HERRING J. P., KLEIN R. D., HARRIS M., BOUREY A. T., (2002), “Corporate
Culture as a Tool for Anticipating the Competition”, Competitive Intelligence Magazine, Vol.
5, n°4, p. 6-10.

HEWETT T., BAECKER R., CARD S., et al., (1992). ACM SIHCHI Curricula for
Human-Computer Interaction, New York, NY: Association for Computing Machinery.

HILL T., SMITH N., MANN M., (1986), “Communicating Innovations: Convincing
Computer Phobics to Adopt Innovative Technologies,” in R. J. Lutz (ed.), Advances in
Consumer Research (Volume 13), Provo, UT: Association for Consumer Research, p. 419-
422.

HILL T., SMITH N., MANN M., “Role of Efficacy Expectations in Predicting the
Decision to User Advanced Technologies: The Case of Computers,” Journal of Applied
Psychology, Vol. 72, n°2, p. 307-313.

HIRSHHEIM R., KLEIN H.K., (1992), “Paradigmatic influences on information


systems development methodologies: evolution and conceptual advances”, Advances in
Computers, Vol. 34, p. 293-392.

HIRSHHEIM R., KLEIN H.K., (2003), “Crisis in the information systems field? A
critical reflection on the state of the discipline”, Journal of the Association for Information
System, Vol. 4, p. 237-293.

HOFFMAN D., NOVAK T.P., (1996), “Marketing in Hypermedia Computer-Mediated


Environments: Conceptual Foundations,” Journal of Marketing, Vol. 80, n°4, p. 50-68.

HOLDER B. J., (2001), “Scouting: a Process for Discovering, Creating, and Acting on
Knowledge”. Competitive Intelligence Magazine, Vol. 4, p. 17-21.

HOYT B., (2002), “Early Warning: the Art of Inference”. Competitive Intelligence
Magazine, Vol. 5, n°1, p. 10-14. Hypersearching the Web. (1999). Scientific American.
http://melody.syr.edu/hci/amcis02_panel/Zhang_HCI_Panel_Description_071502.pdf

HU P.J., CHAU P.Y.K., LIU SHENG O.R., YAN TAM K., (1999), “Examining the
technology acceptance model using physician acceptance of telemedicine technology”,
Journal of Management Information Systems, Vol. 16, n°2, p. 91-112.

HUBER G. P., (1990), “A theory of the effects of advanced information technologies on


organizational design, intelligence, and decision making”, Academy of Management Review,
Vol.15, p. 47-71.

HUI S. C., JHA G., (2000), « Application Data Mining for costumer service support »,
Information and Management, Vol. 38, p. 1-13.

HULLAND J., (1999), “Use of partial least squares (PLS) in strategic management
research: A review of four recent studies”, Strategic Management Journal, Vol. 20, n°2, p.
195-204.

HUOT C., (1992). Analyse relationnelle pour la veille technologique vers l’analyse
automatique des bases de données. Thèse. Université de droit, d’économie et des sciences
d’Aix-Marseille.

274
Bibliographie

IGBARIA M., CRAGG P., ZINATELLI N., CAVAYE A., (1997), “Personal
computing acceptance factors in small firms : a structural equation model”, MIS Quarterly,
September, p. 279-302.

INMON W.H., (1992). Building the Data Warehouse. QED Information Sciences,
Wellesley, MA.

ISAAC H., (2003), « Utilisation d’Internet pour la veille stratégique : facteurs


déterminant des pratiques des entreprises françaises », 8ème congrès de l’AIM.

IVES B., OLSON M., BAROUDI J., (1983), “The measurement of user information
satisfaction”, Communications of the ACM, Vol. 26, n°10, p. 785-793.

JACKSON C.M., CHOW S., LEITCH R.A., (1997), “Toward an understanding of the
behavioral intention to use an information system”, Decision Sciences, Vol. 28, n°2, p. 357-
389.

JAKOBIAK F. (1988). Maîtriser l’information critique. Ed. d’organisation, Paris.

JENNINGS N. R. et al., (1998), “A road of map of agent research and development”, In


Journal of Autonomous Agents and Multi agents Systems, Vol.1, n°1, p. 7-38.

JENNINGS N.R., WOOLDRIDGE M.J., (1998). “A brief introduction to software


agent technology”, in Agent Technology: Foundations, Applications, and Markets, Jennings
NR, Wooldridge MJ (eds). Springer-Verlag: New York, p. 29-48.

JOHN G.H., MILLER P., KERBER R., (1996), “Stock selection using rule induction”,
IEEE Expert, p. 52-58.

JOHN G.H., ZAHO Y., (1997), “Mortgage data mining”, in Proceedings of the
IEEE/IAFE Conference on Computational Intelligence for Financial Engineering, p. 232-236.

JONES C., HESTERLY W.S., BORGATTI S.P., (1997), “A general theory of network
governance : Exchange conditions and social mechanisms”, The Academy of Management
Review, Vol.22, n°4, p..

JOURESTON J., (2000), “Using Intelligent Search Agents for CI”, Competitive
Intelligence Magazine, Vol. 3, n°1, p.32-36.

KAHANER L., (1998). Competitive Intelligence: How to Gather, Analyze and Use
Information to Move Your Business to the To.: Touchstone.

KALIKA M., (1992), « Informatique et Organisation », Encyclopédie de Management,


Librairie Vuibert, Janvier .

KALIKA M., (2005). Le mémoire de Master, Dunod, Paris.

KALIKA M., ISAAC H., JOSSERAND E., et al., (2003). Le e-Management: quelles
transformations pour l’entreprise ?. Editions Liaisons, Paris.

KALIKA M., KEFI H., (2004). L’évaluation des systèmes d’information, une
perspective organisationnelle. Economica, Paris.

275
Bibliographie

KARAHANNA E., STRAUB D.W., (1999), “The psychological origins of perceived


usefulness and ease of use”, Information and Management, Vol. 35, n°4, p.237-250.

KASSLER H., (2000). “Competitive Intelligence and the Internet: Going for the Gold”,
Information Outlook, Vol. 4, n°2, p.37-42.

KAUFFMAN R. J., MARCH S. T., WOOD C. A., (2000), “Design Principles for long
lived Internet Agents”, International Journal of Intelligent in Accounting, Finance and
Management, Vol.9, n°4, Décembre.

KEATS, HITT, (1988), “A cause model of linkages among environmental dimensions,


macro organizational characteristics, and performance”, Academy of Management Journal,
Vol. 31, p. 570-598.

KEFI H., (2002). Evaluation des technologies et systèmes d’information: cas d’un
entrepôt de données implanté dans une institution financière. Etude orientée processus et
intégrée dans le contexte institutionnel de l’organisation. Thèse, Université Paris IX-
Dauphine.

KEIL M., BERANEK P.M., KONSYNSKI B.R., (1995), “Usefulness and ease of use:
field study evidence regarding task considerations”, Decision support systems, Vol.13, p. 75-
91.

KHALIFA M., CHENG S.K.N., (2002), “Adoption of mobile commerce: Role of


exposure”, Proceedings of the 35th Hawaii International Conference on System Sciences.

KILLINGSWORTH B., KLETKE M., MACKAY J., TRUMBLY J., CAREY J., (1995)
“Human Factors in Information Systems: A Position Treatise,” in J. Carey (ed.) Human
Factors in Information Systems: Emerging Theoretical Bases, Norwood, NJ: Ablex
Publishing Corporation, p.1-25.

KIM S.H., NOH H.J., (1997), “Predictability of interest rates using data mining tools: a
comparative analysis of Korea and the US”, Expert Systems with Applications, Vol. 13, n°2,
p. 85-95.

KIMBALL R., (1996). The data warehouse Toolkit. John Wiley & Sons, New York,
NY.

KLEIN M., DELLAROCAS, (1999), “Exception handling in agent systems”, in


Proceedings of the third International Conference on Autonomos Agents, Seattle,
Washington. ACM Press: NY, p. 62-68.

KLUSCH M., (2001), “Information agent technology for the Internet: A survey”, Data
& Knowledge Engineering, Vol. 36, p.337-372.

KOGUT B., (1985), “Designing Global Strategies: Comparative and Competitive Value
Added Chains”, Sloan Management Review, Vol. 26, n°4, Summer, p. 15-28.

KOKKINAKI A.I., (1997), “On atypical database transactions: identification of


probable frauds using machine learning for user profiling”, in Proceedings of the IEEE
Knowledge and Data Engineering Exchange Workshop, Newport Beach, CA, p. 107-113.

276
Bibliographie

KOLODNER J., (1993). Cased-Based Reasoning. Morgan Kaufmann, San Mateo, CA.

KRISHNAN R., LI X., STEIER D., ZHAO L., (2001), “On Heterogeneous Database
Retrieval: A Cognitively Guided Approach,” Information Systems Research, Vol. 12, n°3, p.
286-301.

KUOKKA D. et al., (1998). Matchmaking for Information Agents. Readings in Agents.


N. M. Huhns & M. P. Singh editors.
LAGUS K. et al., (1999), “WEBSOM for textual data mining”, Artificial Intelligence
Review, On-line document available at
URL:http://websom.hut.fi/websom/doc/publications.html, in press.

LAMB R., KING J.L., KLINGR., (2002), “Informational Environments: organizational


contexts of online information use”, Journal of the American Society for Information Science
and Technology, in press.

LANDRY M., BANVILLE C., (1992), “A disciplined methodological pluralism of MIS


research”, Accounting, Management and Information Technology, Vol. 2, p.77-97.

LEBART L., MORINEAU A. et PIRON M. (1995). Statistique exploratoire


multidimensionnelle. Dunod, Paris.

Le MOIGNE, J.L. (1990). La modélisation des systèmes complexes. Dunod.

LEFEBURE R., VENTURI G., (2001). Data Mining : Gestion de la relation client.
Personnalisation de sites web. Editions Eyrolles.

LEGRIS P., INGHAM J., COLLERETTE P., (2003), “Why do people use information
technology? A critical review of the technology acceptance model”, Information and
Management, Vol. 40, p. 191-204.

LEMOIGNE J-L., (1994). Le constructivisme. ESF éditeur. (Tome1 : Des fondements ;


Tome2 : Des épistémologies)

LENT B., et al., (1997), “ Discovering trends in text databases”, in Proceedings of 3rd
International Conference on Knowledge Discovery and Data Mining (KDD’97), p. 139-144.

LESCA H. (1986). Systèmes d’information pour le management stratégique. Ed. Mac


Graw Hill, Paris.

LESCA H. (1994).Veille stratégique. Ed. Aster.

LESCA H., (2001), « Veille stratégique pour le management stratégique. Etat de la


question et axes de recherche », in Economies et Sociétés, Série Sciences de Gestion, SG
n°20, p.31-50.

LESCA H., (2003). Veille stratégique, La méthode LESCAnning. EMS.

LESCA H., CARON M-L., (1995), « Veille stratégique : créer une intelligence
collective au sein de l’entreprise », Revue Française de Gestion, Sept-Oct, p.58-68.

277
Bibliographie

LESCA H., CHOKRON M., (2000), « Intelligence d’entreprise : retours


d’expériences », AIM.

LEWIS F.L., FITZGERALD M., LIU K., (1996). “Robotics”. ACM Computing surveys,
Vol. 28, p.81-84.

LIANG T-P., HUANG J-S., (1998), “An empirical study on consumer acceptance of
products in electronic markets: A transaction Cost Model”, Decision Support System, Vol.24.

LIU S., (1998), “Business environment scanner for senior managers: towards active
executive support with intelligent agents”, Expert Systems with Applications, Vol.15, p.111-
121.

LOOSE R. M., (1998). Text retrieval and filtering. Kluwer, Dordrecht.

LUCAS H.C., SPITLER V.K., (1999), “Technology use and performance: a field study
of broker workstations”, Decisions Sciences, Vol. 30, n°2, p. 291-311

MAES P. et al., (1999), “Agents that buy and sell”, Communication of the ACM, Vol.
42, n°3, p. 30-36.

MAES P., (1994), “Agents that reduce work and information overload”,
Communication of the ACM, Vol. 37, n°7, ACM Press, July, p. 31-40.

MANNILA H., TOIVONEN H., VERKAMO A.J., (1995), “Discovering frequent


episodes in sequences”, in Proceedings of First International Conference on Knowledge
Discovery and Data Mining, Montreal, Canada, AAAI Press, Menlo Park, CA, p. 210-215.

MARTIN M., (1995), “Human Factors in Information Systems: A Taxonomy”, in J.


Carey (ed.) Human Factors in Information Systems: Emerging Theoretical Bases, Norwood,
NJ: Ablex Publishing Corporation, p. 27-41.

MATHIESON K., (1991), “Predicting user intentions: comparing the technology


acceptance model with the theory of planned behvior”, Information Systems Research, Vol. 2
n°3, p. 173-191.

MCCARTHY S., (1992), « Gazing at the future of Networks: Vast Flow of Information
Opens many markets for entrepreneurs », Washington Post, 22 June 1992.

MCGRATH J., (1981), “Dilemmatics: The Study of Research Choices and Dilemmas,”
American Behavioral Scientist, Vol. 25, n°2, p. 179-210.

MEISTER D.B., COMPEAU D.R., (2002), “Infusion of innovation adoption: an


individuel perspective”, ASAC.

MELLITI T., (Décembre 2004), Interopérabilité des services web complexes.


Application aux systèmes multi-agents. Thèse. Université Paris Dauphine. Laboratoire
d’Analyse et Modélisation de Systèmes pour l’Aide à la Décision (LAMSAD).

MELONE N.P., (1990), “A theoretical assessment of the user –satisfaction construct in


Information Systems Research”, Management Science, Vol. 36, n°1, p.76-91.

278
Bibliographie

MESSIER W.F., HANSEN J.V., (1988), “Inducing rules for expert system
development: an example using default and bankruptcy data”, Management Science, Vol. 34,
n°2, p. 1403-1415.

MIEGE B., (2003). Communication personnes systèmes informationnels. Lavoisier,


Paris.

MILES RE., SNOW CC., (1978), “Organizational strategy, structure and process”,
Academy of Management Review, Vol 3, n°3, p.546-563.

MINTZBERG H., RAISINGHANI D., THEORET A., (1976), “The structure of


unstructured decision processes”, Adminitrative Science Quarterly, Vol. 12, n°2, p. 246-275.

MOGEL R., (2002), “Futuristic Thinking”, Competitive Intelligence Magazine, Vol.5,


n°3, p.12-14.

MOORE G., BENBASAT I., (1991), “Development of an Instrument to Measure the


Perceptions of Adopting an Information Technology Innovation,” Information Systems
Research, Vol.2, n°3, p. 192-222.

MORIN J. (1985). L’excellence technologique. Publi-Union, Paris.

MORRIS J., MAES P., (2000). “Sardine: an agent-facilitated Airline Ticket Bidding
System”, MIT media Lab.

MÜLLER J.P., (1997), “Control architectures for autonomous and interacting agents: A
survey”, L. Cavedon, A.S. Rao, W.Wobcke (dir), Intelligent Agent Systems: Theoretical and
practical issues, p.1-26, springer-Verlag, LNAI n°1209.

MÜLLER J.P., (1999), “The right agent (architecture) to do the right thing”, Intelligent
Agent V, Springer-Verlag, LNAI n°1555, p.211-225.

MURCH R., JOHNSON T., (1999). Intelligent Software Agents, Prentice-Hall, Upper
Saddle River, WJ.

NABETH T., ANGEHRN A., RODA C., (2003), “Enhancing Knowledge Management
Systems with Cognitive agents”, Systèmes d’Information et Management, Vol. 8, n°2.

NANDHAKUMAR J., JONES M., (1997), “Too close for comfort? Distance and
engagement in interpretive information systems research”, Information Systems Journal, Vol.
7, p.109-131.

NAYLOR E., (2002). X-Ray Your Competition: Profiling, Media Analysis and CI
[electronic newsletter]. SCIP. Retrieved, from the World Wide Web: http://www.scip.org

NEGASH S., (2004), “Business Intelligence”, Communications of the Association for


Information Systems, Vol.13, p.177-195.

NEWSTED P., SALISBURY D., TODD P., ZMUD R., (1997), “Measurement Issues in
the Study of Human Factors in Management Information Systems,” in J. Carey (ed.) Human
Factors in Information Systems: The Relationship between User Interface Design and Human
Performance, Greenwich, CT: Ablex Publishing Corporation, p. 211-241.

279
Bibliographie

NONAKA I., TAKEUCHI H., (1995). The knowledge creating company. Oxford
University Press, New York.

NONAKA I., UMEMOTO K., SENOO D., (1996), “From information processing to
knowledge creation : a paradigm shift in business management”, Technology in Society,
Vol.18, n°2, p. 203-218.

NOVAK T. P., HOFFMAN D.L., DUHACHEK A., (2002) “The Influence of Goal-
Directed and Experiential Activities on Online Flow Experiences,” Journal of Consumer
Psychology, Vol. 13, n°1/2.

NUNNALLY J.C. (1978). Psychometric theory. (2nd ed.). New York; McGraw-Hill.

ORLIKOWSKI W. J., (1993), “CASE tools as organizational change: investigating


incremental and radical changes in systems development”, MIS Quarterly, Vol.17, p.309-340.

ORLIKOWSKI W. J., BAROUDI J.J., (1991), “Studying information technology in


organisations: research approaches and assumptions”, Information Systems Research, Vol. 2,
p.1-28.

ORLIKOWSKI W. J., ROBEY D., (1991), “Information technology and the structuring
of organizations”, Information Systems Research, Vol. 2, p.143-169.

OUZROUT Y., KABACHI N., VINCENT L., (1996), « Une société d’agents pour la
prise de décision dans les organisations productives », IA Distribuée et SMA, JFIAD SMA’96,
J. P. Müller, J. Quinqueton, Hèrmes.

PAGANELLI C., (2002). Intercation homme-machine et recherche d’information.


Hermès Sciences Publications, Paris.

PAQUETTE G., BOURDEAU J., HENRI F., et al., (2003), « Construction d' une base
de connaissances et d’une banque de ressources pour le domaine du Téléapprentissage »,
Sciences et technologies de l’information et de la communication pour la formation et
l’éducation, Vol.10. www.cticef.org.

PARASCHIV C., (2004). Les agents intelligents pour un nouveau commerce


électronique, GET et Lavoisier, Paris.

PARDO-CASTELLOTE G., SCHNEIDER S.A., CANNON R.H., (1995), “System


design and interfaces for intelligent manufacturing workcell”, In Proceedings of the
International Conference on Robotics and Automation, Nagoya, Japan. IEEE Computer
Society Press: Los Alamitos, CA.

PATCHETT V, (2002), “May the Force Be With You: Michael Porter and the Five-
Force Theory of Industry Analysis”. Competitive Intelligence Magazine, Vol. 5, n°4, p. 28-30.

PAVARD B., (1994). Systèmes coopératifs : de la modélisation à la conception, 1ère


édition, Octares Editions.

PAWAR B. S., SHARDA R., (1997), “Obtaining business intelligence on the Internet”,
Long Range Planning, Vol. 30, n°1.

280
Bibliographie

PEARCE J.A., CHAPMAN B.I., DAVI F.R., (1992), “ Enviroemental scanning for
small and growing firmes”, Journal of Small Business Management, Vol. 20, n°3, p. 27-35.

PETRAF M. A., (1993), “The Cornerstones of Competitive Advantage: A Resource-


Based View”, Strategic Management Journal, Vol. 14, p.179-191.

PLAUNT C., NORGARD B.A., (1998), “An association-based method for automatic
indexing with a controlled vocabulary”, Journal of the American Society for Information
Science, Vol. 49, n°10, p.888-902.

POIBEAU T., (2003). Extraction automatique d’information. Du texte brut au web


sémantique. Lavoisier, Paris.

PORTER M.E., (1980), Competitive strategy : techniques for analyzing industries and
competitors, The Free Press, NY.

PRAS J.Y., (2003). Le manuel du Knowledge Management, Dunod, Paris.

PREECE J., ROGERS Y., SHARP H., et al., (1994). Human-ComputerInteraction.


Reading, MA: Addison-Wesley.

PRESCOTT J., (1995), “The evolution of competitive intelligence”, International


Review Strategic Management, Vol. 6, p.71-90.

RAI A., LANG S.S., WELKER R.B., (2002), “Assessing the validity of IS Success
Models: An empirical test and theoretical analysis”, Information Systems Research, Vol.13,
n°1, March, p. 50-69.

RAUCH J., BERKA P., (1997), “Knowledge discovery in financial data- a case study”,
Neural Network World, Vol. 4, n°5, p. 427-437.

REIX R., (1995). Systèmes d’information et management des organisations. Vuibert,


Paris.

REIX R., DESQ S., FALLERY B., RODHAIN F., (2002), « 25 ans de recherche en
système d’informations », Systèmes d’Information et Management, Vol.7, n°3.

RESNICK M., (2002), “Knowledge Management in the information age”, Journal of e-


Business, Vol. 2, n°1, June.

REVELLI C. (2000). Intelligence stratégique sur Internet, Dunod, Paris.

RHEE J. H., (2001), “Does Digitization enhance firm competitiveness? E-business


strategies based on information processing theory”, Journal of E-Business, Vol.1, n°1, June.

RHODES B. J., (May 2000). Just-In-Time Information retrieval. Ph. D. Thesis, MIT
Media Lab.

RINDSKOPF D., ROSE T., (1988), “Some Theory and Applications of Confirmatory
Second-Order Factor Analysis”, Multivariate Behavioural Research, Vol. 23, p. 51-67.

281
Bibliographie

RONIS D.L., YATES J.F., KIRSCHT J.P., (1989), “Attitudes, decisions and habits as
determinants of repeated behavior”, In A.R. Pratkanis, S.J. Breakler, A.G. Greenwald (Eds.).
Attitude structure and function (p.213-239)

ROUACH D., SANTI P., (2001). “Competitive Intelligence Adds Value: Five
Intelligence Attitudes”, European Management Journal, Vol. 19, n°5, p.552-559.

ROUIBAH K., (1998). Vers un outil d’aide au traitement des Informations


Fragmentaires et Incertaines : Contribution à la conception d’un outil pour la conception des
Puzzles. Thèse, Université Grenoble 2.

ROUIBAH K., OULD-ALI S., (2002), “PUZZLE: a concept and prototype for linking
business intelligence to business strategy”, Journal of Strategic Information Systems, Vol. 11,
p. 133-152.

ROWE F., MARCINIAK R., (1997). Systèmes d’information, dynamique et


organisation. Ed. Economica.

RUMELHART D.E., WIDROW B., LEHR M. A., (1994), “The basic ideas in neurol
netwoks“, Communications of the ACM, Vol.37, n°3, p.87-92.

SAADOUN M., (2000). Technologies de l’information et management. Ed. Hermès.

SASISEKHARAN R., SESHADRI V., (1996), “Data mining and forecasting in large-
scale telecommunication networks”, IEEE Expert, p.37-43.

SAUNDERS C., MIRANDA S., (1998), “Information acquisition in group decision


making”, Information & Management, Vol. 34, n°1, p. 55-74.

SAWYEER O.O., (1993), « Environmental uncertainty and environmental scanning


activities of Nigerian manufacturing executives: A comparative analysis”, Strategic
Management Journal, Vol. 14, p. 287-299.

SCARFE R.T., SHORTLAND R.J., (1995), “Data mining applications in BT”, IEE
Colloquium (Digest).

SEARLE J.R. (1990). “Is the brain’s mind a computer program ?”, Scientific American
Vol. 262, n°1, p. 26-31.

SEDDON P.B., (1997), “A respecification and extension of the Delone and McLean
model of IS success”, Information Systems Research, Vol. 8, September, p. 240-253.

SEGURAN M., (2000), « Un système multi-agents basé sur CORBA pour la


coopération de systèmes d’information hétérogènes », RJCIA-2000, 10 au 13 septembre 2000
à Lyon.

SENATOR T.E., GOLDBERG H.G., WOOTON J., et al., (1995), “the financial crimes
enforcement network AI system (FAIS) identifying potential money laundering from reports
of large cash transactions”, AI Magazine, p. 21-39.

SHAKER S. M., GEMBICKI M. P., (1999). WarRoom Guide to Competitive


Intelligence. McGraw-Hill.

282
Bibliographie

SHAW M. J., GENTRY J.A., (1990), “Inductive learning for risk classifications, IEEE
Expert, p. 47-53.

SHAW M., GARLAN D., (1995), “Formulations and formalisms in software


architecture”, Springer-Verlag, LNCS, n°1000.

SHEARIN S., LIEBERMAN H., (2001). “Intelligent Profiling by Example”. MIT


Media Lab.

SHIM J.P. et al. (2002), “Past, present, and future of decision suppor technology”,
Decision Support Systems, Vol. 33, n° 2, p. 111-126.

SHNEIDERMAN B., (2000), “Universal Usability,” Communications of the ACM, Vol.


43, n°5, p. 84-91.

SHORTLAND R., SCARFE R., (1995), “Digging for gold”, IEE Review, Vol.41, n°5,
p.213-217.

SIMON H. A. (1965). The shame of automation. Harper and Row, New York.

SIMON H. A. (1977). Le nouveau management, la decision par les ordinateurs.


Editions Economica, traduit de: The new science of management decision, Prentice-Hall, Inc,
Englewwood Cliffs, New Jersey, (Troisième édition révisée).

SIMON, H.A. (1980). Le nouveau management, la décision par les ordinateurs. Ed.
Economica, traduit de the new science of management decision, Prentice-Hall, Inc,
Englewwood Cliffs, New Jersey, 1977 (troisième edition révisée).

SINGH N., (2001), “Economic action on the Internet: a network organization


approach”, Journal of E-Business, Vol.1, n°1, June.

SPANGLER W., MAY J.H., VARGAS L.G., (1999), “Choosing data mining methods
for multiple classification: representational and performance measurement implications for
decision support”, Journal of Management Information Systems, Vol. 16, n°1, p. 47-62.

SPIEGLER I., (2000), “Knowledge Management: a new idea or a recycled concept”,


Communications of the AIS, Vol. 14, n°3. Available online at:
http://cais.isworld.org/articles/3-14/article.htm.

SPIEGLER I., (2003), “Technology and knowledge: bridging a “generating” gap”,


Information and Management, Vol. 40, p.533-539.

SPIEKERMANN S., PARASCHIV C., (2002), “Motivating Human Agent Interactions:


Transferring Insights from behavioral Marketing from Interface Design”, Electronic
Commerce Research, n°2, p. 255-285.

STANTON W. J., ETZEL M. J., WALKER B. J., (1994). Fundaments of Marketing.


10th Edition, McGraw-Hill, New York.

STOTT M. D. (1993). “You Can't Trust What You Read: Making Sense of the Business
Press”. In J. E. Prescott & P. T. Gibbons (Eds.), Global Perspectives on Competitive

283
Bibliographie

Intelligence (p. 309-321). Alexandria: Society of Competitive Intelligence Professionals


(SCIP).

STRAUB D.W., KARAHANNA E., CHERVANY N.L., (1999), “Information


technology adoption across time: a cross-sectional comparison of pre-adoption and post-
adoption beliefs”, MIS Quarterly, Vol. 23, n°2, p. 183-213.

STRONG D., (2002), “Human Computer Interaction Research in the MIS Discipline,”
Panel Presentation at MCIS’02, http://melody.syr.edu/hci/amcis02_panel.cgi

SUBRAMANIAN R., ISHAK S. T., (1998), “Computer analysis practices of US


companies: an empirical investigation”, Management International Review, Vol.38, n°17, p.
7-23.

SUBRAMANINAN G.H., (1994), “A replication of perceived usefulness and perceived


ease of use measurement”, Decision Sciences, Vol. 25, n°5/6, p. 863-874.

SUNG T.K., CHANG N., LEE G., (1999), “Dynamics of modelling in data mining:
interpretative approach to bankruptcy prediction”, Journal of Management Information
Systems, Vol. 16, n°1, p. 63-85.

SUTCLIFFE K. M., (1997), “Organizational environments and organizational


information processing”, in F.Jablin and L.Putnam, Handbook of Organizational Journal, 2nd
ed. Sage, Beverly Hills, CA.

SUTCLIFFE K. M., ZAHEER A., (1998), “Uncertainty in the transaction


environment”, Strategic Management Journal, Vol.19, p.1-23.

SZAJNA B., (1996), “Empirical evaluations of the revised technology acceptance


model”, Management Science, Vol. 42, n°1, p. 85-92.

TAYLOR S., TODD P., (1995), “Assessing IT usage: the role of prior experience”, MIS
Quarterly, December, p. 561-570.

TAYLOR S., TODD P., (1995), “Understanding information technology usage: a test of
computing models”, Information Systems Research, Vol. 6, n°2, p. 144-176.

TE’ENI D., (2001), “A Cognitive-Affective Model of Organizational Communication


for Designing IT,” MIS Quarterly, Vol. 25, n°2, p. 251-312.

TEECE D. J., (1986), “Firm boundaries, technological innovation, and strategic


management”, In L. G. Thomas (Eds), The Economics of Strategic Planning. Lexington, MA.

TEECE D.J., PISANO G., (1997), “Dynamic capabilities and strategic management”,
Strategic Management Journal, Vol. 18, p. 509-533.

TEO T.S.H., CHOO W.Y., (2001), “Assessing the impact of using the Internet for
competitive intelligence”, Information and Management, Vol.39, p. 67-83.

THOMESEN E. (1997). OLAP Solutions : Building Multidimensional Information


Systems, Wiley, New York.

284
Bibliographie

THOMPSON R. L., HIGGINS C.A., HOWELL J.M., (1994), “Influence of experience


on personal computer utilization: testing a conceptual model”, Journal of Management
Information Systems, Vol. 11, n°1, p. 167-187.

THOMSEN E., (2003), “BI’s Promised Land”, Intelligent Enterprise, Vol.6 n°4, p. 21-
25.

TIWANA A., (2001), Gestion des connaissances, Applications CRM et e-business,


Campus Press.

TRACTINSKY N., SHOVAL-KATZ A., IKAR D., (2000), “What is Beautiful is


Usable,” Interacting with Computers, Vol. 3, n°2, p. 127-145

TRAUTH E.M., JESSUP L.M., (2000), “Understanding computer-mediated


discussions: positivist and interpretive analyses of group support system use”, MIS Quarterly,
Vol. 24, p. 43-79.

TREVINO L. K., WEBSTER J., (1992), “Flow in Computer-Mediated


Communication,” Communication Research, Vol. 19, n°5, p. 539-573

TSAIH R., HSU Y., LAI C.C., (1998), “ Forecasting SP 500 stock index futures with a
hybrid AI system”, Decision Support Systems, Vol.23, p. 161-174.

TURBAN E., ARONSON J. (1998). Decision Support Systems and Intelligent Systems.
Prentice- Hall, Upper Saddle River, WJ.

TUSHMAN M. L., NADLER D. A., (1978), “Information processing as an integrating


concept in organizational design”, Academy of Management Review, n°3, p. 613-624.

VENKATESH V., MORRIS M.G., (2000), “Why do not men ever stop to ask for
directions ? Gender, social influence, and their role in technology acceptance and usage
behavior”, MIS Quarterly, Vol. 24, n°1, p. 115-139.

VENKATESH V. DAVIS F.D., (1996), “A model of the antecedents of perceived ease


of use : development and test”, Decision Sciences, Vol. 27, n°3, p. 451-570.

VENKATESH V., (1999), “Creation of favourable user perceptions: Exploring the role
of intrinsic motivation”, MIS Quarterly, Vol. 23, n°2, p. 239-260.

VENKATESH V., (2000), “Determinants of Perceived Ease of Use: Integrating


Control, Intrinsic Motivation, and Emotion into the Technology Acceptance Model,”
Information Systems Research, Vol.11, n°4, p. 342-365.

VENKATESH V., BROWN S.A., (2001), “A Longitudinal Investigation of Personal


Computers in Homes: Adoption Determinants and Emerging Challenges,” MIS Quarterly,
Vol. 25, n°1, p. 71-102.

VENKATESH V., DAVIS F.D., (2000), “A theoretical extension of the technology


acceptance model: four longitudinal field studies”, Management Science, Vol. 46,n°2, p.186-
204.

285
Bibliographie

VESSEY I., (1986), “Expertise in Debugging Computer Programs: An Analysis of the


Content of Verbal Protocols,” IEEE Transactions on Systems, Man, and Cybernetics, Vol. 16
n°5, p. 621-637.

VESSEY I., (1991), “Cognitive Fit: A Theory-Based Analysis of the Graphs Versus
Tables Literature,” Decision Sciences, Vol. 22, n°2, p. 219-240.

VESSEY I., GALLETTA D., (1991), “Cognitive Fit: An Empirical Study of


Information Acquisition,”Information Systems Research, Vol. 2, n°1, p. 63-84.

VIDAL P., LACROUX F., (2000), « L’évolution des systèmes d’aide à la décision : du
choix en situation structurée à l’intermédiation en situation complexe », Systèmes
d’Information et Management, n°3, Septembre, p. 51-70.

VIJAYASARATHY L. R., ROBEY D., (1997), “The effect of EDI on market channel
relationships in retailing, Information and Management, Vol.33, p.73-86.

VIVEROS M.S., ELO-DEAN S., WRIGHT M.A., et al., (1997), “Visitors’ behavior:
mining web servers”, in Proceedings of First International Conference on the Practical
Applications of Knowledge Discovery and Data Mining, London, UK, p. 257-269.

VOLLTRATH I., WILKE W., BERGMANN R., (1998), “Case-Based Reasoning


support for online catalog sales”, IEEE Internet Computing, p. 47-54.

WALLS J.G., WIDMEYER G.R., EL SAWY O.A., (1992), “Building an information


system design theory for vigilant EIS”, Information System Research, Vol. 3, n°1, March,
p.36-59.

WALSHAM G. (1995), “Interpretive case studies in IS research: nature and method”,


European Journal of Information Systems, Vol. 4, p.74-81.

WALSHAM G., (1995), “The emergence of interpretivism in IS research”, Information


Systems Research, Vol. 6, p.376-394.

WATSON H., GRAY P., (1997), Decision Support in the data Warehouse, Prentice-
Hall, Englewood-Cliffs, NJ.

WEBSTER J., MARTOCCHIO J.J., (1992), “Microcomputer Playfulness: Development


of a Measure with Workplace Implications,” MIS Quarterly, Vol.16, n° 2, p. 201-226.

WEBSTER J., TREVINO L., RYAN L., (1993), “The Dimensionality and Correlates of
Flow in Human-Computer Interaction,” Computers in Human Behavior, Vol. 9, n°2/3, p. 411-
426

WEBSTER K., PAUL K., (1996), “Beyond surfing: tools and techniques for searching
the web”, Information Technology, January.

WEICK, K.E. (1995). Sensmaking in organisations. Sage, New York.

WERTS C.E., LINN R.L., JORESKOG K.G., (1974), “Intraclass Reliability Estimates:
Testing Structural Assumptions”, Educational and Psychological Measurement, Vol. 34,
p.25-33.

286
Bibliographie

WETHERBE J. C., (1996), The World on time: The 11 management principles that
made FedEx an overnight sensation. CA : Knowledge Exchange.

WHITEHEAD C. (2002), “Five Building Blocks for Organizational Renewal”,


Competitive Intelligence Magazine, Vol. 5, n°4, p. 25-27.

WIERENGA B., VAN BRUGGEN G.H., (2000), “Marketing Management Support


Systems: Principles, Tools and Implementation”, International Series in Quantitative
Marketing.

WILLIAMSON O. E., MASTEN S. E., (1995). Transactions cost economics. Vol.1,


Edward Elgar Publishing Limited.

WILSON R.L., SHARDA R., (1994), “Bankruptcy prediction using neural networks”,
Decision Support Systems, n°11, p. 545-557.

WOOLDRIDGE M., JENNINGS N.R., (1995), “Intelligent Agents: Theory and


Practice”, The Knowledge Engineering Review, Vol. 10, n°2.

WOOLDRIDGE M.J., (1999), “Intelligent Agents”, in G.Weiss (dir), Multi-agent


systems: a modern approach to Distributed Artificial Intelligence, MIT Press.

WRIGHT D., (1993). Broadband: business services, technologies, and strategic impact.
Artech House, Boston.

WU K.L., YU P.S., BALLMAN A., (1998), “Speed Tracer: a web usage mining and
analysis tool”, IBM Systems Journal, Vol. 37, n°1, p. 89-105.

YASAI-ARDEKANI M., (1986), “Structural adaptation to environments”, Academy of


Management Review, Vol. 11, p. 9-21.

YASAI-ARDEKANI M., NYSTROM P.C., (1996), “Designs for environmental


scanning systems: tests of contingency theory”. Management Science, Vol. 42, n°2, p. 187-
204.

ZANASI A., (1998), “ Competitive Intelligence through Data Mining Public Sources”,
Competitive Intelligence Review, Vol. 9, n°1, p. 44-54.

ZANASI A., (2000), “Web Mining through the online Analyst”, Presented at Data
Mining 2000 Conference, Cambridge, July 5-2000, published in Data Mining II, ISBN: 1-
85312-821-X, p. 3-14, WIT Press.

ZHANG P. (2003), “The role of HCI in the MIS Curriculum”, Proceedings of the
Americas Conference on Information Systems, August, Tampa, FL. p. 2080-2082.

ZHANG P., (1998), “Image Construction Method for Visualizing Managerial Data,”
Decision Support Systems, Vol. 23, n°4, p. 371-387

ZHANG P., (2002), “The Role of HCI Research in the MIS Discipline,” Proceedings of
the Americas Conference on Information Systems, August, Dallas, TX. p. 2452-2453.

287
Bibliographie

ZHANG P., BENBASAT I., CAREY J., DAVIS F., GALLETTA D., STRONG D.,
(2002), “ AMCIS 2002 panels and workshops I: Human-Computer Interaction Research In
The MIS Discipline”, Communications of the Association for Information Systems, Vol. 9, p.
334-355.

ZHANG P., BENBASAT I., CAREY J.M., DAVIS F., GALLETTA D., STRONG D.,
(2002), “Human Computer Interaction Research in the MIS Discipline,” Communications of
the association of Information Systems, Vol. 9, n°20, p. 334-354.

ZHANG P., CAREY J., TE’ENI D., TREMAINE M., (2005), “Integrating Human-
Computer Interaction Development into the systems development life cycle: A methodology”,
Communications of the Association for Information Systems, Vol. 15, p. 512-543.

ZHANG P., LI N., (2004), “An assessment of Human-Computer Interaction Research in


Management Information Systems: Topics and Methods”, Computers in Human Behavior,
Vol.20, N°2, p. 125-147.

ZIGURS I., BUCKLAND B., (1998), “A Theory of Task/Technology Fit and Group
Support Systems Effectiveness,” MIS Quarterly, Vol. 22, n°3, p. 313-334.

288
Table des matières

Table des matières


REMERCIEMENTS................................................................................................................ 1
SOMMAIRE ............................................................................................................................. 2
INTRODUCTION GENERALE ............................................................................................ 3
1. FORMULATION DE LA PROBLEMATIQUE DE RECHERCHE ............................................. 4
2. STRUCTURE GENERALE DE L’APPROCHE DE CETTE RECHERCHE ................................ 8
PARTIE 1................................................................................................................................ 11
PRESENTATION DU CADRE THEORIQUE DE LA RECHERCHE........................... 11
CHAPITRE 1.......................................................................................................................... 12
PROCESSUS DE VEILLE STRATEGIQUE ET SYSTEMES D’INFORMATION :
EVOLUTION DES CONCEPTS THEORIQUES .............................................................. 12
INTRODUCTION .................................................................................................................... 13
SECTION 1 : DEFINITION ET EVOLUTION DES CONCEPTS .................................................. 13
1. FOISONNEMENT TERMINOLOGIQUE ............................................................................ 13
1.1. Multiplicité des notions ......................................................................................... 13
1.2. Competitive Intelligence et Business Intelligence ................................................ 14
1.3. Veille Stratégique .................................................................................................. 19
2. CONCEPT DE TRAITEMENT DE L’INFORMATION ......................................................... 23
3. CONCEPT DES SYSTEMES D’INFORMATION ................................................................. 27
SECTION 2 : SYSTEMES DE TRAITEMENT DE L’INFORMATION ET PROCESSUS DE VEILLE
STRATEGIQUE ....................................................................................................................... 32
1. TIC COMME OUTILS DE LA VEILLE STRATEGIQUE ..................................................... 32
1.1. Premier type d’agents............................................................................................ 33
1.2. Deuxième type d’agents ........................................................................................ 33
1.3. Caractéristiques des agents intelligents................................................................. 34
2. TIC, INFORMATION ET PROCESSUS DE LA PRISE DE DECISION................................... 36
2.1. Modèle de Simon : Cadre de référence ................................................................. 37
2.2. Information et prise de décision ............................................................................ 39
2.3. TIC et information................................................................................................. 41
CONCLUSION ........................................................................................................................ 47
CHAPITRE 2.......................................................................................................................... 49
TECHNOLOGIE DES AGENTS INTELLIGENTS : CARACTERISTIQUES ET
APPLICATIONS.................................................................................................................... 49
INTRODUCTION .................................................................................................................... 50
SECTION 1 : UTILISATION DE LA TECHNOLOGIE AGENTS INTELLIGENTS......................... 50
1. DEFINITION DES AGENTS INTELLIGENTS..................................................................... 50
2. CLASSIFICATIONS ET CARACTERISTIQUES DES AGENTS INTELLIGENTS .................... 53
2.1. Classification et caractéristiques des architectures d’agents intelligents .............. 53
2.2. Classification et caractéristiques des agents intelligents dans le commerce et
l’industrie ..................................................................................................................... 58
2.3. Classification et caractéristiques des agents intelligents dans le Web .................. 59
2.3.1. Caractéristiques de ces trois agents ................................................................ 60
2.3.2. Six caractéristiques d’un agent sophistiqué.................................................... 62
3. COMMERCE ELECTRONIQUE : UN CAS D’APPLICATION DES AGENTS MEDIATEURS... 68

289
Table des matières

SECTION 2 : PROPOSITION DU PREMIER MODELE THEORIQUE ET PHASE D’EXPLORATION


DU TERRAIN .......................................................................................................................... 72
1. PROPOSITION DU PREMIER MODELE THEORIQUE ....................................................... 72
2. SOURCE ET ANALYSE DES DONNEES DE LA PHASE D’EXPLORATION........................... 80
3. RESULTATS DE LA PREMIERE PHASE ........................................................................... 82
3.1. Rôle de la fonction de la veille stratégique dans le cadre de cette étude .............. 82
3.2. Présentation des agents intelligents....................................................................... 84
3.2.1. Définition des agents intelligents ................................................................... 84
3.2.2. Place des agents intelligents dans le processus de la veille stratégique ......... 85
3.2.3. Positionnement du chercheur par rapport aux autres domaines ..................... 85
CONCLUSION ........................................................................................................................ 88
CHAPITRE 3.......................................................................................................................... 89
DIMENSIONS THEORIQUES DE L’INTERACTION HOMME-MACHINE DANS LE
MANAGEMENT DES SYSTEMES D’INFORMATION.................................................. 89
INTRODUCTION .................................................................................................................... 90
SECTION 1 : ROLE DE L’INTERACTION HOMME - MACHINE ............................................. 90
1. DEFINITION DE L’INTERACTION HOMME-MACHINE ................................................. 91
2. CARACTERISTIQUES DE LA RECHERCHE EN MSI/IHM.............................................. 93
2.1. Cible de la recherche, domaine et Champ d’application....................................... 93
2.2. Disciplines rattachées et support théorique ........................................................... 97
2.3. Méthodologies de recherche.................................................................................. 98
3. REALITE DE L’IHM DANS LE DEVELOPPEMENT DES SYSTEMES .............................. 101
4. PERSPECTIVES DE LA RECHERCHE EN MSI/IHM..................................................... 104
4.1. Construction des relations et Gestion des construits ...................................... 104
4.2. Modélisation de la tâche et l’adéquation organisationnelle ........................... 105
4.3. Acceptation de l’utilisateur ............................................................................ 106
4.4. Amélioration des mesures dans l’IHM........................................................... 107
4.5. Accentuation sur l’expérience holistique de l’interaction des humains avec les
technologies................................................................................................................ 107
4.6. Accentuation d’un grand champ d’utilisateurs............................................... 108
4.7. Nouvelle taxinomie du MSI/IHM .................................................................. 109
SECTION 2 : PROCESSUS D’EVALUATION DES SYSTEMES D’INFORMATION : INSTRUMENTS
DE MESURE ......................................................................................................................... 112
1. MODELE DE GOODHUE ET THOMPSON (1995) : ADEQUATION TECHNOLOGIE-TACHE
........................................................................................................................................ 114
1.1. Problématique...................................................................................................... 114
1.2. Méthode............................................................................................................... 114
1.3. Résultats .............................................................................................................. 114
1.4. Opérationnalisation du modèle théorique ........................................................... 116
2. APPROCHE EMPIRIQUE DE FRANZ ET ROBEY (1986)................................................ 118
2.1. Problématique...................................................................................................... 118
2.2. Méthode............................................................................................................... 118
3. MODELE DE L’ACCEPTATION DES TSI DE DAVIS (1989).......................................... 120
3.1. Problématique...................................................................................................... 120
3.2. Méthode............................................................................................................... 120
4. EVALUATION DE LA VALIDITE DES MODELES DE SUCCES DES SI : RAI ET AL. (2002)
........................................................................................................................................ 124
4.1. Modèle de DeLone & McLean (1992) ................................................................ 125
4.2. Modèle de Seddon (1997) ................................................................................... 128

290
Table des matières

CONCLUSION ...................................................................................................................... 130


SYNTHESE DE LA PARTIE 1. STRUCTURE GLOBALE DU DEUXIEME MODELE
THEORIQUE ....................................................................................................................... 131
PARTIE 2. METHODOLOGIE DE RECHERCHE ET MISE EN APPLICATION DU
MODELE THEORIQUE .................................................................................................... 137
CHAPITRE 4........................................................................................................................ 138
POSITIONNEMENT EPISTEMOLOGIQUE ET METHODOLOGIE DE LA
RECHERCHE ...................................................................................................................... 138
INTRODUCTION .................................................................................................................. 139
SECTION 1 : ARCHITECTURE DE LA RECHERCHE ............................................................. 139
1. POSITIONNEMENT EPISTEMOLOGIQUE ..................................................................... 139
1.1. Classifications paradigmatiques .......................................................................... 139
1.2. Classifications méthodologiques......................................................................... 141
2. PROCEDURE DE LA RECHERCHE ................................................................................ 143
2.1. Représentations paradigmatiques ........................................................................ 143
2.1.1. Positivisme ................................................................................................... 143
2.1.2. Interprétatif................................................................................................... 144
2.2. Représentations méthodologiques...................................................................... 144
2.2.1. Empirique versus non-empirique ................................................................. 144
2.2.2. Quantitatif versus qualitatif.......................................................................... 145
2.2.3. Inter-sectoriel versus longitudinal ................................................................ 145
SECTION 2 : CONSTRUCTION DE L’INSTRUMENT DE MESURE .......................................... 148
1. OPERATIONNALISATION DES VARIABLES .................................................................. 148
2. DEROULEMENT DE L’ENQUETE ................................................................................. 152
CONCLUSION ...................................................................................................................... 154
CHAPITRE 5........................................................................................................................ 155
ETUDE DES ANALYSES DESCRIPTIVE ET EXPLORATOIRE ............................... 155
INTRODUCTION .................................................................................................................. 156
SECTION 1 : ANALYSE DESCRIPTIVE DES DONNEES .......................................................... 156
SECTION 2 : ANALYSE EXPLORATOIRE DES DONNEES ..................................................... 159
1. ANALYSE EN COMPOSANTES PRINCIPALES................................................................ 159
1.1. ACP avec pour variables actives du premier modèle « Adéquation technologie-
Tâche » ....................................................................................................................... 159
1.2. ACP avec pour variables actives du deuxième modèle de l’« Acceptation de la
technologie des AI »................................................................................................... 161
2. CLASSIFICATION ........................................................................................................ 163
2.1. Groupe de variables actives se référant au modèle théorique de l’Adéquation
Technologie-Tâche..................................................................................................... 163
2.1.1. Répartition des utilisateurs dans chaque classe............................................ 163
2.1.2. Interprétation des classes.............................................................................. 164
2.1.3. Différenciation des classes ........................................................................... 176
2.2. Groupe de variables actives se référant au modèle théorique de l’Acceptation de la
Technologie des AI .................................................................................................... 180
2.2.1. Répartition des utilisateurs dans chaque classe :.......................................... 180
2.2.2. Interprétation des classes.............................................................................. 181
2.2.3. Différenciation des classes ........................................................................... 188
2.3. Croisement des deux partitions ........................................................................... 191

291
Table des matières

3. ANALYSE DE VARIANCE ............................................................................................. 192


CONCLUSION ...................................................................................................................... 195
CHAPITRE 6........................................................................................................................ 196
ANALYSE CONFIRMATOIRE : ...................................................................................... 196
VALIDATION DES HYPOTHESES DE RECHERCHE................................................ 196
INTRODUCTION .................................................................................................................. 197
SECTION 1. VALIDATION DU MODELE RETENU (PLS) ...................................................... 197
1. INDICATEURS, FIABILITE ET VALIDITE .................................................................... 197
1.1. Fiabilité des items................................................................................................ 198
1.2. Validité convergente ........................................................................................... 199
1.3. Validité discriminante ......................................................................................... 201
2. RELATIONS ENTRE LES CONSTRUITS – INDICATEURS DE MESURE .......................... 203
3. RESULTATS ET DISCUSSION ....................................................................................... 203
SECTION 2. MODELES D’EQUATIONS STRUCTURELLES : ANALYSE DES EFFETS LINEAIRES
............................................................................................................................................ 214
1. PREMIER MODELE DE L’ADEQUATION TECHNOLOGIE-TACHE : DEMARCHE
METHODOLOGIQUE ........................................................................................................ 214
1.1. Elaboration et spécification ................................................................................. 214
1.2. Estimation du modèle théorique.......................................................................... 217
1.3. Identification du modèle théorique ..................................................................... 217
1.4. Interprétation des résultats ................................................................................. 218
1.4.1. La qualité de l’ajustement du premier modèle aux données ........................ 219
1.4.2. Résolution du modèle d’équations structurelles........................................... 223
2. DEUXIEME MODELE DE L’ACCEPTATION D’UNE TECHNOLOGIE : DEMARCHE
METHODOLOGIQUE ........................................................................................................ 225
2.1. Elaboration, Spécification, estimation et identification du modèle .................... 225
2.2. Interprétation des résultats .................................................................................. 228
2.2.1. La qualité de l’ajustement du deuxième modèle aux données ..................... 228
2.2.2. Résolution du modèle d’équations structurelles........................................... 233
SECTION 3. COMPARAISON DE NOS RESULTATS AVEC LES TRAVAUX EFFECTUES ........... 236
1. PRESENTATION DES TRAVAUX ANTERIEURS ............................................................. 236
2. RECAPITULATION DE NOS RESULTATS ET LEUR COMPARAISON AUX TRAVAUX
ANTERIEURS ................................................................................................................... 242
2. 1. Récaputation des résultats de cette étude ........................................................... 242
2. 2. Comparaison de nos résultats aux travaux antérieurs ........................................ 246
CONCLUSION ...................................................................................................................... 248
SYNTHESE DE LA PARTIE 2. ......................................................................................... 249
RESUME DES RESULTATS DU PROCESSUS D’ANALYSE DES DONNEES ........ 249
1. RESULTATS DE LA PREMIERE PHASE DESCRIPTIVE DES DONNEES ........................... 250
2. RESULTATS DE LA DEUXIEME PHASE EXPLORATOIRE .............................................. 250
3. RESULTATS DE LA PHASE CONFIRMATOIRE .............................................................. 251
CONCLUSION GENERALE ............................................................................................. 253
1. RAPPEL DES QUESTIONS ET DE LA METHODOLOGIE DE LA RECHERCHE ................. 254
1.1. Questions de recherche........................................................................................ 254
1.2. Méthodologie suivie ............................................................................................ 254
2. PRINCIPAUX RESULTATS, LIMITES ET PROLONGEMENTS POSSIBLES ....................... 257

292
Table des matières

2.1. Liens entre veille stratégique et Agents Intelligents ...................................... 257


2.2. Liens entre Agents Intelligents et autres domaines de recherche................... 257
2.3. Liens entre l’agent humain et l’AI ................................................................. 257
2.4. De nombreux domaines d’application............................................................ 258
2.5. Une large typologie d’utilisateurs .................................................................. 258
2.6. Des instruments de mesure fiables et des variables significatives ................. 258
3. LES IMPLICATIONS CONCEPTUELLES ET MANAGERIALES ........................................ 259
3.1. Les contributions conceptuelles ..................................................................... 259
3.2. Les contributions managériales ...................................................................... 261
BIBLIOGRAPHIE ............................................................................................................... 263
TABLE DES MATIERES ................................................................................................... 289
LISTE DES FIGURES......................................................................................................... 294
LISTE DES TABLEAUX .................................................................................................... 295

293
Liste des figures

Liste des figures


FIGURE 1. STRUCTURE GENERALE DE L’APPROCHE DE NOTRE RECHERCHE............................................................ 10
FIGURE 2. IMPACT DE L’UTILISATION DES AGENTS INTELLIGENTS ....................................................................... 14
FIGURE 3. PROCESSUS DE L’INTELLIGENCE COMPETITIVE...................................................................................... 16
FIGURE 4. PROCESSUS DE LA VEILLE STRATEGIQUE (LESCA, 1994) ....................................................................... 20
FIGURE 5. LE MODELE THEORIQUE DE RHEE (2001) .............................................................................................. 25
FIGURE 6. TRANSFORMATION DES DONNEES EN CONNAISSANCES (TURBAN & ARONSON ) ................................... 39
FIGURE 7. DONNEE-INFORMATION-CONNAISSANCE (TURBAN & ARONSON) ........................................................ 40
FIGURE 8. SYSTEMES D’INFORMATION ET NIVEAUX ORGANISATIONNELS (TURBAN & ARONSON) ........................ 45
FIGURE 9. COMPATIBILITE DU DEVELOPPEMENT DES SYSTEMES D’INFORMATION AVEC LA TRANSFORMATION DE
DONNEE (TURBAN ET ARONSON)................................................................................................................. 46
FIGURE 10. LES SIX CARACTERISTIQUES D’UN AGENT (KAUFFMAN, ET AL. 2000)................................................. 62
FIGURE 11. LES SIX ETAPES DU PROCESSUS D’ACHAT EN LIGNE (GUTTMAN ET AL., 1998) .................................... 69
FIGURE 12. MODELE D’UN AGENT (CAGLAYAN ET HARRISON, 1997) ................................................................... 72
FIGURE 13. PROPOSITION DU PREMIER MODELE THEORIQUE .................................................................................. 76
FIGURE 14. DOMAINES D’INFLUENCE A L’ORIGINE DES AGENTS INTELLIGENTS (CAGLAYAN ET HARRISON, 1997)86
FIGURE 15. LES NIVEAUX D’ANALYSE DANS L’IHM. (PREECE ET AL., 1994) ........................................................ 94
FIGURE 16. LES STRATEGIES DE RECHERCHE (SOURCE : MCGRATH, 1981)........................................................... 99
FIGURE 17. CADRE CONCEPTUEL DE L’IHM (ZANGH ET LI, 2004) ...................................................................... 111
FIGURE 18. TROIS MODELES SUR LE LIEN ENTRE LA TECHNOLOGIE ET LA PERFORMANCE (GOODHUE ET THOMPSON,
1995).......................................................................................................................................................... 116
FIGURE 19. LE MODELE THEORIQUE DE FRANZ ET ROBEY (1986)........................................................................ 118
FIGURE 20. LE MODELE OPERATIONNEL DE DAVIS (1989) ................................................................................... 121
FIGURE 21. LE MODELE TAM DE STRAUB, 1999 (REPRIS DE DAVIS, 1989)........................................................ 122
FIGURE 22. LE MODELE THEORIQUE DE DELONE ET MCLEAN, 1992. .................................................................. 125
FIGURE 23. LA MODELE THEORIQUE DE SEDDON (1997)...................................................................................... 128
FIGURE 24. PROPOSITION DU DEUXIEME MODELE THEORIQUE ............................................................................. 132
FIGURE 25.VALEURS-TESTS DE LA CLASSE 1/ 5 ................................................................................................. 164
FIGURE 26.VALEURS-TESTS DE LA CLASSE 2/ 5 ................................................................................................. 167
FIGURE 27.VALEURS-TESTS DE LA CLASSE 3/ 5 ................................................................................................. 171
FIGURE 28. VALEURS-TESTS DE LA CLASSE 4/ 5 ................................................................................................ 173
FIGURE 29. VALEURS-TESTS DE LA CLASSE 5/ 5 ................................................................................................ 175
FIGURE 30. COMPARAISON DES VALEURS-TESTS DES CINQ CLASSES (ITEM1-ITEM10)........................................ 177
FIGURE 31. COMPARAISON DES VALEURS-TESTS DES CINQ CLASSES (ITEM11-ITEM18)...................................... 178
FIGURE 32. COMPARAISON DES VALEURS-TESTS DES CINQ CLASSES (ITEM19-ITEM29)...................................... 179
FIGURE 33. VALEURS-TESTS DE LA CLASSE 1/ 4 ................................................................................................ 181
FIGURE 34. VALEURS-TESTS DE LA CLASSE 2/ 4 ................................................................................................ 184
FIGURE 35. VALEURS-TESTS DE LA CLASSE 3/ 4 ................................................................................................ 186
FIGURE 36. VALEURS-TESTS DE LA CLASSE 4/ 4 ................................................................................................ 187
FIGURE 37. COMPARAISON DES VALEURS-TEST DES QUATRE CLASSES (ITEM30-ITEM41) .................................. 188
FIGURE 38. COMPARAISON DES VALEURS-TEST DES QUATRE CLASSES (ITEM42-ITEM50) .................................. 189
FIGURE 39. COMPARAISON DES VALEURS-TEST DES QUATRE CLASSES (ITEM51-ITEM59) .................................. 190
FIGURE 40. REPARTITION DES REPONDANTS SUITE A LA CLASSIFICATION DES DEUX ANALYSES.......................... 191
FIGURE 41. PRESENTATION DU MODELE DE L’ADEQUATION TECHNOLOGIE TACHE CONÇUE PAR AMOS 4. ....... 216
FIGURE 42. PRESENTATION DU MODELE DE L’ACCEPTATION D’UNE TECHNOLOGIE CONÇUE PAR AMOS 4. ....... 227

294
Liste des tableaux

Liste des tableaux


TABLEAU 1. LES TECHNIQUES D’ANALYSE DES COMPETITEURS (EDNA O.F. REID, 2004) ..................................... 18
TABLEAU 2. EVOLUTION DE LA NOTION DE LA VEILLE STRATEGIQUE. (ROUIBAH, 1998) ...................................... 21
TABLEAU 3. MANAGEMENT STRATEGIQUE, VEILLE STRATEGIQUE ET SYSTEME D’INFORMATION (LESCA N., 2003)
.............................................................................................................................................................................. 22
TABLEAU 4. EVOLUTION DES SYSTEMES D’INFORMATION (VIDAL ET LACROUX, 2000) ....................................... 29
TABLEAU 5. EVOLUTION DE LA DEFINITION DES AGENTS INTELLIGENTS (DAVID ET MONOD, 1997) ..................... 36
TABLEAU 6. CONSTRUCTION DES THEORIES DANS LES ARTICLES DE MANAGEMENT DES SYSTEMES D’INFORMATION
(LARSEN ET LEVINE, 2005).................................................................................................................................... 37
TABLEAU 7. LES CARACTERISTIQUES DES AGENTS INTERNET (KAUFFMAN, ET AL. 2000) ..................................... 60
TABLEAU 8. LA DIFFERENCE ENTRE LES AGENTS ROBOTS ET LES AGENTS INTERNET............................................. 62
TABLEAU 9. LA SOURCE ET L’ANALYSE DES DONNEES DE LA PHASE D’EXPLORATION ........................................... 82
TABLEAU 10. EVOLUTION DES RECHERCHES DANS L’INTERACTION HOMME-MACHINE ........................................ 92
TABLEAU 11. LA RECHERCHE IHM ET EVALUATION DES STRATEGIES (SOURCE: BAECKER ET AL. 1995) ........... 100
TABLEAU 12. LES THEMES DE L’IHM COUVERTS DANS LES MANUELS DE LA CONCEPTION ET L’ANALYSE DES
SYSTEMES.(ZHANG ET AL., 2005) ........................................................................................................................ 102
TABLEAU 13. LES VARIABLES DE L’IHM (CAREY, 2002) .................................................................................... 107
TABLEAU 14. EXEMPLES D’INSTRUMENTS DE MESURE POUR L’EVALUATION DES SI. .......................................... 113
TABLEAU 15. RESULTATS DES TRAVAUX DE GOODHUE & THOMPSON (1995) .................................................... 115
TABLEAU 16. RAPPROCHEMENT ENTRE LES HYPOTHESES ET LES QUESTIONS DE RECHERCHE. ............................ 136
TABLEAU 17. LES JOURNAUX AUX ETATS UNIS VERSUS LES JOURNAUX EUROPEENS : POSITIVISME VERSUS
INTERPRETATIF. (HIRSCHHEIM ET CHEN, 2004)................................................................................................... 146
TABLEAU 18. L’ARCHITECTURE DE CETTE ETUDE................................................................................................ 147
TABLEAU 19. REPARTITION DES PARTICIPANTS PAR RAPPORT AUX SECTEURS D’ACTIVITES DES ENTREPRISES .... 156
TABLEAU 20. REPARTITION DES PARTICIPANTS PAR RAPPORT AU DEPARTEMENT................................................ 157
TABLEAU 21. REPARTITION DES PARTICIPANTS PAR RAPPORT A LEUR FONCTION ................................................ 157
TABLEAU 22. REPARTITION DES PARTICIPANTS PAR RAPPORT AU SEXE ............................................................... 157
TABLEAU 23. REPARTITION DES PARTICIPANTS PAR RAPPORT A L’AGE ............................................................... 158
TABLEAU 24. ACP DES VARIABLES DU PREMIER MODELE « ADEQUATION TECHNOLOGIE-TACHE »................... 160
TABLEAU 25. ACP DES VARIABLES DU DEUXIEME MODELE « ACCEPTATION D’UNE TECHNOLOGIE» ................ 162
TABLEAU 26.CLASSIFICATION DES UTILISATEURS DES AI ................................................................................... 163
TABLEAU 27. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 1/5 ET LEURS DOMAINES D’APPLICATION .. 167
TABLEAU 28. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 2/5 ET LEURS DOMAINES D’APPLICATION .. 170
TABLEAU 29. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 3/5 ET LEURS DOMAINES D’APPLICATION .. 172
TABLEAU 30. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 4/5 ET LEURS DOMAINES D’APPLICATION .. 174
TABLEAU 31. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 5/5 ET LEURS DOMAINES D’APPLICATION .. 176
TABLEAU 32. CLASSIFICATION DES UTILISATEURS DES AI (2EME ANALYSE) ......................................................... 180
TABLEAU 33. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 1/4 ET LEURS DOMAINES D’APPLICATION .. 183
TABLEAU 34. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 2/4 ET LEURS DOMAINES D’APPLICATION .. 185
TABLEAU 35. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 3/4 ET LEURS DOMAINES D’APPLICATION .. 186
TABLEAU 36. LES AI UTILISES PAR LES REPONDANTS DE LA CLASSE 4/4 ET LEURS DOMAINES D’APPLICATION .. 187
TABLEAU 37. DEGRE D’INFLUENCE DES CARACTERISTIQUES DE LA TACHE (TACHE) ET CELLES DE LA
TECHNOLOGIE (DEPARTEMENT ET AI UTILISES) SUR LES VARIABLES DE L’ADEQUATION TECHNOLOGIE-TACHE.192
TABLEAU 38 . DEGRE D’INFLUENCE DE LA TACHE, DU DEPARTEMENT ET LES AI UTILISES SUR LE MODELE DE
L’ACCEPTATION D’UNE TECHNOLOGIE. ............................................................................................................... 193
TABLEAU 39. DEGRE D’INFLUENCE DU SEXE, DE L’AGE ET DE LA LANGUE SUR LES VARIABLES DU MODELE DE
L’ACCEPTATION D’UNE TECHNOLOGIE. ............................................................................................................... 194
TABLEAU 40. « LOADINGS » DANS L’ANLAYSE SOUS PLS ................................................................................. 199
TABLEAU 41. SIGNIFICATION & FIABILITE COMPOSITE ( ) PAR CONSTRUIT ........................................................ 201
TABLEAU 42. MATRICE DES VALEURS DE L’“AVERAGE VARIANCE EXTRACTED ” ET CORRELATIONS ENTRE LES
CONSTRUITS SOUS L’ANALYSE DU PLS ................................................................................................................ 202
TABLEAU 43. INFLUENCE DES CARACTERISTIQUES DE LA TACHE ET DE LA DE LA TECHNOLOGIE SUR L’ADEQUATION
TECHNOLOGIE-TACHE (** = 0.005, * = 0.025) .................................................................................................... 204
TABLEAU 44. INFLUENCE DE L’ADEQUATION TECHNOLOGIE-TACHE (QLD, QS) ET DE L’INTERDEPENDANCE DES
TACHES (TAC) SUR L’INTENSITE D’UTILISATION DES AI (IU) .............................................................................. 207

295
Liste des tableaux

TABLEAU 45. INFLUENCE DE L’ADEQUATION TECHNOLOGIE-TACHE SUR L’ACCEPTATION DES AI (** = 0.005,
* = 0.025) ............................................................................................................................................................ 210
TABLEAU 46. INFLUENCE DE L’ACCEPTATION DES AI SUR L’INTENSITE D’UTILISATION DES AI (** = 0.005,
* = 0.025) ............................................................................................................................................................ 212
TABLEAU 47. MATRICE DE L’ESTIMATION DES EFFETS DIRECTS STANDARDISES ................................................. 217
TABLEAU 48. AJUSTEMENT ET POUVOIR EXPLICATIF DU 1ER MODELE ................................................................. 219
TABLEAU 49. REGRESSION WEIGHTS ................................................................................................................. 220
TABLEAU 50. AVE ET COEFFICIENTS DE REGRESSION STANDARDISES ............................................................... 221
TABLEAU 51. MATRICE DES FIABILITES ET DES LIENS STRUCTURELS................................................................... 222
TABLEAU 52. COEFFICIENTS DE REGRESSION ...................................................................................................... 222
TABLEAU 53. SQUARED MULTIPLE CORRELATIONS ............................................................................................ 223
TABLEAU 54. MATRICE DE L’ESTIMATION DES EFFETS DIRECTS STANDARDISES ................................................. 228
TABLEAU 55. AJUSTEMENT ET POUVOIR EXPLICATIF DU 2EME MODELE ................................................................ 229
TABLEAU 56. REGRESSION WEIGHTS .................................................................................................................. 230
TABLEAU 57. AVE ET COEFFICIENTS DE REGRESSION STANDARDISES ............................................................... 231
TABLEAU 58. MATRICE DES FIABILITES ET DES LIENS STRUCTURELS .................................................................. 231
TABLEAU 59. COEFFICIENTS DE REGRESSION ...................................................................................................... 232
TABLEAU 60. PRESENTATION DES RELATIONS NON SIGNIFICATIFS DU 2EME MODELE ............................................ 232
TABLEAU 61. SQUARED MULTIPLE CORRELATIONS ............................................................................................ 233
TABLEAU 62. DETAILS METHODOLOGIQUES (LEGRIS ET AL., 2003) .................................................................... 238
TABLEAU 63. TYPES DE RELATIONS TROUVEES (LEGRIS ET AL., 2003)................................................................ 240
TABLEAU 64. RESUME DES RESULTATS DES RECHERCHES ANTERIEURES (LEGRIS ET AL., 2003) ......................... 242
TABLEAU 65. RESULTATS DE LA METHODE D’EQUATIONS STRUCTURELLES EXAMINEE SUR LES DEUX MODELES 245
TABLEAU 66. COMPARAISON DES RESULTATS DE NOS TRAVAUX A CEUX DE DISHAW & STRONG (1999)............ 246
TABLEAU 67. RESULTATS DE LA PHASE CONFIRMATOIRE .................................................................................... 252
TABLEAU 68. LES CINQ COURANTS DE RECHERCHE EN SI, 1954-2003 (BANKER & KAUFFMAN, 2004) .............. 256

296
Veille Stratégique : l’évaluation de l’utilisation des Agents Intelligents

Résumé
Cette recherche aborde la problématique de l’identification des Agents Intelligents (AI) et de
l’évaluation de leur utilisation au sein des entreprises françaises en plaçant cette technologie dans le
processus informationnel de veille stratégique.
Le cadre conceptuel mobilisé s’intègre dans la recherche de l’Interaction Homme-Machine (IHM) et
son lien avec la discipline du Management des Systèmes d’Information (MSI) pour mesurer la
perception des utilisateurs de cette technologie.
Pour répondre à cette problématique, le modèle élaboré et mis en application est inspiré de deux
modèles d’évaluation des SI (TTF/TAM) de Goodhue et Thompson (1995) et Davis (1989).
Cette application est basée sur une approche quantitative à travers un questionnaire administré à 155
utilisateurs d’Agents Intelligents appartenant à des entreprises de différents secteurs d’activités en
France. Les résultats obtenus suggèrent qu’un « fit » adéquat entre technologie-tâche, produit une
meilleure utilité perçue de cette technologie.
Mots Clés
Veille stratégique, technologie des Agents Intelligents, Modèle de l’Adéquation Technologie-Tâche
(TTF), Modèle de l’Acceptation d’une technologie (TAM).

Competitive Intelligence: Evaluation of Utilisation of Intelligent Agents

Abstract
This research examines the question of identification and evaluation of utilisation of Intelligent Agents
for French companies by positioning this technology in informational process of competitive
intelligence. The conceptual framework is integrated into the research of Human-Computer Interaction
(HCM) and its link with Management Information Systems (MIS) discipline in order to measure the
user perception with this technology.
To respond to this question, the model applied has been inspired from two models of evaluation of
Information systems (TTF/TAM) of Goodhue & Thompson (1995) and Davis (1989).
This application is based on quantitative approach through a survey administrated to 155 users of
intelligent agents operating in companies of different sectors in France. The results suggest a good fit
between technology-task and produce better-perceived usefulness of this technology.
Key Words
Competitive Intelligence, Intelligent Agents Technology, Model of Technology-Task Fit (TTF),
Technology Acceptance Model (TAM).

Université Paris Dauphine


CREPA, Centre de Recherche en
Management & Organisation
Dauphine Recherche en Management-
CNRS UMR n° 7088
Place du Maréchal de Lattre de Tassigny
75775 Paris Cedex 16
Tél. 01 44 05 43 54 / Fax : 01 44 05 40 84.

Vous aimerez peut-être aussi