Académique Documents
Professionnel Documents
Culture Documents
INTRODUCTION
I. DE LA GESTION DE L'INFORMATION
1.1. Comprendre le concept d'information
1.2. Pour mieux urbaniser les systèmes d'information
CONCLUSION
BIBLIOGRAPHIE
SITOGRAPHIE
QUIZ 1
QUIZ 2
APPLICATION 1
APPLICATION 2
APPLICATION 3
APPLICATION 4
APPLICATION 5
APPLICATION 6
APPLICATION 7
DIAPORAMA
Objectif général :
- Montrer la complexité des enjeux liés au développement de l'économie de
l'information
Objectifs intermédiaires :
- Analyser le concept d'information
- Comprendre l'utilité des systèmes d'information comme facteur de création de
valeur
pour l'entreprise
- Dégager les problèmes économiques fondamentaux soulevés par la nouvelle
économie
- Montrer les processus de transformation des modes de gouvernance, de
production
et de distribution
INTRODUCTION
Cette première séquence s'articule en deux parties. Dans la première partie seront
rappelés quelques uns des principes qui permettent de mieux comprendre la nature
du concept d'information et dans quelle mesure celui-ci peut être source de valeur
ajoutée. Un premier cadre d‛analyse de la contribution des SI à la création de
valeur sera proposé. Dans la deuxième partie seront exposés les types nouveaux de
relation et d'échange qui caractérisent le développement de l'économie de
l'information.
L'information est un concept qui désigne une structure composée, complexe et qui
se caractérise par un ensemble de propriétés telles que l'improbabilité tant au
niveau physique (elle peut changer d'intensité) que sémantique (au niveau du sens,
elle est par essence différente et, de ce fait, permet de capter l'attention). De ce
point de vue, l'improbabilité du signal doit être répétitive (la sonnerie d'un réveil
par exemple) pour constituer une information. L'information, en permettant la
prévision, lève l'incertitude. Cela présuppose qu'elle peut être imparfaite et qu'elle
doit faire l'objet d'ajustements permanents. Ceci implique un processus cognitif et
récursif d'adaptation et d'apprentissage entre un émetteur et un récepteur. Il
n'existe pas d'information en soi. Elle est un élément d'un ensemble qui renvoie à
autre chose qu'à elle-même (valeur de signe) et qui lui donne sa force (avec des
effets démultipliés et disproportionnés par rapport à la cause). Elle s'inscrit dans
une durée qui échappe au temps physique grâce aux corrections d'erreurs et
régulations (évolution, complexification, optimisation de l'information).
Dans son usage technique, le concept peut être défini, soit comme un phénomène
physique quantifiable qui correspondrait à la dégradation du signal en présence du
bruit, soit pour désigner un symbole numérique (0 ou 1) codé de façon binaire. Il est
donc possible de transmettre maintenant l'information au moyen d'impulsions
électroniques et de la conserver sur des supports numériques pour faciliter leur
traitement automatisé (codes barres des étiquettes produits). Dans ce cas, il n‛est
plus possible de les lire sans un outil supplémentaire appelé ordinateur.
On peut, à cet égard, retenir que c'est sur la racine du mot information que Philippe
Dreyfus construisit en 1962 le néologisme "informatique", mot valise qui est la
contraction de information et automatique, pour traduire l'expression anglo-
saxonne "computer science".
L'idée que
le
journaliste
serait le
garant
d'une
information
neutre et
objective
doit nous
conduire à
faire la
distinction
entre le
fait et le
commentaire.
Le rôle du journaliste, en effet, consiste à traduire en information des événements,
à extraire des faits de la réalité courante, à les formaliser et à les porter à la
connaissance d'autrui (figure 2). Il en va de même pour le professionnel de
l'information quand il se situe dans une perspective de collecte, d'harmonisation,
d'agencement, de description, de commentaire et de mise en forme d'une matière
première comme dans le cas de l'activité de veille (journaux d'entreprise, revues de
presse, dossiers, synthèses, banques de données, rapports d'étonnement, produits
de la veille stratégique, etc.). Il distingue l'information, issue des documents
primaires (livres, textes de loi, brevets, articles …) de l‛information secondaire qui
recense et/ou analyse une information primaire (notices bibliographiques enrichies,
résumés, catalogues, ...). L'information primaire est souvent brute. Elle représente
l‛information qui n‛a subi aucun traitement. Elle manque souvent, à ce titre, de
fiabilité. Après plusieurs phases de traitement, elle prend de la valeur et acquiert
le statut d'information élaborée. Lorsque la quantité d'information élaborée aura
été réduite par recoupement, elle pourra devenir une information directement
utilisable pour la prise de décision.
Les biologistes, de leur coté, ont souligné que l'information, matière vivante, était à
la fois, insérée dans un système ouvert, et organisée par niveau de complexité.
Henri Laborit, en étudiant les fonctions de l'information dans l'organisation des
systèmes vivants a identifié deux sortes d'informations : "l'information structure"
transmise par le code génétique et "l'information circulante" qui se transmet par
les organes sensoriels. L'information ne devient signifiante qu'au moment où elle
est perceptible sensoriellement, et seulement dans la mesure où elle a été
structurée et organisée par le système nerveux. L'évolution humaine a été rendue
possible grâce à la capitalisation de l'information, permise par la transmission de
l'expérience acquise, au moyen du langage. Les travaux de H. Laborit ont permis de
souligner l'intégration de l'information dans le fonctionnement des systèmes qui
n'apparaît pas ex nihilo, mais qui est le résultat d'un système qui la produit.
Une autre distinction peut aussi être opérée entre les informations explicites pour
parler des connaissances (informations potentielles, utilisables dans l'avenir
et applicables dans des situations variées), des savoirs inscrits, enregistrés sous
forme écrite orale ou audiovisuelle et l'information tacite pour parler de l'action de
s'informer, du processus par lequel un sujet s'informe. La première, facilement
transmissible, peut apparaître et se diffuser dans le système d‛information de
l‛entreprise alors que la seconde, perçue par la pratique et dans l‛action, est
difficilement identifiée et donc transmissible.
Médias et centres de
Sources consultées sans
documentation, Documentation de
autorisation officielle
réunions publiques, l'entreprise, personnel
ou privée de manière
bases de données, de l'entreprise, toute
SOURCE illégale (interceptions
organismes publics information non
techniques), sources
(ARIST, CRCI, publique obtenue de
humaines se mettant
INPI, ...), greffe des manière non illégale
dans l'illégalité
tribunaux
La première est sans doute la plus grave : les conseillers du Ministre de la Défense n’ont
pas compris dans quel monde ils évoluent et en particulier ne saisissent rien aux
problématiques de guerre de l’information. Les erreurs sont multiples et doivent être
soulignées avec gravité et insistance :
La finalité est ce qui donne sens à l‛information. Nous sommes, comme individus,
porteurs de finalités humaines et d‛un désir de reconnaissance qui nous conduisent à
accumuler des connaissances. L‛information semble une partie intégrante de
l‛apprentissage. Le langage et l‛histoire ont jusqu'à maintenant permis, de façon plus
ou moins violente, l‛accumulation d‛informations et de savoirs. L'information peut se
confondre avec la communication
Herbert Simon démontre, dans la deuxième moitié du XXe siècle, que les individus
n'agissent pas, pour résoudre un problème, par optimisation mais dans le cadre d'un
processus séquentiel et adaptatif de recherche de solutions appropriées en
s'appuyant principalement sur les informations directement disponibles. Elargie à
l'organisation, l'analyse du concept de rationalité limitée met en évidence les
limites liées à l'accroissement de la quantité d'informations qui devient nécessaire
dans le processus de décision (coût élevé de collecte de l‛information, coût élevé de
traitement de l‛information, problèmes d‛incertitude) et l'importance des outils
informatiques dans la collecte, le traitement et la diffusion des données. En
conséquence, les agents ne vont pas chercher la solution "optimale" mais se
contenter de celle qui leur semble "satisfaisante" (voir application 1) .
Si l'information est ce qui fait qu'un message circule, elle se distingue toutefois de
la communication au sens où la communication est une relation entre deux ou
plusieurs personnes avec des mécanismes d'ajustement interpersonnel. Elle désigne
un processus (la succession d'actions par lesquelles on s'informe) et le résultat du
processus (le volume, la variété des informations obtenues) liant l'individu à son
environnement direct. La communication désigne un cas particulier de l'information
processus car elle suppose l'existence d'un échange avec un ou plusieurs individus,
d'une information qui se crée en retour (feed-back) et qui sera définie par ses
propriétés (la quantité d'information, la vitesse de circulation, l'origine, le
comportement, l'itinéraire, la durée de vie, ..).
La théorie de l‛information,
formulée par Claude Shannon
(figure 7) pour répondre à
des problèmes précis de
transmission de l‛information
par des canaux de
communication (il aurait été
préférable de la nommer
théorie de la transmission de
l‛information) considère que
la quantité
d‛information nécessaire est
égale au logarithme de
l‛inverse de sa probabilité,
selon la formule :
quantité d‛information = I =
Log(1/p)
En effet, quel que soit le canal de transmission utilisé (écrit ou oral), la situation de
départ s'appuie sur une réalité représentée ou perçue et décrite par un message
porteur d'une certaine quantité d'informations. L'émetteur du message va coder
cette quantité d'information, pour les besoins de la communication, d‛une certaine
façon. Le récepteur, pour pouvoir l‛utiliser, doit la décoder et restituer, au terme
de la communication, la même quantité d‛informations qui se trouvait dans le
message initial. Le message initial peut être perturbé (bruits, parasites, ..) au
moment de sa transmission et la quantité d'informations peut, à ce moment,
modifier la représentation initiale de la réalité décrite ou perçue par l'émetteur ou
le récepteur.
C'est donc par la manière dont nous la valorisons que l'information se distingue de
la communication. La communication est donc le processus intermédiaire qui permet
l'échange d'information entre les individus . On peut conclure que la communication
est un acte, un processus, une machinerie et que l'information peut s'apparenter à
des données brutes ou à un savoir. Elle n'est donc pas nécessairement de nature
cognitive. De ce point de vue, l'expression "Medium is message", de Mac Luhan, est
tout à fait révélatrice. Dans la sélection des informations à laquelle procèdent tous
les individus, la vérité affective se fait au détriment du jugement critique fondé
sur le principe de réalité. Le processus de constitution de l'information, au sens de
l'établissement d'un savoir, est occulté au profit du processus de communication.
L'accent est mis sur celui qui communique un savoir devenu message, davantage que
sur celui qui élabore ce savoir.
Le management des connaissances n‛a pas pour objectif de tout capitaliser. Il vise
les informations et/ou connaissances qui sont de nature à augmenter les résultats
et la valeur de l‛entreprise. Par conséquent, la valeur d‛une information réside dans
ses caractéristiques stratégiques. Cela nécessite de distinguer les connaissances
stratégiques de celles qui deviennent obsolètes et de disposer de feed-back
récurrents et immédiats de la part des experts, fournisseurs, partenaires
présentant un gage de fraîcheur des informations maniées.
Les Systèmes d'Information (SI) ont progressivement équipé les divers types de
fonctions et s'appuient sur les outils de l'informatique de communication
Les progrès essentiels dans l'organisation du travail de bureau ont été réalisés tout
au long du vingtième siècle aux Etats-Unis
L‛espace de travail change alors d‛allure. L‛écran-clavier s‛installe sur les bureaux.
Les supports papier disparaissent au profit des supports numériques (cartes
perforées, bandes magnétiques, ...). Les informations sont dorénavant stockées
dans des mémoires électroniques. Les opérations (facturation, paie, comptabilité,
impressions des documents, ...) sont automatisées (la recopie d'une information
déjà introduite dans le système d‛information n'est plus nécessaire).
Sur la plan théorique, G. Davis a présenté les systèmes d‛information, comme “des
systèmes qui fournissent des informations supportant les opérations, la gestion, et
la prise de décision dans une organisation sociale“. Si cette définition présente
l‛intérêt de mettre en exergue les trois principales composantes de l‛organisation
qui lui permettent de s'adapter à son environnement, — le système d‛information, la
structure, la stratégie —, elle présente le système d‛information comme le ventre
mou informationnel de l'organisation sur lequel le manager doit s'appuyer pour
prendre une décision. La définition proposée par H. Lucas, à savoir “un ensemble de
procédures organisées qui, quand elles sont exécutées, fournissent une information
pour aider à la prise de décision” précise mieux le rôle que jouent les systèmes
d'informations, tant au niveau de la démarche méthodologique (collecte, circulation
et traitement de l‛information) que structurelle (support d‛informations dédié à
cette tâche).
La mise en réseau des PC (personal computer), au début des années 90, accélère
cette tendance en fournissant aux utilisateurs, au sein d'un groupe de travail
(intranet), un média de communication asynchrone et en permettant de fédérer
sous une ergonomie cohérente les accès aux diverses applications. Les activités
bureautiques deviennent communicantes et autorisent désormais l'automatisation
du processus de travail lui-même. Cette évolution du process permet à l'entreprise
de rétablir les pratiques du contrôle et de l'évaluation (remises en cause par la
dématérialisation de la chaîne des activités à caractère administratif) et
d'accroître la productivité du travail collectif.
Lorsque celui-ci aura été réalisé, il restera pour l'entreprise à le faire fonctionner.
Comme tout être vivant, l‛entreprise est une organisation qui nait, vit et meurt. La
mise en place d'un système d'information implique de comprendre, pour chaque
étape de son développement, les objectifs, ambitions et rôles des individus qui y
travaillent, la mise en place et articulation des structures de décision, le
déroulement des process opérationnels, les interconnexions avec les partenaires,....
Dans la structure
pyramidale qui
caractérise encore
l'organisation de la
majorité des
organisations
aujourd'hui (figure
8), on distingue tout
d'abord, à la base, le
système opérant qui
gère des flux
physiques en
transformant des
inputs (matières
premières, matières
consommables, ...) en
outputs (produits
finals). Tout en haut
de la pyramide
apparaît ensuite le système de pilotage dont la mission consiste, au travers les flux
décisionnels, à conduire l'organisation vers les buts et objectifs qu'elle a à
atteindre, en contrôlant leur bonne réalisation et en apportant les éventuelles
corrections nécessaires. Enfin, entre les deux, s'intercale le système d'information
qui s'occupe de récolter l'information, de la traiter et de l'injecter dans le fonds
informationnel (saisie), et/ou de mettre à disposition du système opérant et du
système de pilotage les flux informationnels qui reflèteront le plus fidèlement les
flux physiques et financiers (la restitution des informations bénéficie elle aussi des
progrès réalisés et notamment de la convergence des technologies vers le même
standard numérique).
Le référentiel du
système
d'information
(structure
regroupant des
données, des
règles et des
processus) sera
construit dès lors
à partir et autour
de composants
métiers (approche
fonctionnelle qui
regroupe les
directions qui
produisent et
vendent comme le
marketing, la production, la maintenance, ...) réutilisables par divers processus
(figure 9). Dans cette logique, les utilisateurs au sein de l'organisation doivent
percevoir l'intérêt de la solution proposée (exemple de la mise en place d'une
messagerie électronique pour l'ensemble des salariés de l'entreprise), comprendre
comment cela fonctionne et assimiler le savoir-faire pour apprendre à s‛en servir.
Ces changements rapides qui, comme nous venons de le voir ci-dessus, substituent à
l‛informatique de traitement des données structurées (utilisant un langage
conceptuel facilitant la simulation des causalités) une informatique de
communication (véhiculant le langage naturel et connoté des êtres humains),
suscitent parfois l‛appréhension et ont tendance à ossifier les systèmes
d'information.
Dès lors, les applications informatiques qui supportent ces systèmes d'information
dans le système opérant, travaillent sur des masses de données fortement
atomisées et flexibles (il est possible, de n'importe quel poste informatique,
d'accéder en temps réel à un document de la chaîne d'information comme une
commande ou une facture) et mobilisent de plus en plus les outils du travail
collaboratif assisté par ordinateur. Au niveau décisionnel, les applications
informatiques sont plus sophistiquées et s'appuient sur des technologies comme les
EIS (Executive Information System) ou tableaux de bord informatisés, les
datawarehouses, et les SIAD (système d'intelligence et d'aide à la décision) pour
travailler sur des données fortement agrégées et obtenir des résultats utilisables
sur le long terme). Les évolutions deviendront cependant d‛autant plus difficiles que
l‛entreprise est plus étendue et que les réseaux l‛enserrent de plus près.
Dans les points précédents, nous avons développé l'idée que les systèmes
d‛information permettaient, notamment par la modélisation des processus, de créer
des configurations organisationnelles nouvelles plus performantes et plus réactives.
La reconfiguration des processus existants s'est principalement appuyée sur
l'utilisation des technologies de l'information et de la communication (TIC) qui
n'ont pas été conçues, au départ, pour travailler ensemble. De ce fait, la
dissémination d'informations redondantes au sein de l'organisation, par exemple,
ralentissait les performances de l'entreprise et pouvait générer des difficultés de
fonctionnement.
Toutefois, des difficultés perdurent pour que les entreprises puissent ajuster leurs
besoins en processus qui permettent de définir des systèmes spécifiques aux
contraintes imposées par les processus standardisés des progiciels de gestion
intégrée. Les outils de la prochaine génération devraient permettre de lever cet
obstacle en fournissant un métalangage de description des processus.
Quoiqu'il en soit, les systèmes d'informations restent des modèles réducteurs des
faits et des évènements actuels et passés. Ils sont des artefacts (objets artificiels
utilisés pour l'occasion en contexte contraint) greffés sur le fonctionnement
quotidien de l'entreprise.
1.2.2.2. Les stratégies de changement
Le système d‛information et les technologies qu‛il met en œuvre n‛est pas une fin en
soi, mais seulement un moyen de créer du développement dans l‛entreprise (voir
application 3)
Les innovations représentées par les TIC dans la reconfiguration des systèmes
d'information et la mise en œuvre de stratégies de changement ont conduit à la
transformation des métiers et à la création de valeur au niveau :
- de la mise en place des processus (taux de roulement des stocks, qualité des
processus, des produits et des services, délai d‛un processus … ),
- des besoins, des attentes et des comportements des individus (satisfaction
utilisateur, gain du temps par salarié, satisfaction client…)
- de la façon dont est gérée l‛organisation (des points de vue financier, opérationnel
ou concurrentiel).
Le développement des activités numériques à partir de la prise en compte d'une
meilleure appréhension du matériau informationnel dans le fonctionnement des
organisations annonce-t-il l'avènement d'un nouveau paradigme économique ?
La Nouvelle Economie, au sens large, concerne donc toutes les évolutions techniques
actuelles qui, par leur émergence et leur diffusion, ont pour conséquence de faire
naître des comportements économiques nouveaux et de susciter de profonds
changements structurels. C'est l'informatisation de l'échange par opposition à une
ancienne économie où domine encore le modèle stratégique impliqué par
l'informatisation de la production et de la gestion. Le développement exponentiel
des activités électroniques sur les réseaux fait très rapidement apparaître, sur les
marchés des biens et services, la nécessité en amont d'une nouvelle infrastructure,
assurant la coordination des filières du producteur de matières premières jusqu'au
consommateur final, et en aval d'un tissu industriel spécialisé dédié au commerce
électronique qui puisse exploiter toutes les possibilités multimédia de l'internet.
Les difficultés
rencontrées alors
par les entreprises,
confrontées dans
un environnement
de plus en plus
incertain à la
baisse de leur
rentabilité, les
conduisent à
rechercher de
nouveaux
débouchés dans un
espace virtuel qui
se mondialise
(toutes les
entreprises, quelle
que soit leur taille,
peuvent accéder à une multitude de réseaux planétaires interconnectés et
flexibles) et au sein duquel la compétitivité est fortement associée à la capacité à
innover (les entreprises sont contraintes à accroître la densité informationnelle de
leur offre commerciale) et à communiquer (les échanges se multiplient). Au schéma
linéaire traditionnel de l'ancienne économie se substituent peu à peu les logiques de
relation de causalité circulaire de la Net Economie (figure 13). Il en va de même
pour les marchés financiers (de plus en plus intégrés et interdépendants) et le
marché du travail (de plus en plus soumis aux stratégies de différenciation des
acteurs et à la contrainte du prix).
Comme nous l'avons vu plus avant, l'opposition entre ancienne économie et nouvelle
économie se lit dans la profonde évolution des pratiques stratégiques des
entreprises. La construction de l'avantage compétitif (différence entre la valeur
perçue par les clients et les coûts supportés par l'entreprise pour la créer), qui
implique désormais de nouveaux schémas de fonctionnement, opposent stratégies
informationnelles et stratégies organisationnelles de l'entreprise, modes de
valorisation de l'ancienne économie et modes de développement de la nouvelle
économie.
La seconde loi, celle de Metcalfe, selon laquelle la valeur d'un réseau maillé
progresse comme le carré du
nombre de personnes qui y sont
reliées (un réseau de N personnes
se connaissant toutes autorise N
(N-1)/2 relations, et lorsque N
est grand, ce nombre est de
l'ordre de N²/2, donc varie
effectivement comme le carré de
N), quantifie l'effet de réseau
encore appelé effet de club
(figure 16).
Les changements sont donc bien réels et l'époque du paradoxe de Solow est
aujourd‛hui révolue. Cependant, comme l‛ont clairement montré les désillusions à la
suite de l'éclatement de la bulle liée à Internet, la thèse selon laquelle les TIC
rapprocheraient l‛économie de la double fiction des marchés parfaits et des
hiérarchies débureaucratisées est inexacte. Cette approche reposait en effet sur
l'idée que les TIC réduiraient, voire élimineraient les coûts d‛information. Elle avait
négligé de prendre en considération les éléments constitutifs des coûts
d'information au niveau de la création des contenus, de leur médiation et de leur
utilisation. L‛Internet, par sa nature même, tend à augmenter les coûts
d'élaboration et d'acquisition, en même temps qu‛il tend à diminuer les coûts de
transmission. En conséquence, même si l‛Internet permet avec une grande
flexibilité des interactions dont le coût de diffusion est très faible, l‛économie
numérique ne sera pas pour autant une économie exempte de coûts d‛information,
mais au contraire une économie où la valeur se créera et s‛accumulera dans
l‛élaboration de contenus et leur transformation en connaissances mobilisables par
les acteurs.
Le problème reste cependant le même. Pour se donner le temps d'amortir les coûts
initiaux de recherche développement très élevés, les entreprises élèvent des
barrières à l'entrée sur leur marché (technologiques, stratégiques, commerciales,
financières, ...) pour en restreindre l'accès à la concurrence et se retrouvent sur
des secteurs à tendance oligopolistique, voire monopolistique, en situation de
faiseuses de prix ou "price makers" (modèle price makers versus modèle price
takers en système de concurrence pure et parfaite). A ce moment, leur rentabilité
repose essentiellement sur leur capacité à exploiter hypertextuellement leurs
gisements d'informations et à mettre en œuvre un système de tarification
approprié. La palette est large. Il pourra s'agir d'une politique de prix qui couvre le
coût marginal de reproduction, quasiment nul (livres numériques de la librairie
électronique Numilog), ou d'un système au forfait (à l'instar de ceux facturés par
les différents fournisseurs d'accès) qui ne prend pas en compte l'usage, ou d'un
cofinancement public/privé pour la mise en place des infrastructures nécessaires
(High Speed backbone), ou encore de l'utilisation du modèle publicitaire (modèle
vedette de l'économie numérique).
Trois types de
mouvements, autour
desquels se
structurent les
modèles d'affaires
des filières de la
nouvelle économie ,
illustrent à la fois les
tentatives
d'adaptation des
entreprises face à la
demande et à
l'évolution technique
et les démarches
stratégiques visant à
limiter la compétition.
La Nouvelle Economie est apparue, aux yeux de certains analystes, comme une
mythologie néo-techno-libérale qui reproduit, de façon très sélective, certaines
caractéristiques du mode de fonctionnement de l'économie américaine : flexibilité
et dualisme du marché du travail, dérégulation des marchés, nouveau mode de
gouvernance des entreprises fondé sur la valorisation financière. L'effondrement
boursier intervenu en 2001 semble leur avoir en partie donné raison (non remise en
cause de la théorie des cycles, problème non résolu de la réallocation des gains de
productivité, invalidation des hypothèses relatives à la question de l'évaluation des
valeurs de la nouvelle économie et de la prééminence des actifs d'exploitation
(gisements d'informations) sur les résultats, pertinence non établie du concept de
croissance exponentielle de la valeur du réseau, ...).
Si elles font beaucoup parler d'elles, les TIC restent cependant un phénomène
difficile à appréhender. Aujourd'hui banalisées, elles ne sont plus constitutives
d'avantage concurrentiel pour les firmes mais restent essentielles dans le
processus de création de valeur. Leur extension à l'ensemble des secteurs
économiques a substitué à l'expression "Nouvelle Economie" celle "d'Economie
Numérique" ou de "Net Economie".
Alors que le concept de nouvelle économie tend à être remis en cause, la diffusion
des TIC dans le grand public et l'intégration naturelle de l'Internet par la sphère
marchande accélèrent le processus de transition vers une économie digitale (ou
numérique) caractérisée par des règles de fonctionnement qui tiennent compte des
spécificités du nouvel univers (coopération, libre circulation, communauté, biens et
services complémentaires, ...) et qui englobent tous les moyens électroniques par
lesquels les TIC créent de la valeur (une transaction est qualifiée d'électronique si
au moins une étape de chacune de ses phases est accomplie sous forme
électronique).
Internet est une toile mondiale de réseaux électroniques, dont les potentialités
autorisent la mise en place de modalités très différenciées de gestion de
l'information et induisent une numérisation croissante des activités.
Le fonctionnement du réseau est pris en charge par des opérateurs dont la mission
est de fournir un ensemble de services de télécommunications (principalement
accès au web et messagerie électronique) selon un modèle d'assemblage modulaire
et flexible grâce à des interfaces standardisées qui permettent à des machines de
traitement numérique de l'information (les micro-ordinateurs) d'interopérer. Les
normes Internet, qui rendent les interconnexions possibles sur le réseau,
organisent la communication entre machines (exemple des échanges de courriers
électroniques) sur la base d'une architecture informatique client-serveur (le client
envoie une requête au serveur qui lui répond) à partir des règles suivantes (figure
19):
- les micro-ordinateurs connectés au réseau doivent pouvoir être identifiés de
manière univoque à l'aide d'un numéro (157.26.164.10)
- un système d'adressage, proche du langage naturel, dont la partie visible
correspond au nom de domaine (www.u-picardie.fr ou alain.deppe.free.fr), est
transformé en adresse machine par des serveurs appelés serveur DNS (Domain
Name System)
- un ensemble de normes techniques dénommé protocole de communication IP
(Internet Protocol, ...) assure l'interopérabilité entre les différentes composantes
du réseau
- la communication entre machines (à l'aide de textes, d'images, de sons, ...)
s'effectue à l'aide d'un langage de programmation (par exemple HTML pour Hyper
Text Markup Language) qui permet de coder et décoder les demandes et les
réponses échangées entre postes clients et serveurs.
Par le passé, les mesures de trafic se faisaient principalement sur les backbones
(autoroutes de l'information) et au niveau des fournisseurs d'accès et le caractère
stratégique et confidentiel de ces informations les rendait difficilement
accessibles. A ce niveau, le codage de l'information était plus important que
l'information elle-même car il s'agissait de prévoir et d'allouer les ressources
nécessaires à la transmission d'une série de bits, et ce, quelle que pouvait être la
valeur du contenu informationnel.
Celles-ci ont tout d'abord exploré les voies des modalités gratuites
d'interconnexion à travers des accords de peering destinés à minimiser les coûts de
transaction (la disparition progressive des politiques de subvention de l'accès
s'explique en partie par la faible sensibilité des recettes publicitaires à l'audience).
Elles ont ensuite emprunté les chemins mieux connus des diverses formules de
tarification (système de tarification théorique dans lequel le prélèvement d'une
taxe de congestion conduit l'utilisateur à une décision socialement optimale, par
comparaison entre son bénéfice marginal et son coût marginal augmenté de la taxe,
système de tarification optimale dynamique comme celui de Mayeticvillage qui
permet à l'utilisateur de choisir, dans un menu, une option incluant un coût
monétaire et une durée estimée pour le service retenu, système de tarification de
priorité statique qui garantit un niveau de service socialement optimal quel que soit
l'état de congestion du réseau, ...) et/ou d'arrangements organisationnels (système
des enchères, financements indirects, modèles publicitaires, ...).
Les solutions adoptées marient le plus souvent une dimension tarifaire et une
dimension organisationnelle.
En tout état de cause, les études disponibles montrent que les prix sur Internet
sont de plus en plus dispersés, et que des ressources de plus en plus importantes
sont dédiées au formatage et au rapprochement des offres et des demandes.
Le partage des activités initié par le gouvernement américain au milieu des années
80, entre des opérateurs de réseau chargés de fournir un ensemble de services de
télécommunication (principalement les fournisseurs d'accès internet et de services
de messagerie prestataires de services informationnels) et les propriétaires des
infrastructures autoroutières chargés d'assurer les interconnexions
(essentiellement les administrateurs prestataires des réseaux physiques),
renouvela la problématique de l'économie industrielle autour de la gestion bien
comprise du binôme partenariat/concurrence (interopérabilité de réseaux à la fois
hétérogènes et concurrentiels, transfert de trafic d'un opérateur à l'autre,
création et développement de réseaux intra et inter organisationnels, assimilation
et dissémination des innovations technologiques, reconfiguration de la chaîne de
l'offre, relation de causalité circulaire entre l'individuel et le collectif, logique de
fonctionnement open source...).
La captation, par les acteurs impliqués dans la sphère digitale, des externalités de
réseau générées par les activités numériques, conduisent à une logique de
concentration du secteur et met en évidence la nécessité d'un cadre institutionnel
et socio-économique approprié aux échanges électroniques
Les études menées dans les années 90 ont bien démontré que l'existence
d'externalités provenait de la complémentarité des biens utilisés dans un réseau.
Comme le facteur déterminant pour commencer à bénéficier des externalités du
réseau est d'atteindre une masse critique, la conséquence prévisible de ce constat
se traduit, pour les entreprises, par une tendance à la concentration des fonctions
essentielles (fourniture d'accès, fourniture d'interconnexion, systèmes
d'adressage, ...) aux fins d'exercice d'un pouvoir de monopole.
Compte tenu des externalités importantes créées par les activités supportées par
Internet, de la nécessité d'assurer une régulation technico-économique minimale du
réseau, ainsi que des tendances à la monopolisation des ressources clés dans
l'économie numérique, une régulation de l'Internet apparaît incontournable
En amont, le coût de développement d'un logiciel engendre des coûts fixes élevés
qui sont perdus quelles que soient les ventes du logiciel. En revanche, en aval, une
fois le logiciel créé, la duplication et la diffusion s'effectuent à coût marginal quasi
nul pour les CD ou les DVD et nul sur Internet. Il en résulte donc une fonction de
coût de production (pour le producteur de logiciel par exemple) à rendements
fortement croissants qui invalide nombre des conclusions de l'économie classique de
marché. Les logiciels sont des produits qui présentent de fortes externalités de
réseau qui apparaissent lorsque la masse critique est atteinte (Il est nécessaire de
posséder la suite bureautique Office de Microsoft pour lire, dans de bonnes
conditions, les fichiers créés avec Word). Pour atteindre au plus vite cette masse
critique sous contrainte de recouvrement des coûts fixes, l'industrie du logiciel
utilise des stratégies de prix différenciés très complexes (voir application 7) qui
supposent une connaissance très fine des préférences des consommateurs (produits
shareware ou freeware, pratique du bundling par Microsoft avec son navigateur
Internet Explorer intégré dans son système Windows, ...)
Sur les marchés aval, l'information présente les caractéristiques d'un bien public
de faible exclusion et de faible rivalité. En effet, il est difficile d'empêcher
quelqu'un d'utiliser des informations que l'on a produites si elles sont accessibles
sur le réseau. Ce faisant, cette information peut être utilisée par un très grand
nombre d'individus sans qu'elle soit détruite ou sans que le créateur du contenu en
soit dépossédé. Dans cette hypothèse, la valeur résiduelle du bien informationnel
correspond au coût de transmission de l'information et d'accès au réseau (pour
l'individu qui dispose d'une connexion haut débit à un prix dérisoire permettant
tous les téléchargements, les biens informationnels proposés en ligne, qui peuvent
être facilement piratés, n'ont pas de valeur intrinsèque) et il devient difficile pour
un entrepreneur de gagner de l'argent en vendant des logiciels. Dans une économie
où les droits de propriété sont insuffisamment protégés, les entreprises se
trouvent prises dans un jeu de contrats dits d'enforcement caractérisés par un
modèle économique qui articule paiement et gratuité, libre diffusion et exclusivité,
et s'appuie sur les services additionnels. Les entreprises offrent le produit de base
(le contenu) et vendent les services complémentaires (formation à l'utilisation,
maintenance du produit, financement, diffusion, ...). L'augmentation de la valeur
d'usage (en l'occurrence générée par la relation créée avec le client) est l'axe de
développement retenu dans les stratégies mises en œuvre. Le fournisseur, qui a
amorti ses coûts de développement, a intérêt à élargir et à étoffer sa proposition
commerciale. Le client, de son coté, a intérêt à garder le même logiciel car son
apprentissage est long et coûteux et le coût du changement est élevé. Le vendeur
essayera d'augmenter au maximum le coût du changement (switching cost) afin de
verrouiller le client dans une relation de long terme qualifiée de matrimoniale (lock-
in).
CONCLUSION
Tous les aspects de la société (sociaux, culturels, politiques, scientifiques, ...) sont
touchés par les transformations en cours. Le rôle des Pouvoirs Publics, en matière
d'orientation et de dynamisation sera primordial pour que l‛ensemble des citoyens
puisse accéder et bénéficier des potentialités de l'économie de l‛information.
BIBLIOGRAPHIE
SITOGRAPHIE
http://www.arc-en-web.com/html/arcenweb/edition/initiation/autofor/accueil01.
htm
http://www.imaginet.fr/ime/manuel.htm
http://www.searchenginewatch.com/ (Le site de référence sur les outils de
recherche (en anglais)
http://www.adbs.fr/ (site très complet pour comprendre les outils de recherche)
http://www.lib.berkeley.edu/TeachingLib/Guides/Internet/Stategies.html (site de
Berkeley)
http://www.bibl.ulaval.ca/vitrine/giri/ (Guide d'initiation à la recherche dans
INTERNET)
http://www.hotbot.com
http://www.exite.com
http://www.ecila.fr
http://lokce.iplus.fr
http://www-fr.lycos.com/
http://www.voila.fr/
LES METAMOTEURS
http://www.savysearch.com
http://www.go2net.com/
http://www.infind.com/
http://www.debriefing.com/
LES WEBRINGS
sous l'antiquité
au Xe siècle
au XIIIe siècle
au XVIIIe siècle
au XXe siècle
Oui
Non
Vrai
Faux
formare
informare
informatio
formate
reformare
Vrai
Faux
Mac Luhan
Daniel Bougnoux
Alvin Tofler
Edgar Morin
Jacques Arsac
des années 20
des années 40
des années 60
des années 80
des années 90
Vrai
Faux
Vrai
Faux
les données
les processus
Vrai
Faux
Vrai
Faux
Machlup
Porat
Rubin
Toffler
Mandel
Machlup
Porat
Rubin
Toffler
Mandel
la 2e révolution industrielle
la 3e révolution industrielle
une révolution informationnelle
une mutation sociétale
la 1ère révolution industrielle
5 - 2007 correspond à une période de
Vrai
Faux
Coase
Porter
Kotler
Williamson
Keynes
11 - Selon Moore, la puissance des microprocesseurs double
Vrai
Faux
sur le risque
sur le pouvoir de marché
sur l'efficacité
Vrai
Faux
Vrai
Faux
Vrai
Faux
17 - Les accords de peering maximise les coûts de transaction
Vrai
Faux
Vrai
Faux
Thème (adapté du livre d'Allison G.T., "Essence of decision explaining the Cuban
missile Crisis", Harper Collins Publishers, 1971)
Document 1
Alors que les bombes pleuvaient sur Cuba, Raul Roa appela une nouvelle fois les Nations
unies à l‛aide. Il expliqua que son pays avait été attaqué par « une force mercenaire
organisée, financée et armée par le gouvernement des Etats-Unis, en provenance du
Guatemala et de Floride ». L‛ambassadeur américain, Adlai Stevenson, réfuta ces
accusations, qualifiées de « totalement fausses : les Etats-Unis n‛ont commis aucune
agression contre Cuba ». L‛ambassadeur britannique, Patrick Dean, apporta son soutien
à Stevenson : « Le gouvernement du Royaume-Uni sait par expérience qu‛il peut faire
confiance à la parole des Etats-Unis. »
Cependant, les faits ne pouvaient être niés plus longtemps. John F. Kennedy, qui avait
succédé à Eisenhower à la présidence des Etats-Unis, décida d‛admettre la vérité et
endossa la faute, le 24 avril, dans une déclaration de la Maison Blanche : « Le président
Kennedy a dit depuis le début que, en tant que président, il porte la seule
responsabilité. » Mais, dès le lendemain, Washington poursuivait sa guerre contre le
régime de M. Castro et imposait un embargo total sur les marchandises américaines à
destination de Cuba.
Nikita Khrouchtchev marquait ainsi son engagement envers son allié caribéen, gagnait
des positions stratégiques et montrait sa force à la fois aux Etats-Unis et à la Chine.
Les soldats soviétiques étaient en train d‛installer les missiles nucléaires à Cuba quand,
le 14 octobre 1962, un avion américain U2 d‛espionnage en haute altitude les
photographia.
Le président choisit un blocus maritime autour de l‛île pour empêcher les bateaux
soviétiques d‛introduire d‛autres missiles. Le lundi 22 octobre, à la télévision, John F.
Kennedy expliqua aux citoyens stupéfaits, aux Etats-Unis et dans le reste du monde,
que l‛Union soviétique, « au mépris flagrant et délibéré » de la Charte des Nations
unies, avait installé des missiles nucléaires à Cuba. « Le plus grand danger aurait été de
ne rien faire », souligna-t-il, en expliquant qu‛il avait ordonné que soit mis en place un
strict embargo pour tout équipement militaire offensif embarqué vers Cuba. En même
temps, une résolution américaine appelait « au prompt démantèlement et au retrait de
toutes les armes offensives stationnées à Cuba, et cela sous le contrôle d‛observateurs
des Nations unies ». Se référant au blocus, le secrétaire général de l‛ONU, Sinth U
Thant, un bouddhiste de Birmanie, raconta plus tard : « Je pouvais à peine en croire
mes yeux et mes oreilles. Cela signifiait techniquement le début de la guerre contre
Cuba et l‛Union soviétique. Autant que je me souvienne, c‛était le discours le plus
funeste et le plus grave jamais prononcé par un chef d‛Etat. »
Négociations en coulisse
Pour provoquer une désescalade de la crise, U Thant pria instamment tous les membres
des Nations unies de s‛abstenir de toute action militaire. En coulisse, il parla à Kennedy,
à Khrouchtchev et à M. Castro. A ce dernier, il confessa : « Si la CIA et le Pentagone
continuent à avoir un tel pouvoir, je vois le futur du monde sous un jour très sombre. »
Au même moment, Adlai Stevenson faisait du Conseil de sécurité, soudain devenu utile,
« le prétoire de l‛opinion mondiale », comme il le nomma. Le 25 octobre, il y présenta les
photos des missiles nucléaires soviétiques à Cuba devant un public perplexe et un
ambassadeur soviétique gêné. Celui-ci, Valerian Zorin, lâcha en grommelant : « Des
preuves truquées... » Stevenson expliqua que Kennedy avait ordonné le blocus sans
consulter le Conseil de sécurité parce que l‛Union soviétique aurait stoppé toute
résolution. Un ami de Stevenson observa que l‛ambassadeur avait fortement
impressionné le public américain : « Son courrier, au cours des quelques jours suivants,
montrait qu‛il était devenu une sorte de héros pour le vaste public américain, dont le
régime télévisé quotidien est un mélange de violence grossière et de mensonges
commerciaux imbibés de sexe. »
Document 2
TRAVAIL A FAIRE
Tableau Annexe
Hypothèse Hypothèse de
rationnelle Rationalité limitée
Caractéristiques
de l'information
Définition
des objectifs
Stratégies
envisagées
Choix décisionnel
Mise en œuvre
de la décision
MANAGEMENT DE L'INFORMATION
ET COMPETITIVITE DES ORGANISATIONS
Séquence 1 : De la gestion de l'information à l'économie de
l'information Application 2
- les différentes observations qui auront été faites par les utilisateurs à
partir de leur ordinateur
- l'efficacité du système d'aide à la décision telle qu'elle peut être
ressentie par les responsables de l'entreprise
- les différents éléments composant l'architecture du système (niveaux
hiérarchiques, organisation des responsabilités, sémantique, ...)
- l'évolution fonctionnelle possible du système d'information
MANAGEMENT DE L'INFORMATION ET COMPETITIVITE DES
ORGANISATIONS
Séquence 1 : De la gestion de l'information à l'économie de l'information Application 4
Exercice 1
Indiquez pour quelles raisons le paysage peut être considéré comme un bien
collectif ?
Exercice 2
Références
Bakos, Y. et Brynjolfsson, E. "Bundling and Competition on the Internet:
Aggregation Strategies for Information Goods," Marketing Science
(January 2000).
Bakos, Y. et Brynjolfsson, E. "Bundling Information Goods: Pricing, Profits
and Efficiency," Management Science (December 1999).
MANAGEMENT DE L'INFORMATION ET COMPETITIVITE
DES ORGANISATIONS
Séquence 1 : De la gestion de l'information à l'économie de l'information
Solution Application 1
L‛intérêt de l'étude de la crise de Cuba repose sur le postulat que plus les décisions
sont importantes, notamment en termes de conséquences, c‛est-à-dire des
pertes considérables en vie humaine, plus les décisions devraient être rationnelles. La
décision de Kennedy peut apparaître de prime abord comme un modèle de décision
rationnelle. Cela est démenti par les faits (point 1). En effet, même si de nombreuses
solutions possibles ont été examinées (voir point 4), raisonnablement et avec sérieux,
des erreurs d'information ont profondément influencé le choix et, surtout, la délibération
a été un processus politique complexe beaucoup plus qu'un calcul rationnel (point
2). L'exécution, enfin, malgré l'importance des enjeux, n'a correspondu que
très imparfaitement aux directives données par le président (voir point 3).
C‛est l‛optimisation d‛une fonction de décision. Le choix est fait parce que c‛est le
meilleur moyen d‛atteindre un but
2.2. Le cas
Installation de missiles nucléaires à Cuba, à moins de 100 km des cotes américaines, par
les soviétiques. Les américains exigent le retrait des missiles .
- ne rien faire
- augmenter le nombre de missiles dans les bases américaines en turquie
- bombarder et envahir Cuba
- exercer un blocus maritime autour de l‛île
- offensive diplomatique en faisant pression sur l'opinion mondiale via le Conseil de
sécurité de l'ONU
- bombarder des cibles en Union Soviétique avec des engins nucléaires
Le processus de recherche des solutions n'a pas été un processus d'optimisation, mais
un processus de moindre insatisfaction. La solution répondant aux critères minimaux
de satisfaction dégagés par le président, celle du blocus naval, a été retenue.
Le point de vue des spécialistes non plus n'est pas neutre. La seule option envisagée
par exemple par l'US Air force était l'attaque aérienne massive pour laquelle elle
s'était méthodiquement préparée. Aucune autre solution n'avait été envisagée.
Ils s'opposaient donc à toute autre décision (attaque chirurgicale par exemple) qu'ils
n'avaient pas préparé techniquement et qui aurait probablement produit les
meilleurs résultats. Les décideurs ne sont donc pas libres de leurs choix décisionnels. .
Hypothèse Hypothèse de
rationnelle Rationalité limitée
Solution sans risque mais trop longue et difficile à mettre en œuvre (droit de veto
possible des soviétiques à l'ONU)
Solution irréalisable car Castro semblait avoir perdu tout contrôle sur l'opération.
3.4 - Echange entre les installations soviétiques à Cuba et les installations américaines
en Italie et en Turquie
Solution théoriquement avantageuse (le retrait de ces missiles avait été décidé
depuis longtemps parce que les sous-marins nucléaires en Méditerranée étaient beaucoup
plus efficaces et moins voyants que ces missiles) mais diplomatiquement risquée
(elle affaiblissait dangereusement la crédibilité des engagements américains en Europe vis
à vis de leurs alliés européens)
Solution préconisée par les faucons mais reconnue comme dangereuse de par ses
conséquences tant à Cuba que sur d'autres points du globe
Solution immédiate et radicale, mais limitée et ponctuelle sur les installations militaires
non cubaines
Solution retenue pour obliger les Russes à retirer leurs missiles sans entraîner un
conflit mondial, quoique longue à mettre en place et risquée (affrontement avec les
navires soviétiques). Solution qui laissait cependant à Khrouchtchev le temps de la réflexion.
MANAGEMENT DE L'INFORMATION
ET COMPETITIVITE DES ORGANISATIONS
Séquence 1 : De la gestion de l'information à l'économie de
l'information
Solution application 2
Les produits les plus connus sont ORACLE, PEOPLE SOFT, SAP, BAAN, JD
EDWARDS, ....
MANAGEMENT DE
L'INFORMATION ET COMPETITIVITE DEs
ORGANISATIONs
Séquence 1 : De la gestion de l'information à l'économie de
l'information
Solution application 3
- les différentes observations qui auront été faites par les utilisateurs à
partir de leur ordinateur
- l'efficacité du système d'aide à la décision telle qu'elle peut être
ressentie par les responsables de l'entreprise
- les différents éléments composant l'architecture du système (niveaux
hiérarchiques, organisation des responsabilités, sémantique, ...)
- l'évolution fonctionnelle possible du système d'information
Sur les places de marché, les transactions se font le plus souvent selon la
procédure des "enchères inversées" : l'acheteur prend l'initiative en
mettant en ligne les détails de son cahier des charges et les fournisseurs
intéressés disposent d'un délai limité pour faire leurs propositions de prix.
Il est clair que la procédure des enchères, quelles qu'en soient les
modalités techniques, se démarque nettement du mécanisme des prix prévu
par le modèle de la concurrence pure et parfaite.
- ce sont en priorité les biens et les services qui peuvent être décrits
simplement au moyen d'un nombre limité et standardisé de caractéristiques
qui sont concernés
- les différentes phases du processus d'achat (cahier des charges,
catalogue, tarif, négociation, ...) doivent être aisément informatisables et
industrialisables
- les niveaux de sécurité et de confidentialité doivent être du même ordre
que dans l'ancienne économie et à un coût raisonnable
- la place de marché doit disposer d'une bonne liquidité, c'est-à-dire d'une
masse critique en termes de nombres de vendeurs et d'acheteurs (une
place de marché doit réunir dans le domaine considéré au moins 50% des
acheteurs et 50% des fournisseurs). Il faut rappeler que la plupart des
places de marché se rémunèrent par une commission perçue sur les
transactions générées). Cela explique que le secteur est à tendance
oligopolistique (selon le cabinet d'analystes Giga Information Group, il ne
devrait rester bientôt que deux acteurs majeurs par industrie...)
MANAGEMENT DE L'INFORMATION ET
COMPETITIVITE DES ORGANISATIONS
Séquence 1 : De la gestion de l'information à l'économie de l'information
Solution Application 6
Exercice 1
Le paysage est un bien collectif pur parce qu'il réunit les caractéristiques
de :
Exercice 2