Vous êtes sur la page 1sur 35

Exposé sous le thème 

Encadré par :

Préparé par :

-HAKIMI Marouane

-MEKOULOU EYINGA Nelly Diana

Année universitaire 2009/2010

1
Introduction………………………………………………………………………………1-2

I-historique de l’essor des NTIC……………………………………………………3-5

A- Les faits historiques ayant posés les bases nécessaires pou les premiers
ordinateurs……………………………………………………………………………..3

B-Histoire des communications……………………………………………………4-5

C-L’essor des NTIC………………………………………………………………………5-6

II-Exemple d’utilisation des NTIC ……………………………………………………6-14

A-Intranet …………………………………………………………………………………6-8

B-Extranet …………………………………………………………………………………8-9

C-Internat ………………………………………………………………………………9-14

III- L’apport de la veille stratégique dans les PME ……………………………14-19

A-Définition et objectifs …………………………………………………………………14

B-Les sources d’information de la veille……………………………………………… 15-19

IV-Le travail collaboratif assisté par ordinateur(TCAO)…………………………….19-29

A-Travail collaboratif……………………………………………………………………19-22

B-Environnement et fonctionnalités des TCAO ………………………………………22-25

C-Répartition des rôles et accompagnement des différents acteurs …………………26-


29

V-L’impact de l’essor des NTIC dans les PME et concurrence …………………  30

Conclusion ………………………………………………………………………………31

2
Introduction

3
Les nouvelles technologies de l’information et de la communication (NTIC) sont à
la base de l’économie du savoir. Elles permettent de stocker, traiter et diffuser un
volume croissant de données rapidement et sans coût de fonctionnement et elles
sont une source de plus en plus importante de gains de productivité.
Les nouvelles technologies de l’information et de la communication regroupent un
ensemble de ressources nécessaires pour manipuler de l’information et
particulièrement des ordinateurs et programmes nécessaires pour la convertir, la
stocker, le gérer, la transmettre et la retrouver. On peut regrouper les technologies
de l’information et de la communication par secteurs suivants : l’équipement
informatique : serveurs, matériels informatique ; la microélectronique et les
composants ; les télécommunications et les réseaux informatiques ; le
multimédia ; les services informatiques et les logiciels ; le commerce électronique
et les médias électroniques. Ce terme peut également désigner des techniques
telles que les Groupware et leur composante Workflow, l’architecture client-
serveur. Les NTIC sont un outil indispensable au service d’un politique de
ressource humaine déterminée pour les directions des ressources humaines,
surtout quand il s’agit d’une entreprise qui a déjà quelques dizaines d’employés.
Cependant ce n’est pas la solution miracle. Les logiciels utilisés pour la Gestion
des Ressources Humaines sont souvent destinés à des grosses entreprises (1000
salariés dans l’international ou 500 salariés dans le national).Par exemple, une
entreprise internationale peut avoir un logiciel avec des modules transnationaux
tandis que d’autres seront nationaux. Ainsi elle pourra facilement adapter sa
gestion des ressources humaines aux différentes législations nationales. Ce type
de logiciel ne concerne pas les PME-PMI. Ainsi dit, ces NTIC sont d’une
importance capitale au sein des entreprises du fait la dépendance de plus en plus
des entreprises vis-à-vis de ces dernières. Et surtout du rôle que les NTIC jouent
au sein des entreprises notamment des PME considérées comme étant le facteur
de développement des économies que l’on parle aussi bien des pays du Sud que
ceux du Nord. Avant considérées comme étant des simples outils favorisant la
circulation de l’information et tout au plus favorisant la communication,
aujourd’hui on va plus loin en voyant plutôt un outil de stratégique attisant la
concurrence, et marquant même la compétitivité entre entreprise sur le marché.
La question qui se pose est celle de savoir si ces NTIC participent au
développement des petites et moyennes entreprises et à quelle hauteur
participent t - elles à l’amélioration du chiffre d’affaire.
Il est clair que dans certains pays notamment ceux du tiers monde ces NTIC
n’influencent pas la croissance des PME au même titre que ceux du tiers monde,
du fait d’abord du montant d’investissement alloué aux NTIC et aussi de la
possibilité d’accès ou d’utilisation de ces dernières. Dans le monde où nous vivons
aujourd’hui, il est impossible de nier la présence ou tout au plus l’hégémonie de
ces NTIC dans nos économies, dans nos entreprises. Ainsi dit, en moyenne, les
pays de l’Union européenne dépensent un montant estimé à
6% du PIB dans les NTIC. Les industries de l’information et de la communication
croissent plus vite de 5 points de pourcentage que les autres secteurs en termes
réels et impulsent effectivement la croissance économique dans l’Union
européenne. Les industries des NTIC représentaient 4% de l’emploi de l’Union en
1997, et on estime qu’un emploi sur quatre est créé dans les NTIC ou des
secteurs connexes. Si on élargit le champ considéré pour embrasser les secteurs
dits «fondés sur le savoir», ils représentent environ un quart de l’emploi et sont
responsables du plus gros de la croissance des emplois ces dernières années. La
libéralisation du marché, associée à une innovation technologique de plus en plus
rapide, favorise la concurrence dans l’offre de télécommunications, ce qui abaisse

4
les coûts et renforce le choix et la qualité de service dans la plupart des régions de
l’Union. Le prix d’accès à Internet a fortement chuté dans un passé récent, mais
un prix élevé reste un obstacle à une utilisation plus large dans certains pays.
A travers notre travail nous essaierons de répondre à l’interrogation portant sur la
place des NTIC dans le développement des petites et moyennes entreprises.
Notre travail portera notamment sur une présentation historique de l’émergence
des nouvelles technologies de l’information et de la communication, de plus nous
présenterons quelques exemples d’utilisations des NTIC en insistant sur leur
apport pour les PME (intranet, extranet...Etc,) nous insisterons par la suite sur la
vieille stratégique et le travail collaboratif assisté par ordinateur , et quelques
statistiques du taux d’investissement alloué au financement des NTIC.

I. Historique de l’essor des NTIC

5
Cette partie de notre travail consistera notamment à présenter l’évolution
historique des nouvelles technologies de l’information et de la communication et
leur utilisation progressive au sein des petites et moyennes entreprises. Il s’agit
pour nous de présenter l’apparition progressive des premières technologies ayant
posées les bases des technologies d’information ; de plus nous insisterons aussi
sur l’histoire de la communication afin d’en faire le rapprochement par la suite.

A. Les faits historiques ayant posés les bases nécessaires pour


les premiers ordinateurs

1. les prémisses de l’informatique

Les prémisses de l’informatique sont apparues déjà dans les années 1580 avec
notamment l’invention par John NAPIER des logarithmes. De plus, cela est
accentué par la création de la machine d’arithmétique de Blaise Pascale connue
sous le nom de la Pascaline, pendant les années 1623-1662.
En 1883, la création pas Babbage d’une machine analytique devant fonctionner à
vapeur et comme un ordinateur va révolutionner les choses. En 1840 on a eu la
création par Ada Lovelace d’un processus d’exécution d’un programme appelé
algorithme.
En 1855, Herman Hollerith met en place le système de cartes perforées utilisées
sur des machines à tisser. Grâce à lui on a eu en 1911, la fondation de la
Computing Recording Corporation rebaptisée International Business Machines ou
IBM en 1924. IBM fabrique des machines électromécaniques rapides qui
calculent, trient et impriment les résultats sur de nouvelles cartes perforées.
Pendant près de 50 ans dans le monde entier, les machines d’IBM, sont utilisées
par des sciences mathématiques, les banques et le monde des affaires
notamment les entreprises.

2.. Le calculateur programmable

En 1937, Aiken va réaliser chez IBM un calculateur qui utilise des relais
électromagnétiques et des logarithmes.
En 1941 : on a eu la création de la calculateur binaire ABC utilisant l’algèbre de
Boole (qui stipule que tout processus peut être décomposé en une suite
d’opérations logiques ET, OU, NON), qui comporte une mémoire et des circuits
logiques, considérée parfois comme le premier vrai ordinateur, même si son
programme n’est pas stocké en mémoire.

3. L’ordinateur électronique numérique

6
Après la deuxième guerre mondiale notamment en 1946, l’armée américaine a
commandé la fabrication d’un ordinateur intégrateur numérique électronique, non
programmable appelé ENIAC.
1947 : invention des transistors
1957 : production du premier ordinateur d’IBM. IBM 701 pour la défense
américaine

4. L’ordinateur interactif communicant avec l’être humain

La période marquée par l’apparition de ce type d’ordinateur a été les années


60 /70. La révolution technologique est marquée par la création du code ASCII
(American code for Information Interchange), réaction du langage Pascal par
Niklaus Wirth, par la création de MICRAL le premier micro-ordinateur vendu tout
assemblé, par la création du Basic qui devient le premier langage sur micro.
Les années 1980, sont marquées par la révolution de l’industrie des logiciels, on a
notamment le développement du Windows system, un logiciel capable de gérer
plusieurs écrans sur une même machine, cette nouvelle technologie permettre de
répondre de façon plus efficace aux attentes des entreprises. Toujours pendant la
même période, on l’écriture du premier logiciel de bases de données pour micro-
ordinateur : dbase II (Wayne Ratliff, ingénieur à la NASA). De plus Microsoft
présente sa nouvelle interface graphique MICORSOFT WINDOWS 1.0.Ainsi donc
grâce à la baisse des prix, l’ordinateur se met à la portée de l’utilisateur sans
nécessiter d’apprentissage préalable. L’informatique fait partie intégrante de la vie
quotidienne. De ce fait, dans chaque domaine où il s’est inséré, l’ordinateur trouve
quotidiennement un rôle nouveau (médecine, en médias, en gestion des
entreprises notamment en cette période là les grandes entreprises et plus tard des
petites et moyennes entreprises).

B. Histoire des communications

1. Les vecteurs de l’information

Ces vecteurs ont pour rôle notamment de transmettre une information


communément connue. Comme vecteurs de l’information, on distingue l’écriture
qui est la représentation de la pensée par des signes graphiques conventionnels.
De plus, l’image sous ses multiples formes accompagne l’écriture depuis toujours.
Et enfin nous avons le son sous sa forme de langage codé ou non. Dès le moment
où ces médias peuvent être enregistrés sur un support et reproduits ou
communiqués, ils deviennent des vecteurs de l’information. Des vecteurs de la
communication comme ARPANET considéré comme le réseau précurseur de
l’internet fut créé en 1969. Et plus tard l’internet fut crée en 1972 avec notamment
la mise en place d’un mode de communication : le courrier électronique. En juillet
de la même année , on a eu le développement de ce mode de communication
permettant de lister , de lire de manière sélective , d’archiver , de répondre ou de
faire suivre les e-mail. Bien plus tard au XX e siècle, c’est l’émergence des
réseaux de communication comme l’intranet favorisant la communication
d’information entre les collaborateurs d’une même entreprise favorisant la fluidité
de l’information au sein de l’entreprise se fait ressentir. De plus, l’émergence de

7
l’extranet favorisant la communication entre les collaborateurs d’entreprises
différentes permettant ainsi à l’une de disposer d’information de l’autre favorisant
la croissance des deux entreprises. Ces technologies prennent de l’importance
dans les entreprises et au point où on ne peut plus s’en passer.

2. les supports de l’information

Déjà jadis, la persistance du savoir dépend alors de la solidité du support auquel


il est convié. Les moyens de reproduire et de multiplier l’information ont été
inventés plus tard il y’a 500 ans seulement pour l’écriture, au XIIIV siècle, pour le
son tandis que l’homme écrit depuis huit fois plus longtemps. Enfin, les
codifications, elles même ont été déclinées de toutes les manières selon les
époques les cultures et les outils.
Entre la pierre et l’ordinateur, entre le messager et les réseaux numériques, il s’est
écoulé 4000 ans seulement. On parle aujourd’hui d’autoroutes de l’information.

C. L’essor des nouvelles technologies de l’information et de la


communication

L’émergence des nouvelles technologies de l’information et de la communication,


glissement du solide vers le fluide en termes de circulation d’information,
concomitant à l'essor des TIC, Simon Nora et Alain Minc l'avaient pressenti dès
1978, à l'aube de la télématique. Dans leur rapport sur L'informatisation.
Ces méthodes ont servi dès les années 1980 de modèles à l'ensemble des
approches procédurales qui se sont développées par la suite dans le « nouveau
management » et dont les nouvelles technologies de l'information et de la
communication (NTIC) ont favorisé l'essor.
L'essor, à partir des années 1990, des nouvelles technologies de l'information et
de la communication (NTIC) a fondamentalement changé le rôle de l'informatique
au sein de l'Etat et des entreprises. L'évolution technologique a notamment permis
la rationalisation des méthodes de travail.
Des années de croissance impressionnante ont pris fin abruptement lorsque la
demande globale d'investissement dans l'infrastructure des TIC s'est évanouie
vers la fin de 2000. L'effet sur bon nombre des fabricants du secteur des TIC a été
dévastateur.
En 2004, Une belle histoire, sur le déclin, avec des effectifs industriels en baisse
constante. Mais, pour l'avenir, Besançon compte toujours sur Un point plutôt
faible à l'échelle de l'Hexagone, mais spécialité du coin. En phase avec l'essor de
la micromécanique industrielle locale.
En 2005 L'utilisation des nouvelles technologies de l'information et de la
communication (NTIC) rythme aujourd'hui la vie de tous les jours. Les NTIC sont
devenues incontournables et font désormais partie de notre quotidien.

8
En 2006, Les sociétés chinoises investissent massivement dans des entreprises
européennes, histoire d'acquérir certaines technologies, Les dépenses liées aux
TIC dans les pays en dehors de l'OCDE sont surtout portées par le hardware.
2009 est Peut-être la plus importante de l'histoire de l'humanité : celle des
nouvelles technologies de l'information et de la communication. Ce salon sera
l'occasion d'exposer certains des projets pilotes en matière de NTIC comme le
premier centre communautaire.

II. Exemples d’utilisations des NTIC en entreprise  : Intranet et


Extranet et Internet

A. Intranet

1. Définition

Un intranet est un ensemble de services internet (par exemple un serveur web)


internes à un réseau local, c'est-à-dire accessibles uniquement à partir des postes
d'un réseau local, ou bien d'un ensemble de réseaux bien définis, et invisibles (ou
inaccessibles) de l'extérieur. Il consiste à utiliser les standards client-serveur de
l'internet (en utilisant les protocoles TCP/IP), comme par exemple l'utilisation de
navigateurs internet (client basé sur le protocole HTTP) et des serveurs web
(protocole HTTP), pour réaliser un système d'information interne à une
organisation ou une entreprise.

Un intranet repose généralement sur une architecture à trois niveaux, composée :


 de clients (navigateur internet généralement) ;

9
 d'un ou plusieurs serveurs d'application (middleware): un serveur web
permettant d'interpréter des scripts CGI, PHP, ASP ou autres, et les traduire en
requêtes SQL afin d'interroger une base de données ;
 d'un serveur de bases de données.
 De cette façon, les machines clientes gèrent l'interface graphique, tandis que
les différents serveurs manipulent les données. Le réseau permet de véhiculer les
requêtes et les réponses entre clients et serveurs.

Un intranet possède naturellement plusieurs clients (les ordinateurs du réseau


local) et peut aussi être composé de plusieurs serveurs. Une grande entreprise
peut par exemple posséder un serveur web pour chaque service afin de fournir un
intranet composé d'un serveur web fédérateur liant les différents serveurs gérés
par chaque service. Ce qui n’est pas forcément le cas pour une PME.

2. L'utilité d'un intranet

Un intranet dans une entreprise permet de mettre facilement à la disposition des


employés des documents divers et variés; cela permet d'avoir un accès centralisé
et cohérent à la mémoire de l'entreprise, on parle ainsi de capitalisation de
connaissances. De cette façon, il est généralement nécessaire de définir des
droits d'accès pour les utilisateurs de l'intranet aux documents présents sur celui-
ci, et par conséquent une authentification de ceux-ci afin de leur permettre un
accès personnalisé à certains documents.
Des documents de tous types (textes, images, vidéos, sons, ...) peuvent être mis à
disposition sur un intranet. De plus, un intranet peut réaliser une fonction de
Groupware très intéressante, c'est-à-dire permettre un travail coopératif.
Voici quelques unes des fonctions qu'un intranet peut réaliser :

 Mise à disposition d'informations sur l'entreprise (panneau d'affichage)


 Mise à disposition de documents techniques
 Moteur de recherche de documentations
 Un échange de données entre collaborateurs
 Annuaire du personnel
 Gestion de projet, aide à la décision, agenda, ingénierie assistée par
ordinateur
 Messagerie électronique
10
 Forum de discussion, liste de diffusion, chat en direct
 Visioconférence
 Portail vers internet
 Ainsi, un intranet favorise la communication au sein de l'entreprise et limite
les erreurs dues à la mauvaise circulation d'une information. L'information
disponible sur l'intranet doit être mise à jour en évitant les conflits de version.

3. Avantages d'un intranet

Un intranet permet de constituer un système d'information à faible coût


(concrètement le coût d'un intranet peut très bien se réduire au coût du matériel,
de son entretien et de sa mise à jour, avec des postes clients fonctionnant avec
des navigateurs gratuits, un serveur fonctionnant sous Linux avec le serveur web
Apache et le serveur de bases de données MySQL).
D'autre part, étant donné la nature "universelle" des moyens mis en jeu, n'importe
quel type de machine peut être connecté au réseau local, donc à l'intranet.

4. Mise en place de l'intranet

Un intranet doit être conçu selon les besoins de l'entreprise ou de l'organisation


(au niveau des services à mettre en place). Ainsi, l'intranet ne doit pas être conçu
par les seuls informaticiens de l'entreprise mais selon un projet prenant en compte
les besoins de toutes les parties prenant de l'entreprise.
Pour ce qui est de la mise en place matérielle, il suffit de mettre en place un
serveur web (par exemple une machine fonctionnant sous Linux avec le serveur
web Apache et le serveur de bases de données MySQL ou bien un serveur sous
Windows avec le serveur web Microsoft Internet Information Server). Il suffit
ensuite de configurer un nom de domaine pour le serveur (par exemple
intranet.votre_entreprise.com. Il est à noter l'existence de CMS (systèmes de
gestion de contenu) permettant de gérer la publication des pages par une équipe
de rédacteurs

 B. Extranet

Un extranet est une extension du système d'information de l'entreprise à des


partenaires situés au-delà du réseau.
L'accès à l'extranet doit être sécurisé dans la mesure où cela offre un accès au
système d'information à des personnes situées en dehors de l'entreprise.
Il peut s'agir soit d'une authentification simple (authentification par nom
d'utilisateur et mot de passe) ou d'une authentification forte (authentification à
l'aide d'un certificat). Il est conseillé d'utiliser HTTPS pour toutes les pages web
consultées depuis l'extérieur afin de sécuriser le transport des requêtes et des
réponses HTTP et d'éviter notamment la circulation du mot de passe en clair sur le
réseau.
Un extranet n'est donc ni un intranet, ni un site internet. Il s'agit d'un système
supplémentaire offrant par exemple aux clients d'une entreprise, à ses partenaires

11
ou à des filiales, un accès privilégié à certaines ressources informatiques de
l'entreprise par l'intermédiaire d'une interface Web.

C. Internet

1. Définition et historique

a. définition

Le terme d'origine américaine « Internet » a été dérivé du concept d'internetting


(en français, « interconnecter des réseaux ») dont la première utilisation
documentée remonte à octobre 1972 par Robert E. Kahn au cours de la première
ICCC (International Conférence on Computer Communications) à Washington.
Différents noms sont parfois considérés comme ancêtres du terme « Internet » :
internetting, interconnected networks, internetworking, internetwork, international
inter-connected networks, Inter Net, inter-net et International Network. Toutefois,
les origines exactes du terme Internet restent à déterminer. Ce flou a favorisé
l'apparition de multiples explications faisant office d'origine. En 2008, ceux qui
prétendent connaître l'origine du terme sont légion (un exemple courant est
d'affirmer qu'« Internet » est l'acronyme d'interconnected networks). Toutefois,
c'est le 1er janvier 1983 que le nom Internet, déjà en usage pour désigner
l'ensemble d'ARPANET et plusieurs réseaux informatiques, est devenu officiel.
En anglais, on utilise un article défini et une majuscule, ce qui donne the Internet.
Cet usage vient du fait que « Internet » est de loin le réseau le plus étendu, le plus
grand « internet » du monde, et donc, en tant qu'objet unique, désigné par un nom
propre. Un internet (un nom commun avec « i » minuscule) est un terme d'origine
anglaise utilisé pour désigner un réseau constitué de l'interconnexion de plusieurs
réseaux informatiques au moyen de routeurs.
La définition de ce qu'est Internet n'est pas évidente à expliciter de manière
précise sans entrer dans les détails techniques, ce qui tend à une vulgarisation de
la définition et facilite les confusions et imprécisions en français. Une des
confusions les plus courantes porte sur le Net (en français « réseau ») et le web
(en français « toile [d'araignée] »). En réaction à l'importance croissante du
« phénomène Internet » et la prolifération de termes relatifs à ce phénomène dans
le langage, il y a eu diverses publications au Journal officiel de la République
française. L'une d'elle indique qu'il faut utiliser le mot « Internet » comme un nom
commun, c'est-à-dire sans majuscule. L'Académie française recommande de dire
« l'internet », comme on dit souvent « le web ». Bien que beaucoup, en français,
écrivent le mot avec une majuscule et sans article, il ne saurait être question de
parler d'usage, et il existe beaucoup de controverse sur le sujet entre les partisans
de « l'Internet », d'« Internet » et de « l'internet »2.
L'usage courant fait référence à Internet de différentes manières. Outre les
recommandations officielles, il n'est pas rare de rencontrer les termes suivants :
« le Net » ou « le net », « Internet », « l'internet », « le réseau des réseaux » ou
plus simplement « le réseau » et « le Réseau » décliné parfois en « Le réseau ».
Certains termes sont utilisés à tort pour faire référence à Internet, par exemple :
« la Toile », « le web » ou « le Web » (the Web en anglais), mais cela désigne le
World Wide Web, c'est-à-dire le réseau hypertexte utilisant Internet, et non pas
Internet. Cette confusion entre web et net existe aussi en anglais.

12
b .Historique

Les mémos que Licklider du Massachusetts Institute of Technology (MIT) écrivit


en juillet 1962 sont les plus anciens textes décrivant les interactions sociales qui
seraient possibles avec un réseau d'ordinateurs. Cela devait notamment faciliter
les communications entre chercheurs de la Defense Advanced Research Projects
Agency (DARPA). En octobre 1962, Licklider fut le premier chef du programme de
recherche en informatique de la DARPA. Il persuada ses successeurs Ivan
Sutherland, Bob Taylor et le chercheur du MIT Lawrence G. Roberts de l'intérêt
des réseaux informatiques.
En 1961, Leonard Kleinrock du MIT publia le premier texte théorique sur les
télécommunications par paquets et en 1964 il publia le premier livre sur le sujet.
En 1965, Roberts testa avec Thomas Merrill la première connexion informatique à
longue distance, entre le Massachusetts et la Californie. Le résultat montra que
des ordinateurs pouvaient travailler ensemble à distance, mais que le mode de
télécommunication par établissement de circuit du système téléphonique était
inadapté. Le concept de communication par paquets de Kleinrock s'imposa.
En 1966, Roberts fut engagé par Taylor à la DARPA pour concevoir l'ARPANET. Il
publia les plans en 1967. En présentant ce texte, il découvrit deux autres groupes
de chercheurs travaillant indépendamment sur le même sujet : un groupe du
National Physical Laboratory (NPL) du Royaume-Uni avec Donald Davies et
Roger Scantlebury, et un groupe de la RAND Corporation avec Paul Barran.
Entre 1962 et 1965, le groupe de la RAND avait étudié la transmission par
paquets pour l'armée américaine. Le but était de pouvoir maintenir les
télécommunications en cas d'attaque (éventuellement nucléaire), ce que permet
une transmission par paquets dans un réseau non centralisé. Il s'agissait d'un
développement indépendant d'ARPANET : bien que probablement robuste face à
une telle attaque, ARPANET n'a pourtant été conçu que pour faciliter les
télécommunications entre chercheurs. Le rapport de Paul Baran est resté
purement théorique, et est rapidement tombé dans l'oubli. Mais le mythe
d'« ARPANET comme dernier rempart à une attaque atomique » trouve là son
origine.
Pendant ce temps, au British National Physical Laboratory, l'équipe de Donald
Davies avait progressé : NPL Network, le premier réseau maillé fondé sur la
transmission de datagrammes (packets) était fonctionnel. Mais l'histoire d'Internet
n'a pas été écrite par les Européens : ARPANET sera désormais l'origine officielle
d'Internet.
En août 1968, la DARPA accepta de financer le développement du matériel de
routage des paquets d'ARPANET. Ce développement fut confié en décembre à un
groupe de la firme Bolt, Beranek and Newman (BBN) de Boston. Ce dernier
travailla avec Bob Kahn sur l'architecture du réseau. Roberts améliorait les
aspects topologiques et économiques du réseau. Kleinrock préparait des
systèmes de mesures du réseau.
En septembre 1969, BBN installa le premier équipement à l'UCLA où travaillait
Kleinrock. Le second nœud du réseau fut installé au Stanford Research Institute
(SRI) où travaillait Douglas Engelbart sur un projet d'hypertexte. Deux nœuds
supplémentaires furent ajoutés avec l'université de Santa Barbara et l'université
d'Utah. Fin 1969, ARPANET comptait donc quatre nœuds.
Le Network Working Group (NWG) conduit par Steve Crocker finit le protocole de
communication poste-à-poste NCP en décembre 1970. Ce protocole fut adopté

13
entre 1971 et 1972 par les sites branchés à ARPANET. Ceci permit le
développement d'applications par les utilisateurs du réseau.
En 1972, Ray Tomlinson mit au point la première application importante : le
courrier électronique. En octobre 1972, Kahn organisa la première démonstration
à grande échelle d'ARPANET à l'International Computer Communication
Conference (ICCC). C'était la première démonstration publique.
Le concept d'Internet est né d'ARPANET. L'idée était de permettre la connexion
entre des réseaux divers : ARPANET, des communications avec les satellites, des
communications par radio. Cette idée fut introduite par Kahn en 1972 sous le nom
de Internetting. Le protocole NCP d'ARPANET ne permettait pas d'adresser des
hôtes hors d'ARPANET ni de corriger d'éventuelles erreurs de transmission. Kahn
décida donc de développer un nouveau protocole, qui devint finalement TCP/IP.
En parallèle, un projet inspiré par ARPANET était dirigé en France par Louis
Pouzin : le projet Cyclades. De nombreuses propriétés de TCP/IP ont ainsi été
développées, plus tôt, pour Cyclades. Pouzin et Kahn indiquent que TCP/IP a été
inspiré par Cyclades.
En 1973, Kahn demanda à Vint Cerf (parfois appelé le père d'Internet) de travailler
avec lui, car Cerf connaissait les détails de mise en œuvre de NCP. Le premier
document faisant référence à TCP est écrit en 1973 par Cerf : A Partial
Specification of an International Transmission Protocol. La première spécification
formelle de TCP date de décembre 1974, c'est le RFC 675.
La version initiale de TCP ne permettait que la communication en établissant un
circuit virtuel. Cela fonctionnait bien pour le transfert de fichiers ou le travail à
distance, mais n'était pas adapté à des applications comme la téléphonie par
Internet. TCP fut donc séparé de IP et UDP proposé pour les transmissions sans
établissement d'un circuit.
À la fin des années 1980, la NSF (National Science Foundation) qui dépend de
l'administration américaine, met en place cinq centres informatiques
Surpuissants, auxquels les utilisateurs pouvaient se connecter, quel que soit le
lieu où ils se trouvaient aux États-Unis : ARPANET devenait ainsi accessible sur
une plus grande échelle. Le système rencontra un franc succès et, après la mise à
niveau importante (matériels et lignes) à la fin des années 1980, s'ouvrit au trafic
commercial au début des années 1990.
Le début des années 1990 marque, en fait, la naissance d'Internet tel que nous le
connaissons aujourd'hui : le web, un ensemble de pages en HTML mélangeant du
texte, des liens, des images, adressables via une URL et accessibles via le
protocole HTTP. Ces standards, développés au CERN par Tim Berners-Lee
devinrent rapidement populaires grâce au développement au NCSA par Marc
Andreessen et Éric Bina du premier navigateur multimédia Mosaic.
En janvier 1992, l’Internet Society (ISOC) voit le jour avec pour objectif de
promouvoir et de coordonner les développements sur Internet. L’année 1993 voit
l’apparition du premier navigateur Web ou butineur (browser), supportant le texte
et les images. Cette même année, la National Science Foundation (NSF) mandate
une compagnie pour enregistrer les noms de domaine.
Gouvernance .Selon la définition du groupe de travail sur la gouvernance
d'Internet, il faut entendre par « gouvernance de l’Internet » l’élaboration et
l’application par les États, le secteur privé et la société civile, dans le cadre de
leurs rôles respectifs, de principes, normes, règles, procédures de prise de
décisions et programmes communs propres à modeler l’évolution et l’usage de
l’Internet.
Les registres de métadonnées sont importants dans l'établissement de règles
d'accès aux ressources web qui utilisent les Uniform Resource Identifiers (qui

14
peuvent être les URL qui s'affichent sur la barre de navigation de l'ordinateur
personnel).Un certain nombre d'organismes sont chargés de la gestion d'Internet,
avec des attributions spécifiques. Ils participent à l'élaboration des standards
techniques, l'attribution des noms de domaines, des adresses IP, etc. :
 Internet Corporation for Assigned Names and Numbers (ICANN), sous la tutelle
du ministère du Commerce américain ;
 Internet Engineering Task Force (IETF) 
 Internet Society (ISOC). Dans un but de maintenir ou d'élargir la neutralité
des réseaux, mais aussi d'engager les diverses parties globales dans un dialogue
sur le sujet de la gouvernance, les Nations unies ont convoqué :
 Le Sommet mondial sur la société de l'information ;
 Le Forum sur la gouvernance de l'Internet.

2. Aspects juridiques

Le droit d'Internet regroupe l'ensemble des règles de droit applicables au réseau


Internet.
Il n'existe pas de droit spécifique à Internet, mais plutôt une application du droit
commun au réseau Internet, avec cependant l'apparition d'aménagements de
certaines législations nationales afin de prendre en compte ses particularités (ex.
en France : la Loi pour la confiance dans l'économie numérique (LCEN) du
21 juin 2004).
Selon Benjamin Bayart, activiste pour la neutralité de réseaux, l'avis du Conseil
Constitutionnel rendu le 10 juin 2009 confirme qu'« Internet est essentiel à
l’exercice de la liberté d’expression ».L'application du droit sur Internet est rendue
difficile pour deux raisons principales :

 Le réseau Internet est international, or le droit est généralement national. sous


le couvert du réseau Internet, il est souvent difficile d'identifier les utilisateurs, et
donc les responsables d'infractions.
 Internet soulève notamment des questions de droit relatives à la propriété
intellectuelle (droit d'auteur, droit des marques, etc.), au droit de la presse et des
publications (infractions de presse, injure, diffamation, incitation à la haine raciale,
etc.), au droit à l'image, mais aussi depuis le développement du web commercial,
au droit de la publicité, au droit du commerce, etc.

3. Techniques

Internet est composé d'une multitude de réseaux répartis dans le monde entier.
Chaque réseau est rattaché à une entité propre (université, fournisseur d'accès à
Internet, armée) et se voit attribuer un identifiant unique appelé Autonomous
System (AS). Afin de pouvoir communiquer entre eux, les réseaux s'échangent
des données, soit en établissant une liaison directe, soit en se rattachant à un
nœud d'échange (point de peering).
Chaque réseau est donc connecté à plusieurs autres réseaux. Lorsqu'une
communication doit s'établir entre deux ordinateurs appartenant à des AS
différents, il faut alors déterminer le chemin à effectuer parmi les réseaux. Aucun
élément d'Internet ne connaît le réseau dans son ensemble, les données sont
simplement redirigées vers un autre nœud selon des règles de routage.

15
Des chercheurs israéliens de l'université Bar-Ilan ont déclaré après avoir analysé
les nœuds reliant l'ensemble des sites qu'Internet est un réseau méduse. Ils la
définissent comme ayant un cœur dense connectés à une multitude d'autres sites,
qui ne sont reliés entre eux que par ce cœur, semblable à un maillage à structure
fractale. Cette zone permet à 70 % du réseau de rester connecté sans passer par
le cœur. Les chercheurs indiquent donc cette zone comme piste pour désengorger
le trafic, en répartissant mieux les sites de cette zone.Connexions grand public
Aller sur Internet nécessite un accès IP. Pour cela, l'utilisateur emploie le matériel
et logiciels suivants :

 Un ordinateur personnel ou tout autre équipement terminal d'un réseau :


 Assistant personnel
 Câble
 Console de jeux vidéo
 Téléphone mobile
 Un canal de communication :
 Fibre optique
 Ligne téléphonique fixe : ligne analogique, xDSL
 Ligne téléphonique mobile : 3G+, 3G, Edge, GPRS, GSM (CSD)
 Internet par satellite
 Wi-Fi
 Un système (logiciel/matériel) client pour le protocole réseau utilisé (PPP,
PPPoX, Ethernet, ATM, etc.)

 Un fournisseur d'accès à Internet (FAI) (en anglais ISP pour Internet Service
Provider)

 Des logiciels sont, eux, nécessaires pour exploiter Internet suivant les
usages :

 Courrier électronique : un client SMTP et POP (ou POP3) ou IMAP (ou IMAP4)
 Transferts de fichiers : un client ou un serveur FTP (File Transfert Protocol)
 World Wide Web : un navigateur Web
 Pair à pair : l'un des nombreux logiciels de P2P en fonction de l'usage (partage
de fichiers en pair à pair, Calcul distribué, P2P VoIP, etc.)

4. Protocoles

Internet fonctionne suivant un modèle en couches, calqué sur le modèle OSI. Les
éléments appartenant aux mêmes couches utilisent un protocole de
communication pour s'échanger des informations.
Un protocole est un ensemble de règles qui définissent un langage afin de faire
communiquer plusieurs ordinateurs. Ils sont définis par des normes ouvertes, les
RFC.Chaque protocole a des indications particulières et, ensemble, ils fournissent
un éventail de moyens permettant de répondre à la multiplicité et à la diversité des
besoins sur Internet.
Les principaux sont les suivants :

16
 IP (Internet Protocol) : protocole réseau qui définit le mode d'échange
élémentaire entre les ordinateurs participants au réseau en leur donnant une
adresse unique sur le réseau.
 TCP : responsable de l'établissement de la connexion et du contrôle de la
transmission. C'est un protocole de remise fiable. Il s'assure que le destinataire a
bien reçu les données, au contraire d'UDP.
 HTTP (HyperText Transfer Protocol) : protocole mis en œuvre pour le
chargement des pages web.
 HTTPS : pendant du HTTP pour la navigation en mode sécurisé.
 FTP (File Transfer Protocol) : protocole utilisé pour le transfert de fichiers sur
Internet.
 SMTP (Simple Mail Transfer Protocol) : mode d'échange du courrier
électronique en envoi.
 POP3 (Post Office Protocol version 3) : mode d'échange du courrier
électronique en réception.
 IMAP (Internet Message Access Protocol) : un autre mode d'échange de
courrier électronique.
 IRC (Internet Relay Chat) : protocole de discussion instantanée.
 NNTP (Network News Transfer Protocol) : protocole de transfert de message
utilisé par les forums de discussion Usenet
 SSL ou TLS : protocoles de transaction sécurisée, utilisés notamment pour le
paiement sécurisé.
 UDP : permet de communiquer, de façon non fiable mais légère, par petits
datagrammes.
 DNS (Domain Name System) : système de résolution de noms Internet.
 ICMP (Internet Control Message Protocol) : protocole de contrôle du protocole
IP.
Indépendamment du transfert entre deux points, les passerelles doivent pouvoir
s'échanger des informations de routage. IGP (Interior Gateway Protocol), EGP
(Exterior Gateway Protocol) et BGP (Border Gateway Protocol) satisfont ce
besoin.

III- L’apport de la veille stratégique dans les PME

Aujourd’hui l'enjeu d’une entreprise est sa survie. Désormais, seules les


entreprises qui franchiront un seuil qualitatif important dans leur capacité à prévoir
les marchés, sèmeront les besoins potentiels, identifieront les innovations
technologiques, anticiperont les modifications de comportement des acteurs
économiques, politiques et sociaux pourront prétendre maintenir leur compétitivité.
Des questions importantes sont alors posées : il faut définir l'environnement
pertinent, identifier les sources, détecter, analyser, diffuser l'information recueillie,
organiser et formaliser l'activité de veille. Mais pour assurer les besoins, les
entreprises doivent être capables de mettre en place un ensemble de capteurs
sensibles jusqu’aux signaux faibles. En effet, ce qui caractérise la collecte
d'information, c'est qu'elle est souvent fragmentaire et qu'il est donc important de
bien l'analyser.
Mais, un problème se pose alors pour les petites structures que sont les PME-
PMI. Pour de telles entreprises aux faibles moyens, des barrières à la mise en
place d'un système de veille se dressent. Une prestation de veille pour ces
17
structures à des prix spécialement étudiés leur permettrait de contourner ces
obstacles et de bénéficier ainsi des services offerts par une cellule de veille.

A .Définition et Objectif
   
1. Définitions

La veille stratégique peut être définie par :


« L’observation et l’analyse de l’environnement scientifique, technique,
technologique et économique de l’entreprise pour en détecter les menaces et
saisir les opportunités de développement » David Coudol.
Détecter les menaces : mieux vaut prévenir que de guérir. Il est indispensable à
une entreprise qui veut être présente sur le marché de connaître les risques
qu’elle peut rencontrer par rapport à son domaine d’activité. Cette équation, je
dirais même ce postulat, de risques/prévention permettra s’il est bien « calculé de
saisir les opportunités de développement : créer de nouveaux produits, devenir
plus performant, mieux vendre, et surtout d’obtenir un avantage compétitif ». Une
veille peut donner à l’entreprise un avantage compétitif relativement durable, car
pour que les concurrents puissent se mettre à niveau il faudrait qu’ils développent
leurs produits ou services afin qu’ils soient aussi compétitifs à voir plus compétitifs.
 

 2. Objectifs

La veille met en jeu les observateurs, les experts et les décideurs.


La veille va permettre d’identifier et de collecter des informations qui s'adressent
aux décideurs de l'entreprise. Elle va permettre à l'entreprise de :
Comparer son savoir faire et le développer.
Choisir un projet.
Mettre en place un projet d'innovation.
Recentrer ou au contraire diversifier les activités de l'entreprise.
Acheter ou vendre des licences.
 Comparer son savoir faire et le développer : quel est l’état de la
concurrence dans le domaine d’activité de notre entreprise ?. A quel niveau
d’innovation et de recherche sont arrivés les entités recherche et développement
(R&D) concurrentes ? Cette « étude » nous permettra d’évaluer notre position au
niveau de la recherche, ainsi nous pourrions réorienter ou continuer notre politique
de R&D.
 Choisir un projet : il nous faut vendre, prendre des parts du marché, cibler
et atteindre une plus grande clientèle. Quel produit, devrons-nous, mettre sur le
marché pour séduire le client ? Notons que ce produit peut ne pas être inscrit dans
la politique de l’entreprise, dans ce cas là on parlera de diversification des activités
de l’entreprise.
 Mettre en place un projet d'innovation : il existe déjà, sur le marché, un
produit qui séduit le client . Pourquoi ? Comment ? Où ? Par qui ? Combien ? Il
faudrait le reprendre pour le modifier, le développer, l’INNOVER ! Le rendre plus
performant, plus ergonomique, plus efficace et si possible moins cher.
 Recentrer ou au contraire diversifier les activités de l'entreprise : le produit
ciblé rentre dans la politique de l’entreprise : il faut centrer les activités sur lui pour
mieux vendre. Le produit ne rentre pas dans la politique de l’entreprise mais peut

18
être exploité par l’entreprise : il faudra mettre en place d’autres activités dans le
but toujours de vendre.

Acheter ou vendre des licences : l’entreprise ne pourrait supporter les frais de


recherche et de développement sur le produit ciblé. De plus d’autres sociétés sont
déjà bien avancées dans ce domaine et ont préalablement déposé un ou plusieurs
brevets sur leurs innovations. Il vaudrait mieux acheter une licence et exploiter les
résultats obtenus.

B.Les sources d’information en veille

Les besoins en information identifiés, il faut passer à la phase de collecte de


l’information. C’est là ou se pose la question mais quelle source d’information
choisir ?
 
1. Sources formelles

Composées principalement de la presse, la télévision, la radio, les livres, banques


de donnée et CD-ROM, les brevets, les informations légales, les études publiques
réalisée par des prestataires publics ou privés.
Avantages :
 Une source d’information sûr et assez exhaustive;
 Elles ont un faible coût (sauf le cas de brevets et de certaines banques de
données) ;
 Disponibilité de la source ;
 Facile d’accès.
 Inconvénients :
 L’information est « mise en scène » pour qu’elle se vende ;
 Risque, parfois, de trouver une information obsolète ;
 On ne retrouve pas toujours ce que l’on souhaite rechercher.

2. Sources informelles

Dans ce type de source, l’individu doit se déplacer, passer du temps, sentir,


toucher et percevoir l’information qu’elles procurent.
Elles sont variées. Citons :
Les expositions et les salons : on n’a généralement pas assez de temps, dans ce
genre de manifestation, de collecter suffisamment d’information. De plus la
quantité et la densité ne font qu’accentuer le problème. Etant donné que de telles
visites et missions se préparent avant le départ, le tout serait de bien savoir gérer
son temps et d’avoir élaborer un emploi du temps pour pouvoir gérer les activités
et les visites sur place.

 Les fournisseurs : il ne faut pas oublier que le même fournisseur peut être aussi
celui du concurrent. Il faudra donc pouvoir et savoir exploiter cette donnée.
Les colloques, les congrès, les clubs : on y échange des informations, on y est
communique. L’information qui y circule peut être d’une grande valeur stratégique.

19
Il ne faut pas hésiter à faire de nouvelles connaissances, de nouveaux contacts
qui peuvent former un réseau personnel.
 les concurrents : ils organisent des portes ouvertes, font des communications
commerciale et financière, publient un journal interne, peuvent devenir nos
fournisseurs ou nos client, il peut y avoir un échange mutuel d’informations.
Les sources internes de l’entreprise : 80% des informations que recherche un
décideur se trouve dans son entreprise Il serait donc très important d’avoir et de
nouer des contacts internes aux entreprises de manière à savoir ce qui y se
passe.
 certains sites web : des sites personnels, des études et recherche menées par
un groupe d’étudiants ou de thésard, etc.
 les réseaux personnels : le cousin, l’ami commerciale de chez X, le
représentant de Y, le voisin qui travaille chez Z, l’écoute, « par hasard », d’une
conversation dans un avion, un train, lors d’un dîner…Dans la limite de la légalité
et de la déontologie.

3. Démarche de la veille

  
 Définition des thèmes de veille
 Recherche, collecte
 Analyse, traitement, validation
 Diffusion, utilisation

a. Définition des thèmes de veille

En premier lieu, il s'agit de définir les thèmes de surveillance, c'est-à-dire les


champs d'investigation de la veille technologique. Ceux-ci correspondent bien
entendu aux principales préoccupations et à la politique de l’entreprise : Ex : une
société qui fabrique des robots ménagers s’intéressera au développement de
l'électronique, de la mécanique, etc. Avec la collaboration des acteurs de la R&D,
on recensera les multiples thèmes technologiques relatifs aux travaux en cours,
qui reflètent leurs préoccupations à court et moyen termes et représentent des
enjeux majeurs pour la société. Les axes de veille sont ensuite hiérarchisés en
fonction des priorités stratégiques de l'entreprise. Il faudra aussi déterminer elles
sont les informations concrètement attendue pour chacun des thèmes retenus.
  

b. recherche et collecte

Il faudra interroger les sources d’informations correspondantes aux thèmes de


veille définies.
La recherche et la collecte d’informations se fera sur :
 Les périodiques scientifiques et technique, économique, de gestion :
Consultables dans la plupart des bibliothèques des organismes universitaires,
publiques ou privés. On peut les lire presque partout. Ex : Physical Review,
Chemical Abstracts, Current Contents, etc.
 Les livres et les encyclopédies : les livres ne donnent pas les éléments
d’informations les plus récent en raison du délai de publication) mais fournissent
20
des synthèses et des analyses assez intéressantes. Les encyclopédies
représentent une source d’informations très riche mais le coût d’acquisition des
collections est assez élevé. Cependant les plus grandes d’entre elles sont
accessibles en ligne ce qui intéresserait les petites « entreprises ». Elles
commencent également à être diffuser sur CD-ROM. Ex : Encyclopédie
Universalis, Larousse, etc.
 Les Brevets : 80 % de l'information technique n'est publiée que dans les
brevets. Ils permettent de comprendre la politique de développement
technologique des concurrents. La surveillance des brevets permet également
d'évaluer la propriété, la liberté d'exploitation d'un produit ou d'une technique. Le
contenu informatif du brevet est exploité pour les applications suivantes :
 Surveillance de la concurrence : être au courant des brevets publiés :
Connaître les domaines techniques les plus prisés, Connaître les domaines
protégés pour savoir exploiter. Autres moyens de recherche et collecte :
 Les Bases de Données : de grandes quantités d’informations de plusieurs types
sont stockés dans des bases de données. Disponible sous format électronique, on
peut, rapidement, accéder à l’information. Cependant et avant de trouver ce que
l’on recherche il faudra d’abord passer par une étape de formulation de l’équation
de recherche, ce qui n’est généralement pas évident pour des non spécialistes de
l’information.
L’équation de recherche appelée aussi équation logique est, comme son nom
l’indique, une structure de termes et/ou de signes que comprend le serveur
d’information auquel appartient la ou les bases de données que l’on veut
interroger. L’équation logique peut comporter : des mots-clés, des descripteurs,
des noms de personnes auteurs ou inventeurs, des noms d’organismes, des
codes et des signes (+, *, ‘’, and, etc.), etc.
 Les congrès, colloques, expositions, foires : source d’informations
scientifique, technique, économique et commerciale. Dans ce genre de
manifestations, il est recommandé de collecter les prospectus intéressants. Aussi
prendre, si le type de manifestation le permet, des échantillons et des pièces pour
les faire analyser et les examiner par un spécialiste.
 L’information informelle : les commerciaux du réseau de vente devraient
être d’excellents observateurs ; leur contacts avec la clientèle, avec les sous-
traitant, permettent d’obtenir de l’information fraîche sur les besoins, leur
évolution, les projets des concurrents, les tendances à court terme, le
remplacement de tel produit par tel autre, etc.
 Les normes et les règlements : leur importance se fait sentir au niveau des
sujets majeurs de propriété industrielle. La recherche et la collecte de ce type
d’information doit être réalisé très soigneusement. L’erreur n’est pas permise car
dans les domaines industriels et pharmaceutiques les normes et les règlements
sont primordiales.
 Les sources internes : les rapports techniques internes de l’entreprise
représentent une source d’information au niveau technologique. C’est là où se
trouve archiver le patrimoine de l’entreprise. C’est pour cela que certains grands
groupes ont constitués des banques de données internes facilement consultable.
Cette consultation est souvent favorisée par le développement d’un Intranet.
   

c. Analyse, traitement et validation

21
La bibliométrie et la scientométrie ont acquis un réel statut parmi les techniques
dont usent à présent les professionnels du traitement de l'information. Ce
traitement leur permet d’extraire ce qui peut intéresser leurs centres d’intérêt. La
validation de l’information s’effectue par un expert dans le domaine. Il décide que
tel information est intéressante que telle autre n’est pas tout à fais vraie et que tel
donnée est à développer, etc. Son expérience et son savoir du domaine lui
procure une certaine autorité vis à vis de la validité de l’information trouvée.
La recherche et l’analyse de l’information peut s’effectuer grâce des agents
intelligents. La principale contrainte à laquelle une société, une administration, une
ONG ou tout autre organisme peut être confronté, est celle du coût. La mise en
place d’une organisation interne de la veille suppose la disponibilité de ressources
humaines et matérielles :
 Ressources humaines : l’entreprise peut former une ou plusieurs personnes,
internes, à la veille grâce à des stages de formation ou des formations continues.
Cependant, ces formations exigent parfois des pré-requis chez le candidat tant au
niveau informatique qu’au niveau informationnel : maîtriser l’outil informatique et
prétendre un savoir faire au niveau de la recherche de l’information. Face à cela,
faire appel à des consultants spécialisés dans les métiers de la veille permet d'être
accompagné dans la mise en place du service. Mais en raison du coût des
prestations, l'entreprise, et surtout la PMI, hésite et malheureusement renonce très
souvent à s'engager.
 Ressources Informationnelles : l’accès à certains type d’information coûte cher
(Ex : l’information Brevet). Les sources d'information ne sont pas toujours
pertinentes ni fiables. La multiplicité des sources d’informations dans certains
domaines rend difficile le choix d’une source.
 Ressources matérielles et logiciels : certains types de veille engendrent des
calculs mathématiques et des espaces de stockage considérables. Manque de
connaissances des outils de veille automatisée.
Les entreprises surveillent des secteurs géographiques toujours plus étendus, du
fait de l'internationalisation des marchés. Cependant, elles se limitent aux
documents en langue française ou éventuellement en anglais. Les informations en
langues rares (japonais, chinois,…), et même l'allemand, l'italien ou l'espagnol,
sont en général écartées de la collecte, non par manque d'intérêt mais par
manque de compétences linguistiques permettant de les exploiter. En pratique,
seules les entreprises ayant des filiales à l'étranger en profitent, pour les trois
quart d'entre elles, pour collecter sur place de l'information. Ces difficultés de
collecte et de traduction de l'information internationale sont des insatisfactions qui
forment des obstacles à une bonne surveillance internationale du marché.

IV- Le travail collaboratif assisté par ordinateur (TCAO)

Dans le TCAO, il faut bien distinguer l'aspect Travail Collaboratif et l'aspect usage
des technologies de l’Information et de la Communication (TIC).
Le travail collaboratif existe sans les TIC. Il constitue en soi un véritable défi
apprendre/savoir travailler en collaboration avec d’autres personnes. L’ordinateur
et les outils de la communication ne font qu’enrichir ce mode de travail, l’amplifier,
rendre possible de nouvelles situations, diversifier ses contextes de
fonctionnement. Partant de cette réalité, la problématique propre au TCAO peut se

22
résumer ainsi : quelles conditions faut-il réunir pour que cette « assistance par
ordinateur » puisse réellement être « au service » du travail collaboratif ? En
d'autres termes, à partir de quand l'usage des TIC devient une aide pour le travail
plus qu'une contrainte, parfois vécue comme étant plus ou moins imposée par
l'institution.

A. Le travail collaboratif

1. QUELQUES DEFINITIONS

1.1. Collaboratif (collaborer ou coopérer ?)

Quel sens donner au mot collaboratif dans la notion de « travail collaboratif » ?


Une piste de réflexion que nous proposons s'appuie sur une distinction entre l'idée
de coopération et celle de collaboration. Cette distinction peut paraître quelque
peu formaliste, mais elle peut cependant nous servir, dans le cadre de notre
propos, à positionner deux modes de fonctionnement différents lorsqu’il s’agit
d’organiser un travail impliquant plusieurs acteurs.
Nous proposerons donc les définitions suivantes :
o Coopérer, c'est œuvrer dans le cadre d'une « division du travail » organisée. En
ce sens, la coopération est plutôt placée sous le signe d'une organisation
hiérarchique où la place, le rôle et les tâches de chacun sont définis par
l'institution. Dans la conception et la réalisation du projet commun, on sait
précisément ce que l'on va faire, et donc on peut définir tout aussi précisément ce
que chacun doit faire.
o Collaborer, implique une participation importante des différents acteurs à la
définition du projet collectif et à la répartition des tâches, donc à la définition du
rôle de chacun au sein du groupe. Dans ce contexte, on a l'idée de « ce vers quoi
on va », mais le « vers quoi on va » peut évoluer - et même très souvent va
évoluer - en fonction du jeu des interactions entre les acteurs.
Le point commun à ces deux modes de fonctionnement reste néanmoins
l’adhésion nécessaire de chacun au projet collectif.
1.2. Le travail collaboratif (collaborer pour produire ensemble)
La notion de travail collaboratif se construit donc autour de ces deux idées :
o celle de travail qui comporte deux dimensions : le projet et la production. Dans
sa phase de définition du projet, il s'agit de délimiter et de préciser le champ
d'action du groupe. Autour d'une finalité commune qu'il faut cerner avec précision,
se développent les enjeux qui mobilisent les acteurs, révélant ainsi ce que chacun
attend de l'activité du groupe.
Dans sa phase de réalisation, c'est la production qui est au centre de l’activité du
groupe. Car l’expérience montre que, sans la contrainte forte d'avoir à produire le
groupe risque fort de se mettre à errer en tous sens… jusqu'à une démobilisation
complète des acteurs.

23
o celle de collaboration qui précise les modalités de réalisation : une certaine
manière d’adhérer au projet commun et de s’impliquer, un certain type de partage
des tâches et d’attitude participative de chacun à l'effort de production.

1.3. Apprentissage collaboratif (apprendre en groupe)

Si l'on prend l'exemple de l'apprentissage collaboratif, on retrouve bien les deux


dimensions que nous venons d'évoquer. La finalité d'une action d'apprentissage
collaboratif est de mettre en place l'acquisition de connaissances et/ou de
compétences. A ce niveau de définition, la notion de production est sans doute
moins centrale, bien qu’il y ait malgré tout production de savoir et/ou de savoir-
faire. Simplement, chaque acteur cherche effectivement l’appui du groupe pour
atteindre ses objectifs. L'enjeu autour duquel ces acteurs se mobilisent porte sur la
définition des apprentissages et la capacité de chacun à tenir son rôle :
transmettre, animer et évaluer d'une part, faire la preuve de ses acquisitions
d'autre part.
2. QUELS TYPES D'ACTIVITES ?

Concrètement, le travail du groupe consiste à accomplir des tâches qui


contribuent à faire avancer le projet commun. Ces tâches ou activités peuvent être
regroupées en quatre grandes catégories : organiser, communiquer, partager
produire.

2.1. Organiser

Le travail collectif (collaboratif, en l'occurrence) implique des activités


d'organisation pour assurer la cohérence et l'efficacité du groupe, la
synchronisation des activités des uns et des autres. Il va falloir, par exemple,
initier des regroupements, fixer un calendrier, répartir les tâches entre les
différents acteurs, définir et rappeler – voire ajuster – les objectifs communs, …

2.2. Communiquer

Travailler à plusieurs implique également la nécessité de se transmettre des


informations, d’échanger des points de vue, de faire part d'expériences … en un
mot de communiquer.
Il ne saurait y avoir de collaboration au sein du groupe sans cet aspect de transfert
ou d’échange d'informations.

2.3. Partager

Le travail collaboratif nécessite également le partage d'un « matériau » commun


en vue d'une production finale. Ce partage s'organise autour d'éléments
matériels : documents, supports, outils,… mais aussi d'éléments immatériels :
partage de points de vue, partage d'expériences, etc.

2.4. Produire

24
L'enjeu décisif du travail collaboratif reste la production. En effet, si un projet ne
peut jamais se réduire au résultat visé, seule la production assure le dynamisme,
et donc la vie (parfois même la survie) de l'action collective et du groupe. La
nécessité d'une production est une contrainte nécessaire qui va s'inscrire parmi
les autres contraintes (planning, moyens humains, financiers, …) mais qui, seule,
permet au final de juger et d'évaluer l'efficacité et la qualité du travail accompli par
le groupe. En l'absence de définitions d'objectifs en terme de production, le groupe
se trouve bien souvent confronté à des phénomènes d’errance qui tôt ou tard
finissent par submerger les acteurs, les démobilisent progressivement pour,
finalement, condamner le projet.

3. DEFINITIONS / REPARTITIONS DES ROLES

Dans le travail collaboratif, il y a la mise en place d'activités mais aussi


l'intervention d'acteurs. Au sein du groupe de travail, tous les acteurs ne tiennent
pas la même place, ne jouent pas le même rôle : d'où la nécessité, déjà évoquée,
de s'organiser.

3.1. Qui fait quoi ?

La première question est effectivement la suivante : au sein du groupe, qui fait


quoi ? La première piste de réflexion porte donc sur les tâches et la répartition des
tâches. Elle nécessite, nous l’avons déjà souligné, l’adhésion de chacun au projet
collectif, mais elle introduit aussi la notion de compétence ou de spécialisation
puisque l'on cherchera à optimiser les ressources que représentent les différents
membres du groupe afin d’utiliser au mieux leurs capacités et leur spécificité.

3.2. Modéliser le fonctionnement : définition des rôles

La notion de rôle introduit une autre dimension du travail collectif : non seulement
tous les intervenants ne font pas la même chose, mais chaque fonction se
rattache à un certain niveau de responsabilité dont découlent des droits et des
devoirs particuliers. La définition des rôles est une étape essentielle puisqu'elle
permet de préciser, en vue de l'objectif visé, les tâches et les responsabilités
nécessaires au bon fonctionnement du groupe.

3.3. Mettre en œuvre : répartition des rôles/profils

Enfin, il reste à répartir, sur la base d'une approche discutée, négociée, acceptée,
l’affectation des rôles aux différents acteurs. Là encore, il s'agit d'une étape
importante car elle conditionne directement la configuration des outils utilisés dans
le TCAO, notamment par la médiation des notions de « profil » et « profilage » liés
aux environnements numériques de travail dont il est question au chapitre suivant.
En d’autres termes, la répartition des rôles sur un plan sociologique doit pouvoir
trouver sa traduction sur un plan technologique grâce aux possibilités de profilage
qu’offrent ces environnements.

B. ENVIRONNEMENTS ET FONCTIONNALITES DU TCAO

1. LES OUTILS DU TCAO

25
1.1. Qu'entend-on par "outils" ?

L’acronyme « TIC », désignant les Technologies de l’Information et de la


Communication, amalgame en fait des éléments aussi divers et variés qu’un
logiciel de bureautique, un système de messagerie, un forum, un dispositif de
visioconférence, un agenda électronique, un éditeur de pages HTML, le réseau
Internet tout entier, etc. On utilise même fréquemment le terme d’ « outils » pour
nommer ces différents éléments, un « outil » pouvant éventuellement être
constitué de plusieurs autres « outils ». Ainsi une plate-forme d’enseignement à
distance intègrera-t-elle des outils de publication de contenus pédagogiques, des
outils de communication, des outils de gestion administrative de la formation, etc.
Les exemples ci-dessus montrent aussi que ces « outils » peuvent être de nature
différente selon qu’ils relèvent d’applications logicielles (software) ou constituent
des éléments matériels (hardware), ou encore, selon qu’ils combinent l’un et
l’autre de façon indissociable.
Puisqu’un « outil » se définit en tant qu’ « instrument » servant à effectuer un
travail ou à accomplir une tâche, peut-être est-il préférable alors de raisonner en
termes de fonctionnalités d’une part, et d’environnements de travail d’autre part.
Le terme d’ « outils » sera ainsi associé à l’idée de « fonctionnalité » plutôt qu’à
celle d’« environnement », sachant néanmoins que, par commodité de langage, le
terme « outil » désigne parfois tantôt l’une de ces réalités, tantôt l’autre.

1.2. Notion d' « environnement numérique » et question


d'échelle

La notion d’ « environnement numérique de travail », c’est à dire d’espace virtuel


de travail utilisant les TIC, présente elle aussi une signification « à géométrie
variable ». En France, dans l’enseignement supérieur, on parle notamment d’ «
ENT », ou « Espaces Numériques de Travail ». Ceux-ci correspondent à un cadre
précis, celui d’un appel à projets ministériel lancé par la Direction de la
Technologie en mars 2002, et pour lequel quatre projets ont été retenus
(ENCORA, EPPUN, Esup-Portail et Montecristo). Un « ENT », dénommé
également « bureau virtuel », est constitué d’un ensemble homogène de services
numériques destinés la communauté universitaire : communication et travail
collaboratif, vie scolaire et étudiante, mise à disposition et gestion de ressources
numériques, administration des formations, etc. Ces ENT s’intègrent dans une
logique régionale d’aménagement numérique du territoire : les UNR, ou «
Universités Numériques en Région ».
A une échelle plus restreinte, et notamment lorsqu’il s’agit du domaine du TCAO
qui nous intéresse ici, on parle également d’ « environnement numérique » (ou
d’«espace numérique ») lorsque qu’un certain nombre de services ou de
fonctionnalités relevant des TIC se trouvent regroupés au sein d’une même «
plate-forme » ou d’un même « portail ».
Dans ce registre, on pourra notamment faire référence aux espaces de travail
collaboratif créés avec des logiciels comme Quick Place d’IBM/Lotus, mais
également à des espaces de type intranet, extranet, ou même à des plates-formes
d’enseignement à distance qui permettent une certaine forme de gestion
collaborative de l’apprentissage.

26
La notion d’environnement ou d’espace numérique peut en fait se définir de
différents points de vue. On peut notamment caractériser un environnement ou un
espace de travail collaboratif en prenant en compte :
o son « périmètre », à savoir le public concerné (types d’acteurs,
nombresd’usagers), mais aussi la finalité (ce à quoi ça doit servir)
o son mode d’organisation du travail collaboratif (quels types de rôles attribués
aux différents acteurs pour quels types de répartition des tâches)
o son mode d’organisation des contenus (niveaux d’arborescence, types de
contenus, paramétrage de l’accès aux contenus,…)
La notion de « périmètre », très liée au nombre d’usagers, est fondamentale car
elle est déterminante des choix qui vont être retenus dans l’organisation du travail
collaboratif et l’organisation des contenus.
Pour illustrer la diversité des situations possibles relevant du TCAO, on peut citer
quelques exemples d’application :
o Groupes de 2-3 personnes à une quinzaine de personnes
– étudiants éloignés géographiquement préparant un exposé
– groupes de travail à thème (coordination des secrétariats d’un établissement,
Usages des TIC dans la pédagogie,…) ou autour d’un projet (préparation d’une
publication, rédaction d’un cahier des charges, mise en place d’une démarche
qualité,…)
o Groupes de plusieurs dizaines de personnes
– un espace réservé au club-photo étudiants
– un site web d’établissement géré collectivement par une équipe (relais-web)
– un intranet inter-établissement (Portices, Intra-Ciell, Anglais-interIUT, RézoWeb,
…)
o Groupes de plusieurs centaines de personnes
- un intranet d’établissement ou de composante
- une plate-forme d’enseignement à distance (FOAD)
Si donc on considère qu’un « environnement numérique » est la combinaison plus
ou moins cohérente d’un ensemble d’outils et/ou fonctionnalités, le choix
concernant la (ou les) solution(s) technologique(s) va avoir une incidence
considérable quant à la gestion de cette diversité de situations au sein d’une
même entité universitaire.

2. TYPOLOGIE DES OUTILS DU TRAVAIL COLLABORATIF

2.1Typologie par fonctionnalités

Modéliser la réalité des outils informatiques et/ou des fonctionnalités utilisés dans
le domaine du TCAO n’est pas chose évidente, surtout lorsque l’on a recours à un
schéma, nécessairement simplificateur, pour tenter de donner une vision
synthétique et immédiate de cette réalité complexe de par nature.

2.2. Typologie par contextes d’usage

Il est également possible de caractériser ces outils et/ou ces fonctionnalités, et


l’usage qui en est fait, en les organisant dans un schéma selon deux axes, l’un
temporel, l’autre spatial, comme illustré ci-dessous :
Synchrone : Asynchrone ; Présentiel : A distance
Ce type de représentation permet notamment de voir comment le passage du
travail collaboratif au « travail collaboratif assisté par ordinateur » modifie les

27
habitudes et les pratiques, mais aide aussi à mieux comprendre les résistances
que cette évolution génère, ce que nous ne manquerons pas d’illustrer en
présentant des exemples concrets du TCAO.

3. X-TEK, GENERATEUR DE PLATES-FORMES ET DE PORTAILS

Rapide historique : Courant de l'année 2000, l’IUT2 de Grenoble (Université Pierre


Mendès France) a
Souhaité mettre en place un dispositif permettant :
• de rationaliser et d’optimiser son système d’information,
• de développer le travail collaboratif et l'échange des savoirs et des savoir-faire,
• de faciliter la communication, qu’elle soit interne ou externe à l'établissement,
• de rendre les utilisateurs acteurs de leur espace d’information et de
Communication.
Concrètement, dès la fin des années 90, les besoins à l'IUT2 de Grenoble
s’exprimaient en termes d’intranets, de portails d’e-learning (mise en ligne de
cours sur internet), de groupes de travail collaboratif et de réalisation de sites web.
Autant d’usages… autant d’outils différents, pas toujours très faciles à prendre en
main, et le plus souvent très disparates. D’où l’idée de concevoir et de développer
un seul et même outil qui pourrait permettre de répondre de façon cohérente et
homogène à ces différents types d'usages et de besoins. Le concept X-TEK était
né.
Les priorités du cahier des charges : X-TEK répond à un cahier des charges très
précis dont les priorités sont les suivantes :
• rapidité de mise en oeuvre d’une plate-forme (organisation des contenus,
création des dossiers, création de comptes et gestion des droits d’accès) ;
• facilité de publication adaptée au niveau de compétence de chaque
auteurscontributeurs (de la simple saisie de texte dans des formulaires
d’assistance à la publication, à la mise en ligne de pages élaborées organisées en
site Web) ;
• lisibilité des contenus et navigation claire ;
• autonomie des administrateurs de plates-formes (les plates-formes X-TEK
peuvent être gérées sans difficulté par des non-spécialistes).
Présentation de X-TEK. X-TEK est en fait un générateur de plates-formes de
communication et de portails. Il se décline actuellement en trois versions (ou
modules d'application) :
o INTRATEK pour la création d’intranets, d’extranets ou d’espaces de travail
collaboratif,
o DIDACTEK pour les plates-formes d’e-learning et la formation à distance,
o WEBTEK pour la réalisation de sites web gérés collectivement.
X-TEK est composé d’un noyau central représentant 80% des fonctionnalités
communes à l’ensemble des applications. Chaque module d’application intègre
des fonctionnalités spécifiques représentant donc les 20% restants.
Concrètement, les outils et fonctionnalités de base sont les mêmes dans ces trois
environnements, ce qui facilite la prise en main et le passage de l’un à l’autre. Des
fonctionnalités spécifiques caractérisent chacun des modules pour répondre au
mieux aux besoins particuliers liés aux différents types d’usages correspondants.
Ainsi la formation à l’utilisation de l’un ou l’autre de ces modules apporte des
compétences immédiatement transférables pour l’utilisation des autres modules.
Par souci de confort et d’efficacité, X-TEK a été conçu dans une logique
d’intégration.

28
INTRATEK est pleinement opérationnel depuis septembre 2003, et WEBTEK
depuis mars 2005. DIDACTEK est déjà utilisé pour la mise en ligne de contenus
pédagogiques et le suivi des étudiants à distance, et sera complètement achevé
en juin 2006 avec la finalisation de son module « administration d’une formation à
distance ».
Dans toutes les plates-formes X-TEK, l’organisation des contenus est simple. Il
s’agit essentiellement de pages ou de « documents » (quel que soit le type de
fichiers) rangés dans des dossiers en trois niveaux d’arborescence (catégories,
rubriques, sous-rubriques). Ce qui rend la navigation immédiatement « lisible »,
donc facile. Ces dossiers peuvent être de nature différente : dossier « 1 seule-
page », dossier-liste, dossier-menu, pour les contenus propres à la plate-forme ;
mais aussi dossier « pages web externe » pour des contenus venant « de
l’extérieur » (lien pointant sur un autre serveur).
X-TEK permet également la création d’autres types de « dossiers », appelés «
modules de fonctionnalités » : messageries internes, calendriers, forums,
trombinoscopes, édition de listes d’utilisateur, mise en oeuvre de formulaires en
ligne,…
Sur l’ensemble des plates-formes un dispositif de publication assistée (ave éditeur
« wysiwyg » de pages HTML, masques de publication,…) a été conçu pour
faciliter la création de pages et la mise en ligne de tous types documents et/ou de
ressources.
Les droits d’accès aux contenus d’une plate-forme se gèrent dossier par dossier,
et même page par page, c’est à dire de manière très fine. Ce paramétrage
s’effectue grâce à un système de profilage à trois niveaux : les profils génériques,
les profils de groupe et les profils personnalisés, ce qui permet de s’adapter aux
situations les plus diverses.
INTRATEK est un module d’application plus spécifiquement dédié à la création
d’espaces de travail collaboratif, quel que soit le nombre d’utilisateurs (du groupe
de 2 ou 3 personnes sur un projet ciblé, à des intranets d’établissement). Une
même plate-forme peut gérer un nombre illimité de groupes disposant de leur
propre espace de travail ainsi que de droits qui leur sont spécifiques.
X-TEK, une certaine idée des environnements numériques de travail La
technologie X-TEK favorise la multiplication de plates-formes autonomes dédiées
à un usage très ciblé évitant ainsi les risques liés aux environnements qui
prétendent pouvoir regrouper en un seul et même « espace virtuel » tous les
services numériques actuellement exploitables à des fins universitaires, mais dont
le degré de complexité et le manque de souplesse déroutent complètement les
utilisateurs. L’idée est bien de proposer aux usagers des environnements de
travail « à leur mesure » où chacun trouve tous les outils et toutes les ressources
dont il a besoin pour la tâche qu’il a à accomplir, sans avoir à s’encombrer des
outils et ressources qui ne le concernent pas.

C. Répartition des rôles et accompagnement des différents


acteurs

1. Réhabiliter la dimension sociologique du travail collaboratif

L’un des obstacles majeurs à l'utilisation efficace des TICE, et en particulier dans
le cas du travail collaboratif, tient à un fait souvent méconnu ou sous-estimé : la
non prise en compte de la dimension sociologique dans la conception et la mise

29
en œuvre des projets. Les technologies tiennent le devant de la scène : on est
dans le domaine du « concret » et du « tangible », mais il faut être aussi dans
celui de l’ « innovation ». Les équipes mises en place, constituées « d'experts » et
de techniciens, abondent également en ce sens : l’horizon naturel de leur
expertise et de leur savoir-faire est aussi, le plus souvent, celui des technologies.
La gestion de projet participe de cette même illusion : une équipe restreinte de
personnes qualifiées conçoivent, puis passent le relais aux techniciens chargés de
la mise en œuvre et, lorsque tout est en place, on commence à s'intéresser aux
usages, peut-être même, parfois, aux usagers. Et pourtant, comment peut-on
méconnaître l'impact d'un tel projet sur le fonctionnement de l'organisation, sur les
rouages des institutions et sur le quotidien des acteurs ? C'est, au mieux, un
changement dans les habitudes de travail qui est sollicité, mais parfois, c'est un
changement bien plus profond que l'introduction des technologies induit : en
particulier lorsqu'elles remettent en cause les positions de pouvoir et l'équilibre
des forces entre les acteurs. Comment s'étonner, dans de telles conditions, de voir
se développer des conduites de retrait, de contournement ou d'opposition de la
part des principaux intéressés : les usagers ? Comprendre l'organisation au
niveau sociologique, prendre en compte les rapports de force, mesurer l'impact du
projet que l'on veut mettre en œuvre, c'est à ce niveau que se trouve la pierre
angulaire des usages. Cette dimension doit donc être intégrée dès le départ si l'on
souhaite donner les meilleures chances de succès à un projet. La prise en compte
de cette dimension sociologique se traduira notamment, et très concrètement,
dans la définition et dans la répartition des rôles au sein du groupe.

2. Le dispositif d'accompagnement

Mais cette prise en compte de la dimension sociologique doit également trouver


sa concrétisation dans un dispositif d'accompagnement des acteurs du projet.
C’est un aspect décisif. L’accompagnement, c’est déjà prendre le temps et se
donner les moyens d’expliciter les finalités du projet. Il ne peut y avoir de travail
collaboratif sans la reconnaissance d'un projet commun à l'ensemble des acteurs
et sans la mise en évidence d'un enjeu partagé où chacun pourra, d'une manière
ou une autre, y trouver son compte : c'est le préalable. Mais, c'est aussi tout au
long de la démarche du groupe qu'il faudra rester vigilant pour laisser aux acteurs
un espace de liberté qui leur permette d'exprimer la spécificité du rôle qu’ils ont a
jouer, indispensable pour que le « travail » soit réellement « collaboratif ».
Une fois encore, on retrouve l'importance de la différenciation des rôles : il faut
que ceux-ci soient définis explicitement, puis reconnus par l'ensemble.
Le soutien des acteurs par des actions de formation, d'assistance et de conseil
sera conçu dans cet esprit. La formation, par exemple, ne saurait se réduire à
l'apprentissage d'outils, mais elle doit permettre à chacun des acteurs d’être en
mesure de contribuer utilement à l'effort collectif. Enfin, il est important de rappeler
que les choix concernant le dispositif d’accompagnement (indispensable à la
réussite du projet) sont très liés aux choix concernant les solutions
technologiques. Le degré d’autonomie des acteurs, que favorise ou non tel ou tel
environnement, a en effet une incidence directe à ce niveau, certaines plates-
formes nécessitant des dispositifs d’accompagnement trop lourds, ou trop
contraignants. Le bon sens voudrait que ces deux types de choix soient pensés
comme un tout indissociable, et que les décisions soient prises en conséquence.

30
3. ASPECTS MATERIELS ET LOGICIELS

3.1. Problèmes de compatibilité, d'interopérabilité et d'intégration

Lors de décisions à prendre en termes de choix d’une plate-forme, les études


Comparatives réalisées en amont font régulièrement apparaître plusieurs critères
qui ont une importance déterminante pour le devenir du projet. Le premier
concerne la compatibilité du dispositif avec les systèmes d’exploitation les plus
couramment utilisés et se traduit déjà par la question suivante : au niveau du
poste-client (l’utilisateur lambda sur son ordinateur), pourra-t-on utiliser la plate-
forme dans un environnement Mac et PC, ou y a-t-il exclusivité pour l’un ou l’autre
de ces environnements ? Les choix des décideurs se porteront plus volontiers sur
les dispositifs offrant la double compatibilité afin de ne pénaliser personne.
Beaucoup de plates-formes sont dorénavant accessibles via internet grâce à un
simple « navigateur » type Internet Explorer (Microsoft), Firefox (Mozilla) ou
encore Netscape, pour ne citer que les plus courants. Et c’est aussi à ce niveau
que se pose la question de la compatibilité, non seulement par rapport au type de
navigateur utilisable, mais aussi, pour un navigateur donné, par rapport à telle ou
telle version de l’application. Là encore les études comparatives mentionnées plus
haut insistent souvent sur cet aspect, ce qui correspond en fait à des situations
rencontrées concrètement sur le terrain où un manque de compatibilité à ce
niveau a été vécu comme trop contraignant à l’usage.
Un autre critère, plus rarement évoqué, concerne la « taille » des écrans
d’ordinateur. Les plates-formes et/ou les portails auxquels nous faisons référence
ici sont bien souvent optimisés pour telle ou telle résolution d’écran (exemple : en
800x600, 1024x768, 1280x1024, etc.…). Concrètement, il est conseillé à un
utilisateur d’utiliser tel ou tel type de résolution, sachant que le navigateur lui-
même occupe une certaine partie de l’écran, diminuant ainsi la surface disponible
pour l’affichage de la plate-forme elle-même. L’enjeu ici se traduit en termes de
confort d’usage et d’efficacité. Il y a un juste équilibre à trouver à ce niveau,
sachant que plus la résolution recommandée pour faciliter l’usage de la plate-
forme est élevée, plus on servira cet aspect confort et efficacité, mais
simultanément, par conséquence, plus on risque d’introduire une dimension
contraignante auprès des utilisateurs qui n’ont pas toujours à leur disposition
l’équipement idéal souhaité .A un tout autre niveau, les personnes en charge de la
mise en œuvre et de la maintenance de l’infrastructure des systèmes d’information
posent également un autre type d’exigences. Il est alors question d’interopérabilité
entre des systèmes qu’on souhaite pouvoir faire communiquer entre eux afin de
permettre une meilleure diffusion de l’information, tant du point de vue réactivité et
interactivité que du point de vue cohérence et fiabilité des informations qui
circulent. On imagine que l’enjeu n’est pas des moindre. Enfin, sans prétendre
avoir abordé ces aspects de manière exhaustive, dans un ordre de préoccupation
encore plus technologique, il est de plus en plus question d’intégration des
dispositifs (plates-formes, portails, applications,…) dans les ENT qui actuellement
se mettent en place dans bon nombre d’universités. Cela concerne notamment la
possibilité d’interfaçage avec des annuaires déjà en fonction (type LDAP) ou des
applications de gestion type APOGEE, ou encore des procédures
d’authentification unique des utilisateurs, comme expliqué aux chapitres suivants.

31
3.2. La question de la gestion des usagers (annuaire LDAP et
authentification unique SSO)

Si l'on observe la situation de la plupart des universités, il apparaît clairement qu'il


serait illusoire de concevoir un ENT comme un espace monobloc complètement
intégré et unifié. La réalité est toute autre. Elle est constituée d'une multitude
d'outils, de plates formes et se caractérise par une dispersion des ressources.
Pour progresser vers une meilleure collaboration de ces éléments, il y a deux
points critiques : la gestion des usagers et la gestion des ressources partagées.
Ce deuxième point est relativement complexe et nous n'en ferons ici qu'une
mention pour mémoire. Notre propos tournera donc essentiellement sur la gestion
des usagers. La nature du problème :
Dans une démarche qui semble assez spontanée, la totalité des plates-formes
intègrent une gestion des usagers qui leur est spécifique. En termes
d'interopérabilité, cette situation est très néfaste car une personne identifiée sur
plusieurs plates-formes se trouve placée dans des espaces complètement
étanches et toute modification à son propos sur une de ces plates-formes est
complètement ignorée des autres. On duplique donc à chaque fois les
informations concernant chaque usager avec tous les risques d'incohérence qui
sont bien connus par les gestionnaires de base de données.
Le deuxième problème lié à cette situation est l’obligation qu’a ce même usager
de s'authentifier chaque fois qu'il change de contexte. On multiplie ainsi les
identifiants (login) et les mots de passe. Les conséquences se situent à deux
niveaux : l’usager doit mémoriser plusieurs jeux de données d'authentification,
mais il en est de même pour le système dans son ensemble, ce qui complexifie la
tâche du point de vue de la sécurité. Un annuaire indépendant pour la gestion des
usagers … La réponse à la première difficulté consiste à déporter, pour tout ce qui
touche aux données d'identification, la gestion des usagers des plates-formes vers
un annuaire commun. De la sorte, toute modification apportée dans ces données
est immédiatement prise en compte par l'ensemble des environnements. Les
plates-formes, pour leur part, se contentent de gérer les informations spécifiques
qui sont indispensables à leur fonctionnement. Le standard qui semble se dégager
en matière d'annuaire est le LDAP (LightWeight Directory Access Protocol).
Si effectivement le Travail Collaboratif Assisté par Ordinateur s'appuie directement
sur les Technologies de l'Information et de la Communication, on voit bien que,
lors de la mise en œuvre d’un projet, l'essentiel porte en fait sur la compréhension
des enjeux, sur l'organisation de la collaboration entre les différents acteurs et sur
la mise en œuvre d’un dispositif d’accompagnement.
En d’autres termes, les préoccupations concernant les usages et les usagers
doivent être prioritaires par rapport aux préoccupations d’ordre technologique. Le
travail collaboratif assisté par ordinateur, en ce qu'il implique au plus haut point les
acteurs, doit intégrer cette donnée pour offrir une chance à ces derniers d’avoir
envie et d'être en mesure de s'approprier le projet, les environnements et les
outils.
Un point essentiel de ce point de vue, nous l'avons souligné, c’est la nécessité du
respect de l'autonomie de l'usager, c’est à dire la nécessité de réduire au strict
minimum les médiations. C'est très souvent un facteur de réussite pour des projets
de cette nature. Et puis, en définitive, la question à se poser, simple mais
fondamentale, ne serait-elle pas celle-ci : du point de vue de l'usager, les
contraintes imposées par l’introduction des TICE se trouvent-elles être
compensées par les avantages quelles sont censées apporter, comme par

32
exemple la facilité et le confort de l’usage, la simplification des tâches au
quotidien, le plaisir du travail effectué avec efficacité… ?

V. Impact de l’essor des NTIC et concurrence

Dans certains pays, il est indéniable que les NTIC ont un effet sur la croissance:
Les industries américaines liées au NTIC, qui représenteraient aujourd’hui environ
8% du PIB, ont contribué pour plus d’un tiers à la croissance de l’économie entre
1995 et 1998. Outre l’effet direct des NTI sur l’accumulation du capital, leur
diffusion à l’ensemble du processus de production aurait entraîné une accélération
durable du progrès technique, grâce notamment aux économies d’échelle et
externalités de réseau engendrées. Il est possible que la plus grande partie de ce
potentiel est sans doute à venir (Paul David démontre d’après les révolutions
technologiques précédentes que l’incorporation de nouvelles technologies prend
toujours plusieurs années avant de se traduire en accélération du progrès
technique).
Il est donc possible que les investissements considérables réalisés dans les NTIC
depuis le début des années 1990 finissent par entraîner une accélération de la
productivité plus forte qu’elle ne l’a été récemment. Les évolutions observées en
France sont semblables qualitativement à celles observées aux États-Unis mais
nettement moins impressionnantes quantitativement. Le poids des nouvelles
technologies de l’information et de la communication (NTIC) dans l’économie est
passé de 3,5% en 1980 à 4,8 en 1999. La croissance du capital informatique en
France ne contribue qu’à une augmentation de 0,3% de la croissance d’ensemble
de l’économie française (contre 0,6% aux États-Unis).
De plus l’INSEE (institut national de la statistique et des études économiques) a
montré que la diffusion de l’informatique se faisait de façon hétérogène. On
constate également un essor du commerce électronique, qui modifie les
conditions d’échange en intensifiant la concurrence mais aussi en favorisant les
collusions entre les vendeurs. Les marchés électroniques concernent
majoritairement les transactions entre entreprises (B2B) et dans une moindre
mesure les particuliers (B2C). Au milieu des années 1990, Robert Solow a formulé
son célèbre paradoxe : « Je vois des ordinateurs partout, sauf dans les chiffres de
la productivité ». Le développement des NTIC semble engagé, mais ses effets
d’entraînement réels sur les économies en général restent discutables. Ceci peut
s’expliquer par la nécessité d’un temps d’adaptation ; il est très difficile de prévoir
l’effet des TIC sur l’économie en général. Le ralentissement américain ramène le
débat à plus de réalisme.

33
Conclusion

Aujourd’hui il est clair que les nouvelles technologies de l’information et de la


communication jouent un rôle important dans l’entreprise par ricochet dans petites
et quelques soient le domaine d’activité concerné. Après l'invention de l'écriture
puis l'avènement de l'imprimerie, les premiers pas vers une société de
l'information ont été marqués par le télégraphe électrique, puis le téléphone et la
radiotéléphonie, alors que la télévision et l'Internet puis la télécommunication
mobile et le GPS ont associé l'image au texte et à la parole "sans fil". Le
rapprochement de l'informatique et des télécommunications, dans la dernière
décennie du XXe siècle ont bénéficié de la miniaturisation des composants,
permettant de produire des appareils « multifonctions » à des prix accessibles,
dès les années 2000 , ce qui a permis de rendre de plus en plus facile le travail au
sein des entreprises. Avec la création de l’internet, d’autres réseaux électroniques
ont vu le jour tels Extranet et l’intranet favorisant la fluidité de l’information au sein
des petites et moyennes entreprises mais aussi sa disponibilité en tout temps et
par n’importe quel collaborateur de l’entreprise. Nous avons évoqué aussi dans
notre travail le rôle marquant de la veille stratégique et du travail collaboratif qui
sont considérés comme étant des NTIC permettant à l’entreprise de disposer d’un
avantage concurrentiel par rapport à ses concurrents du fait de la rapidité de la
détention d’information par l’entreprise, de la rapidité de la mise sur le marché des
produits de l’entreprise , de la réduction des coûts de fonctionnement, tout ceci
grâce à elles. Notons le fait qu’il y’a de cela quelques années, les NTIC étaient
considérées comme étant un luxe pour certaines entreprises notamment pour
certaines PME du fait des coûts des technologies plutôt élevés, mais de plus en
plus, les prix ont chutés et les PME allouent des sommes assez importantes
côtés investissements en NTIC. La quasi totalité des grandes entreprises des
pays développés disposent de ces nouvelles technologies. Mais en ce qui
concerne les petites et moyennes entreprises, il est important de noter que
malgré leur participation remarquable à la croissance des PME, toutes les PME
ne disposent pas encore de ces technologies et même le taux d’investissement
alloué au NTIC reste négligeable dans les pays développés n’en parlons pas des
pays du Sud. Nous pouvons dire que Cela pourrait s’expliquer par le manque de
moyens de celles-ci du fait de son coût d’acquisition dépassant la limite des
moyens des PME cela pourrait être une raison mais seules les PME concernées
peuvent répondre à cette interrogation. Mais pour celles qui disposent
véritablement de moyens la question se pose encore. Mais nos sommes
convaincu d’une chose, les NTIC jouent véritablement un rôle important dans la
croissance des petites et moyennes entreprises.

34
Bibliographie

 Dictionnaire de gestion
 Amina BENRAISS : cours NTIC

Les sites

 fr.wikipedia.org
 www.iaat.org/.../veille_strategique_note_synthese.pdf
 www.xtek.fr/index2.phpspecial=fichier_page&id=14
 www.veille.ma
 www.commentcamarche.net
 www.manager-go.com
 www.doc-etudiant.fr

35

Vous aimerez peut-être aussi