Académique Documents
Professionnel Documents
Culture Documents
Encadré par :
Préparé par :
-HAKIMI Marouane
1
Introduction………………………………………………………………………………1-2
A- Les faits historiques ayant posés les bases nécessaires pou les premiers
ordinateurs……………………………………………………………………………..3
A-Intranet …………………………………………………………………………………6-8
B-Extranet …………………………………………………………………………………8-9
C-Internat ………………………………………………………………………………9-14
A-Définition et objectifs …………………………………………………………………14
A-Travail collaboratif……………………………………………………………………19-22
Conclusion ………………………………………………………………………………31
2
Introduction
3
Les nouvelles technologies de l’information et de la communication (NTIC) sont à
la base de l’économie du savoir. Elles permettent de stocker, traiter et diffuser un
volume croissant de données rapidement et sans coût de fonctionnement et elles
sont une source de plus en plus importante de gains de productivité.
Les nouvelles technologies de l’information et de la communication regroupent un
ensemble de ressources nécessaires pour manipuler de l’information et
particulièrement des ordinateurs et programmes nécessaires pour la convertir, la
stocker, le gérer, la transmettre et la retrouver. On peut regrouper les technologies
de l’information et de la communication par secteurs suivants : l’équipement
informatique : serveurs, matériels informatique ; la microélectronique et les
composants ; les télécommunications et les réseaux informatiques ; le
multimédia ; les services informatiques et les logiciels ; le commerce électronique
et les médias électroniques. Ce terme peut également désigner des techniques
telles que les Groupware et leur composante Workflow, l’architecture client-
serveur. Les NTIC sont un outil indispensable au service d’un politique de
ressource humaine déterminée pour les directions des ressources humaines,
surtout quand il s’agit d’une entreprise qui a déjà quelques dizaines d’employés.
Cependant ce n’est pas la solution miracle. Les logiciels utilisés pour la Gestion
des Ressources Humaines sont souvent destinés à des grosses entreprises (1000
salariés dans l’international ou 500 salariés dans le national).Par exemple, une
entreprise internationale peut avoir un logiciel avec des modules transnationaux
tandis que d’autres seront nationaux. Ainsi elle pourra facilement adapter sa
gestion des ressources humaines aux différentes législations nationales. Ce type
de logiciel ne concerne pas les PME-PMI. Ainsi dit, ces NTIC sont d’une
importance capitale au sein des entreprises du fait la dépendance de plus en plus
des entreprises vis-à-vis de ces dernières. Et surtout du rôle que les NTIC jouent
au sein des entreprises notamment des PME considérées comme étant le facteur
de développement des économies que l’on parle aussi bien des pays du Sud que
ceux du Nord. Avant considérées comme étant des simples outils favorisant la
circulation de l’information et tout au plus favorisant la communication,
aujourd’hui on va plus loin en voyant plutôt un outil de stratégique attisant la
concurrence, et marquant même la compétitivité entre entreprise sur le marché.
La question qui se pose est celle de savoir si ces NTIC participent au
développement des petites et moyennes entreprises et à quelle hauteur
participent t - elles à l’amélioration du chiffre d’affaire.
Il est clair que dans certains pays notamment ceux du tiers monde ces NTIC
n’influencent pas la croissance des PME au même titre que ceux du tiers monde,
du fait d’abord du montant d’investissement alloué aux NTIC et aussi de la
possibilité d’accès ou d’utilisation de ces dernières. Dans le monde où nous vivons
aujourd’hui, il est impossible de nier la présence ou tout au plus l’hégémonie de
ces NTIC dans nos économies, dans nos entreprises. Ainsi dit, en moyenne, les
pays de l’Union européenne dépensent un montant estimé à
6% du PIB dans les NTIC. Les industries de l’information et de la communication
croissent plus vite de 5 points de pourcentage que les autres secteurs en termes
réels et impulsent effectivement la croissance économique dans l’Union
européenne. Les industries des NTIC représentaient 4% de l’emploi de l’Union en
1997, et on estime qu’un emploi sur quatre est créé dans les NTIC ou des
secteurs connexes. Si on élargit le champ considéré pour embrasser les secteurs
dits «fondés sur le savoir», ils représentent environ un quart de l’emploi et sont
responsables du plus gros de la croissance des emplois ces dernières années. La
libéralisation du marché, associée à une innovation technologique de plus en plus
rapide, favorise la concurrence dans l’offre de télécommunications, ce qui abaisse
4
les coûts et renforce le choix et la qualité de service dans la plupart des régions de
l’Union. Le prix d’accès à Internet a fortement chuté dans un passé récent, mais
un prix élevé reste un obstacle à une utilisation plus large dans certains pays.
A travers notre travail nous essaierons de répondre à l’interrogation portant sur la
place des NTIC dans le développement des petites et moyennes entreprises.
Notre travail portera notamment sur une présentation historique de l’émergence
des nouvelles technologies de l’information et de la communication, de plus nous
présenterons quelques exemples d’utilisations des NTIC en insistant sur leur
apport pour les PME (intranet, extranet...Etc,) nous insisterons par la suite sur la
vieille stratégique et le travail collaboratif assisté par ordinateur , et quelques
statistiques du taux d’investissement alloué au financement des NTIC.
5
Cette partie de notre travail consistera notamment à présenter l’évolution
historique des nouvelles technologies de l’information et de la communication et
leur utilisation progressive au sein des petites et moyennes entreprises. Il s’agit
pour nous de présenter l’apparition progressive des premières technologies ayant
posées les bases des technologies d’information ; de plus nous insisterons aussi
sur l’histoire de la communication afin d’en faire le rapprochement par la suite.
Les prémisses de l’informatique sont apparues déjà dans les années 1580 avec
notamment l’invention par John NAPIER des logarithmes. De plus, cela est
accentué par la création de la machine d’arithmétique de Blaise Pascale connue
sous le nom de la Pascaline, pendant les années 1623-1662.
En 1883, la création pas Babbage d’une machine analytique devant fonctionner à
vapeur et comme un ordinateur va révolutionner les choses. En 1840 on a eu la
création par Ada Lovelace d’un processus d’exécution d’un programme appelé
algorithme.
En 1855, Herman Hollerith met en place le système de cartes perforées utilisées
sur des machines à tisser. Grâce à lui on a eu en 1911, la fondation de la
Computing Recording Corporation rebaptisée International Business Machines ou
IBM en 1924. IBM fabrique des machines électromécaniques rapides qui
calculent, trient et impriment les résultats sur de nouvelles cartes perforées.
Pendant près de 50 ans dans le monde entier, les machines d’IBM, sont utilisées
par des sciences mathématiques, les banques et le monde des affaires
notamment les entreprises.
En 1937, Aiken va réaliser chez IBM un calculateur qui utilise des relais
électromagnétiques et des logarithmes.
En 1941 : on a eu la création de la calculateur binaire ABC utilisant l’algèbre de
Boole (qui stipule que tout processus peut être décomposé en une suite
d’opérations logiques ET, OU, NON), qui comporte une mémoire et des circuits
logiques, considérée parfois comme le premier vrai ordinateur, même si son
programme n’est pas stocké en mémoire.
6
Après la deuxième guerre mondiale notamment en 1946, l’armée américaine a
commandé la fabrication d’un ordinateur intégrateur numérique électronique, non
programmable appelé ENIAC.
1947 : invention des transistors
1957 : production du premier ordinateur d’IBM. IBM 701 pour la défense
américaine
7
l’extranet favorisant la communication entre les collaborateurs d’entreprises
différentes permettant ainsi à l’une de disposer d’information de l’autre favorisant
la croissance des deux entreprises. Ces technologies prennent de l’importance
dans les entreprises et au point où on ne peut plus s’en passer.
8
En 2006, Les sociétés chinoises investissent massivement dans des entreprises
européennes, histoire d'acquérir certaines technologies, Les dépenses liées aux
TIC dans les pays en dehors de l'OCDE sont surtout portées par le hardware.
2009 est Peut-être la plus importante de l'histoire de l'humanité : celle des
nouvelles technologies de l'information et de la communication. Ce salon sera
l'occasion d'exposer certains des projets pilotes en matière de NTIC comme le
premier centre communautaire.
A. Intranet
1. Définition
9
d'un ou plusieurs serveurs d'application (middleware): un serveur web
permettant d'interpréter des scripts CGI, PHP, ASP ou autres, et les traduire en
requêtes SQL afin d'interroger une base de données ;
d'un serveur de bases de données.
De cette façon, les machines clientes gèrent l'interface graphique, tandis que
les différents serveurs manipulent les données. Le réseau permet de véhiculer les
requêtes et les réponses entre clients et serveurs.
B. Extranet
11
ou à des filiales, un accès privilégié à certaines ressources informatiques de
l'entreprise par l'intermédiaire d'une interface Web.
C. Internet
1. Définition et historique
a. définition
12
b .Historique
13
entre 1971 et 1972 par les sites branchés à ARPANET. Ceci permit le
développement d'applications par les utilisateurs du réseau.
En 1972, Ray Tomlinson mit au point la première application importante : le
courrier électronique. En octobre 1972, Kahn organisa la première démonstration
à grande échelle d'ARPANET à l'International Computer Communication
Conference (ICCC). C'était la première démonstration publique.
Le concept d'Internet est né d'ARPANET. L'idée était de permettre la connexion
entre des réseaux divers : ARPANET, des communications avec les satellites, des
communications par radio. Cette idée fut introduite par Kahn en 1972 sous le nom
de Internetting. Le protocole NCP d'ARPANET ne permettait pas d'adresser des
hôtes hors d'ARPANET ni de corriger d'éventuelles erreurs de transmission. Kahn
décida donc de développer un nouveau protocole, qui devint finalement TCP/IP.
En parallèle, un projet inspiré par ARPANET était dirigé en France par Louis
Pouzin : le projet Cyclades. De nombreuses propriétés de TCP/IP ont ainsi été
développées, plus tôt, pour Cyclades. Pouzin et Kahn indiquent que TCP/IP a été
inspiré par Cyclades.
En 1973, Kahn demanda à Vint Cerf (parfois appelé le père d'Internet) de travailler
avec lui, car Cerf connaissait les détails de mise en œuvre de NCP. Le premier
document faisant référence à TCP est écrit en 1973 par Cerf : A Partial
Specification of an International Transmission Protocol. La première spécification
formelle de TCP date de décembre 1974, c'est le RFC 675.
La version initiale de TCP ne permettait que la communication en établissant un
circuit virtuel. Cela fonctionnait bien pour le transfert de fichiers ou le travail à
distance, mais n'était pas adapté à des applications comme la téléphonie par
Internet. TCP fut donc séparé de IP et UDP proposé pour les transmissions sans
établissement d'un circuit.
À la fin des années 1980, la NSF (National Science Foundation) qui dépend de
l'administration américaine, met en place cinq centres informatiques
Surpuissants, auxquels les utilisateurs pouvaient se connecter, quel que soit le
lieu où ils se trouvaient aux États-Unis : ARPANET devenait ainsi accessible sur
une plus grande échelle. Le système rencontra un franc succès et, après la mise à
niveau importante (matériels et lignes) à la fin des années 1980, s'ouvrit au trafic
commercial au début des années 1990.
Le début des années 1990 marque, en fait, la naissance d'Internet tel que nous le
connaissons aujourd'hui : le web, un ensemble de pages en HTML mélangeant du
texte, des liens, des images, adressables via une URL et accessibles via le
protocole HTTP. Ces standards, développés au CERN par Tim Berners-Lee
devinrent rapidement populaires grâce au développement au NCSA par Marc
Andreessen et Éric Bina du premier navigateur multimédia Mosaic.
En janvier 1992, l’Internet Society (ISOC) voit le jour avec pour objectif de
promouvoir et de coordonner les développements sur Internet. L’année 1993 voit
l’apparition du premier navigateur Web ou butineur (browser), supportant le texte
et les images. Cette même année, la National Science Foundation (NSF) mandate
une compagnie pour enregistrer les noms de domaine.
Gouvernance .Selon la définition du groupe de travail sur la gouvernance
d'Internet, il faut entendre par « gouvernance de l’Internet » l’élaboration et
l’application par les États, le secteur privé et la société civile, dans le cadre de
leurs rôles respectifs, de principes, normes, règles, procédures de prise de
décisions et programmes communs propres à modeler l’évolution et l’usage de
l’Internet.
Les registres de métadonnées sont importants dans l'établissement de règles
d'accès aux ressources web qui utilisent les Uniform Resource Identifiers (qui
14
peuvent être les URL qui s'affichent sur la barre de navigation de l'ordinateur
personnel).Un certain nombre d'organismes sont chargés de la gestion d'Internet,
avec des attributions spécifiques. Ils participent à l'élaboration des standards
techniques, l'attribution des noms de domaines, des adresses IP, etc. :
Internet Corporation for Assigned Names and Numbers (ICANN), sous la tutelle
du ministère du Commerce américain ;
Internet Engineering Task Force (IETF)
Internet Society (ISOC). Dans un but de maintenir ou d'élargir la neutralité
des réseaux, mais aussi d'engager les diverses parties globales dans un dialogue
sur le sujet de la gouvernance, les Nations unies ont convoqué :
Le Sommet mondial sur la société de l'information ;
Le Forum sur la gouvernance de l'Internet.
2. Aspects juridiques
3. Techniques
Internet est composé d'une multitude de réseaux répartis dans le monde entier.
Chaque réseau est rattaché à une entité propre (université, fournisseur d'accès à
Internet, armée) et se voit attribuer un identifiant unique appelé Autonomous
System (AS). Afin de pouvoir communiquer entre eux, les réseaux s'échangent
des données, soit en établissant une liaison directe, soit en se rattachant à un
nœud d'échange (point de peering).
Chaque réseau est donc connecté à plusieurs autres réseaux. Lorsqu'une
communication doit s'établir entre deux ordinateurs appartenant à des AS
différents, il faut alors déterminer le chemin à effectuer parmi les réseaux. Aucun
élément d'Internet ne connaît le réseau dans son ensemble, les données sont
simplement redirigées vers un autre nœud selon des règles de routage.
15
Des chercheurs israéliens de l'université Bar-Ilan ont déclaré après avoir analysé
les nœuds reliant l'ensemble des sites qu'Internet est un réseau méduse. Ils la
définissent comme ayant un cœur dense connectés à une multitude d'autres sites,
qui ne sont reliés entre eux que par ce cœur, semblable à un maillage à structure
fractale. Cette zone permet à 70 % du réseau de rester connecté sans passer par
le cœur. Les chercheurs indiquent donc cette zone comme piste pour désengorger
le trafic, en répartissant mieux les sites de cette zone.Connexions grand public
Aller sur Internet nécessite un accès IP. Pour cela, l'utilisateur emploie le matériel
et logiciels suivants :
Un fournisseur d'accès à Internet (FAI) (en anglais ISP pour Internet Service
Provider)
Des logiciels sont, eux, nécessaires pour exploiter Internet suivant les
usages :
Courrier électronique : un client SMTP et POP (ou POP3) ou IMAP (ou IMAP4)
Transferts de fichiers : un client ou un serveur FTP (File Transfert Protocol)
World Wide Web : un navigateur Web
Pair à pair : l'un des nombreux logiciels de P2P en fonction de l'usage (partage
de fichiers en pair à pair, Calcul distribué, P2P VoIP, etc.)
4. Protocoles
Internet fonctionne suivant un modèle en couches, calqué sur le modèle OSI. Les
éléments appartenant aux mêmes couches utilisent un protocole de
communication pour s'échanger des informations.
Un protocole est un ensemble de règles qui définissent un langage afin de faire
communiquer plusieurs ordinateurs. Ils sont définis par des normes ouvertes, les
RFC.Chaque protocole a des indications particulières et, ensemble, ils fournissent
un éventail de moyens permettant de répondre à la multiplicité et à la diversité des
besoins sur Internet.
Les principaux sont les suivants :
16
IP (Internet Protocol) : protocole réseau qui définit le mode d'échange
élémentaire entre les ordinateurs participants au réseau en leur donnant une
adresse unique sur le réseau.
TCP : responsable de l'établissement de la connexion et du contrôle de la
transmission. C'est un protocole de remise fiable. Il s'assure que le destinataire a
bien reçu les données, au contraire d'UDP.
HTTP (HyperText Transfer Protocol) : protocole mis en œuvre pour le
chargement des pages web.
HTTPS : pendant du HTTP pour la navigation en mode sécurisé.
FTP (File Transfer Protocol) : protocole utilisé pour le transfert de fichiers sur
Internet.
SMTP (Simple Mail Transfer Protocol) : mode d'échange du courrier
électronique en envoi.
POP3 (Post Office Protocol version 3) : mode d'échange du courrier
électronique en réception.
IMAP (Internet Message Access Protocol) : un autre mode d'échange de
courrier électronique.
IRC (Internet Relay Chat) : protocole de discussion instantanée.
NNTP (Network News Transfer Protocol) : protocole de transfert de message
utilisé par les forums de discussion Usenet
SSL ou TLS : protocoles de transaction sécurisée, utilisés notamment pour le
paiement sécurisé.
UDP : permet de communiquer, de façon non fiable mais légère, par petits
datagrammes.
DNS (Domain Name System) : système de résolution de noms Internet.
ICMP (Internet Control Message Protocol) : protocole de contrôle du protocole
IP.
Indépendamment du transfert entre deux points, les passerelles doivent pouvoir
s'échanger des informations de routage. IGP (Interior Gateway Protocol), EGP
(Exterior Gateway Protocol) et BGP (Border Gateway Protocol) satisfont ce
besoin.
A .Définition et Objectif
1. Définitions
2. Objectifs
18
être exploité par l’entreprise : il faudra mettre en place d’autres activités dans le
but toujours de vendre.
2. Sources informelles
Les fournisseurs : il ne faut pas oublier que le même fournisseur peut être aussi
celui du concurrent. Il faudra donc pouvoir et savoir exploiter cette donnée.
Les colloques, les congrès, les clubs : on y échange des informations, on y est
communique. L’information qui y circule peut être d’une grande valeur stratégique.
19
Il ne faut pas hésiter à faire de nouvelles connaissances, de nouveaux contacts
qui peuvent former un réseau personnel.
les concurrents : ils organisent des portes ouvertes, font des communications
commerciale et financière, publient un journal interne, peuvent devenir nos
fournisseurs ou nos client, il peut y avoir un échange mutuel d’informations.
Les sources internes de l’entreprise : 80% des informations que recherche un
décideur se trouve dans son entreprise Il serait donc très important d’avoir et de
nouer des contacts internes aux entreprises de manière à savoir ce qui y se
passe.
certains sites web : des sites personnels, des études et recherche menées par
un groupe d’étudiants ou de thésard, etc.
les réseaux personnels : le cousin, l’ami commerciale de chez X, le
représentant de Y, le voisin qui travaille chez Z, l’écoute, « par hasard », d’une
conversation dans un avion, un train, lors d’un dîner…Dans la limite de la légalité
et de la déontologie.
3. Démarche de la veille
Définition des thèmes de veille
Recherche, collecte
Analyse, traitement, validation
Diffusion, utilisation
b. recherche et collecte
21
La bibliométrie et la scientométrie ont acquis un réel statut parmi les techniques
dont usent à présent les professionnels du traitement de l'information. Ce
traitement leur permet d’extraire ce qui peut intéresser leurs centres d’intérêt. La
validation de l’information s’effectue par un expert dans le domaine. Il décide que
tel information est intéressante que telle autre n’est pas tout à fais vraie et que tel
donnée est à développer, etc. Son expérience et son savoir du domaine lui
procure une certaine autorité vis à vis de la validité de l’information trouvée.
La recherche et l’analyse de l’information peut s’effectuer grâce des agents
intelligents. La principale contrainte à laquelle une société, une administration, une
ONG ou tout autre organisme peut être confronté, est celle du coût. La mise en
place d’une organisation interne de la veille suppose la disponibilité de ressources
humaines et matérielles :
Ressources humaines : l’entreprise peut former une ou plusieurs personnes,
internes, à la veille grâce à des stages de formation ou des formations continues.
Cependant, ces formations exigent parfois des pré-requis chez le candidat tant au
niveau informatique qu’au niveau informationnel : maîtriser l’outil informatique et
prétendre un savoir faire au niveau de la recherche de l’information. Face à cela,
faire appel à des consultants spécialisés dans les métiers de la veille permet d'être
accompagné dans la mise en place du service. Mais en raison du coût des
prestations, l'entreprise, et surtout la PMI, hésite et malheureusement renonce très
souvent à s'engager.
Ressources Informationnelles : l’accès à certains type d’information coûte cher
(Ex : l’information Brevet). Les sources d'information ne sont pas toujours
pertinentes ni fiables. La multiplicité des sources d’informations dans certains
domaines rend difficile le choix d’une source.
Ressources matérielles et logiciels : certains types de veille engendrent des
calculs mathématiques et des espaces de stockage considérables. Manque de
connaissances des outils de veille automatisée.
Les entreprises surveillent des secteurs géographiques toujours plus étendus, du
fait de l'internationalisation des marchés. Cependant, elles se limitent aux
documents en langue française ou éventuellement en anglais. Les informations en
langues rares (japonais, chinois,…), et même l'allemand, l'italien ou l'espagnol,
sont en général écartées de la collecte, non par manque d'intérêt mais par
manque de compétences linguistiques permettant de les exploiter. En pratique,
seules les entreprises ayant des filiales à l'étranger en profitent, pour les trois
quart d'entre elles, pour collecter sur place de l'information. Ces difficultés de
collecte et de traduction de l'information internationale sont des insatisfactions qui
forment des obstacles à une bonne surveillance internationale du marché.
Dans le TCAO, il faut bien distinguer l'aspect Travail Collaboratif et l'aspect usage
des technologies de l’Information et de la Communication (TIC).
Le travail collaboratif existe sans les TIC. Il constitue en soi un véritable défi
apprendre/savoir travailler en collaboration avec d’autres personnes. L’ordinateur
et les outils de la communication ne font qu’enrichir ce mode de travail, l’amplifier,
rendre possible de nouvelles situations, diversifier ses contextes de
fonctionnement. Partant de cette réalité, la problématique propre au TCAO peut se
22
résumer ainsi : quelles conditions faut-il réunir pour que cette « assistance par
ordinateur » puisse réellement être « au service » du travail collaboratif ? En
d'autres termes, à partir de quand l'usage des TIC devient une aide pour le travail
plus qu'une contrainte, parfois vécue comme étant plus ou moins imposée par
l'institution.
A. Le travail collaboratif
1. QUELQUES DEFINITIONS
23
o celle de collaboration qui précise les modalités de réalisation : une certaine
manière d’adhérer au projet commun et de s’impliquer, un certain type de partage
des tâches et d’attitude participative de chacun à l'effort de production.
2.1. Organiser
2.2. Communiquer
2.3. Partager
2.4. Produire
24
L'enjeu décisif du travail collaboratif reste la production. En effet, si un projet ne
peut jamais se réduire au résultat visé, seule la production assure le dynamisme,
et donc la vie (parfois même la survie) de l'action collective et du groupe. La
nécessité d'une production est une contrainte nécessaire qui va s'inscrire parmi
les autres contraintes (planning, moyens humains, financiers, …) mais qui, seule,
permet au final de juger et d'évaluer l'efficacité et la qualité du travail accompli par
le groupe. En l'absence de définitions d'objectifs en terme de production, le groupe
se trouve bien souvent confronté à des phénomènes d’errance qui tôt ou tard
finissent par submerger les acteurs, les démobilisent progressivement pour,
finalement, condamner le projet.
La notion de rôle introduit une autre dimension du travail collectif : non seulement
tous les intervenants ne font pas la même chose, mais chaque fonction se
rattache à un certain niveau de responsabilité dont découlent des droits et des
devoirs particuliers. La définition des rôles est une étape essentielle puisqu'elle
permet de préciser, en vue de l'objectif visé, les tâches et les responsabilités
nécessaires au bon fonctionnement du groupe.
Enfin, il reste à répartir, sur la base d'une approche discutée, négociée, acceptée,
l’affectation des rôles aux différents acteurs. Là encore, il s'agit d'une étape
importante car elle conditionne directement la configuration des outils utilisés dans
le TCAO, notamment par la médiation des notions de « profil » et « profilage » liés
aux environnements numériques de travail dont il est question au chapitre suivant.
En d’autres termes, la répartition des rôles sur un plan sociologique doit pouvoir
trouver sa traduction sur un plan technologique grâce aux possibilités de profilage
qu’offrent ces environnements.
25
1.1. Qu'entend-on par "outils" ?
26
La notion d’environnement ou d’espace numérique peut en fait se définir de
différents points de vue. On peut notamment caractériser un environnement ou un
espace de travail collaboratif en prenant en compte :
o son « périmètre », à savoir le public concerné (types d’acteurs,
nombresd’usagers), mais aussi la finalité (ce à quoi ça doit servir)
o son mode d’organisation du travail collaboratif (quels types de rôles attribués
aux différents acteurs pour quels types de répartition des tâches)
o son mode d’organisation des contenus (niveaux d’arborescence, types de
contenus, paramétrage de l’accès aux contenus,…)
La notion de « périmètre », très liée au nombre d’usagers, est fondamentale car
elle est déterminante des choix qui vont être retenus dans l’organisation du travail
collaboratif et l’organisation des contenus.
Pour illustrer la diversité des situations possibles relevant du TCAO, on peut citer
quelques exemples d’application :
o Groupes de 2-3 personnes à une quinzaine de personnes
– étudiants éloignés géographiquement préparant un exposé
– groupes de travail à thème (coordination des secrétariats d’un établissement,
Usages des TIC dans la pédagogie,…) ou autour d’un projet (préparation d’une
publication, rédaction d’un cahier des charges, mise en place d’une démarche
qualité,…)
o Groupes de plusieurs dizaines de personnes
– un espace réservé au club-photo étudiants
– un site web d’établissement géré collectivement par une équipe (relais-web)
– un intranet inter-établissement (Portices, Intra-Ciell, Anglais-interIUT, RézoWeb,
…)
o Groupes de plusieurs centaines de personnes
- un intranet d’établissement ou de composante
- une plate-forme d’enseignement à distance (FOAD)
Si donc on considère qu’un « environnement numérique » est la combinaison plus
ou moins cohérente d’un ensemble d’outils et/ou fonctionnalités, le choix
concernant la (ou les) solution(s) technologique(s) va avoir une incidence
considérable quant à la gestion de cette diversité de situations au sein d’une
même entité universitaire.
Modéliser la réalité des outils informatiques et/ou des fonctionnalités utilisés dans
le domaine du TCAO n’est pas chose évidente, surtout lorsque l’on a recours à un
schéma, nécessairement simplificateur, pour tenter de donner une vision
synthétique et immédiate de cette réalité complexe de par nature.
27
habitudes et les pratiques, mais aide aussi à mieux comprendre les résistances
que cette évolution génère, ce que nous ne manquerons pas d’illustrer en
présentant des exemples concrets du TCAO.
28
INTRATEK est pleinement opérationnel depuis septembre 2003, et WEBTEK
depuis mars 2005. DIDACTEK est déjà utilisé pour la mise en ligne de contenus
pédagogiques et le suivi des étudiants à distance, et sera complètement achevé
en juin 2006 avec la finalisation de son module « administration d’une formation à
distance ».
Dans toutes les plates-formes X-TEK, l’organisation des contenus est simple. Il
s’agit essentiellement de pages ou de « documents » (quel que soit le type de
fichiers) rangés dans des dossiers en trois niveaux d’arborescence (catégories,
rubriques, sous-rubriques). Ce qui rend la navigation immédiatement « lisible »,
donc facile. Ces dossiers peuvent être de nature différente : dossier « 1 seule-
page », dossier-liste, dossier-menu, pour les contenus propres à la plate-forme ;
mais aussi dossier « pages web externe » pour des contenus venant « de
l’extérieur » (lien pointant sur un autre serveur).
X-TEK permet également la création d’autres types de « dossiers », appelés «
modules de fonctionnalités » : messageries internes, calendriers, forums,
trombinoscopes, édition de listes d’utilisateur, mise en oeuvre de formulaires en
ligne,…
Sur l’ensemble des plates-formes un dispositif de publication assistée (ave éditeur
« wysiwyg » de pages HTML, masques de publication,…) a été conçu pour
faciliter la création de pages et la mise en ligne de tous types documents et/ou de
ressources.
Les droits d’accès aux contenus d’une plate-forme se gèrent dossier par dossier,
et même page par page, c’est à dire de manière très fine. Ce paramétrage
s’effectue grâce à un système de profilage à trois niveaux : les profils génériques,
les profils de groupe et les profils personnalisés, ce qui permet de s’adapter aux
situations les plus diverses.
INTRATEK est un module d’application plus spécifiquement dédié à la création
d’espaces de travail collaboratif, quel que soit le nombre d’utilisateurs (du groupe
de 2 ou 3 personnes sur un projet ciblé, à des intranets d’établissement). Une
même plate-forme peut gérer un nombre illimité de groupes disposant de leur
propre espace de travail ainsi que de droits qui leur sont spécifiques.
X-TEK, une certaine idée des environnements numériques de travail La
technologie X-TEK favorise la multiplication de plates-formes autonomes dédiées
à un usage très ciblé évitant ainsi les risques liés aux environnements qui
prétendent pouvoir regrouper en un seul et même « espace virtuel » tous les
services numériques actuellement exploitables à des fins universitaires, mais dont
le degré de complexité et le manque de souplesse déroutent complètement les
utilisateurs. L’idée est bien de proposer aux usagers des environnements de
travail « à leur mesure » où chacun trouve tous les outils et toutes les ressources
dont il a besoin pour la tâche qu’il a à accomplir, sans avoir à s’encombrer des
outils et ressources qui ne le concernent pas.
L’un des obstacles majeurs à l'utilisation efficace des TICE, et en particulier dans
le cas du travail collaboratif, tient à un fait souvent méconnu ou sous-estimé : la
non prise en compte de la dimension sociologique dans la conception et la mise
29
en œuvre des projets. Les technologies tiennent le devant de la scène : on est
dans le domaine du « concret » et du « tangible », mais il faut être aussi dans
celui de l’ « innovation ». Les équipes mises en place, constituées « d'experts » et
de techniciens, abondent également en ce sens : l’horizon naturel de leur
expertise et de leur savoir-faire est aussi, le plus souvent, celui des technologies.
La gestion de projet participe de cette même illusion : une équipe restreinte de
personnes qualifiées conçoivent, puis passent le relais aux techniciens chargés de
la mise en œuvre et, lorsque tout est en place, on commence à s'intéresser aux
usages, peut-être même, parfois, aux usagers. Et pourtant, comment peut-on
méconnaître l'impact d'un tel projet sur le fonctionnement de l'organisation, sur les
rouages des institutions et sur le quotidien des acteurs ? C'est, au mieux, un
changement dans les habitudes de travail qui est sollicité, mais parfois, c'est un
changement bien plus profond que l'introduction des technologies induit : en
particulier lorsqu'elles remettent en cause les positions de pouvoir et l'équilibre
des forces entre les acteurs. Comment s'étonner, dans de telles conditions, de voir
se développer des conduites de retrait, de contournement ou d'opposition de la
part des principaux intéressés : les usagers ? Comprendre l'organisation au
niveau sociologique, prendre en compte les rapports de force, mesurer l'impact du
projet que l'on veut mettre en œuvre, c'est à ce niveau que se trouve la pierre
angulaire des usages. Cette dimension doit donc être intégrée dès le départ si l'on
souhaite donner les meilleures chances de succès à un projet. La prise en compte
de cette dimension sociologique se traduira notamment, et très concrètement,
dans la définition et dans la répartition des rôles au sein du groupe.
2. Le dispositif d'accompagnement
30
3. ASPECTS MATERIELS ET LOGICIELS
31
3.2. La question de la gestion des usagers (annuaire LDAP et
authentification unique SSO)
32
exemple la facilité et le confort de l’usage, la simplification des tâches au
quotidien, le plaisir du travail effectué avec efficacité… ?
Dans certains pays, il est indéniable que les NTIC ont un effet sur la croissance:
Les industries américaines liées au NTIC, qui représenteraient aujourd’hui environ
8% du PIB, ont contribué pour plus d’un tiers à la croissance de l’économie entre
1995 et 1998. Outre l’effet direct des NTI sur l’accumulation du capital, leur
diffusion à l’ensemble du processus de production aurait entraîné une accélération
durable du progrès technique, grâce notamment aux économies d’échelle et
externalités de réseau engendrées. Il est possible que la plus grande partie de ce
potentiel est sans doute à venir (Paul David démontre d’après les révolutions
technologiques précédentes que l’incorporation de nouvelles technologies prend
toujours plusieurs années avant de se traduire en accélération du progrès
technique).
Il est donc possible que les investissements considérables réalisés dans les NTIC
depuis le début des années 1990 finissent par entraîner une accélération de la
productivité plus forte qu’elle ne l’a été récemment. Les évolutions observées en
France sont semblables qualitativement à celles observées aux États-Unis mais
nettement moins impressionnantes quantitativement. Le poids des nouvelles
technologies de l’information et de la communication (NTIC) dans l’économie est
passé de 3,5% en 1980 à 4,8 en 1999. La croissance du capital informatique en
France ne contribue qu’à une augmentation de 0,3% de la croissance d’ensemble
de l’économie française (contre 0,6% aux États-Unis).
De plus l’INSEE (institut national de la statistique et des études économiques) a
montré que la diffusion de l’informatique se faisait de façon hétérogène. On
constate également un essor du commerce électronique, qui modifie les
conditions d’échange en intensifiant la concurrence mais aussi en favorisant les
collusions entre les vendeurs. Les marchés électroniques concernent
majoritairement les transactions entre entreprises (B2B) et dans une moindre
mesure les particuliers (B2C). Au milieu des années 1990, Robert Solow a formulé
son célèbre paradoxe : « Je vois des ordinateurs partout, sauf dans les chiffres de
la productivité ». Le développement des NTIC semble engagé, mais ses effets
d’entraînement réels sur les économies en général restent discutables. Ceci peut
s’expliquer par la nécessité d’un temps d’adaptation ; il est très difficile de prévoir
l’effet des TIC sur l’économie en général. Le ralentissement américain ramène le
débat à plus de réalisme.
33
Conclusion
34
Bibliographie
Dictionnaire de gestion
Amina BENRAISS : cours NTIC
Les sites
fr.wikipedia.org
www.iaat.org/.../veille_strategique_note_synthese.pdf
www.xtek.fr/index2.phpspecial=fichier_page&id=14
www.veille.ma
www.commentcamarche.net
www.manager-go.com
www.doc-etudiant.fr
35