Académique Documents
Professionnel Documents
Culture Documents
À SURVEILLER DE PRÈS
T E C H N O L O G I E S
> ◗ Antivirus
◗ Chiffrement
◗ Coupe-feu ou firewall
>
◗ LDAP (Light Directory Access Protocol)
◗ Services Web
14
T E C H N O L O G I E S
> Antivirus
N O U V E L L E S
technique. La recherche de “ signature virale ” est la méthode la plus répandue et jugée la plus
fiable. Elle s’attache à détecter des séries d’octets susceptibles de dégrader les systèmes, avant
de donner l’alarme et de détruire l’intrusion.
Toutefois, la méthode est restreinte aux signatures connues. Pour palier ce problème, les
développeurs exploitent des technologies d’analyse comportementale. L'antivirus scrute les
appels systèmes tels que les accès disque ou les déplacements en mémoire pour les comparer,
en temps réel, aux profils viraux répertoriés.
Il existe une troisième méthode baptisée “ contrôle d'intégrité ” qui vérifie l’intégrité des
fichiers et des systèmes. Malheureusement cette analyse, infaillible, ne donne l’alerte que
lorsque les fichiers sont déjà infectés.
Principaux acteurs :
L E S
Symantec - Norton Antivirus
Networks Associates Technology - VirusScan
Trend Micro Viruswall
Sophos
F-Secure
S U R
Tegam
Finjan Software
S
U
C
O
F
15
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
La BLR exploite les ondes hertziennes pour relier un utilisateur à son opérateur Internet sans
passer par l'infrastructure locale câble ou téléphone. L’Internaute doit déployer un terminal
radio équipé d'interfaces Ethernet, série et RNIS, ainsi qu’une antenne radio plate et
bidirectionnelle, capable de couvrir un rayon de plusieurs kilomètres pour se relier à la
station de l’opérateur.
débit, de 64 kbit/s à 4 Mbit/s en standard, et jusqu'à 16 Mbit/s pour une entreprise. Son
déploiement est également moins onéreux qu’un réseau traditionnel. On considère qu’une
station locale doit desservir entre 200 et 300 abonnés. Elle émet sur deux bandes de
fréquences radio : 3,5 GHz pour les licences nationales et les DOM-TOM, et 26 GHz pour les
licences nationales et régionales.
Aujourd’hui et malgré ses promesses, la BLR ne décolle pas. A peine un millier d’entreprises
ont désiré tester la technologie. A l’étranger, les résultats ne sont pas meilleurs. En France, la
première raison tient à la puissance de France Télécom. L’opérateur historique se montre
hostile à cette technologie et favorise les connexions DSL qui transitent par ses lignes. Il n’a
d’ailleurs pas concouru aux appels d’offres lors de l’attribution des fréquences. La BLR souffre
aussi de l’effondrement financier et économique des opérateurs détenteurs de ces fréquences.
Pour être honnête, ces opérateurs n’ont pas réussi à convaincre les utilisateurs de leur savoir-
faire technique. Personne ne désire essuyer les plâtres et la BLR doit encore faire ses preuves
tant pour la continuité permanente des transmissions que pour leur sécurité. Cependant les
L E S
deux opérateurs majeurs de la BLR, FirstMark filiale du Groupe Suez et Squadran du groupe
Louis Dreyfus Communication (LDCOM) disposent des ressources nécessaires pour
permettre le décollage prochain de la technologie.
S U R
S
U
C
O
F
16
T E C H N O L O G I E S
> Chiffrement
N O U V E L L E S
du document à protéger. L’inversion de l’algorithme permet de retrouver la forme initiale. La
protection est encore renforcée par l’apport d’une “ valeur ” mathématique indépendante de
l’algorithme initial que l’on injecte pour chiffrer et déchiffrer. C’est cette “ valeur ” que l’on
appelle communément la clé. La faiblesse de la clé symétrique repose sur l’emploi simultané
du même code par deux personnes distantes. Le secret est donc difficile à maintenir. La clé
asymétrique offre à cet égard d’autres avantages. Le principe consiste à séparer le chiffrement
et le déchiffrement en deux clés distinctes. L’une chiffre, l'autre déchiffre et aucune ne peut
faire les deux. On peut rendre public une clé pour autoriser n’importe qui à envoyer un
message protégé. Et inversement garder secrète, la clé de déchiffrement. La méthode est donc
nettement plus sûre, mais plus lourde à déployer.
Enfin, le nombre d’octets employés par les algorithmes multiplie le nombre de possibilités
de formules de quelques milliers à plusieurs millions de possibilités pour les clés à 128 ou
256 bits.
L E S
Algorithmes symétriques :
AES : standard du gouvernement américain libre de droit.
Blowfish. Libre de droit.
CAST : 128 bits. Libre de droit.
DES : autre standard du gouvernement américain, développé par IBM. Libre de droit.
S U R
IDEA : algorithme suisse, couvert par un brevet.
RC4, RC5, RC6 : suite d'algorithmes. RC4 est libre de droit.
Towfish. Libre de droit.
Algorithmes asymétriques :
S
RSA : premier algorithme à clé publique. Le plus utilisé dans le monde. Libre de droit.
O
F
17
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
Dispositif matériel et/ou logiciel pour protéger les sites Internet. Les coupe-feu ou firewall
sont des méthodes physiques ou logicielles qui protègent les réseaux informatiques des virus
ou des intrusions de pirates en filtrant les connexions et les flux de données internes et
externes.
Le fonctionnement du firewall repose sur l’analyse permanente des échanges de données afin
de les autoriser et de les bloquer en fonction de critères définis par les ingénieurs réseau. Le
coupe-feu permet ainsi d’orienter les connexions vers tel ou tel de ses services Internet ou de
N O U V E L L E S
ses serveurs de messagerie. Un administrateur réseau peut également bloquer les échanges de
fichiers musicaux ou vidéo pour protéger ses serveurs et économiser ses ressources.
Au départ le mécanisme des firewall était de scruter chaque “ paquet ” de données transmises
par Internet, d’analyser les adresses IP à travers leurs en-têtes et de suivre leurs modes
d’acheminement. Le filtrage dynamique s’est depuis imposé. Il permet de créer des
historiques de connexion ce qui accélère les transferts et mobilise les défenses du réseau sur
les nouveautés absolues qui lui parviennent. Les “ proxy ” constituent ainsi le gros des firewall
déployés en avant des réseaux d’entreprises.
Aujourd’hui, les informaticiens ont le choix entre le déploiement de matériels spéciaux
baptisés routeurs ou la mise en œuvre de logiciels. Le marché est âprement disputé entre
plusieurs grands ténors (cf. liste), aussi les constructeurs améliorent-ils progressivement les
capacités des matériels qui peuvent gérer aussi bien les ressources en bande passante que les
antivirus.
L E S
Logiciels :
Guardian Pro de Netguard
ISA Server de Microsoft
S U R
Netgear
NetScreen
Privado
Secure Computing
U
C
O
F
18
T E C H N O L O G I E S
> DSL (Digital Subscriber Line),
le haut débit à la portée de tous
N O U V E L L E S
Il existe plusieurs variantes de transmission DSL. L'ADSL (Asymetric DSL) qui procure un
débit plus important en réception qu'en émission, est la plus répandue dans le grand public
et les TPE. L’ADSL permet ainsi un débit montant de 16 à 640 kbit/s et un débit descendant
compris entre 1,5 et 8 Mbit/s. Outre la vitesse des transmissions, l’ADSL réserve une partie de
la bande passante pour le transport de la voix. Les entreprises plus importantes peuvent opter
pour la SDSL (Symetric DSL) qui permet de connecter des sites Internet de manière
parfaitement synchronisée. Cette technologie est diffusée par plusieurs opérateurs sauf France
Télécom.
Le coût des connexions constitue encore le premier frein à la diffusion plus rapide des
connexions DSL. Les opérateurs alternatifs reprochent à France Télécom de maintenir des
tarifs d’interconnexion au réseau public trop élevés. A sa décharge, l’opérateur historique peut
mettre en avant des injonctions de l’Autorité de Régulation des Télécommunications de
remonter ses tarifs, au motif d’une distorsion de la concurrence…
L E S
Principaux opérateurs :
France Télécom
Colt
Easynet (SDSL)
Tiscali
S U R
S
U
C
O
F
19
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
>
EAI (Enterprise Application Integration)
ou méthode pour relier et intégrer
les applications hétérogènes
L’EAI ou intégration d'applications d'entreprise est une plate-forme qui relie l’ensemble des
applications d’un système d'information autour d'un bus logiciel commun, chargé de
transporter les données informatiques.
L’EAI évite de développer des programmes spécifiques chaque fois qu’il faut relier deux
progiciels. Le déploiement d’un protocole commun, applicable à tous les progiciels, bases de
données et autres constituent un vrai soulagement pour les informaticiens contraints
jusqu’ici de consacrer une part toujours plus importante de leur activité à la seule
maintenance des programmes de connexion.
N O U V E L L E S
Techniquement, les plates-formes d'EAI sont considérées comme des espèces de multiprises
où viennent se ficher des applications de manière “ simple ” et standardisée. La répartition
des applications s’effectue de façon ordonnée et fonctionnelle, en fonction de leur genre.
Les bénéfices de cette technologie résident dans la plus grande sécurisation du système, ainsi
que l’amélioration de sa souplesse de fonctionnement.
Aujourd’hui, le coût d’une solution EAI est encore très élevé. Les éditeurs spécialisés
commercialisent un noyau comprenant la plate-forme avec un petit nombre de “ prises ”.
Les connecteurs suivants sont vendus séparément entre 30 000 et 300 000 € l’unité, selon la
complexité de l’applicatif à intégrer au système. On l’a compris, l’EAI est une technologie
réservée aux très grandes entreprises. Mais comme pour toutes les technologies, le poids de la
concurrence et l’amortissement progressif des solutions permet de faire baisser les tarifs. On
peut également faire confiance au marché pour diffuser rapidement vers les PME des
L E S
50 éditeurs sur les deux rives de l’Atlantique. Les principaux sont Vitria, Tibco et webMethods.
D’autres comme Cape Clear ou Sunopsis se spécialisent sur tel segment du marché. A noter
l’apparition d’un nouvel entrant aux dents longues : Microsoft. Le leader mondial de l’édition
informatique a bien compris qu’un EAI bien conçu ressemblait par bien des aspects avec un
Operating System…
S
U
C
O
F
20
T E C H N O L O G I E S
>
e-signature (signature électronique)
la garantie de l'authenticité
et de l'intégrité d'un message
N O U V E L L E S
du document et l’impossibilité de répudier ce document constituent donc, les piliers légaux
qui sécurisent les transactions et autres contrats passés sur le Web.
L E S
Il n’existe aujourd’hui, aucune autre technologie d’authentification capable de concurrencer
la e-signature. Si son développement repose aujourd’hui sur la volonté des pouvoirs publics,
on peut s’attendre à une généralisation de son usage pour les échanges de données
électroniques (EDI) ou pour authentifier les documents électroniques entre particuliers,
commerçants et clients ou entre employeurs et employés.
S U R
Les principaux acteurs :
Logiciels de PKI :
Baltimore, Entrust, Lexign, nCipher, Rainbow Technologies, RSA Security, Safelayer, Silanis,
Trustycom.
S
21
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
>
IPv6 ou Internet Protocol Version 6 :
protocole de 3e niveau qui sera utilisé
pour véhiculer l'information sur Internet
IPv6 est l'adressage électronique de la prochaine décennie. Par rapport à la version actuelle de
l’Internet Protocol (IPv4), IPv6 ajoute des fonctions de cryptage à 128 bits et de gestion
automatisée de la Qualité de Service (QoS). Le déploiement d’un nouveau protocole
d’adressage répond à un vrai soucis. Les experts ont calculé qu’Ipv4 sera à saturation entre
2005 et 2008 : ses quelques 4,5 milliards d’adresses Internet seront totalement attribuées.
Le Réseau absorbe en effet chaque jour davantage d’utilisateurs, particuliers ou entreprises.
Il doit également gérer une variété toujours plus grande de terminaux connectables : GSM,
voitures, téléviseurs…
N O U V E L L E S
Le système d’adressage doit aussi prendre en compte les nouveaux dispositifs de compression
de données ou de sécurité.
IPv6 est doté d’une capacité d’adressage phénoménal qui doit lui permettre d’attribuer une
adresse Internet fixe à tous les systèmes reliés au Web. En pratique, n’importe quel terminal
pourrait ainsi être directement relié à Internet sans passer par un Fournisseur d’Accès
Internet !
Et comme cette prouesse ne suffit pas, IPv6 améliore sensiblement la sécurité des
transmissions. La norme sera à même d’identifier de façon sûre une source d’émission ou un
terminal connecté. Les informaticiens sauront également apprécier la capacité du système à
s’auto-administrer, et à surveiller le niveau de la bande passante. Ils apprécieront également
les fonctions d’auto-configuration qui leur éviteront de créer, d’attribuer et de gérer les
adresses IP des utilisateurs de leur entreprise, y compris les personnels nomades.
Pour réussir la transition d’IPv4 vers IPv6, il faut encore convaincre les entreprises. Malgré les
L E S
avantages du nouveau système d’adressage, l’affaire n’est pas gagnée. Les professionnels ont
encore des adresses en réserve et surtout, ont lourdement investi dans des technologies et des
méthodes de gestion de QoS ou de sécurisation.
S U R
S
U
C
O
F
22
T E C H N O L O G I E S
> LDAP
(Lightweight Directory Access protocol)
Ce protocole permet la gestion d'annuaires, c’est à dire l'accès à des bases d'informations sur
les utilisateurs et les ressources d'un réseau d'entreprise.
Le protocole LDAP sert à gérer les annuaires d’entreprise, c’est-à-dire qu’il permet d’accéder à
l’ensemble des informations qui portent sur les personnes connectées à un réseau
informatique. En synthétisant des données informatiques de toutes sortes, l’annuaire LDAP
permet d’organiser de manière cohérente les nombreuses bases de données et fichiers
contenus dans un réseau. L’annuaire LDAP indexe en effet des renseignements aussi différents
N O U V E L L E S
que les droits d’accès aux logiciels informatiques ou que les heures d’entrée et sortie du
personnel.
L’annuaire gère également les adresses IP des membres d’une entreprise. Il est également
possible de déployer un “ multi-annuaires ” pour couvrir les besoins d’une entreprise
multi-sites qui exploite plusieurs annuaires LDAP.
D’après les analystes d’IDC cette technologie est promise à un bel avenir : le nombre
d’annuaire LDAP en service devrait passer de 2 à 4 millions entre 2000 et 2005, pour un
volume de plus d’1 milliard €.
L E S
Les principaux acteurs :
Novell eDirectory
Sun Directory Services
S U R
Microsoft Active Directory
Siemens DirX
Critical Path Global Directory Server
Syntegra Global Directory
Sun/Netscape iPlanet Directory Server
OpenLDAP, annuaire LDAP pour Unix livré en open source
S
U
C
O
F
23
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
>
Olap (OnLine Analytical Processing)
technologie d’analyse des données
de l'entreprise
Olap est la technologie d'analyse directe des données à des fins commerciales ou de
production, fondée sur des requêtes structurées, à partir de critères combinés appelés
dimensions.
Olap reflète donc les tendances d’une activité comme l’évolution des ventes et des achats. Les
entreprises fixent des axes logiques de suivi d’activité : région, usines, réseaux de distribution,
qui deviennent autant de “ dimensions ”. Toutes les opérations et valeurs se rapportant à une
dimension sont calculées par le moteur Olap. La technologie permet de réaliser des
N O U V E L L E S
opérations plus ou moins complexes à un rythme élevé. Les spécialistes de cette technologie
appellent “ cube ” l’ensemble des calculs réalisés par un moteur Olap.
La mise en œuvre d’un moteur Olap commence par la création d’une base de données qui
consolide les informations d’un site de production ou de diffusion. Les informaticiens
déploient ensuite une structure baptisée “ étoile ” ou “ flocon ” avec au centre une
“ dimension ” économique. L’alimentation en information de la base de données s’effectue
par un agent électronique baptisé ETL (Extract, Transform, and Load). Le moteur Olap n’a
plus qu’à réaliser les requêtes demandées par les utilisateurs.
Les moteurs Olap sont donc utilisés aussi bien par les commerciaux que par les financiers et
les décideurs soit pour modéliser un plan d’action, soit pour le valider et si besoin à l’infirmer
en cours de réalisation. Leur atout majeur réside dans leur simplicité : pas besoin d’être
informaticien ou même formé aux langages informatiques pour effectuer leurs requêtes.
L E S
24
T E C H N O L O G I E S
> Peer-to-peer : partager et répartir
traitements et données
Peer-to-peer (P2P, pair à pair) : Réseau de partage sans intermédiaire des capacités de
plusieurs ordinateurs, agissant simultanément comme clients et serveurs.
Le peer-to-peer ou point à point peut se définir comme une méthode de partage sans
intermédiaire des capacités de plusieurs ordinateurs. Chaque machine sert indifféremment
comme serveur ou comme terminal.
Les ordinateurs d’un réseau peer-to-peer constituent une sorte de maillages d’un vaste réseau.
Cette organisation existe depuis toujours. Il s’agit de la base même du World Wide Web qui
N O U V E L L E S
exige une transparence totale entre l’émetteur d’un message et son destinataire. Elle permet
de fédérer des matériels hétérogènes, de puissance inégale, régis par différents Operating
System (Windows, Linux, Mac OS…).
Grâce à cette simplicité opératoire, le peer-to-peer permet de mutualiser des ressources de
calcul considérables. C’est ce que l’on appelle le Grid Computing. Par exemple, à la suite d’un
appel lancé lors du dernier Téléton, des milliers d’internautes français ont mis leurs micro-
ordinateurs au service de la recherche scientifique. Pour participer à ce mouvement fédéré par
IBM, il suffisait de s’inscrire et de laisser son ordinateur ouvert pendant la nuit.
L E S
sur cette base que des progiciels comme “ Groove ” peuvent exploiter en temps réel des
données de messagerie par des logiciels bureautiques.
S U R
s’avère également convaincant sur le plan de la Qualité de Service (QoS). En revanche, il
pêche encore sur le plan de la sécurité. Les experts s’attendent à ce que ces problèmes soient
rapidement résolus : d’après les analystes de Frost & Sullivan, les 61 000 entreprises
utilisatrices de prestations peer-to-peer fin 2001 seront 6,2 millions en 2007. S
U
C
O
F
25
T E C H N O L O G O E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
La QoS (Qualité de Service) est la technologie employée pour garantir un trafic de données
informatique dans les meilleures conditions d’acheminement possibles quelle que soit la
nature des données. La QoS fixe les priorités d’acheminement selon les critères définis par les
N O U V E L L E S
administrateurs réseau.
Cette technologie est issue des recherches des constructeurs d’équipements pour les réseaux
comme Cisco ou Alcatel. En effet, Internet avait été conçu pour transporter des données
informatiques simples. Or la montée en puissance des envois de fichiers sonores, vidéos et
téléphoniques fort gourmands en mémoire a exigé le déploiement de matériels
(commutateurs, routeurs…) fiables à chaque point du réseau, ainsi qu’une refonte de
l’architecture même du réseau.
Les opérateurs Internet et leurs fournisseurs en équipements ont donc mis en œuvre de
nouveaux mécanismes pour garantir la disponibilité parfaite des applications, réduire autant
que possible la perte d’informations et de données lors des phases de transmission. Il faut
souligner que le déploiement de ces matériels n’a pas compliqué le fonctionnement
d’Internet. La QoS contrôle donc le débit utile pour transmettre une application, les délais de
transmission, la variation des délais de transmission et le niveau des pertes.
Aujourd’hui, trois grands types de protocole de QoS se partagent les faveurs des fournisseurs
et utilisateurs : Intserv qui libère et conserve les ressources en bande passante, Diffserv qui
L E S
opère une distinction et une gestion par classe de données et MPLS (MultiProtocol Label
Switching) qui augmente les transferts de données en augmentant la vitesse de transmission.
La plupart des équipementiers proposent des matériels avec l’une ou l’autre des technologies
de QoS, mais Cisco, IBM et Juniper sont particulièrement en pointe pour les prestations
MPLS.
S
U
C
O
F
26
T E C H N O L O G I E S
> Réseau Privé Virtuel
(RPV, Virtual Private Network ou VPN)
Technique qui consiste à relier par Internet des sites distants privatisés.
Le Réseau Privé Virtuel ou Virtual Private Network (VPN) est une méthode de liaison par
Internet qui exploite le réseau public via un tunnel privatif créé grâce à un procédé de
chiffrement des données.
Les réseaux VPN sont aujourd’hui largement employés par les entreprises désireuses
d’organiser un réseau de communication aussi bien avec leurs filiales et leurs implantations
N O U V E L L E S
qu’avec leurs clients et leurs partenaires. Ces réseaux permettent aussi de relier des personnels
itinérants ou éloignés au “ centre ”. Le concept du VPN consiste à exploiter l’infrastructure
publique de télécommunications en solutionnant trois grands problèmes : transporter des
flux de données hétérogènes par des matériels qui exploitent des protocoles différents, assurer
la sécurité des informations sur le réseau public, et respecter des normes de qualité de service
élevées (QoS).
Le déploiement d’un VPN suppose l'installation d'une passerelle sur le point d'entrée du site
central (serveur informatique, routeur, firewall...) afin d’ assurer la gestion des sessions de
communication et leur chiffrement en identifiant les personnes autorisées à se relier au VPN.
Afin de privatiser la transmission, le VPN créé un “ tunnel ”, c’est à dire un chemin spécifique
entre les deux points à relier au sein du réseau public. Les informations privées sont insérées
à l’intérieur des données publiques. Les spécialistes baptisent ce mécanisme comme un
“ encapsulage ”. La protection est créée au moment de l’envoi, et la nature de cet
“ encapsulage ” est identifiée puis décryptée à l’arrivée.
Plusieurs méthodes et protocoles sont employés pour y parvenir : PPTP, L2F, L2TP, et IPSec.
L E S
Les trois premiers sont conçus pour accéder au réseau de l'entreprise à distance mais s'en
remettent à PPTP ou à IPSec pour assurer les fonctions de sécurité. Le quatrième, IPSec est
donc à la fois une technique de création de VPN et de sécurisation des informations. Il définit
de manière complète les méthodes de confidentialité, d’intégrité et d’authenticité des paquets
de données.
S U R
Les principaux acteurs :
L’ensemble des constructeurs d’équipements de réseau* commercialise des matériels avec des
fonctions VPN :
Microsoft ou Novell installent les briques VPN sur leurs logiciels de gestionnaire de réseau
Windows ou Netware. Les opérateurs télécoms proposent également des services VPN. Le
S
tunnel est alors ouvert depuis le point d’accès Internet. L’intérêt de l’opération est de soulager
les utilisateurs de la gestion de ce problème.
*3Com, BinTec, Cisco, Eicon, Foundry, Intel, Juniper, Lucent, Nokia, Nortel Networks, WatchGuard...
U
C
O
F
27
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
Pendant des années, le stockage a été considéré au mieux comme une sous-spécialité de
l’informatique. La numérisation des données et Internet ont provoqué une croissance
exponentielle des besoins de stockage. La législation obligeant les entreprises à conserver dix
années de documents comptables ajoute encore à cette inflation. Les mega-octets ont cédé la
place aux giga-octets (1000 mega) et aux tera-octets (1000 gigas). Nombre d’entreprises ne
peuvent plus se contenter d’accoler aux serveurs une librairie, sorte de gros magnétophone
pour protéger les informations. Plusieurs technologies se disputent les faveurs des
informaticiens d’entreprises.
N O U V E L L E S
Le Storage Area Network (SAN) répond à cette préoccupation en consolidant des données
dites hétérogènes, c’est à dire de nature différente. La technologie sépare la gestion physique
des données de la gestion des serveurs d’application. En ce sens, le SAN soulage le réseau
informatique interne (LAN). Il permet de mobiliser davantage de ressources de calcul pour
les applications critiques de l’entreprise, comme les ERP, la gestion des sites intranet et
extranet, le groupware etc…
Par rapport aux méthodes traditionnelles de stockage, le SAN agit comme un réseau
informatique, secondaire mais à part entière qui augmente la disponibilité des données en
centralisant l’administration des données. Ce réseau est conçu autour d’une architecture à
haute disponibilité pour éviter les pertes d’informations et redémarrer le LAN en cas de panne
à partir d’une image la plus fidèle possible. A partir de n’importe quel point du LAN, un
utilisateur peut donc accéder à n’importe quelle donnée stockée sur le SAN.
Techniquement le SAN s’est d’abord caractérisé par une connexion Fibre Channel avec le
L E S
LAN, capable de transmettre les données à la vitesse de 100 Mbits/s. Le réseau exploite des
baies de disques empilables capables de gérer plusieurs dizaines de Teraoctets. La répartition
et la gestion des paquets de données s’effectuent par des commutateurs spécialisés. En
pratique, les informaticiens déploient des matériels un peu moins performants, mais
sensiblement moins onéreux : concentrateurs (hubs) à la place des commutateurs (switchs),
connexion Gigabit Ethernet à la place de la Fibre Channel, librairies de bandes à la place des
S U R
baies…
Les principaux défauts du SAN sont une interopérabilité imparfaite entre les serveurs de
marques différentes, un manque d'outils d'administration centralisée pour équipements
hétérogènes et, surtout, un coût encore élevé.
Le stockage est l’un des très rares secteurs qui devrait profiter d’une croissance importante sur
ces prochaines années : 25 milliards de dollars pour le SAN en 2004 contre 4,5 en 2001. Du
coup, les utilisateurs n’ont que l’embarras devant une offre devenue pléthorique.
U
Les grands noms du secteur sont EMC, Storagetech, ADIC et Hitachi. Ils se heurtent à la
montée en puissance des constructeurs informatiques comme IBM, Sun et Hewlett-Packard.
Les principaux fournisseurs de matériels réseaux sont Brocade, Gadzook, Vixel et Cisco. Enfin,
C
les éditeurs de solutions SAN les plus réputés sont Veritas, Legato, Quadratec, Computer
Associates et IBM.
O
F
28
T E C H N O L O G I E S
>
Services web : l'architecture applicative
de demain fondée sur l'assemblage
mobile de composants
Les Services Web (SW) peuvent être définis comme une méthode de développement et de
déploiement d’applications Internet qui repose sur l’assemblage de briques et de composants
logiciels indépendants baptisés Services. L’architecture des SW, qui n’est pas encore
normalisée, repose sur un mille-feuille de couches : transport des données, échanges
informatiques, communication, présentation des services… Chacune de ces couches est liée
à un langage de description spécifique.
L’apparition, toute contemporaine, des Services Web répond à la contrainte suivante. Les
N O U V E L L E S
directions opérationnelles des entreprises (production, R&D, finances…) demandent à
l’Informatique des solutions fonctionnelles nouvelles, capables de s’insérer dans les
nouveaux systèmes d’information, ouverts et communicants. L’introduction de ces SW doit
aussi s’effectuer rapidement, mais sans compromettre les applicatifs exploités par l’entreprise.
D’un point de vue technologique, les composants des SW sont assemblés alors qu’ils sont
d’une nature radicalement différente. Chacun des Services est focalisé sur une application
métier. Et pour communiquer entre eux, les SW publient l’ensemble des fonctions mise à la
disposition des autres et du système en général. Divers protocoles comme Soap assurent les
communications entre SW. Ils acheminent des appels de procédures distantes rédigés selon le
langage informatique XML : adresse d’envoi, désignation de la procédure à exécuter et gestion
des paramètres. Pour fédérer les multiples SW, les informaticiens construisent des annuaires
d’entreprise à partir d’un standard baptisé UDDL. Les utilisateurs disposent ainsi d’une vision
cohérente des services applicatifs auxquels ils ont accès. Associés à l’annuaire, des documents
informatiques décrivent la nature des SW proposés et les interfaces disponibles.
L E S
La production d'applications distribuées est une tâche très complexe. Il faut choisir une
architecture du système d’information avec son environnement de développement. Il s'agit
ensuite de mettre en place l'architecture de développement. Ces procédures ne sont pas à la
portée de tout le monde : les directions informatiques ont intérêt à recourir à des personnels
qualifiés, certifiés par les éditeurs de services.
S U R
Les principaux acteurs :
Tous les éditeurs d'environnements de développement et de logiciels d'infrastructure
commercialisent aujourd'hui des services web.
Les offres les plus importantes émanent d’IBM (WebSphere), de Microsoft (.NET) et de Sun
S
(SunONE).
U
C
O
F
29
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
>
UMTS
(Universal Mobile Telecommunication System)
ou la téléphonie de 3e génération
L’ UMTS peut être défini comme le téléphone de la troisième génération. Ce système universel
de télécommunication mobile doit remplacer les réseaux de téléphonie mobile actuels, dits
de deuxième génération ou GSM. L’intérêt de l’UMTS est de délivrer un débit de données
capable d’atteindre 2 Mbit/s, c’est à dire 200 fois plus que la technologie actuelle ou quatre
fois plus qu’une liaison ADSL !
Cette puissance permet de proposer à tous les utilisateurs, professionnels comme particuliers,
des terminaux combinant une large gamme de services : téléphonie bien sur, mais aussi
transmission de données informatisées comme le courrier électronique ainsi que des
N O U V E L L E S
Les principes de fonctionnement du réseau UMTS se rapprochent de celui du GSM avec des
zones de réception avec des débits variables selon la cellule d’émission. La picocellule couvre
un utilisateur dans un rayon inférieur à 400 m mais avec un débit de 2 Mbit/s. La microcellule
va jusqu’à 2 km de portée mais pour une capacité de transmission à 384 kbit/s. La
macrocellule va jusqu'à 20 km de portée mais sans dépasser 144 kbit/s. Les zones désertiques
seront couvertes par des liaisons satellites. La bande de fréquences de l’UMTS est comprise
entre 1 885 et 2 200 MHz au lieu des 900 et 1 800 MHz du GSM. Enfin l’UMTS est formé de
deux parties, un cœur et un réseau d’accès, reliées par une interface. Cette méthode permet de
connecter les terminaux à des réseaux satellites ou radio.
La technologie UMTS sera sans doute proposée aux entreprises avant de toucher le grand
public. On imagine sans peine les flottes de commerciaux pouvant accéder aux intranets et
L E S
aux réseaux de leurs entreprises pour transmettre leurs rapports, vérifier les disponibilités ou
consulter une liste de prix. Par ailleurs, l’UMTS préfigure le futur réseau de communication
unifiée qui permettra à chacun d’entre nous d’accéder à ses propres informations et données
où que nous soyons dans le monde.
Annoncé pour 2002, l'UMTS peine à trouver ses marques techniques et industrielles. Les
S U R
observateurs les plus optimistes annoncent un lancement pour la fin 2003. D’autres penchent
plutôt pour 2005. La crise qui frappe le marché des télécommunications brouille encore les
pistes : les opérateurs ne peuvent tout simplement plus investir dans l’acquisition des licences
et dans la création d’un nouveau réseau.
Selon l’Autorité de régulation des télécommunications, l'attribution des fréquences des trois
opérateurs débutera en octobre 2002 pour les grandes villes françaises et s'échelonnera
jusqu'à janvier 2004 pour l'ensemble du territoire. 25 % de la population métropolitaine
U
accédera alors aux services voix de l'UMTS et 20 % aux services de transmission de données
en mode paquets à 144 kbit/s. En 2010, ces pourcentages devraient être de 80 et 60 %.
C
O
F
30
T E C H N O L O G I E S
>
Virtualisation du stockage
ou abstraction du stockage
des données
N O U V E L L E S
qui permet à un administrateur de réseau de gérer ses données de manière uniforme. Le trafic
de données issu des serveurs du LAN est capté et orienté au bon endroit par la couche de
virtualisation. Cette couche intermédiaire est composée à la fois de matériels et de logiciels.
En effet l’interopérabilité entre des matériels différents est l’un des grands problèmes posé par
les nouveaux réseaux de stockage. Pour tenter de s’approprier les marchés, constructeurs et
éditeurs freinent autant que possible la standardisation entre les matériels. La virtualisation
permet donc de contourner le problème. La technologie structure d’une part les ressources de
stockage sous la forme d'une capacité unique, représentée comme un énorme disque dur.
Et de l'autre, elle répartit les datas selon la gestion voulue par l'administrateur : réplication,
sauvegarde, sites miroir...
Les administrateurs constatent une meilleure souplesse. Ils peuvent différer des procédures
d’archivage, accéder plus vite aux fichiers. Pour leur part, les financiers constatent une
diminution des dépenses informatiques entre 30 et 50%.
L E S
Les principaux acteurs :
Tous les constructeurs, éditeurs et équipementiers s'intéressent au stockage virtuel. De
nombreux partenariats sont d’ailleurs annoncés.
S U R
EMC : baies de virtualisation Symmetrix et NAS Cellera et Clariion
HP-Compaq baies de virtualisation SureStore et StorageWorks Enterprise Virtual Array
Sun : baie de virtualisation StorEdge 6900, et Jiro plate-forme de gestion du stockage
Network Appliance : NAS de virtualisation NuView
IBM : serveurs et baies Storage Tank
StorageTek : Solution de virtualisation sur bandes
S
U
C
O
F
31
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
L’enjeu de la Voix sur Ip (VoIP) est de taille : utiliser l’infrastructure Internet pour réduire à
néant ou presque les factures téléphoniques, et réussir la fameuse convergence voix-données-
images. Que l’on accède directement à Internet comme les particuliers ou que l’on exploite
les ressources d’un réseau informatique, la technologie est la même. La voix est numérisée et
“ encapsulée ” dans des paquets de données informatiques, puis envoyée sur Internet.
Une entreprise peut ainsi se dispenser du réseau commuté traditionnel pour joindre ses sites
ou ses agences locales. Elle mettra à profit ses lignes spécialisées (LS), dédiées au transport de
N O U V E L L E S
datas, pour y adjoindre également sa téléphonie. Il suffit dans un premier temps de relier ses
autocommutateurs par la LS grâce à des cartes spéciales. On peut également substituer à ses
PABX traditionnels des IPBX. Les signaux vocaux sont compressés et codés, puis insérés dans
des paquets IP, transportés sur le lien, et enfin décodés et décompressés à l'autre bout de la
ligne. Certaines entreprises ont même franchi une étape supplémentaire en investissant dans
des systèmes dit tout-IP qui exploitent des téléphones spéciaux reliés à des IPBX.
L’intérêt ne réside pas tant dans l’économie sur la facture que dans la souplesse : un terminal
titulaire d’une adresse IP est connectable de suite de n’importe quel point du réseau.
Enfin, la téléphonie traditionnelle a des atouts à faire valoir : un niveau de fiabilité quasi total
à des coûts moins élevés. D’après les analystes du Gartner Group, la VoIP représentait en 2000
0,6% du trafic de télécommunication contre 22% pour les spécialistes des transmissions de
données et 77,4% pour les services vocaux. En 2005, les proportions seront de 5,8%, 33,4%
et 60,8%. La VoIP doit manifestement encore faire ses preuves.
S U R
Nortel Networks : PBX avec carte IP Meridian 1, PCBX Business Communications Manager et
IPBX Succession 1000
Siemens : gamme Hipath 3000 et 4000 de PABX avec cartes IP, l'IPBX Hipath 5000
U
32
T E C H N O L O G I E S
>
XML : (eXtensible Markup Language)
le probable langage d'échange
universel
Langage extensible de balisage qui sert de base à de nombreux langages appelés dialectes.
eXtensible Markup Language langage extensible de balisage. Langage textuel, structuré par des
balises (tags), indéfiniment extensible, spécifié par le W3C et héritier de SGML. Il sert de base
à de nombreux langages appelés dialectes.
XML est considéré comme le langage basic des prochains systèmes d'information. Les
informaticiens le définissent comme un “ métalangage ” qui décrit la structure d'un
N O U V E L L E S
document avec des balises (caractéristiques techniques), indépendamment de sa présentation
et de son contenu. En somme, il s’agit d’un langage universel, extensible de manière illimitée.
Au départ cantonné à la gestion documentaire (GED) et à l'échange de données sur le Web,
XML voit son influence s'étendre à l'ensemble du système d'information.
Aujourd’hui, les utilisateurs exploitent de manière native des structures XML, autrement dit
les serveurs d'applications, les systèmes d'échange de données entre applications (EAI), les
services web, ainsi que les systèmes de stockage virtuels ou non. Chaque grand type
d’utilisation se traduit donc par l’emploi d’XML décliné sous telle ou telle forme. Aussi pour
éviter les conflits entre langages XML divergents, le W3C, organisme de normalisation officiel
chargé de ce langage, établit des recommandations pour chaque contexte d’utilisation, de
calcul au multimédia en passant par les développements hypertextes.
L E S
Pour toutes ces raisons, le XML est intégré par la totalité des éditeurs de systèmes de bases de
données informatiques IBM, Oracle, SQL Server...
S U R
S
U
C
O
F
33
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS
>
WLAN (Wireless local area network) :
les réseaux informatiques par onde
hertzienne, réseau local sans fil
Après le LAN et le WAN, un troisième type de réseau est aujourd’hui proposé aux entreprises :
le WLAN ou Wireless Local Area Network. La grande différence avec le LAN repose sur la
transmission des datas par ondes hertziennes et l’affranchissement des liens physiques.
Deux normes de WLAN sont en concurrence : la gamme 802.11 promue par l'IEEE au États-
Unis et HiperLAN/2 par l'Etsi en Europe. Si la première profite de la supériorité écrasante de
l’industrie américaine (Cisco, 3Com, Proxim…), elle n’arrive cependant pas à convaincre les
entreprises de basculer dans le monde sans fil. Il faut dire que rien n’est stabilisé, et qu’après
802.11b et 802.11a, on nous promet 802.11g et même 802.11i censée fixer les choses une fois
N O U V E L L E S
pour toute. Non seulement les investissements sont conséquents, mais de plus les utilisateurs
attendent une amélioration sensible de la sécurité du réseau et de la qualité de service (QoS).
Les clients attendent aussi que la technologie transporte des flux de données comparables à
celle des réseaux câblés. Aujourd’hui, le débit maximum (802 .11a) s’élève à seulement à 11
Mbit/s. Les réseaux sans fil fonctionnent à la manière des réseaux téléphoniques GSM à partir
d’une division de l’espace en cellules, les Basic Service Set qui sont autant de points d’accès.
Chaque cellule est raccordée à une station d’émission et de réception avec une carte réseau et
une antenne. Donc à la place d’une prise murale, les micro-ordinateurs utiliseront un port
radio pour travailler en réseau.
Cependant les atouts théoriques de la technologie sont suffisamment importants pour que le
WLAN représente l’avenir des réseaux d’entreprise. Souple et configurable facilement, le Sans
Fil réduit les investissements. Il doit permettre de relier au réseau les sites dits difficiles
comme les entrepôts et les ateliers, et de créer à volonté des sites et des extensions temporaires
S U R
précurseurs pour la norme 802.11a. Intel, Symbol, Cisco et SMC proposent des matériels
hybrides a et b.
La norme européenne HiperLAN/2 est semble-t-il abandonnée. Aujourd’hui aucun matériel
réseau HyperLAN/2 n’est commercialisé.
U
C
O
F
34