Vous êtes sur la page 1sur 21

20 TECHNOLOGIES

À SURVEILLER DE PRÈS
T E C H N O L O G I E S

> ◗ Antivirus

◗ Boucle locale radio (BLR)

◗ Chiffrement

◗ Coupe-feu ou firewall

◗ DSL (Digital Subscriber Line), le haut débit à la portée de tous

◗ EAI (Enterprise Application Intégration) ou méthode pour relier et


intégrer les applications hétérogènes

◗ E-signature (Signature électronique)


N O U V E L L E S

◗ IPv6 ou Internet Protocol Version 6

>
◗ LDAP (Light Directory Access Protocol)

◗ Olap (OnLine Analytical Processing) technologie d’analyse des


données de l’entreprise

◗ Peer-to-peer : partager et répartir traitements et


données

◗ QoS (Quality of Service) ou Qualité de service


L E S

◗ Réseau Privé Virtuel (RPV, Virtual Private Network ou VPN)

◗ SAN (Storage Area Network) et NAS : les réseaux de stockage


de données
S U R

◗ Services Web

◗ UMTS (Universal Mobile Telecommunication System) ou la téléphonie


de 3e génération
S

◗ Virtualisation du stockage ou abstraction du stockage des


données
U

◗ VOIP (Voice over IP) ou la téléphonie sur Internet en mode IP


C

◗ XML (eXtensible Markup Language) le probable language


d’échange universel
O

◗ WLAN (Wireless Local Area Network) les réseaux informatiques


par onde hertzienne, réseau local sans fil
F

14
T E C H N O L O G I E S
> Antivirus

Un antivirus est un logiciel chargé de déceler la présence ou l'activité de programmes néfastes,


baptisés virus dans un système informatique. Ce logiciel peut aussi nettoyer et anéantir les
virus introduit au sein des ordinateurs. La multiplication des agressions depuis plusieurs
années (Melissa, I love you …) ont provoqué des dégâts considérables au sein des entreprises
infectées. Les éditeurs de logiciels (parfois accusés de fabriquer et de diffuser les virus) ont
donc étendu progressivement leurs programmes à l’ensemble des supports magnétiques, aux
serveurs de fichiers et d’application, aux logiciels de messagerie ou de navigation sur Internet.
Certains antivirus sont dédiés à la protection des réseaux. Ils exploitent deux types de

N O U V E L L E S
technique. La recherche de “ signature virale ” est la méthode la plus répandue et jugée la plus
fiable. Elle s’attache à détecter des séries d’octets susceptibles de dégrader les systèmes, avant
de donner l’alarme et de détruire l’intrusion.

Toutefois, la méthode est restreinte aux signatures connues. Pour palier ce problème, les
développeurs exploitent des technologies d’analyse comportementale. L'antivirus scrute les
appels systèmes tels que les accès disque ou les déplacements en mémoire pour les comparer,
en temps réel, aux profils viraux répertoriés.

Il existe une troisième méthode baptisée “ contrôle d'intégrité ” qui vérifie l’intégrité des
fichiers et des systèmes. Malheureusement cette analyse, infaillible, ne donne l’alerte que
lorsque les fichiers sont déjà infectés.

Principaux acteurs :

L E S
Symantec - Norton Antivirus
Networks Associates Technology - VirusScan
Trend Micro Viruswall
Sophos
F-Secure

S U R
Tegam
Finjan Software

S
U
C
O
F

15
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

> Boucle locale radio (BLR)

La BLR exploite les ondes hertziennes pour relier un utilisateur à son opérateur Internet sans
passer par l'infrastructure locale câble ou téléphone. L’Internaute doit déployer un terminal
radio équipé d'interfaces Ethernet, série et RNIS, ainsi qu’une antenne radio plate et
bidirectionnelle, capable de couvrir un rayon de plusieurs kilomètres pour se relier à la
station de l’opérateur.

La BLR permet donc de s’affranchir des contraintes techniques et financières de France


Télécom. Autre avantage, la méthode est facile à installer et permet les connexions à haut
N O U V E L L E S

débit, de 64 kbit/s à 4 Mbit/s en standard, et jusqu'à 16 Mbit/s pour une entreprise. Son
déploiement est également moins onéreux qu’un réseau traditionnel. On considère qu’une
station locale doit desservir entre 200 et 300 abonnés. Elle émet sur deux bandes de
fréquences radio : 3,5 GHz pour les licences nationales et les DOM-TOM, et 26 GHz pour les
licences nationales et régionales.

Aujourd’hui et malgré ses promesses, la BLR ne décolle pas. A peine un millier d’entreprises
ont désiré tester la technologie. A l’étranger, les résultats ne sont pas meilleurs. En France, la
première raison tient à la puissance de France Télécom. L’opérateur historique se montre
hostile à cette technologie et favorise les connexions DSL qui transitent par ses lignes. Il n’a
d’ailleurs pas concouru aux appels d’offres lors de l’attribution des fréquences. La BLR souffre
aussi de l’effondrement financier et économique des opérateurs détenteurs de ces fréquences.
Pour être honnête, ces opérateurs n’ont pas réussi à convaincre les utilisateurs de leur savoir-
faire technique. Personne ne désire essuyer les plâtres et la BLR doit encore faire ses preuves
tant pour la continuité permanente des transmissions que pour leur sécurité. Cependant les
L E S

deux opérateurs majeurs de la BLR, FirstMark filiale du Groupe Suez et Squadran du groupe
Louis Dreyfus Communication (LDCOM) disposent des ressources nécessaires pour
permettre le décollage prochain de la technologie.
S U R
S
U
C
O
F

16
T E C H N O L O G I E S
> Chiffrement

Le chiffrement est un processus mathématique qui permet de rendre une information ou un


fichier incompréhensible grâce à l’utilisation d’une clé informatique secrète. On parle de
chiffrement symétrique ou asymétrique selon que la même clé sert à chiffrer et à déchiffrer.
Il existe de nombreuses méthodes de chiffrement : les clés publiques (PKI), le protocole SSL
(Secure Socket Layer) pour les paiements en ligne, la signature électronique ou les méthodes
d’encryptage et d’encapsulage propres à protection des échanges de fichiers via TCP/IP.

Le chiffrement repose sur de puissants algorithmes mathématiques qui changent l’apparence

N O U V E L L E S
du document à protéger. L’inversion de l’algorithme permet de retrouver la forme initiale. La
protection est encore renforcée par l’apport d’une “ valeur ” mathématique indépendante de
l’algorithme initial que l’on injecte pour chiffrer et déchiffrer. C’est cette “ valeur ” que l’on
appelle communément la clé. La faiblesse de la clé symétrique repose sur l’emploi simultané
du même code par deux personnes distantes. Le secret est donc difficile à maintenir. La clé
asymétrique offre à cet égard d’autres avantages. Le principe consiste à séparer le chiffrement
et le déchiffrement en deux clés distinctes. L’une chiffre, l'autre déchiffre et aucune ne peut
faire les deux. On peut rendre public une clé pour autoriser n’importe qui à envoyer un
message protégé. Et inversement garder secrète, la clé de déchiffrement. La méthode est donc
nettement plus sûre, mais plus lourde à déployer.
Enfin, le nombre d’octets employés par les algorithmes multiplie le nombre de possibilités
de formules de quelques milliers à plusieurs millions de possibilités pour les clés à 128 ou
256 bits.

L E S
Algorithmes symétriques :
AES : standard du gouvernement américain libre de droit.
Blowfish. Libre de droit.
CAST : 128 bits. Libre de droit.
DES : autre standard du gouvernement américain, développé par IBM. Libre de droit.

S U R
IDEA : algorithme suisse, couvert par un brevet.
RC4, RC5, RC6 : suite d'algorithmes. RC4 est libre de droit.
Towfish. Libre de droit.

Algorithmes asymétriques :
S

Diffie-Hellman : le premier algorithme asymétrique au monde. Echange de clés sur des


réseaux non sécurisés. Libre de droit.
DSA : algorithme officiel du gouvernement américain pour la signature numérique. Libre de
droit.
U

ECC : chiffrement à courbe elliptique. Libre de droit.


ElGamal : Similaire à RSA. Libre de droit.
Rabin-Williams : Peu utilisé. Libre de droit.
C

RSA : premier algorithme à clé publique. Le plus utilisé dans le monde. Libre de droit.
O
F

17
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

> Coupe-feu ou firewall

Dispositif matériel et/ou logiciel pour protéger les sites Internet. Les coupe-feu ou firewall
sont des méthodes physiques ou logicielles qui protègent les réseaux informatiques des virus
ou des intrusions de pirates en filtrant les connexions et les flux de données internes et
externes.

Le fonctionnement du firewall repose sur l’analyse permanente des échanges de données afin
de les autoriser et de les bloquer en fonction de critères définis par les ingénieurs réseau. Le
coupe-feu permet ainsi d’orienter les connexions vers tel ou tel de ses services Internet ou de
N O U V E L L E S

ses serveurs de messagerie. Un administrateur réseau peut également bloquer les échanges de
fichiers musicaux ou vidéo pour protéger ses serveurs et économiser ses ressources.

Au départ le mécanisme des firewall était de scruter chaque “ paquet ” de données transmises
par Internet, d’analyser les adresses IP à travers leurs en-têtes et de suivre leurs modes
d’acheminement. Le filtrage dynamique s’est depuis imposé. Il permet de créer des
historiques de connexion ce qui accélère les transferts et mobilise les défenses du réseau sur
les nouveautés absolues qui lui parviennent. Les “ proxy ” constituent ainsi le gros des firewall
déployés en avant des réseaux d’entreprises.
Aujourd’hui, les informaticiens ont le choix entre le déploiement de matériels spéciaux
baptisés routeurs ou la mise en œuvre de logiciels. Le marché est âprement disputé entre
plusieurs grands ténors (cf. liste), aussi les constructeurs améliorent-ils progressivement les
capacités des matériels qui peuvent gérer aussi bien les ressources en bande passante que les
antivirus.
L E S

Logiciels :
Guardian Pro de Netguard
ISA Server de Microsoft
S U R

Routeurs et boîtiers prêts à l’emploi :


3Com
Check Point Software,
Cisco
DLink
S

Netgear
NetScreen
Privado
Secure Computing
U
C
O
F

18
T E C H N O L O G I E S
> DSL (Digital Subscriber Line),
le haut débit à la portée de tous

Méthode peu onéreuse de transmission de données numériques. La variante la plus connue


du DSL est l'ADSL.

La technologie Digital Subscriber Line (DSL) permet la transmission de données numériques


à haut débit sur le réseau téléphonique. L’avantage premier consiste donc à exploiter une
infrastructure existante, sans investissements conséquents. Un particulier doit simplement
connecter un filtre à sa prise téléphonique, et une entreprise un routeur avec un modem.

N O U V E L L E S
Il existe plusieurs variantes de transmission DSL. L'ADSL (Asymetric DSL) qui procure un
débit plus important en réception qu'en émission, est la plus répandue dans le grand public
et les TPE. L’ADSL permet ainsi un débit montant de 16 à 640 kbit/s et un débit descendant
compris entre 1,5 et 8 Mbit/s. Outre la vitesse des transmissions, l’ADSL réserve une partie de
la bande passante pour le transport de la voix. Les entreprises plus importantes peuvent opter
pour la SDSL (Symetric DSL) qui permet de connecter des sites Internet de manière
parfaitement synchronisée. Cette technologie est diffusée par plusieurs opérateurs sauf France
Télécom.
Le coût des connexions constitue encore le premier frein à la diffusion plus rapide des
connexions DSL. Les opérateurs alternatifs reprochent à France Télécom de maintenir des
tarifs d’interconnexion au réseau public trop élevés. A sa décharge, l’opérateur historique peut
mettre en avant des injonctions de l’Autorité de Régulation des Télécommunications de
remonter ses tarifs, au motif d’une distorsion de la concurrence…

L E S
Principaux opérateurs :
France Télécom
Colt
Easynet (SDSL)
Tiscali

S U R
S
U
C
O
F

19
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

>
EAI (Enterprise Application Integration)
ou méthode pour relier et intégrer
les applications hétérogènes

L’EAI ou intégration d'applications d'entreprise est une plate-forme qui relie l’ensemble des
applications d’un système d'information autour d'un bus logiciel commun, chargé de
transporter les données informatiques.
L’EAI évite de développer des programmes spécifiques chaque fois qu’il faut relier deux
progiciels. Le déploiement d’un protocole commun, applicable à tous les progiciels, bases de
données et autres constituent un vrai soulagement pour les informaticiens contraints
jusqu’ici de consacrer une part toujours plus importante de leur activité à la seule
maintenance des programmes de connexion.
N O U V E L L E S

Techniquement, les plates-formes d'EAI sont considérées comme des espèces de multiprises
où viennent se ficher des applications de manière “ simple ” et standardisée. La répartition
des applications s’effectue de façon ordonnée et fonctionnelle, en fonction de leur genre.
Les bénéfices de cette technologie résident dans la plus grande sécurisation du système, ainsi
que l’amélioration de sa souplesse de fonctionnement.

Aujourd’hui, le coût d’une solution EAI est encore très élevé. Les éditeurs spécialisés
commercialisent un noyau comprenant la plate-forme avec un petit nombre de “ prises ”.

Les connecteurs suivants sont vendus séparément entre 30 000 et 300 000 € l’unité, selon la
complexité de l’applicatif à intégrer au système. On l’a compris, l’EAI est une technologie
réservée aux très grandes entreprises. Mais comme pour toutes les technologies, le poids de la
concurrence et l’amortissement progressif des solutions permet de faire baisser les tarifs. On
peut également faire confiance au marché pour diffuser rapidement vers les PME des
L E S

solutions clés en main à des prix abordables.

Les principaux acteurs :


Comme tout marché naissant, celui de l’EAI est encore émietté. On dénombre plus de
S U R

50 éditeurs sur les deux rives de l’Atlantique. Les principaux sont Vitria, Tibco et webMethods.
D’autres comme Cape Clear ou Sunopsis se spécialisent sur tel segment du marché. A noter
l’apparition d’un nouvel entrant aux dents longues : Microsoft. Le leader mondial de l’édition
informatique a bien compris qu’un EAI bien conçu ressemblait par bien des aspects avec un
Operating System…
S
U
C
O
F

20
T E C H N O L O G I E S
>
e-signature (signature électronique)
la garantie de l'authenticité
et de l'intégrité d'un message

La signature électronique ou e-signature confère aux documents électroniques une valeur


légale identique aux paraphes traditionnels. Un destinataire est ainsi certain du caractère
authentique du document qu’il reçoit. La signature électronique constitue une preuve qui
empêche la répudiation d’un document.
La force juridique de la signature électronique provient du décret d'application 272 pris le
30 mars 2001 qui stipule que la e-signature doit “ identifier clairement le signataire, ainsi
qu'être créée et conservée dans des conditions de nature à garantir son intégrité. Elle doit en
outre être liée de façon indéfectible à l'utilisateur ”. L’authentification du signataire, l’intégrité

N O U V E L L E S
du document et l’impossibilité de répudier ce document constituent donc, les piliers légaux
qui sécurisent les transactions et autres contrats passés sur le Web.

Authentique, intègre et irrépudiable, la signature électronique s’affirme donc comme la


preuve légale des échanges dématérialisés. A priori hésitante, les entreprises ont compris
l’intérêt de l’outil depuis janvier dernier, lorsque celles dont le chiffre d’affaires dépasse
15 millions d’euros, ont été obligées de régler leur TVA en ligne, et donc d’utiliser le paraphe
(cf. paragraphe Le chiffrement). La clé publique permet de crypter le message, alors que la clé
privée prouve la validité du message en le décryptant. Les utilisateurs peuvent déployer des
logiciels spécialisés sur leurs serveurs informatiques ou recourir au cas par cas à des tiers
spécialisés. Et pour encore conforter la sécurité du système, chaque signature électronique est
à usage unique. La mise en œuvre technologique de la signature électronique est donc simple,
par contre son utilisation requiert les autorisations de l’Autorité d’enregistrement des clés
privées et de l’Autorité de certification, qui délivre les certificats et régit les échanges de clés
entre les entreprises.

L E S
Il n’existe aujourd’hui, aucune autre technologie d’authentification capable de concurrencer
la e-signature. Si son développement repose aujourd’hui sur la volonté des pouvoirs publics,
on peut s’attendre à une généralisation de son usage pour les échanges de données
électroniques (EDI) ou pour authentifier les documents électroniques entre particuliers,
commerçants et clients ou entre employeurs et employés.

S U R
Les principaux acteurs :
Logiciels de PKI :
Baltimore, Entrust, Lexign, nCipher, Rainbow Technologies, RSA Security, Safelayer, Silanis,
Trustycom.
S

Emetteurs de clés agréés par le Ministère de l’Economie :


U

- Banques : BNP Paribas-Authority Entreprise, Crédit Agricole, Crédit Lyonnais, SG Trust


Services
- Spécialistes : Certplus, Chambersign, Click and Trust
C
O
F

21
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

>
IPv6 ou Internet Protocol Version 6 :
protocole de 3e niveau qui sera utilisé
pour véhiculer l'information sur Internet

IPv6 est l'adressage électronique de la prochaine décennie. Par rapport à la version actuelle de
l’Internet Protocol (IPv4), IPv6 ajoute des fonctions de cryptage à 128 bits et de gestion
automatisée de la Qualité de Service (QoS). Le déploiement d’un nouveau protocole
d’adressage répond à un vrai soucis. Les experts ont calculé qu’Ipv4 sera à saturation entre
2005 et 2008 : ses quelques 4,5 milliards d’adresses Internet seront totalement attribuées.
Le Réseau absorbe en effet chaque jour davantage d’utilisateurs, particuliers ou entreprises.
Il doit également gérer une variété toujours plus grande de terminaux connectables : GSM,
voitures, téléviseurs…
N O U V E L L E S

Le système d’adressage doit aussi prendre en compte les nouveaux dispositifs de compression
de données ou de sécurité.

IPv6 est doté d’une capacité d’adressage phénoménal qui doit lui permettre d’attribuer une
adresse Internet fixe à tous les systèmes reliés au Web. En pratique, n’importe quel terminal
pourrait ainsi être directement relié à Internet sans passer par un Fournisseur d’Accès
Internet !
Et comme cette prouesse ne suffit pas, IPv6 améliore sensiblement la sécurité des
transmissions. La norme sera à même d’identifier de façon sûre une source d’émission ou un
terminal connecté. Les informaticiens sauront également apprécier la capacité du système à
s’auto-administrer, et à surveiller le niveau de la bande passante. Ils apprécieront également
les fonctions d’auto-configuration qui leur éviteront de créer, d’attribuer et de gérer les
adresses IP des utilisateurs de leur entreprise, y compris les personnels nomades.

Pour réussir la transition d’IPv4 vers IPv6, il faut encore convaincre les entreprises. Malgré les
L E S

avantages du nouveau système d’adressage, l’affaire n’est pas gagnée. Les professionnels ont
encore des adresses en réserve et surtout, ont lourdement investi dans des technologies et des
méthodes de gestion de QoS ou de sécurisation.
S U R
S
U
C
O
F

22
T E C H N O L O G I E S
> LDAP
(Lightweight Directory Access protocol)

Ce protocole permet la gestion d'annuaires, c’est à dire l'accès à des bases d'informations sur
les utilisateurs et les ressources d'un réseau d'entreprise.

Le protocole LDAP sert à gérer les annuaires d’entreprise, c’est-à-dire qu’il permet d’accéder à
l’ensemble des informations qui portent sur les personnes connectées à un réseau
informatique. En synthétisant des données informatiques de toutes sortes, l’annuaire LDAP
permet d’organiser de manière cohérente les nombreuses bases de données et fichiers
contenus dans un réseau. L’annuaire LDAP indexe en effet des renseignements aussi différents

N O U V E L L E S
que les droits d’accès aux logiciels informatiques ou que les heures d’entrée et sortie du
personnel.
L’annuaire gère également les adresses IP des membres d’une entreprise. Il est également
possible de déployer un “ multi-annuaires ” pour couvrir les besoins d’une entreprise
multi-sites qui exploite plusieurs annuaires LDAP.

Techniquement, LDAP est organisé autour de quatre modèles. Le premier touche à


l’organisation et à l’arborescence des informations dans l’annuaire. Le second décrit les
attributs et leurs méthodes de comparaison de ces attributs. Le troisième modèle s’applique
aux services et explique les méthodes d’accès aux données. Le dernier détaille les stratégies de
sécurisation des informations et les droits d’accès.

D’après les analystes d’IDC cette technologie est promise à un bel avenir : le nombre
d’annuaire LDAP en service devrait passer de 2 à 4 millions entre 2000 et 2005, pour un
volume de plus d’1 milliard €.

L E S
Les principaux acteurs :
Novell eDirectory
Sun Directory Services

S U R
Microsoft Active Directory
Siemens DirX
Critical Path Global Directory Server
Syntegra Global Directory
Sun/Netscape iPlanet Directory Server
OpenLDAP, annuaire LDAP pour Unix livré en open source
S
U
C
O
F

23
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

>
Olap (OnLine Analytical Processing)
technologie d’analyse des données
de l'entreprise

Olap est la technologie d'analyse directe des données à des fins commerciales ou de
production, fondée sur des requêtes structurées, à partir de critères combinés appelés
dimensions.

Olap reflète donc les tendances d’une activité comme l’évolution des ventes et des achats. Les
entreprises fixent des axes logiques de suivi d’activité : région, usines, réseaux de distribution,
qui deviennent autant de “ dimensions ”. Toutes les opérations et valeurs se rapportant à une
dimension sont calculées par le moteur Olap. La technologie permet de réaliser des
N O U V E L L E S

opérations plus ou moins complexes à un rythme élevé. Les spécialistes de cette technologie
appellent “ cube ” l’ensemble des calculs réalisés par un moteur Olap.

La mise en œuvre d’un moteur Olap commence par la création d’une base de données qui
consolide les informations d’un site de production ou de diffusion. Les informaticiens
déploient ensuite une structure baptisée “ étoile ” ou “ flocon ” avec au centre une
“ dimension ” économique. L’alimentation en information de la base de données s’effectue
par un agent électronique baptisé ETL (Extract, Transform, and Load). Le moteur Olap n’a
plus qu’à réaliser les requêtes demandées par les utilisateurs.

Les moteurs Olap sont donc utilisés aussi bien par les commerciaux que par les financiers et
les décideurs soit pour modéliser un plan d’action, soit pour le valider et si besoin à l’infirmer
en cours de réalisation. Leur atout majeur réside dans leur simplicité : pas besoin d’être
informaticien ou même formé aux langages informatiques pour effectuer leurs requêtes.
L E S

Les principaux acteurs :


Hyperion : Hyperion Essbase
IBM : DB2 Olap Server
Microsoft SQL Server Analysis Services
S U R

Oracle : Express Server et Oracle 9i Olap


MicroStrategy : MicroStrategy 7i
S
U
C
O
F

24
T E C H N O L O G I E S
> Peer-to-peer : partager et répartir
traitements et données

Peer-to-peer (P2P, pair à pair) : Réseau de partage sans intermédiaire des capacités de
plusieurs ordinateurs, agissant simultanément comme clients et serveurs.

Le peer-to-peer ou point à point peut se définir comme une méthode de partage sans
intermédiaire des capacités de plusieurs ordinateurs. Chaque machine sert indifféremment
comme serveur ou comme terminal.
Les ordinateurs d’un réseau peer-to-peer constituent une sorte de maillages d’un vaste réseau.
Cette organisation existe depuis toujours. Il s’agit de la base même du World Wide Web qui

N O U V E L L E S
exige une transparence totale entre l’émetteur d’un message et son destinataire. Elle permet
de fédérer des matériels hétérogènes, de puissance inégale, régis par différents Operating
System (Windows, Linux, Mac OS…).
Grâce à cette simplicité opératoire, le peer-to-peer permet de mutualiser des ressources de
calcul considérables. C’est ce que l’on appelle le Grid Computing. Par exemple, à la suite d’un
appel lancé lors du dernier Téléton, des milliers d’internautes français ont mis leurs micro-
ordinateurs au service de la recherche scientifique. Pour participer à ce mouvement fédéré par
IBM, il suffisait de s’inscrire et de laisser son ordinateur ouvert pendant la nuit.

Le Grid Computing permet également la survie légale des sites de téléchargements de


musique en ligne comme Kazaa. Contrairement aux sites centralisés comme Napster, Kazaa
ne contient aucun fichier. Le site oriente simplement un Internaute vers l’ordinateur d’un
autre qui abrite le fichier musical qu’il recherche. Le peer-to-peer trouve également un
débouché important avec les messageries instantanées comme ICQ : l’utilisation d’alias
permet aux utilisateurs de substituer une adresse de serveurs à leur véritable adressage IP. C’est

L E S
sur cette base que des progiciels comme “ Groove ” peuvent exploiter en temps réel des
données de messagerie par des logiciels bureautiques.

ICQ, Groove ou Kazaa permettent donc aux Internautes à la fois de communiquer


directement et de créer des espaces virtuelles spécifiques. Il suffit de disposer (par
téléchargement sur le Web) du logiciel adéquat. Ultra-rapide et puissant, le peer-to-peer

S U R
s’avère également convaincant sur le plan de la Qualité de Service (QoS). En revanche, il
pêche encore sur le plan de la sécurité. Les experts s’attendent à ce que ces problèmes soient
rapidement résolus : d’après les analystes de Frost & Sullivan, les 61 000 entreprises
utilisatrices de prestations peer-to-peer fin 2001 seront 6,2 millions en 2007. S
U
C
O
F

25
T E C H N O L O G O E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

> QoS (Quality of service)


ou Qualité de service

Méthode qui permet de garantir à un trafic de données les meilleures conditions


d'acheminement selon des critères prédéfinis.

La QoS (Qualité de Service) est la technologie employée pour garantir un trafic de données
informatique dans les meilleures conditions d’acheminement possibles quelle que soit la
nature des données. La QoS fixe les priorités d’acheminement selon les critères définis par les
N O U V E L L E S

administrateurs réseau.

Cette technologie est issue des recherches des constructeurs d’équipements pour les réseaux
comme Cisco ou Alcatel. En effet, Internet avait été conçu pour transporter des données
informatiques simples. Or la montée en puissance des envois de fichiers sonores, vidéos et
téléphoniques fort gourmands en mémoire a exigé le déploiement de matériels
(commutateurs, routeurs…) fiables à chaque point du réseau, ainsi qu’une refonte de
l’architecture même du réseau.
Les opérateurs Internet et leurs fournisseurs en équipements ont donc mis en œuvre de
nouveaux mécanismes pour garantir la disponibilité parfaite des applications, réduire autant
que possible la perte d’informations et de données lors des phases de transmission. Il faut
souligner que le déploiement de ces matériels n’a pas compliqué le fonctionnement
d’Internet. La QoS contrôle donc le débit utile pour transmettre une application, les délais de
transmission, la variation des délais de transmission et le niveau des pertes.
Aujourd’hui, trois grands types de protocole de QoS se partagent les faveurs des fournisseurs
et utilisateurs : Intserv qui libère et conserve les ressources en bande passante, Diffserv qui
L E S

opère une distinction et une gestion par classe de données et MPLS (MultiProtocol Label
Switching) qui augmente les transferts de données en augmentant la vitesse de transmission.

Les principaux acteurs :


S U R

La plupart des équipementiers proposent des matériels avec l’une ou l’autre des technologies
de QoS, mais Cisco, IBM et Juniper sont particulièrement en pointe pour les prestations
MPLS.
S
U
C
O
F

26
T E C H N O L O G I E S
> Réseau Privé Virtuel
(RPV, Virtual Private Network ou VPN)

Technique qui consiste à relier par Internet des sites distants privatisés.

Le Réseau Privé Virtuel ou Virtual Private Network (VPN) est une méthode de liaison par
Internet qui exploite le réseau public via un tunnel privatif créé grâce à un procédé de
chiffrement des données.

Les réseaux VPN sont aujourd’hui largement employés par les entreprises désireuses
d’organiser un réseau de communication aussi bien avec leurs filiales et leurs implantations

N O U V E L L E S
qu’avec leurs clients et leurs partenaires. Ces réseaux permettent aussi de relier des personnels
itinérants ou éloignés au “ centre ”. Le concept du VPN consiste à exploiter l’infrastructure
publique de télécommunications en solutionnant trois grands problèmes : transporter des
flux de données hétérogènes par des matériels qui exploitent des protocoles différents, assurer
la sécurité des informations sur le réseau public, et respecter des normes de qualité de service
élevées (QoS).
Le déploiement d’un VPN suppose l'installation d'une passerelle sur le point d'entrée du site
central (serveur informatique, routeur, firewall...) afin d’ assurer la gestion des sessions de
communication et leur chiffrement en identifiant les personnes autorisées à se relier au VPN.
Afin de privatiser la transmission, le VPN créé un “ tunnel ”, c’est à dire un chemin spécifique
entre les deux points à relier au sein du réseau public. Les informations privées sont insérées
à l’intérieur des données publiques. Les spécialistes baptisent ce mécanisme comme un
“ encapsulage ”. La protection est créée au moment de l’envoi, et la nature de cet
“ encapsulage ” est identifiée puis décryptée à l’arrivée.
Plusieurs méthodes et protocoles sont employés pour y parvenir : PPTP, L2F, L2TP, et IPSec.

L E S
Les trois premiers sont conçus pour accéder au réseau de l'entreprise à distance mais s'en
remettent à PPTP ou à IPSec pour assurer les fonctions de sécurité. Le quatrième, IPSec est
donc à la fois une technique de création de VPN et de sécurisation des informations. Il définit
de manière complète les méthodes de confidentialité, d’intégrité et d’authenticité des paquets
de données.

S U R
Les principaux acteurs :
L’ensemble des constructeurs d’équipements de réseau* commercialise des matériels avec des
fonctions VPN :
Microsoft ou Novell installent les briques VPN sur leurs logiciels de gestionnaire de réseau
Windows ou Netware. Les opérateurs télécoms proposent également des services VPN. Le
S

tunnel est alors ouvert depuis le point d’accès Internet. L’intérêt de l’opération est de soulager
les utilisateurs de la gestion de ce problème.

*3Com, BinTec, Cisco, Eicon, Foundry, Intel, Juniper, Lucent, Nokia, Nortel Networks, WatchGuard...
U
C
O
F

27
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

> SAN (Storage Area Network) et NAS :


les réseaux de stockage de données

Pendant des années, le stockage a été considéré au mieux comme une sous-spécialité de
l’informatique. La numérisation des données et Internet ont provoqué une croissance
exponentielle des besoins de stockage. La législation obligeant les entreprises à conserver dix
années de documents comptables ajoute encore à cette inflation. Les mega-octets ont cédé la
place aux giga-octets (1000 mega) et aux tera-octets (1000 gigas). Nombre d’entreprises ne
peuvent plus se contenter d’accoler aux serveurs une librairie, sorte de gros magnétophone
pour protéger les informations. Plusieurs technologies se disputent les faveurs des
informaticiens d’entreprises.
N O U V E L L E S

Le Storage Area Network (SAN) répond à cette préoccupation en consolidant des données
dites hétérogènes, c’est à dire de nature différente. La technologie sépare la gestion physique
des données de la gestion des serveurs d’application. En ce sens, le SAN soulage le réseau
informatique interne (LAN). Il permet de mobiliser davantage de ressources de calcul pour
les applications critiques de l’entreprise, comme les ERP, la gestion des sites intranet et
extranet, le groupware etc…
Par rapport aux méthodes traditionnelles de stockage, le SAN agit comme un réseau
informatique, secondaire mais à part entière qui augmente la disponibilité des données en
centralisant l’administration des données. Ce réseau est conçu autour d’une architecture à
haute disponibilité pour éviter les pertes d’informations et redémarrer le LAN en cas de panne
à partir d’une image la plus fidèle possible. A partir de n’importe quel point du LAN, un
utilisateur peut donc accéder à n’importe quelle donnée stockée sur le SAN.

Techniquement le SAN s’est d’abord caractérisé par une connexion Fibre Channel avec le
L E S

LAN, capable de transmettre les données à la vitesse de 100 Mbits/s. Le réseau exploite des
baies de disques empilables capables de gérer plusieurs dizaines de Teraoctets. La répartition
et la gestion des paquets de données s’effectuent par des commutateurs spécialisés. En
pratique, les informaticiens déploient des matériels un peu moins performants, mais
sensiblement moins onéreux : concentrateurs (hubs) à la place des commutateurs (switchs),
connexion Gigabit Ethernet à la place de la Fibre Channel, librairies de bandes à la place des
S U R

baies…
Les principaux défauts du SAN sont une interopérabilité imparfaite entre les serveurs de
marques différentes, un manque d'outils d'administration centralisée pour équipements
hétérogènes et, surtout, un coût encore élevé.

Les principaux acteurs :


S

Le stockage est l’un des très rares secteurs qui devrait profiter d’une croissance importante sur
ces prochaines années : 25 milliards de dollars pour le SAN en 2004 contre 4,5 en 2001. Du
coup, les utilisateurs n’ont que l’embarras devant une offre devenue pléthorique.
U

Les grands noms du secteur sont EMC, Storagetech, ADIC et Hitachi. Ils se heurtent à la
montée en puissance des constructeurs informatiques comme IBM, Sun et Hewlett-Packard.
Les principaux fournisseurs de matériels réseaux sont Brocade, Gadzook, Vixel et Cisco. Enfin,
C

les éditeurs de solutions SAN les plus réputés sont Veritas, Legato, Quadratec, Computer
Associates et IBM.
O
F

28
T E C H N O L O G I E S
>
Services web : l'architecture applicative
de demain fondée sur l'assemblage
mobile de composants

Les Services Web (SW) peuvent être définis comme une méthode de développement et de
déploiement d’applications Internet qui repose sur l’assemblage de briques et de composants
logiciels indépendants baptisés Services. L’architecture des SW, qui n’est pas encore
normalisée, repose sur un mille-feuille de couches : transport des données, échanges
informatiques, communication, présentation des services… Chacune de ces couches est liée
à un langage de description spécifique.

L’apparition, toute contemporaine, des Services Web répond à la contrainte suivante. Les

N O U V E L L E S
directions opérationnelles des entreprises (production, R&D, finances…) demandent à
l’Informatique des solutions fonctionnelles nouvelles, capables de s’insérer dans les
nouveaux systèmes d’information, ouverts et communicants. L’introduction de ces SW doit
aussi s’effectuer rapidement, mais sans compromettre les applicatifs exploités par l’entreprise.

D’un point de vue technologique, les composants des SW sont assemblés alors qu’ils sont
d’une nature radicalement différente. Chacun des Services est focalisé sur une application
métier. Et pour communiquer entre eux, les SW publient l’ensemble des fonctions mise à la
disposition des autres et du système en général. Divers protocoles comme Soap assurent les
communications entre SW. Ils acheminent des appels de procédures distantes rédigés selon le
langage informatique XML : adresse d’envoi, désignation de la procédure à exécuter et gestion
des paramètres. Pour fédérer les multiples SW, les informaticiens construisent des annuaires
d’entreprise à partir d’un standard baptisé UDDL. Les utilisateurs disposent ainsi d’une vision
cohérente des services applicatifs auxquels ils ont accès. Associés à l’annuaire, des documents
informatiques décrivent la nature des SW proposés et les interfaces disponibles.

L E S
La production d'applications distribuées est une tâche très complexe. Il faut choisir une
architecture du système d’information avec son environnement de développement. Il s'agit
ensuite de mettre en place l'architecture de développement. Ces procédures ne sont pas à la
portée de tout le monde : les directions informatiques ont intérêt à recourir à des personnels
qualifiés, certifiés par les éditeurs de services.

S U R
Les principaux acteurs :
Tous les éditeurs d'environnements de développement et de logiciels d'infrastructure
commercialisent aujourd'hui des services web.
Les offres les plus importantes émanent d’IBM (WebSphere), de Microsoft (.NET) et de Sun
S

(SunONE).
U
C
O
F

29
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

>
UMTS
(Universal Mobile Telecommunication System)
ou la téléphonie de 3e génération

L’ UMTS peut être défini comme le téléphone de la troisième génération. Ce système universel
de télécommunication mobile doit remplacer les réseaux de téléphonie mobile actuels, dits
de deuxième génération ou GSM. L’intérêt de l’UMTS est de délivrer un débit de données
capable d’atteindre 2 Mbit/s, c’est à dire 200 fois plus que la technologie actuelle ou quatre
fois plus qu’une liaison ADSL !
Cette puissance permet de proposer à tous les utilisateurs, professionnels comme particuliers,
des terminaux combinant une large gamme de services : téléphonie bien sur, mais aussi
transmission de données informatisées comme le courrier électronique ainsi que des
N O U V E L L E S

contenus multimédias, comme la vidéo ou la visioconférence. En somme l’UMTS sera la


norme qui permettra la fusion tant attendue entre les télécommunications et l’informatique.

Les principes de fonctionnement du réseau UMTS se rapprochent de celui du GSM avec des
zones de réception avec des débits variables selon la cellule d’émission. La picocellule couvre
un utilisateur dans un rayon inférieur à 400 m mais avec un débit de 2 Mbit/s. La microcellule
va jusqu’à 2 km de portée mais pour une capacité de transmission à 384 kbit/s. La
macrocellule va jusqu'à 20 km de portée mais sans dépasser 144 kbit/s. Les zones désertiques
seront couvertes par des liaisons satellites. La bande de fréquences de l’UMTS est comprise
entre 1 885 et 2 200 MHz au lieu des 900 et 1 800 MHz du GSM. Enfin l’UMTS est formé de
deux parties, un cœur et un réseau d’accès, reliées par une interface. Cette méthode permet de
connecter les terminaux à des réseaux satellites ou radio.

La technologie UMTS sera sans doute proposée aux entreprises avant de toucher le grand
public. On imagine sans peine les flottes de commerciaux pouvant accéder aux intranets et
L E S

aux réseaux de leurs entreprises pour transmettre leurs rapports, vérifier les disponibilités ou
consulter une liste de prix. Par ailleurs, l’UMTS préfigure le futur réseau de communication
unifiée qui permettra à chacun d’entre nous d’accéder à ses propres informations et données
où que nous soyons dans le monde.

Annoncé pour 2002, l'UMTS peine à trouver ses marques techniques et industrielles. Les
S U R

observateurs les plus optimistes annoncent un lancement pour la fin 2003. D’autres penchent
plutôt pour 2005. La crise qui frappe le marché des télécommunications brouille encore les
pistes : les opérateurs ne peuvent tout simplement plus investir dans l’acquisition des licences
et dans la création d’un nouveau réseau.

Les principaux acteurs :


S

Selon l’Autorité de régulation des télécommunications, l'attribution des fréquences des trois
opérateurs débutera en octobre 2002 pour les grandes villes françaises et s'échelonnera
jusqu'à janvier 2004 pour l'ensemble du territoire. 25 % de la population métropolitaine
U

accédera alors aux services voix de l'UMTS et 20 % aux services de transmission de données
en mode paquets à 144 kbit/s. En 2010, ces pourcentages devraient être de 80 et 60 %.
C
O
F

30
T E C H N O L O G I E S
>
Virtualisation du stockage
ou abstraction du stockage
des données

Méthode qui distingue l'organisation du stockage de son mode de présentation.

La Virtualisation du Stockage ou stockage virtuel est un procédé qui sépare la présentation


logique et la réalité physique des ressources de stockage. L’utilisateur accède à ses ressources
de stockage en s’affranchissant des différents protocoles utilisés. Cette technologie masque la
disparité des ressources de stockage, et les présente comme un seul bloc homogène et
cohérent. Le stockage virtuel est considéré par les spécialistes comme une sorte d’agent, de
broker capable de fournir et de répartir de l’espace de stockage aux applications d’entreprise,

N O U V E L L E S
qui permet à un administrateur de réseau de gérer ses données de manière uniforme. Le trafic
de données issu des serveurs du LAN est capté et orienté au bon endroit par la couche de
virtualisation. Cette couche intermédiaire est composée à la fois de matériels et de logiciels.

En effet l’interopérabilité entre des matériels différents est l’un des grands problèmes posé par
les nouveaux réseaux de stockage. Pour tenter de s’approprier les marchés, constructeurs et
éditeurs freinent autant que possible la standardisation entre les matériels. La virtualisation
permet donc de contourner le problème. La technologie structure d’une part les ressources de
stockage sous la forme d'une capacité unique, représentée comme un énorme disque dur.
Et de l'autre, elle répartit les datas selon la gestion voulue par l'administrateur : réplication,
sauvegarde, sites miroir...
Les administrateurs constatent une meilleure souplesse. Ils peuvent différer des procédures
d’archivage, accéder plus vite aux fichiers. Pour leur part, les financiers constatent une
diminution des dépenses informatiques entre 30 et 50%.

L E S
Les principaux acteurs :
Tous les constructeurs, éditeurs et équipementiers s'intéressent au stockage virtuel. De
nombreux partenariats sont d’ailleurs annoncés.

S U R
EMC : baies de virtualisation Symmetrix et NAS Cellera et Clariion
HP-Compaq baies de virtualisation SureStore et StorageWorks Enterprise Virtual Array
Sun : baie de virtualisation StorEdge 6900, et Jiro plate-forme de gestion du stockage
Network Appliance : NAS de virtualisation NuView
IBM : serveurs et baies Storage Tank
StorageTek : Solution de virtualisation sur bandes
S
U
C
O
F

31
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

> VOIP (Voice over IP) : ou la téléphonie


sur Internet en mode IP

L’enjeu de la Voix sur Ip (VoIP) est de taille : utiliser l’infrastructure Internet pour réduire à
néant ou presque les factures téléphoniques, et réussir la fameuse convergence voix-données-
images. Que l’on accède directement à Internet comme les particuliers ou que l’on exploite
les ressources d’un réseau informatique, la technologie est la même. La voix est numérisée et
“ encapsulée ” dans des paquets de données informatiques, puis envoyée sur Internet.

Une entreprise peut ainsi se dispenser du réseau commuté traditionnel pour joindre ses sites
ou ses agences locales. Elle mettra à profit ses lignes spécialisées (LS), dédiées au transport de
N O U V E L L E S

datas, pour y adjoindre également sa téléphonie. Il suffit dans un premier temps de relier ses
autocommutateurs par la LS grâce à des cartes spéciales. On peut également substituer à ses
PABX traditionnels des IPBX. Les signaux vocaux sont compressés et codés, puis insérés dans
des paquets IP, transportés sur le lien, et enfin décodés et décompressés à l'autre bout de la
ligne. Certaines entreprises ont même franchi une étape supplémentaire en investissant dans
des systèmes dit tout-IP qui exploitent des téléphones spéciaux reliés à des IPBX.
L’intérêt ne réside pas tant dans l’économie sur la facture que dans la souplesse : un terminal
titulaire d’une adresse IP est connectable de suite de n’importe quel point du réseau.

Plusieurs facteurs freinent le développement de cette technologie prometteuse. Le


remplacement d’un système téléphonique n’est pas une mince affaire, financièrement et
techniquement. L’absence de standards techniques communs entre les constructeurs bloque
les utilisateurs peu soucieux de s’engager avec un seul fournisseur. Par ailleurs, les méthodes
de QoS (qualité de service) ne garantissent pas encore une qualité de transmission
indispensable pour une entreprise et même pour un particulier.
L E S

Enfin, la téléphonie traditionnelle a des atouts à faire valoir : un niveau de fiabilité quasi total
à des coûts moins élevés. D’après les analystes du Gartner Group, la VoIP représentait en 2000
0,6% du trafic de télécommunication contre 22% pour les spécialistes des transmissions de
données et 77,4% pour les services vocaux. En 2005, les proportions seront de 5,8%, 33,4%
et 60,8%. La VoIP doit manifestement encore faire ses preuves.
S U R

Les principaux acteurs :


Les constructeurs d'équipements télécoms traditionnels proposent deux types d’offres. La
première regroupe les équipements PBX avec des cartes d'extension IP. Elle touche
essentiellement les grands fournisseurs de matériels télécoms.
Avaya : Definity de PBX avec carte IP, l'IPBX IP 600
S

Nortel Networks : PBX avec carte IP Meridian 1, PCBX Business Communications Manager et
IPBX Succession 1000
Siemens : gamme Hipath 3000 et 4000 de PABX avec cartes IP, l'IPBX Hipath 5000
U

Alcatel : gamme OmniPCX


La seconde porte sur les IPBX. Elle provient des équipementiers des réseaux informatiques
3Com : IPBX NBX 100 et SuperStack 3 NBX
Cisco : IPBX Call Manager
C
O
F

32
T E C H N O L O G I E S
>
XML : (eXtensible Markup Language)
le probable langage d'échange
universel

Langage extensible de balisage qui sert de base à de nombreux langages appelés dialectes.

eXtensible Markup Language langage extensible de balisage. Langage textuel, structuré par des
balises (tags), indéfiniment extensible, spécifié par le W3C et héritier de SGML. Il sert de base
à de nombreux langages appelés dialectes.

XML est considéré comme le langage basic des prochains systèmes d'information. Les
informaticiens le définissent comme un “ métalangage ” qui décrit la structure d'un

N O U V E L L E S
document avec des balises (caractéristiques techniques), indépendamment de sa présentation
et de son contenu. En somme, il s’agit d’un langage universel, extensible de manière illimitée.
Au départ cantonné à la gestion documentaire (GED) et à l'échange de données sur le Web,
XML voit son influence s'étendre à l'ensemble du système d'information.

Aujourd’hui, les utilisateurs exploitent de manière native des structures XML, autrement dit
les serveurs d'applications, les systèmes d'échange de données entre applications (EAI), les
services web, ainsi que les systèmes de stockage virtuels ou non. Chaque grand type
d’utilisation se traduit donc par l’emploi d’XML décliné sous telle ou telle forme. Aussi pour
éviter les conflits entre langages XML divergents, le W3C, organisme de normalisation officiel
chargé de ce langage, établit des recommandations pour chaque contexte d’utilisation, de
calcul au multimédia en passant par les développements hypertextes.

Les principaux acteurs :

L E S
Pour toutes ces raisons, le XML est intégré par la totalité des éditeurs de systèmes de bases de
données informatiques IBM, Oracle, SQL Server...

S U R
S
U
C
O
F

33
T E C H N O L O G I E S 20 TECHNOLOGIES À SURVEILLER DE PRÈS

>
WLAN (Wireless local area network) :
les réseaux informatiques par onde
hertzienne, réseau local sans fil

Après le LAN et le WAN, un troisième type de réseau est aujourd’hui proposé aux entreprises :
le WLAN ou Wireless Local Area Network. La grande différence avec le LAN repose sur la
transmission des datas par ondes hertziennes et l’affranchissement des liens physiques.
Deux normes de WLAN sont en concurrence : la gamme 802.11 promue par l'IEEE au États-
Unis et HiperLAN/2 par l'Etsi en Europe. Si la première profite de la supériorité écrasante de
l’industrie américaine (Cisco, 3Com, Proxim…), elle n’arrive cependant pas à convaincre les
entreprises de basculer dans le monde sans fil. Il faut dire que rien n’est stabilisé, et qu’après
802.11b et 802.11a, on nous promet 802.11g et même 802.11i censée fixer les choses une fois
N O U V E L L E S

pour toute. Non seulement les investissements sont conséquents, mais de plus les utilisateurs
attendent une amélioration sensible de la sécurité du réseau et de la qualité de service (QoS).
Les clients attendent aussi que la technologie transporte des flux de données comparables à
celle des réseaux câblés. Aujourd’hui, le débit maximum (802 .11a) s’élève à seulement à 11
Mbit/s. Les réseaux sans fil fonctionnent à la manière des réseaux téléphoniques GSM à partir
d’une division de l’espace en cellules, les Basic Service Set qui sont autant de points d’accès.
Chaque cellule est raccordée à une station d’émission et de réception avec une carte réseau et
une antenne. Donc à la place d’une prise murale, les micro-ordinateurs utiliseront un port
radio pour travailler en réseau.

Aujourd’hui, la technologie permet au mieux de compléter un LAN pour des utilisations


temporaires ou restreintes. Par exemple, certains hôpitaux utilisent la technologie Airport
d’Apple pour relier le personnel soignant au dossier du malade pendant les tournées.
Certaines entreprises prévoient également des points d’accès pour permettre à leurs
commerciaux et autres personnels itinérants de connecter sans effort leurs micro-ordinateurs
L E S

portables au LAN lors de lors visites aux sièges.

Cependant les atouts théoriques de la technologie sont suffisamment importants pour que le
WLAN représente l’avenir des réseaux d’entreprise. Souple et configurable facilement, le Sans
Fil réduit les investissements. Il doit permettre de relier au réseau les sites dits difficiles
comme les entrepôts et les ateliers, et de créer à volonté des sites et des extensions temporaires
S U R

dans les salles de réunion ou de conférence.

Les principaux acteurs :


La plupart des constructeurs proposent aujourd'hui des gammes de produits 802.11b : Intel,
IBM, HP, Cisco, Alcatel, Apple, 3Com... Intel et Proxim sont considérés comme des
S

précurseurs pour la norme 802.11a. Intel, Symbol, Cisco et SMC proposent des matériels
hybrides a et b.
La norme européenne HiperLAN/2 est semble-t-il abandonnée. Aujourd’hui aucun matériel
réseau HyperLAN/2 n’est commercialisé.
U
C
O
F

34

Vous aimerez peut-être aussi