Académique Documents
Professionnel Documents
Culture Documents
UE STELINF 509
INTRODUCTION
Parmi les éléments essentiels à l'existence humaine, le besoin de communiquer arrive juste après
le besoin de survie. Le besoin de communiquer est aussi important pour nous que l'air, l'eau, la
nourriture et le gîte.
Les méthodes que nous utilisons pour communiquer changent et évoluent en permanence. Alors
que nous avons été par le passé limités aux interactions en face à face, les innovations
technologiques ont considérablement augmenté la portée de nos communications. Des peintures
rupestres à la radio et la télévision, en passant par la presse écrite, chaque innovation a
développé et amélioré nos possibilités de connexion et de communication avec les autres.
Aujourd'hui, grâce aux réseaux, nous sommes plus connectés que jamais. Les personnes qui ont
des idées peuvent instantanément communiquer avec d'autres pour les concrétiser. Les
événements et les découvertes font le tour du monde en quelques secondes. Nous pouvons nous
connecter et jouer avec nos amis dans le monde entier.
Les avancées en matière de technologies réseau sont probablement les facteurs d'évolution les
plus importants dans le monde actuel. Elles aident à créer un monde dans lequel les frontières,
les distances et les obstacles ont de moins en moins d'impact.
Internet a changé la manière avec laquelle les interactions sociales, commerciales, politiques et
personnelles se produisent. La nature instantanée des communications sur Internet encourage
la création de communautés internationales. Les communautés internationales permettent des
interactions sociales qui dépendent des emplacements et des fuseaux horaires. La création de
communautés en ligne échangeant idées et informations peut potentiellement accroître les
occasions d'améliorer la productivité sur l'ensemble du globe.
C’est ce que l’on appelle le « réseau humain ». Le réseau humain est centré sur l'impact
d'Internet et des réseaux sur les individus et les entreprises. Les réseaux et Internet ont fait
évoluer notre quotidien : notre façon d'apprendre, notre façon de communiquer, notre façon de
travailler et même notre façon de nous divertir.
La taille des entreprises croissant au fil du temps, il a fallu envisager un autre mode d'échange
des données.
Vers 1960, des ingénieurs, tant du secteur militaire qu'industriel se sont penché sur ce problème.
Le consortium "D.I.X." (Digital, Intel, Xerox) a effectué des recherches et est parvenu à
développer un moyen de communication de poste à poste plus direct. Leur travail, à abouti à la
naissance de ce que nous appelons aujourd'hui communément "carte réseau." L'appellation
correcte de ce type de matériel est "carte d'interface réseau."
Le partage de ressources
Rendre accessible à une communauté d'utilisateurs des programmes, des données et des
équipements informatiques (i.e. un ensemble de ressources) indépendamment de leur
localisation.
La Fiabilité
Les petits ordinateurs (PC par ex.) ont un meilleur rapport prix/performances que les gros.
Aujourd'hui, nous trouvons surtout des architectures C/S[1] plus économique, plus souple et
permettant un déploiement incrémental aisé (contrairement aux architectures à base de
mainframe.)
Un réseau est aussi une infrastructure de communication permettant le travail collaboratif et/ou
les échanges entre personnes géographiquement séparées.
Les périphériques
Multimédia
Les services
Les périphériques et les supports sont les éléments physiques, ou le matériel, du réseau. Le
matériel correspond souvent aux composants visibles de la plateforme réseau, par exemple un
ordinateur portable, un ordinateur de bureau, un commutateur, un routeur, un point d'accès sans
fil ou le câblage qui sert à relier les périphériques. Parfois, certains composants ne sont pas
visibles. Dans le cas d'un support sans fil, les messages sont transmis à travers l'air, à l'aide
d'une fréquence radio ou d'ondes infrarouges invisibles.
Les composants réseau sont utilisés pour fournir des services et des processus. Les services et
les processus sont les programmes de communication, appelés logiciels, qui sont exécutés sur
les périphériques réseau. Un service réseau fournit des informations en réponse à une demande.
Les services incluent de nombreuses applications réseau courantes utilisées quotidiennement,
comme les services d'hébergement de messagerie et les services d'hébergement Web. Les
processus fournissent les fonctionnalités qui dirigent et déplacent les messages à travers le
réseau. Les processus nous semblent moins évidents, mais ils sont essentiels au fonctionnement
des réseaux.
Les périphériques
Les périphériques réseau auxquels les gens sont le plus habitués sont appelés périphériques
finaux, ou hôtes. Ces périphériques forment l'interface entre les utilisateurs et le réseau de
communication sous-jacent.
Imprimantes réseau
Téléphones VoIP
Terminal TelePresence
Caméras de surveillance
Appareils mobiles (tels que les smartphones, tablettes, PDA, les lecteurs de cartes
bancaires et les scanners de codes-barres sans fil)
Un périphérique hôte est la source ou la destination d'un message transmis sur le réseau. Pour
qu'il soit possible de faire une distinction entre les hôtes, chaque hôte situé sur un réseau est
identifié par une adresse. Lorsqu'un hôte démarre une communication, il utilise l'adresse de
l'hôte de destination pour indiquer où le message doit être envoyé.
Les périphériques intermédiaires relient des périphériques finaux. Ils offrent une connectivité
et opèrent en arrière-plan pour s'assurer que les données sont transmises sur le réseau, comme
illustré dans l'animation. Les périphériques intermédiaires connectent les hôtes individuels au
réseau et peuvent connecter plusieurs réseaux individuels afin de former un inter réseau.
Sécurité (pare-feu)
La gestion des données lors de leur passage à travers le réseau constitue également l'un des rôles
des périphériques intermédiaires. Ces périphériques utilisent l'adresse d'hôte de destination,
avec les informations concernant les interconnexions réseau, de manière à déterminer le chemin
que doivent emprunter les messages à travers le réseau.
Les processus qui s'exécutent sur les périphériques du réseau intermédiaire remplissent les
fonctions suivantes :
Gérer des informations indiquant les chemins qui existent à travers le réseau et l'inter
réseau ;
Le Multimédia (Support)
La communication à travers un réseau s'effectue sur un support. Ce support fournit le canal via
lequel le message se déplace de la source à la destination.
Les réseaux modernes utilisent principalement trois types de supports pour interconnecter des
périphériques et fournir le chemin par lequel des données peuvent être transmises. Comme
l'illustre la figure, ces supports sont les suivants :
Le codage du signal qui doit se produire afin de transmettre le message diffère selon le type de
support. Sur des fils métalliques, les données sont codées en impulsions électriques qui
correspondent à des modèles spécifiques. Les transmissions par fibre optique s'effectuent via
des impulsions de lumière, dans des plages de lumière infrarouges ou visibles. Dans les
transmissions sans fil, des modèles d'ondes électromagnétiques illustrent les différentes valeurs
de bit.
Les différents types de supports réseau possèdent divers avantages et fonctionnalités. Tous les
supports réseau ne possèdent pas les mêmes caractéristiques et ne conviennent pas pour les
mêmes objectifs. Les critères de choix d'un support réseau sont :
Un réseau informatique est un ensemble d'ordinateurs reliés entre eux qui échangent des
informations. A ceci près qu'outre des ordinateurs, un réseau peut aussi contenir des
équipements spécialisés, comme des hub, des routeurs, et bien d'autres équipements que nous
aborderons dans ce cours. Dans les grandes lignes, un réseau est intégralement composé :
d'équipements informatiques (ordinateurs et matériel réseau) et de liaisons point-à-point qui
relient deux équipements entre eux. Mais tous les réseaux sont très différents les uns des autres.
Il y a de nombreuses manières d'organiser les liaisons et ordinateurs d'un réseau, des milliers
de manières de gérer les transferts d'informations sur le réseau. Pour simplifier le propos, on
peut quand même classer les réseaux suivant plusieurs critères. Dans ce qui va suivre, nous
allons voir comment on classe les réseaux suivant leur taille et leur étendue géographique, mais
aussi suivant ce à quoi servent les ordinateurs du réseau.
Les infrastructures réseau peuvent considérablement varier selon :
La taille de la zone couverte ;
Le nombre d'utilisateurs connectés ;
Le nombre et les types de service disponibles.
On trouve les différents types de réseaux suivants :
Réseau local (LAN) (Local Area Network) - infrastructure réseau permettant
d'accéder aux périphériques finaux et aux utilisateurs sur une zone peu étendue. Un
réseau local (LAN) est une infrastructure réseau qui couvre une zone peu étendue. Les
fonctionnalités spécifiques offertes par les LAN sont les suivantes :
Les LAN relient des périphériques finaux dans une zone limitée telle qu'une maison,
une école, un bureau ou un campus.
En règle générale, un réseau local est administré par une seule entreprise ou une
seule personne.
Réseau étendu (WAN) (Wide Area Network) - infrastructure réseau permettant
d'accéder à d'autres réseaux sur une vaste zone.
Un réseau étendu (WAN) est une infrastructure réseau qui couvre une zone étendue. Les
réseaux étendus sont généralement gérés par des fournisseurs de services ou des fournisseurs
d'accès Internet (FAI).
Les fonctionnalités spécifiques offertes par les WAN sont les suivantes :
Les WAN relient des LAN sur des zones étendues comme plusieurs villes, des
États, des provinces, des pays ou des continents.
Les WAN sont habituellement gérés par plusieurs fournisseurs de services.
Le réseau Internet
Bien qu'il existe des avantages à utiliser un réseau LAN ou WAN, la plupart des utilisateurs
doivent communiquer avec des ressources situées sur un autre réseau, en dehors du réseau local
du domicile, du campus ou de l'entreprise. Cela est effectué via Internet
Internet est un ensemble de réseaux dont personne n'est propriétaire. Garantir une
communication efficace sur cette infrastructure diverse implique l'application de technologies
et de normes cohérentes et communément reconnues, ainsi que la coopération entre de
nombreux organismes gouvernementaux. Certains organismes ont été créés pour gérer la
structure et la normalisation des protocoles et des processus Internet. Ces organismes incluent
l'Internet Engineering Task Force (IETF), l'Internet Corporation for Assigned Names and
Numbers (ICANN) et l'Internet Architecture Board (IAB), entre autres.
Au début, Internet n'était pas disponible pour le grand public, mais servait essentiellement aux
grandes organisations. L'internet de l'époque était vraiment différent de l'internet actuel : non
seulement les technologies utilisées n'étaient pas les mêmes, mais il n'y avait pas de sites web.
En ce temps, internet servait surtout à échanger des données, télécharger de grands volumes de
données. C'est dans les années 1990 que sont apparues les technologies qui ont permis la
conception des sites web, à savoir l'HTML, les adresses URL et le protocole HTTP. De nos
jours, internet est surtout utilisé par les particuliers pour consulter des sites web. L'ensemble
des sites web accessibles sur internet est ce qu'on appelle le web : il faut ainsi faire la différence
entre le web et internet, internet étant un réseau et le web un ensemble de sites web.
Réseaux convergents
Les réseaux modernes sont en constante évolution pour répondre aux exigences des utilisateurs.
Si les premiers réseaux de données se limitaient à échanger des informations reposant sur des
caractères entre des systèmes informatiques connectés, Les réseaux téléphonique, radio et de
télévision traditionnels ont été gérés séparément des réseaux de données. Auparavant, chacun
de ces services nécessitait un réseau dédié, avec des canaux de communication différents et des
technologies différentes pour transmettre un signal de communication particulier. Chaque
service avait son propre ensemble de règles et de normes, destiné à garantir les communications.
Les progrès technologiques nous permettent aujourd'hui de regrouper ces différents types de
réseau sur une plate-forme appelée « réseau convergent ». Contrairement aux réseaux
spécialisés, les réseaux convergents peuvent transmettre des sons, des flux vidéo, du texte et
des images entre différents types d'appareil, par le biais d'un même canal de communication et
d'une même structure
Des moyens de communication autrefois séparés et bien distincts convergent maintenant sur
une plateforme commune. Cette plateforme offre une large gamme de méthodes de
communication aussi nouvelles que différentes qui permettent aux individus d'interagir
directement, et presque instantanément.
Un seul ordinateur peut également exécuter différents types de logiciel client. Un logiciel client
doit être installé pour chaque type de service requis. Un hôte équipé de plusieurs clients peut se
connecter à plusieurs serveurs en même temps. Par exemple, un utilisateur peut consulter sa
messagerie électronique et une page Web en même temps qu'il utilise la messagerie instantanée
et écoute la radio sur Internet.
Le réseau peer-to-peer
Le logiciel client et le logiciel serveur sont généralement exécutés sur des ordinateurs distincts,
mais un seul ordinateur peut tenir simultanément ces deux rôles. Dans le cas des réseaux de
particuliers et de petites entreprises, il arrive souvent que les ordinateurs fassent à la fois office
de serveur et de client sur le réseau. Ce type de réseau est appelé réseau Peer to peer.
Le réseau peer-to-peer le plus simple est constitué de deux ordinateurs connectés directement à
l'aide d'une connexion câblée ou sans fil.
Il est également possible d'interconnecter plusieurs PC pour créer un réseau peer-to-peer plus
important, mais cela nécessite un périphérique réseau, tel qu'un concentrateur.
L'inconvénient majeur d'un environnement peer-to-peer réside dans le fait que les performances
d'un hôte peuvent être amoindries s'il fait office à la fois de client et de serveur.
Dans les grandes entreprises, pour faire face aux importants volumes de trafic réseau, il arrive
souvent que des serveurs soient dédiés à la prise en charge des nombreuses demandes de
service.
L’architecture 2 tiers
Dans une architecture deux tiers, encore appelée client-serveur de première génération ou
client-serveur de données, le poste client se contente de déléguer la gestion des données à un
service spécialisé. Le cas typique de cette architecture est une application de gestion
fonctionnant sous Windows ou Linux et exploitant un SGBD centralisé.
Ce type d'application permet de tirer partie de la puissance des ordinateurs déployés en réseau
pour fournir à l'utilisateur une interface riche, tout en garantissant la cohérence des données,
qui restent gérées de façon centralisée.
La gestion des données est prise en charge par un SGBD centralisé, s'exécutant le plus souvent
sur un serveur dédié. Ce dernier est interrogé en utilisant un langage de requête qui, le plus
souvent, est SQL. Le dialogue entre client et serveur se résume donc à l'envoi de requêtes et au
retour des données correspondant aux requêtes.
Cet échange de messages transite à travers le réseau reliant les deux machines. Il met en oeuvre
des mécanismes relativement complexes qui sont, en général, pris en charge par un middleware.
L'expérience a démontré qu'il était coûteux et contraignant de vouloir faire porter
l'ensemble des traitements applicatifs par le poste client. On en arrive aujourd'hui à dire
que ce que l'on appelle le client lourd, a un certain nombre d'inconvénients :
On ne peut pas soulager la charge du poste client, qui supporte la grande majorité des
traitements applicatifs,
Le poste client est fortement sollicité, il devient de plus en plus complexe et doit être
mis à jour régulièrement pour répondre aux besoins des utilisateurs,
Les applications se prêtent assez mal aux fortes montées en charge car il est difficile de
modifier l'architecture initiale,
La relation étroite qui existe entre le programme client et l'organisation de la partie
serveur complique les évolutions de cette dernière,
Ce type d'architecture est grandement rigidifié par les coûts et la complexité de sa
maintenance.
Malgré tout, l'architecture deux tiers présente de nombreux avantages qui lui permettent de
présenter un bilan globalement positif :
Elle permet l'utilisation d'une interface utilisateur riche,
Elle a permis l'appropriation des applications par l'utilisateur,
Elle a introduit la notion d'interopérabilité.
Pour résoudre les limitations du client-serveur deux tiers tout en conservant ses avantages, on
a cherché une architecture plus évoluée, facilitant les forts déploiements à moindre coût. La
réponse est apportée par les architectures distribuées.
L’architecture 3 tiers
Les limites de l'architecture deux tiers proviennent en grande partie de la nature du client
utilisé :
Le frontal est complexe et non standard (même s'il s'agit presque toujours d'un PC sous
Windows),
Le middleware entre client et serveur n'est pas standard (dépend de la plate-forme, du
SGBD ...).
La solution résiderait donc dans l'utilisation d'un poste client simple communicant avec le
serveur par le biais d'un protocole standard.
Dans ce but, l'architecture trois tiers applique les principes suivants :
Les données sont toujours gérées de façon centralisée,
La présentation est toujours prise en charge par le poste client,
La logique applicative est prise en charge par un serveur intermédiaire.
Cette architecture trois tiers, également appelée client-serveur de deuxième génération ou
client-serveur distribué sépare l'application en 3 niveaux de services distincts, conformes au
principe précédent :
Premier niveau : l'affichage et les traitements locaux (contrôles de saisie, mise en forme
de données...) sont pris en charge par le poste client,
Deuxième niveau : les traitements applicatifs globaux sont pris en charge par le service
applicatif,
Troisième niveau : les services de base de données sont pris en charge par un SGBD.
Tous ces niveaux étant indépendants, ils peuvent être implantés sur des machines différentes,
de ce fait:
Le poste client ne supporte plus l'ensemble des traitements, il est moins sollicité et peut
être moins évolué, donc moins coûteux,
Les ressources présentes sur le réseau sont mieux exploitées, puisque les traitements
applicatifs peuvent être partagés ou regroupés (le serveur d'application peut s'exécuter
sur la même machine que le SGBD),
La fiabilité et les performances de certains traitements se trouvent améliorées par leur
centralisation,
Il est relativement simple de faire face à une forte montée en charge, en renforçant le
service applicatif.
Dans l'architecture trois tiers, le poste client est communément appelé client léger ou Thin
Client, par opposition au client lourd des architectures deux tiers. Il ne prend en charge que la
présentation de l'application avec, éventuellement, une partie de logique applicative permettant
une vérification immédiate de la saisie et la mise en forme des données.
Le serveur de traitement constitue la pierre angulaire de l'architecture et se trouve souvent
fortement sollicité. Dans ce type d'architecture, il est difficile de répartir la charge entre client
et serveur. On se retrouve confronté aux épineux problèmes de dimensionnement serveur et de
gestion de la montée en charge rappelant l'époque des mainframes.
Les contraintes semblent inversées par rapport à celles rencontrées avec les architectures deux
tiers : le client est soulagé, mais le serveur est fortement sollicité.
L’architecture n-tiers
L'architecture n-tiers a été pensée pour pallier aux limites des architectures trois tiers et
concevoir des applications puissantes et simples à maintenir. Ce type d'architecture permet de
distribuer plus librement la logique applicative, ce qui facilite la répartition de la charge entre
tous les niveaux.
Cette évolution des architectures trois tiers met en oeuvre une approche objet pour offrir une
plus grande souplesse d'implémentation et faciliter la réutilisation des développements.
Cette architecture est basée sur l'utilisation de composants "métier'', spécialisés et indépendants,
introduits par les concepts orientés objets (langages de programmation et middleware). Elle
permet de tirer pleinement partie de la notion de composants métiers réutilisables.
Ces composants rendent un service si possible générique et clairement identifié. Ils sont
capables de communiquer entre eux et peuvent donc coopérer en étant implantés sur des
machines distinctes.
o La topologie physique
o La topologie logique
o Les protocoles de transmission
La topologie logique est une architecture logicielle normalisant les critères de qualité et les
modalités "d'emballage" et de transmission des informations par la topologie physique.
Les diagrammes de topologie sont obligatoires pour toute personne qui travaille sur un réseau.
Ils fournissent une représentation visuelle des connexions réseau.
Il existe deux types de diagrammes de topologie :
Diagrammes de topologie physique – indiquent l'emplacement physique des
périphériques intermédiaires, des ports configurés et des câbles.
Diagrammes de topologie logique – illustrent les périphériques, les ports, et le schéma
d'adressage IP.
Il existe différentes manières d’interconnecter des systèmes informatiques à distance. On les
nomme topologies physiques de réseaux.
La topologie physique définit la façon dont les systèmes finaux sont physiquement
interconnectés. Sur les réseaux locaux à supports partagés, les périphériques finaux peuvent
être interconnectés selon les topologies physiques suivantes :
Topologie en étoile : les périphériques finaux sont connectés à un périphérique
intermédiaire central. Dans les premières topologies en étoile, les périphériques finaux
étaient interconnectés à l'aide de concentrateurs. Actuellement, des commutateurs sont
utilisés. La topologie en étoile est la topologie LAN physique la plus courante, surtout
parce qu'elle est facile à installer, très évolutive (il est facile d'ajouter et de retirer des
périphériques finaux) et facile à dépanner.
Étoile étendue ou hybride : dans une topologie en étoile étendue, les périphériques
intermédiaires centraux sont interconnectés avec d'autres topologies en étoile. Dans une
topologie hybride, des réseaux en étoile peuvent être interconnectés via une topologie
en bus.
Topologie en bus : tous les systèmes finaux sont enchaînés entre eux et le réseau est
terminé à chaque extrémité. Les périphériques d'infrastructure tels que les commutateurs
ne sont pas nécessaires pour interconnecter les périphériques finaux. Les topologies en
bus étaient utilisées dans les réseaux Ethernet en raison de leur faible coût et de leur
simplicité d'installation.
Topologie en anneau : les systèmes finaux sont connectés à leur voisin respectif et
forment ainsi un anneau. Contrairement à la topologie en bus, l'anneau n'a pas besoin
d'être terminé. Les topologies en anneau étaient utilisées dans les réseaux FDDI (Fiber
Distributed Data Interface). Ces réseaux utilisent un deuxième anneau pour la tolérance
aux pannes ou l'amélioration des performances.
Topologie maillée : utilisée dans les grands centres stratégiques. Elle permet de résister
aux pannes.
Le modèle OSI sert de base à la théorie générale des réseaux, c'est un modèle théorique
présentant la circulation des données dans un réseau, il est décrit en 7 couches : les plus
hautes sont abstraites et les plus basses sont concrètes.
Ce modèle décrit très précisément la liaison qui existe entre deux nœuds successifs d'un
réseau (deux ordinateurs, par exemple) d'un manière descendante et décomposée :
DNS (Domain Name Service) est un protocole permettant de convertir un nom de domaine
Internet en une adresse IP ( nom de domaine : www.machin.org, adresse obtenue
: 203.54.145.88 )
SMTP (Simple Mail Transfert Protocol) est un protocole d'envoi de messages électroniques
(mails) vers un destinataire hébergeant la boîte aux lettres.
POP3 (Post Office Protocol version 3) est un protocole permettant de rapatrier sur votre
machine personnelle le courrier qui a été déposé dans la boîte aux lettres de l'hébergeur.
FTP (File Transfert Protocol) est un protocole permettant de rapatrier sur votre machine ou
d'expédier à partir de votre machine des fichiers binaires quelconques.
HTTP (Hyper Text Transfert Protocol) est un protocole permettant d'envoyer et de recevoir
sur votre machine des fichiers HTML au format ASCII.
Lors de l'envoi de messages sur un réseau, la pile de protocoles sur un hôte fonctionne de haut
en bas. Dans l'exemple du serveur Web, nous pouvons utiliser le modèle TCP/IP pour illustrer
le processus d'envoi d'une page Web HTML à un client.
informations qui permettent au processus de destination de réassembler les données selon leur
format d'origine.
La couche transport encapsule les données HTML de la page Web au sein du segment et les
envoie à la couche Internet, où est implémenté le protocole IP. Dans cette couche, la totalité du
segment TCP est encapsulée dans ce paquet IP, qui ajoute une autre étiquette, appelée en-tête
IP. L'en-tête IP contient des adresses IP d'hôtes source et de destination, ainsi que des
informations nécessaires à la livraison du paquet à son processus de destination correspondant.
Ensuite, le paquet IP est envoyé à la couche d'accès au réseau, où il est encapsulé dans un en-
tête de trame et une fin de trame (code de fin). Chaque en-tête de trame contient une adresse
physique source et de destination. L'adresse physique identifie de manière unique les
périphériques sur le réseau local. Le code de fin contient des informations de vérification
d'erreur. Enfin, les bits sont codés sur le support par la carte réseau du serveur. Cliquez sur le
bouton Lire de la figure pour visualiser le processus d'encapsulation.