Vous êtes sur la page 1sur 61

Université 20 Aout 1955 Skikda

Faculté de technologie
Département de génie électrique

Niveau Master1 systèmes de télécommunication

Cours Normes et protocoles

Dirigé et préparé par : Dr L.Djouablia

1
Chapitre 1
Notions fondamentales
I- Institutions de normalisation en télécommunications
Un organisme de normalisation est un organisme dont les activités premières sont
l'établissement puis le maintien de normes destinées à des utilisateurs extérieurs à cette
organisation. Leurs activités peuvent inclure le développement, la coordination, la révision, la
modification, la réédition ou l'interprétation de telles normes. Pour les désigner, on utilise
parfois le sigle anglais SDO pour Standard Development Organisation.

La plupart des organismes de normalisation ont été fondés en ayant pour unique but les
objectifs précités. Toutefois, il existe quelques exemples d'organisations qui sont devenues
involontairement de tels organismes, ayant été à l'origine de certaines normes. Cette situation
se produit le plus souvent lorsqu'une norme établie à la base par un organisme pour son
fonctionnement interne est employée graduellement par un nombre important d'entités
extérieures et devient alors le standard de fait dans la branche de l'industrie en question.

Exemples : le fabricant Hayes Micro computer Products et son protocole de modem, la norme
de police d'écriture TrueType d'Apple ou encore le protocole PCL utilisé parHewlett-
Packard pour leurs imprimantes.

Dans un réseau, de nombreux composants matériels et logiciels, souvent conçus par des
fabricants différents, doivent pouvoir communiquer.

Pour faciliter leur interconnexion, il est indispensable d’adopter des normes établies par
différents organismes de normalisation :

2
II- Historique et évolution
Fondée, en 1865, l’UIT est devenue une agence spécialisée de l’Organisation des Nations
Unies en 1947. Elle est l’institution spécialisée des Nations Unies pour les technologies de
l’information et de la communication. Son siège se situe à Genève et elle compte 191 Etats
Membres et plus de 700 membres de Secteurs et Associés, du secteur public et du secteur
privé. Elle travaille également en collaboration avec des organisations de télécommunication
internationales et régionales. La participation aux travaux de l’UIT est ouverte tant aux Etats
qu’aux compagnies privées (exploitants, équipementiers, organismes de financement ou de
recherche-développement) et aux organisations internationales et régionales de
télécommunication. Pôle de convergence mondial où se retrouvent pouvoirs publics et secteur
privé, l’UIT aide le monde à communiquer, et ce dans trois secteur fondamentaux : les
radiocommunications (UIT-R), la normalisation (UIT-T) et le développement (UIT-D). Le
secteur des radiocommunications s’occupe de la gestion des ressources internationales que
constituent le spectre des fréquences radioélectriques et les orbites des satellites. Ses tâches
principales sont, notamment, d’élaborer des normes pour les systèmes de
radiocommunications, de garantir l’utilisation efficace du spectre des fréquences
radioélectriques et de procéder à des études sur le développement des systèmes de
radiocommunication. Les activités de normalisation sont les activités les plus connues – et les
plus anciennes – de l’UIT. Ce secteur de l’Union est en charge de l’élaboration de textes
normatifs couvrant tous les domaines de la télécommunication mondiale. Il produit
principalement des Recommandations. Aujourd’hui, ce ne sont pas moins de 3000
Recommandations qui sont en vigueur.

III- Définitions
a- Normes
Une norme, du latin norma « équerre, règle », désigne un état habituellement
répandu, moyen, considéré le plus souvent comme une règle à suivre. Ce terme générique
désigne un ensemble de caractéristiques décrivant un objet, un être, qui peut être virtuel ou
non. Tout ce qui entre dans une norme est considéré comme « normal », alors que ce qui en
sort est « anormal ». Ces termes peuvent sous-entendre ou non des jugements de valeur.

Dans sa présentation, de la norme à l'attention du grand public, l’Organisation internationale


de normalisation (ISO) évoque deux dates : 1906, avec la mise en place de la commission
électrotechnique internationale (CEI) ; 1926, année de création de la Fédération internationale
des associations nationales de normalisation (ISO, AFNOR)

Après la Seconde Guerre mondiale, le processus d'élaboration des normes s'est


considérablement développé dans l'industrie, l'économie, et les systèmes d'information. En

3
fait, le terme de normalisation évoque le plus souvent la normalisation dans l'industrie et les
services. En raison de son influence déterminante sur les économies contemporaines, la
normalisation vue sous cet angle peut être considérée comme un instrument commercial pour
étendre l'influence d'une puissance économique, en utilisant des techniques de lobbying et les
réseaux d'organisations non gouvernementales par exemple (voir plus loin, au
chapitre Relations internationales, la question de l'hégémonie appliquée à la norme).

Au 31 décembre 2012 l’ISO a publié 19 573 normes, dont 1 280 en 2012 et ceux depuis 1947.

b- Protocoles

Un protocole est un ensemble de règles et de formats de données à respecter pour échanger


des données dans de bonnes conditions entre deux équipements ou deux programmes. Un
protocole de liaison de données a pour objet de rendre fiable le circuit de données.
Initialement, on nommait protocole ce qui est utilisé pour communiquer sur une même
couche d'abstraction (La couche réseau construit une voie de communication de bout à bout à
partir de voies de communication avec ses voisins directs) entre deux machines différentes.
Par extension de langage, on utilise parfois ce mot aussi aujourd'hui pour désigner les règles
de communication entre deux couches sur une même machine. Les protocoles de
communication les plus utilisés sont les protocoles réseau.
Ces suites de protocoles décrivent le format des messages et des règles selon lesquelles les
périphériques réseaux échangeront des données.

Le protocole doit également définir les règles du dialogue et spécifier la façon de corriger les
erreurs détectées. Enfin, on doit pouvoir détecter les pannes des équipements ou les ruptures
complètes de liaison pour avertir l’utilisateur de l’indisponibilité du service.
c- Standard
Un standard est un référentiel publié par une entité privée autre qu’un organisme de
normalisation national ou international ou non approuvé par un de ces organismes pour un
usage national ou international. On ne parle de standard qu'à partir du moment où le
référentiel (un ensemble structuré de recommandations ou de bonnes pratiques utilisées pour
le management du système d'information ) a une diffusion large, on parle alors de standard de
facto (standard de fait). Un standard est ouvert quand le référentiel est diffusé librement.

4
Dans la loi française nº 2004-575 du 21 juin 2004 pour la confiance dans l'économie
numérique, on peut lire la définition suivante d’un standard ouvert (Titre Ier, De la liberté de
communication en ligne, Chapitre Ier, La communication au public en ligne, article 4) : « On
entend par standard ouvert tout protocole de communication, d'interconnexion ou d'échange et
tout format de données interopérable et dont les spécifications techniques sont publiques et
sans restriction d'accès ni de mise en œuvre. »

La normalisation ou la standardisation est le fait d'établir respectivement des normes et


standards techniques, c'est-à-dire un référentiel commun et documenté destiné à harmoniser
l'activité d'un secteur. Cette dernière est réalisée par des organismes spécialisés, qui sont le
plus souvent soit des organismes d'État, soit des organisations créées par les professionnels
d'un secteur d'activité donné.

L'accès à des normes est généralement payant, et peu diffusé, alors que les standards sont plus
facilement diffusés. En particulier le standard Unicode est généralement mieux connu que la
norme ISO-10646 qui en est un sur-ensemble.

Traditionnellement présents dans le secteur industriel, les normes et standards ont gagné le
domaine des services, notamment au travers des normes relatives aux processus et à la qualité
de service. (ISO 9001 v 2008).

d- Recommandation

Les Recommandations sont des normes qui définissent les modalités d’exploitation et
d’interfonctionnement des réseaux de télécommunication. Bien qu’elles ne soient pas élevée
et du fait qu’elles garantissent l’inter-connectivité des réseaux et permettent de fournir des
services de télécommunication dans le monde entier.

Dr L.Djouablia

Niveau Master Télé Comm

Cours Normes et protocoles

Chapitre 2

5
Normes associées à la diffusion analogique et
numérique
I- Normes audio et vidéo analogiques (CCIR, NTSC, …)
Une image vidéo analogique en couleurs peut être reconstituée par le mélange, à quantité
variable, des trois couleurs primaires rouge, vert, bleu. Mais en pratique, le signal vidéo ne se
présente pas toujours sous la forme de trois signaux RVB. Il peut en fait revêtir quatre formes
différentes.
– RVB : chaque couleur primaire rouge, verte, bleue est véhiculée par trois signaux distincts
sur trois liaisons indépendantes (une quatrième voie peut être utilisée pour la
synchronisation).
– Composantes : les signaux en composantes sont fabriqués à partir d’une recomposition
linéaire des signaux primaires RVB, conduisant à un signal de luminance Y (représentant à lui
seul l’image en noir et blanc), et deux signaux dits de différence de couleurs R-Y et B-Y,
notés Dr et Db.
– Composite : les trois signaux composantes Y, Dr, Db sont combinés en un unique signal
vidéo appelé signal composite. Il existe trois standards composites, le PAL, le SECAM et le
NTSC, dont les différences portent essentiellement sur la manière dont sont combinés les
signaux.
– Y/C (ou composite séparé) : il s’agit d’un mode de représentation dans lequel la luminance
et la chrominance sont codées chacune comme en composite, mais restent séparées l’une de
l’autre au niveau de la connectique et des équipements. La qualité de l’image est meilleure
qu’en composite (définition supérieure, pas de cross-color,...).

Force est de constater que les normes de codage composite des signaux de télévision en
vigueur aujourd’hui reposent sur des spécifications établies il y a plus de 50 ans, en fonction
de la technologie et des besoins de l’époque. En effet, les standards PAL, SECAM et NTSC
sont tous trois nés de la nécessité d’assurer le passage de la télévision en noir et blanc à la
télévision en couleurs de façon totalement compatible. Ces trois standards vidéo composites
utilisés selon les zones géographiques, qui sont, par ordre de création, le NTSC (525 lignes
par image, 60 trames par seconde), le SECAM et le PAL (625 lignes par image, 50 trames par
seconde).

6
I-1- Le NTSC
Lancé en 1953, le NTSC (National Television System Comittee) est utilisé principalement par
les États-Unis, le Canada, le Mexique et le Japon. Tout comme le PAL mais contrairement au
SECAM, le NTSC transmet simultanément les deux composantes de couleurs Dr et Db. Deux
porteuses, de même fréquence mais décalées de 90° l’une par rapport à l’autre, sont modulées
en amplitude par les signaux de différence de couleurs, puis supprimées. Les signaux
résultants sont mélangés pour former un signal unique de chrominance modulé en amplitude
(saturation) et en phase (teinte). Ce signal de chrominance est alors ajouté au signal de
luminance. Comme deux phases sont possibles en ligne, la périodicité du signal NTSC est de
quatre trames, alors que celle du signal en noir et blanc n’est que de deux trames. Pionnier des
systèmes de télévision en couleurs et par conséquent tributaire de techniques peu évoluées, le
NTSC est sujet à un défaut majeur : la moindre distorsion de phase – due aux circuits du
récepteur, à l’antenne, à la propagation, etc. – se traduit par des erreurs de teinte sur l’image.
Ainsi, les récepteurs NTSC sont pourvus d’un potentiomètre de réglage de phase pour
rattraper d’éventuels défauts. Il faut cependant savoir que les États-Unis vivent actuellement
une période de transition vers la diffusion numérique hertzienne standard et à haute définition,
au terme de laquelle le NTSC est appelé à disparaître définitivement. Les 1600 diffuseurs
américains se sont vu prêter chacun par le gouvernement américain un second canal hertzien
de 6 MHz, sur lequel ils sont tenus de diffuser un programme numérique (parallèlement à leur
canal NTSC), conformément à un calendrier ayant démarré en 1998 et s’étalant jusqu’en
décembre 2006. À l’issue de cette phase transitoire, tous les diffuseurs devront définitivement
cesser de diffuser en NTSC et restituer leurs canaux au gouvernement qui les emploiera à
d’autres fins.

I-2- Le PAL
Lancé en 1963, le système de codage PAL (Phase Alternation Line) apporte une variation au
NTSC, d’apparence mineure, mais qui en supprime la principale faiblesse. Le PAL utilise le
même type de modulation que le NTSC, mais avec la particularité d’inverser, à l’émission, la
phase de la sous-porteuse relative au signal de différence de couleurs Dr une ligne sur deux,
tout en conservant son amplitude (une salve de référence de la phase couleur est insérée sur le
palier de suppression ligne). Ainsi, si une rotation de phase accidentelle survient sur une ligne
donnée, une rotation de signe opposé se produit sur la ligne suivante. L’oeil faisant une

7
synthèse additive des couleurs, il restitue la bonne teinte, puisque les deux déphasages
s’annulent mutuellement (on admet que l’information de couleur est quasiment identique sur
deux lignes successives). L’alternance de phase sur la composante de différence de couleurs
Dr d’une ligne à l’autre engendre une périodicité de quatre trames. Cependant, si l’on
considère la fréquence de la sous-porteuse choisie pour le PAL, le nombre de périodes par
ligne n’est pas un entier. Au total, la périodicité du signal PAL s’élève en fait à huit trames.
En montage, le fait de briser un bloc de quatre images entraîne une saute de couleur
provoquée par un déphasage de la sous-porteuse, visible surtout lorsqu’il s’agit de plan sur
plan.

I-3- Le SECAM
Lancé en 1967, le SECAM repose sur la transmission en alternance une ligne sur deux de
chacun des deux signaux différence de couleurs Dr et Db (solution par ailleurs récemment
reprise par la structure de codage 4:2:0 de la diffusion numérique, du DVD et du format DV).
La résolution verticale de la chrominance est ainsi réduite de moitié par rapport à celle de la
luminance – ce qui n’est pas le cas des systèmes PAL et NTSC. Rappelons que la résolution
horizontale de la chrominance est, de son côté, fortement diminuée en raison de la réduction
de sa bande passante. Les inventeurs du SECAM ont estimé superflu de transmettre pour la
chrominance une définition meilleure en vertical qu’en horizontal. Un seul signal de
différence de couleurs est donc transmis par ligne en modulant en fréquence une sous-
porteuse (une sous-porteuse différente est attribuée à chaque signal de différence de couleurs).
Cette alternance Dr, Db à la fréquence ligne entraîne une périodicité de quatre trames.
Cependant, l’inversion dela phase de la sous-porteuse (une ligne sur trois, une trame sur deux)
choisie pour améliorer la compatibilité directe porte cette périodicité à douze trames. À la
réception, le circuit de décodage traite, sur chaque ligne, le signal Dr ou Db transmis
directement, additionné du signal Db ou Dr de la ligne précédente, conservé en mémoire et
considéré comme encore valable pour la ligne actuelle (des signaux d’identification couleur
sont transmis à chaque suppression trame et ligne). On s’est cependant assez vite rendu
compte que si le SECAM offrait des avantages appréciables pour la transmission (pas de
risque d’intermodulation des signaux de chrominance qui ne sont jamais présents
simultanément, démodulation simple, etc.), il présentait en contrepartie des inconvénients
irréfutables dans le domaine de la production. En effet, le mélange de deux sources SECAM
impose de démoduler systématiquement les signaux en composantes Y, Dr, Db, afin de
procéder à leur addition, puis de les remoduler en sortie de traitement. C’est pourquoi même

8
dans les pays ayant adopté le SECAM comme norme de diffusion, ce dernier a souvent laissé
la place au PAL en studio, qui permet le mélange des sources sans démodulation (si elles sont
bien en phase). C’est ainsi que les standards se sont progressivement divisés entre la
production et la diffusion. L’Europe a été partagée entre le PAL et le SECAM, les chaînes de
télévision ayant opté pour la diffusion en SECAM étant pour la plupart équipées aussi de
matériels PAL. D’autre part, avec le développement des travaux de postproduction est né le
désir de repousser les limites des standards composites, dont la principale faiblesse est la
limitation de la bande passante des signaux et l’imbrication de leurs spectres. Car si ce défaut
est toléré pour la diffusion, il constitue un sérieux handicap pour les traitements complexes de
l’image en régie. Au début des années 1980, l’avenir des normes composites dans les studios
commence à s’assombrir.

II- Normes audio et vidéo numériques (DVB, ATSC, ISDB,


NICAM…)

Le signal numérique n’a pas de nature physique. Il se présente sous la forme d’un message
composé d’une suite de symboles, et est donc discontinu, le passage d’un symbole à un autre
s’effectuant par une transition brutale. Basé sur le langage binaire, le signal numérique est
constitué d’une suite de 0 et de 1, traduisant respectivement un niveau bas et un niveau haut
du signal électrique. L’avantage fondamental du numérique réside dans le fait qu’il autorise
un nombre de traitements complexes très élevé sans que soit affectée l’intégrité de
l’information. Les dégradations causées par les perturbations du support de transmission ou
d’enregistrement, telles que l’adjonction de bruit, la distorsion, etc., ne touchent que les
paramètres analogiques du signal numérique et n’altèrent pas l’information, si elles restent
dans certaines limites. En effet, tant que les niveaux électriques hauts et bas correspondant
aux deux valeurs binaires se distinguent l’un de l’autre, le message transporté demeure intact.
Parmi les normes régissant sur les diffusions audio et vidéo numériques, il existe :

II-1- Le ATSC

Advanced Television Systems Committee (ATSC) est le groupe qui a contribué au


développement du nouveau standard de télévision numérique aux États-Unis, qui porte le
même nom. Celui-ci a été aussi adopté par le Canada, le Mexique et la Corée du Sud. Il doit
9
remplacer le système analogique NTSC actuel. Il peut produire des images de type Wide
Screen 16:9 de résolution maximum 1 920×1 080 pixels, soit six fois mieux que l'ancien
système NTSC. Différentes tailles d'image sont supportées. ATSC se vante également d'avoir
une qualité audio de type cinéma parce qu'elle emploie le format Dolby Digital.

Les diffuseurs ATSC doivent maintenir un signal analogique sur deux canaux séparés, parce
que le système ATSC exige l'utilisation d'un canal entier de 6 MHz. Celui-ci a été critiqué car
il est considéré comme compliqué et cher à mettre en œuvre et à employer.

II-2- Le DVB
Digital Video Broadcasting (abrégé en DVB, et qu'on pourrait traduire par « diffusion vidéo
numérique »), est un ensemble de normes de télévision numérique édictées par le consortium
européen DVB, et utilisées dans un grand nombre de pays. Ses principales concurrentes sont
les normes ATSC (utilisées aux États-Unis et au Canada) et les normes ISDB (utilisées
au Japon et au Brésil).

 La tâche principale consiste à développer une suite complète de technologies de diffusion


de télévision numérique par satellite, par câble et par antenne radio sous forme de « pré-
standardisation » ;
 Plutôt qu'associer un unique programme par canal (ou fréquence porteuse) de
télédiffusion, le système DVB doit s'apparenter à un « récipient » qui transporte une
combinaison de sources vidéo, audio et données multimédias.
 L'objectif consiste à définir une série de normes au standard ETSI (The European
Telecommunications Standards Institute) pour les "couches physiques" (combinaison des
données de contenus diffusés), la correction d’erreurs (compensation en réception) et le
transport (transmission) pour chaque mode de diffusion ;
 Un rapport ETSI doit décrire les principaux systèmes de bande de base représentant des
options pour la transmission ;
 Dans la mesure du possible, afin de réduire les coûts industriels, le DVB doit intégrer des
points communs entre les différentes plates-formes de diffusion (câble, satellite, hertzien
terrestre, etc...) et déboucher sur des solutions accessibles au marché grand public. ;
 Le projet de DVB n'a pas pour but de réinventer mais consister à réemployer, officialiser
et harmoniser les normes ouvertes existantes, dès lors qu'elles sont disponibles.

10
Le projet DVB a commencé la première phase de son travail en 1993 à la même période où en
Amérique du Nord, le forum "Grand Alliance" organise également le même type de
développements, avec en ligne de mire, la télévision numérique puis la Haute Définition. Il
faut souligner que certains acteurs impliqués participent à la fois aux deux forums concurrents
mais dont les objectifs sont similaires, notamment les Européens Philips Consumer
Electronics et Thomson Consumer Electronics.

Durant le processus de multiplexage, les différents services (chaînes, jeux, radio…) sont
assemblés en flux de transport (TS, Transport Stream) par l’adjonction des tables DVB.
Chaque TS peut ainsi transporter jusqu’à 20 chaînes de télévision, voire plus, dépendant du
mode de transport et de la qualité d’encodage voulus.

Une fois ce processus terminé, ces flux sont transmis soit sous la forme d’un bouquet
numérique vers les clients finaux qui devront donc posséder un décodeur (Set-top box)
compatible qui fera le processus inverse : démultiplexage, vérification des droits d’accès,
décodage et transmission vers la télévision, soit par un modulateur PAL, soit par une
sortie Péritel (SCART), soit par une sortie HDMI ou encore sous la forme d’un
signal composite pour la vidéo et analogique pour l’audio.

Globalement, la norme DVB entre donc en jeu depuis la mise en multiplex jusqu’à la sortie du
décodeur final.

Liste des normes de la version 10 au mois d’août 2007

Normes Description

Transmission

DVB-S Transmission satellite

11
DVB-S2 Transmission satellite version 2

DVB-C Transmission câble

DVB-CS Transmission satellite

DVB-T Transmission terrestre

DVB-T2 Transmission terrestre version 2

DVB-H Récepteur portable

DVB-SH Récepteur portable transmission par satellite

DVB-MDS Transmission satellite multipoint

DVB-DSNG Transmission satellite temporaire

II-3- Le ISDB

L'ISDB (Integrated Services Digital Broadcasting) est une norme japonaise de diffusion
de télévision et radio numérique. Elle comporte plusieurs sous-normes, qui sont l'ISDB-T
(pour la diffusion dite terrestre), l'ISDB-S (pour la diffusion par satellite) et l'ISDB-C (pour la
diffusion par câble). L'ISDB-T est elle-même découpée en deux normes dites 1seg et 13seg, la
première étant prévue pour la réception sur appareil mobile.

Cette norme est principalement utilisée au Japon et en Amérique du Sud. Elle fut définie par
l'ARIB, une organisation de standardisation japonaise. La vidéo diffusée est encodée au
format MPEG-2. L'accès conditionnel, qui permet de n'autoriser que certains terminaux à

12
afficher certaines chaînes (pour la télévision payante par exemple), est défini dans la
norme ARIB STD-B25.

II-4- Le NICAM
NICAM est un acronyme qui signifie Near Instantaneous Companded Audio Multiplex :
« Multiplexage audio à compression quasi instantanée ». Ce procédé permet la transmission
d’un son numérique stéréo en complément d'un signal de télévision analogique. La première
diffusion NICAM a eu lieu en septembre 1994 avec la chaîne TF1. À la fin de l'année 2011, la
suppression de la diffusion analogique des chaînes nationales par voie terrestre, sur satellite et
le câble a entrainé l'arrêt définitif du NICAM en France.
Dès le lancement de la norme audio, la promotion présentait la qualité sonore du NICAM,
équivalente à celle du CD audio. Toutefois, bien que d'une performance supérieure à la
modulation AM et monophonique associée au standard historique SECAM et à la « norme
L », la qualité sonore du NICAM est limitée ; si l'encodage numérique du CD
exploite44,1 kHz avec 16 bits d’échantillonnage, le NICAM est pour sa part, encodé
seulement à 32 kHz avec 14 bits d’échantillon compressé sur 10 bits. Le spectre sonore
restitué en NICAM est donc, selon Shannon, réduit à ~15 kHz contre ~20 kHz pour le CD.
Enfin, la dynamique (le rapport entre le son de niveau le plus élevé et le son le plus faible
théoriquement reproductible) maximale se limite à 84 dB au lieu de 96 dB ; Enfin, la norme
de compression Musicam peut engendrer dans certains cas, des artefacts plus ou moins
audibles par l'oreille humaine.

Dr L.Djouablia

Niveau Master Comm

Cours Normes et protocoles

Chapitre 3

13
Normes associées aux réseaux de
communications numériques
I- Classification des réseaux de communications
Un réseau de communication peut être défini comme l’ensemble des ressources matériels et
logiciels liées à la transmission et l’échange d’information entre différentes entités. Suivant
leur organisation, ou architecture, les distances, les vitesses de transmission et la nature des
informations transmises, les réseaux font l’objet d’un certain nombre de spécifications et de
normes.
􀂐 Les réseaux de communications peuvent donc être classés en fonction du type
d’informations transportées et de la nature des entités impliquées. On distingue ainsi trois
principales catégories de réseaux :
• Les réseaux de télécommunications
• Les réseaux Téléinformatiques
• Les réseaux de télédiffusion

I-1- Les réseaux de télécommunications


Ce sont les réseaux de communications les plus anciens. Ils ont pour objectif l’acheminement
de communications vocales entre individus. La parole pouvant être envoyée brute sous la
forme d’ondes électromagnétiques, on parle alors de communication vocale analogique, ou
sous la forme d’une suite d’information binaire (‘0’ ou ‘1’) après avoir subis un traitement
appelé numérisation.
Exemples : Réseau Téléphonique Commuté Public, Numéris, Réseaux
mobiles GSM/DCS,…

I-2- Les réseaux téléinformatiques


Ils sont destinées à relier des équipements informatiques (serveurs, ordinateurs, imprimantes
…) pour :
- l’échange de de données binaires issus d’applications ou processus informatiques tels que les
traitements de textes, les bases de données, ou les navigateurs Internet.
- le partage de ressources informatiques (imprimantes, disques durs,
etc …).
Exemples : Internet, réseaux locaux d’entreprises, Transpac, ...

14
I-3- Les réseaux de télédiffusion
Plus récents, ils servent à la diffusion de canaux de télévisions entre les studios TV et les
particuliers. On retrouve les réseaux de distribution terrestre des câblo-opérateurs et les
réseaux satellites.
Remarques : Une des particularités des réseaux terrestres, c’est qu’aujourd’hui ils sont
exploités en analogique et non en numérique, tandis que les transmissions via des satellites
sont unidirectionnelles.
Exemples : Numéricable (Paris), Vsat ou Eutelsat,

II- Réseaux et normalisations


Dans des domaines techniques comme les réseaux et les télécommunications, la normalisation
répond aussi bien aux attentes des consommateurs qu’aux besoins des fabricants. D’un côté,
elle offre aux utilisateurs la garantie que deux produits aux fonctions identiques mais de
fabricants différents puissent fonctionner correctement ensemble. De l’autre, les industriels
peuvent espérer toucher un plus grand nombre de consommateurs grâce à la normalisation de
leurs produits.
Différents organismes de normalisation édictent des avis qui couvrent tous les aspects d’un
équipement : aspects électriques, mécaniques, interconnexion… Les principaux organismes
internationaux de normalisation regroupent des représentants des industriels, des
administrations, des utilisateurs : l’ISO (International Standardization Organization), l’ITU
(International Télécommunications Union)… On trouve également divers groupements de
constructeurs comme : l’ECMA (European Computer Manufacturer), l’EIA (Electronic
Industries Association)… Dans Internet, l’IAB (Internet Architecture Board) définit la
politique du réseau à long terme alors que l’IETF (Internet Engineering Task Force) s’occupe
de l’homogénéité des solutions et publie les RFC (Request For Comments).
Une norme passe par plusieurs étapes : le résultat des compromis entre les différentes parties
s’exprime dans un document brouillon (draft). La forme stable du document est publiée sous
forme de draft proposable. Le Draft International Standard est la forme quasiment définitive.
Il constitue une base de travail pour les industriels. Enfin, l’IS (International Standard) est la
forme définitive du document. L’organisme considéré publie la forme finale, en utilisant une
référence qui dépend de son domaine d’application.

15
III- Historique et évolution des réseaux

L'évolution des réseaux informatiques va accompagner l'évolution de l'informatique. Plusieurs


schémas de communication vont se succéder mais il faut souligner qu'un schéma ne remplace
pas complètement le précédent. D'autre part, l'évolution des réseaux informatiques a été très
tributaire du rapport des coûts des équipements informatiques relativement aux coûts de
communication.

Au début de l'ère informatique, le traitement était centralisé. Un


grand calculateur (Mainframe) contenait toute la puissance du
traitement. Une des interfaces possibles avec le calculateur se
matérialisait par un terminal comportant un clavier et un écran.
La distance de raccordement du terminal informatique
au Centre de Traitement était plus ou moins
importante. Le télétraitement allait apparaître et
l'ensemble Centre de Traitement + Terminaux
constituait ce que nous appellerons un Système de
Télétraitement.

Pour ne pas surcharger le calculateur de la gestion des procédures de transmission, un


processeur frontal (FEP: Front-End Processor) est mis en place entre le terminal et le
calculateur.

Pour alléger les coûts de communication et pour exploiter au mieux les ressources de
transmission, des équipements de partage de supports apparaissent: les multiplexeurs et
les concentrateurs. La différence essentielle résidait dans leur fonctionnement. Pour l'instant,
nous soulignons qu'un concentrateur contenait un processeur et de la mémoire lui conférant
une " intelligence " supérieure au multiplexeur. Nous reviendrons dans un chapitre ultérieur
sur les différents équipements téléinformatiques.

Les réseaux de communication existaient. En effet, le réseau téléphonique et le réseau


télex avait une infrastructure couvrant des distances importantes. Parallèlement au
développement de Liaisons Spécialisées (performantes mais chères) et des réseaux
informatiques spécialisés, les constructeurs et les opérateurs de télécommunications
proposèrent l'utilisation des réseaux de communication (en particulier téléphoniques) pour

16
acheminer l'information issu des calculateurs et des terminaux informatiques. Mais il y avait
un problème d'ordre physique: les supports de transmission qui allaient être utilisés n'étaient
pas adaptés à la transmission des signaux digitaux. D'où la nécessité d'adaptateurs:
les modems.

Les protocoles de communication entre ces différents équipements: calculateurs, frontaux,


terminaux informatiques, multiplexeurs, concentrateurs et modems allaient être développés.
D'autres équipements permettant l'établissement d'une communication et l'aiguillage de
l'information, les commutateurs, allaient eux aussi évoluer.

Les années 70 marquèrent la baisse des coûts des calculateurs. Les mini-calculateurs firent
leur apparition. Ainsi, une entreprise avait de plus en plus de facilités de disposer de
calculateurs. Les calculateurs allaient être reliés au réseau.

De nouvelles applications se développent mettant à profit cette interconnexion d'ordinateurs.


La communication entre processus distants permet la réalisation d'Applications Réparties.
Les Systèmes Distribués coexistent au coté des Systèmes Centralisés. Certes de nouveaux
problèmes (dont le plus important est le synchronisme des traitements) se posent qu'il faut
résoudre.

Dans les années 80 l'informatique personnelle s'impose peu à peu. Les micro-
ordinateurs offrent convivialité et souplesse d'utilisation à défaut de puissance. Le désir et la
nécessité de communiquer sont de plus en plus forts. Et tout calculateur offre la possibilité
d'être raccordé à un réseau par des interfaces spécifiques.

17
La convergence entre les différents réseaux va s'accentuer avec la numérisation de
l'information. Ainsi, sur le même réseau transiteront des données informatiques et des
données audiovisuelles... La téléphonie pourra utiliser le réseau au même titre que les
données... Cela va amener une restructuration dans l'entreprise.

IV- Réseaux numériques et intégration de services


Un réseau numérique à intégration de services (RNIS, en anglais ISDN pour Integrated
Services Digital Network) est un réseau de télécommunications constitué de
liaisons numériques autorisant une meilleure qualité et des vitesses pouvant
atteindre 2 Mbit/s (accès E1) contre 56 kbit/s pour un modem classique.

On peut voir l'architecture RNIS comme une évolution entièrement numérique des réseaux
téléphoniques plus anciens, conçue pour associer la voix, les données, la vidéo et toute autre
application ou service. RNIS s'oppose donc au réseau téléphonique commuté (RTC)
traditionnel ; elle a été standardisée à la fin des années 1980

 L'abréviation ISDN est utilisée en Belgique et en Suisse. En Suisse, l'abréviation RNIS


n'est pas utilisée car Swisscom a souhaité avoir un terme unique pour l’allemand et le
français.

18
 L'abréviation RNIS était utilisée en France et au Canada. Cependant, le réseau RNIS
de France Telecom est plus connu sous son nom commercial « Numéris ».

L'Union internationale des télécommunications (UIT) a défini la technologie RNIS comme un


réseau fournissant une connectivité numérique de bout en bout avec une grande variété de
services. Deux caractéristiques importantes des réseaux RNIS les distinguent des réseaux
téléphoniques traditionnels :

 les connexions sont numériques d'une extrémité à l'autre ;


 RNIS définit un jeu de protocoles d'interface utilisateur/réseau standard. De cette façon,
tous les équipements RNIS utilisent les mêmes connexions physiques et les mêmes
protocoles de signalisation pour accéder aux services.

RNIS combine la large couverture géographique d'un réseau téléphonique avec la capacité de
transport d'un réseau de données supportant simultanément la voix, les données et la vidéo.

V- Rappel sur les modèles OSI et TCP/IP


V-1- Modèle OSI (Open System Interconnection)

Le modèle OSI (Open Systems Interconnection) définit de quelle manière les protocoles sont
associés entre eux pour permettre une communication entre les périphériques en réseau. Il
spécifie le comportement d’un système ouvert (qui échange en permanence des informations).
Ce modèle est normalisé par l’ISO.

V-1-1 Description du modèle


Le modèle OSI se décompose en 7 couches.
Chaque couche est responsable d’un aspect de la
communication. Une couche de niveau N
communique avec les couches de niveau N-1 et N+1.
Les couches N de 2 périphériques communiquent
en utilisant des protocoles de communication communs.
Les couches inférieures de la pile s’occupent du
déplacement de données sur le réseau et de la fourniture
de services aux couches supérieures, qui elles se
concentrent sur le contenu du message en cours
d’envoi et l’interface utilisateur.

19
V-1-2 Rôle de chaque couche
Niveau 1 : couche physique
- Adaptation du signal (électrique, numérique, analogique, électromagnétique, lumineux…) au
support de transmission (cuivre, air, fibre optique…)
- Gestion du type de transmission : synchrone ou asynchrone.
- Si besoin : modulation ou démodulation du signal
- Unité d’échange = le bit
- Quelques types de signaux : ADSL, codage manchester, RS-232…

Niveau 2 : couche liaison de données


- Doit transmettre les données sans erreur : détection et correction des erreurs
- Détermine la méthode d’accès au support : accès multiple avec écoute de porteuse
(ethernet), accès à jeton (token ring)…
- Unité d’échange = la trame
- Dans l’en-tête : adresses physiques (MAC) source et destination, type de protocole
transporté dans les données.
- Quelques protocoles : Ethernet, GigaEthernet, Wi-Fi, ATM…
Niveau 3 : couche réseau
- Achemine les données en assurant leur routage (choix du trajet).
- Traduit les adresses logiques en adresses physiques.
- Unité d’échange = le paquet
- Dans l’en-tête : adresses logiques (IP) source et destination, TTL (time to live),
identification (du message), type de protocole transporté dans les données.
- Quelques protocoles : IPv4, IPv6, ICMP, ARP…
Niveau 4 : couche transport
- Transporte les données de bout en bout à travers plusieurs réseaux : établissement, maintien,
rupture, multiplexage, gestion des erreurs.
- En tant qu’émetteur : segmente les messages en paquets numérotés
- En tant que récepteur : reconstitue les messages en plaçant les paquets dans l’ordre
- Unité d’échange = le segment

20
- Dans l’en-tête : numéros de port source et de port destination (type de protocole transporté
dans les données), numéros de séquence et d’acquittement (pour que le récepteur remette les
paquets dans l’ordre).
- Quelques protocoles : TCP, UDP, RTP …
Niveau 5 : couche session
- Permet l’ouverture et la fermeture d’une session de travail entre deux périphériques.
- Gère la chronologie du dialogue.
- Détermine le mode de transmission : full duplex, half duplex…
- Unité d’échange = données
- Quelques protocoles : RTSP, Telnet …
Niveau 6 : couche présentation
- Formate les données pour qu’elles soient compréhensibles par les 2 périphériques.
- code , compresse, crypte, décrypte les données.
- Unité d’échange = données
- Quelques formats de données : ASCII, MIME (courriels)…
Niveau 7 : couche application
- Fournit les services utilisables sur le réseau par les applications installées.
- Unité d’échange = données
- Quelques protocoles : HTTP, HTTPs, DHCP, DNS, FTP, SSH…
V-2- Modèle TCP/IP
Le modèle DOD ou TCP/IP se décompose en 4 couches :

21
L’architecture TCP/IP a été développée, dans le milieu des années 70, par la DARPA Defense
Advanced Research Projets Agency (États-Unis) pour les besoins de communication et
d’interfonctionnement des applications entre les systèmes informatiques de l’armée (DoD,
Department of Defense). Pour cela, il fallait définir un format d’échange des données commun
à tous les systèmes tout en préservant l’existant, c’est-à-dire sans modifier les réseaux réels.
Le modèle DOD ou TCP/IP se décompose en 4 couches :

V-2-1 parcours des données dans les modèles OSI et TCP/IP

Au niveau de l’émetteur (source) un message parcourt les couches du haut vers le bas
(segmentation et encapsulation des données).
Au niveau du récepteur (destination) un message parcourt les couches du bas vers le haut
(décapsulation et assemblage des données).

V-2-2 Au niveau d’un répéteur


Un répéteur amplifie un signal.
Il agit au niveau de la couche 1 du modèle OSI :

22
V-2-3 Au niveau d’un commutateur
Un commutateur ou switch filtre puis transfère (vers un seul hôte) ou inonde (vers plusieurs
hôtes) des trames en fonction de leur adresse physique de destination.
Il agit au niveau de la couche 2 du modèle OSI :

23
4.1. Au niveau d’un routeur

Un routeur détermine le chemin optimal pour transférer les paquets d’un réseau vers un autre,
en fonction de leur adresse logique de destination.
Il agit au niveau de la couche 3 du modèle OSI :

VI- Les protocoles de l’ADSL

L’intérêt de la technologie ADSL (Asymmetric Digital Subscriber Line = Ligne d’abonné


numérique à débit asymétrique) est qu’elle tire partie des bandes de fréquence non utilisées
par le téléphone.

Ainsi, alors que la voix est transportée sur une bande de fréquence allant de 300 à 3400Hz
(rappelons que la bande de fréquence audible va de 20Hz à 20kHz), le signal ADSL est
transmis sur les plages de fréquences hautes, inaudibles, de 25,875kHz à 1,104MHz.
L’utilisation de cette bande très large permet de transporter des données à des débits pouvant
atteindre 8Mbit/s au maximum en réception et 768Kbit/s en émission (d’où le A de ADSL qui
signifie asymétrique).
24
VI-1 Architectures protocolaires de l’ADSL

1- ATM (Asynchronous Transfert Mode)

(Mode de transfert asynchrone) C’est une technique de commutation de petits paquets de taille
fixe appelés cellules. Ce Protocole a été développé par le CNET en 1984 et est devenu standard
international depuis 1991. Comme solution d’interconnexion de sites clients, les opérateurs
proposent le transport de données en mode ATM. Ceci consiste notamment en la fourniture de
tuyaux (virtuels) reliant deux points ou une multitude de points.
L’information est mise dans des cellules de taille fixe de 53 octets.

- 5 octets pour l’en-tête et l’adressage.


- 48 octets pour les données.

C’est un service de transfert de données en mode connecté, une connexion devant être établie
avant le transfert des informations. Le séquencement des cellules est assuré sur une même
connexion. Les cellules d’un flux applicatif sont transmises en mode asynchrone. On distingue
2 niveaux de connexion :

- VP (Virtual Path) identifiée sur une interface par le champ VPI


- VC (Virtual Channel) identifiée sur une interface par les champs (VPI, VCI)

Un VP peut contenir plusieurs VC, une application utilise toujours une (ou plusieurs)
connexion(s) de type VC. Le mode ATM permet de transporter ensemble des flux aux
caractéristiques différentes : ces trafics sont transmis simultanément, mais à chacun d’eux sera
apporté un soin particulier selon sa nature. Pour cela, un mécanisme de qualité de service est

25
mis en œuvre dans le réseau.

2- 2- CBR (Constant Bit Rate) Débit binaire constant


Les connexions CBR donnent lieu à un contrat de trafic comprenant le débit crête de la
connexion (Peak Cell Rate) et la tolérance de gigue associée (CDVT). Le respect d'un contrat
de trafic CBR signifie que le client émet ses cellules à un rythme inférieur ou égal à PCR, tout
en respectant la tolérance de gigue. Le trafic non conforme est écrêté. Le service CBR donne
une bande passante constante.

3- VBR 3 (Variable Bit Rate) Débit binaire variable


Le service VBR, seul service employé pour l'ADSL, est destiné aux trafics à débits variables.
Mode de gestion des débits dans lequel le fournisseur s'engage à fournir un débit moyen et à
permettre des pointes jusqu'à une valeur maximale. Pour respecter la moyenne, il faudra
obligatoirement des périodes de trafic inférieures au débit moyen.

Le contrat de trafic VBR porte sur 4 paramètres :


- Le débit crête PCR (Peak Cell Rate)
- La tolérance de gigue associée CDVT (Cell Delay Variation)
- Le débit soutenable SCR (Sustainable Cell Rate)
- La taille de rafale maximum MBS (Maximum Burst Size)

4- AAL (ATM Adaptation Layer)

C’est l’interface entre la couche ATM et la couche application. Elle permet d'affiner la qualité
de service offerte par la couche ATM, selon les exigences du service utilisateur et d'adapter les
couches supérieures au transport de cellules ATM.

Les couches d'adaptation AAL sont divisées en deux sous-couches :


- La sous-couche de segmentation et réassemblage (SAR, Segmentation And Reassembly) qui
adapte le format des données applicatives à la couche ATM.

26
- La sous-couche de convergence (CS, Convergence Sublayer) qui gère l’identification des
messages à transmettre, qui est en charge de la récupération d'erreur sur les données utilisateur
et qui peut assurer également la synchronisation de bout en bout.

5- PPP (Point of Point Protocol)

Le protocole Point à Point (PPP) propose une méthode standard pour le transport de
datagrammes multi-protocoles sur une liaison simple point à point.
PPP comprend trois composants principaux:
- Une méthode pour encapsuler les datagrammes de plusieurs protocoles.
- Un protocole de contrôle du lien "Link Control Protocol" (LCP) destiné à établir, configurer,
et tester la liaison de données.
- Une famille de protocoles de contrôle de réseau "Network Control Protocols" (NCPs) pour
l'établissement et la configuration de plusieurs protocoles de la couche "réseau".

L'encapsulation PPP est utilisée pour lever l'ambiguïté sur des datagrammes provenant de
protocoles différents. Cette encapsulation nécessite l'usage d'un tramage dont le but principal
est d'indiquer le début et la fin de l'encapsulation.

Représentation de la trame PPP

Protocole Information Bourrage

8/16 bits * *

- Le Protocole comprend un ou deux octets, et sa valeur identifie le datagramme encapsulé dans


le champ Information du paquet.
- Le champ Information contient le datagramme du protocole spécifié dans le champ
Protocole. En transmission, le champ Information peut être complété d'un nombre arbitraire
d'octets de "bourrage".

6- L2TP

permet de créer un tunnel de " niveau 2 ", support de sessions multi-protocoles PPP, sur des
architectures IP, Frame-relay ou ATM.
Il normalise les fonctionnalités de tunneling qui avaient été développées par les différents

27
constructeurs (ATMP pour Ascend, L2F pour Cisco) et de garantir une interopérabilité entre les
équipements.

Dans la norme L2TP, on parle de LAC : « L2TP Access Concentrator », et de LNS : L2TP
Network Server .
Les avantages de cette technique de tunnel sont :
- de dissocier le BAS du point de terminaison de la session PPP, permettant de prolonger la
session jusqu’un concentrateur local (appelé LNS) via un backbone partagé, et d’attribuer les
adresses des utilisateurs distants de manière centralisée (via un serveur Radius) ou par le
routeur LNS. L’adressage peut alors être privé, même dans le cas d’un support sur backbone IP
public.
- de s’affranchir de la connexion sur le même BAS pour les sessions multilink PPP. Les
sessions sont alors terminées dans le même LNS via des BAS différents.

7- PPTP (Point of Point Tunnelling Protocol)

PPTP est un protocole de Tunneling Propriétaire Microsoft. La connexion d’un Macintosh en


PPTP demande au préalable le téléchargement du logiciel « Tunnel Builder » qui permet de
gérer la liaison VPN.
Depuis début 2001, Le protocole PPTP n’est plus livré. La cible étant pour les accès Netissimo
PPTP s'appuie sur les mécanismes d'authentification, de compression et de cryptage de PPP.
Une trame PPP est insérée dans un en-tête GRE (Generic Routing Encapsulation) et un en-tête

28
IP. L'en-tête IP contient les adresses IP source et de destination qui correspondent
respectivement au client et au serveur VPN.

L'illustration suivante représente l'encapsulation PPTP d'une trame PPP.

8- PPPoE (Point of Point Protocol over Ethernet)

PPP over Ethernet fournit la capacité de connecter un réseau d'hôtes vers un site distant à
travers un simple dispositif d'accès bridgé. Avec ce modèle, chaque hôte utilise sa propre pile
PPP
Pour fournir une connexion point à point à travers Ethernet, chaque session PPP doit apprendre
l'adresse Ethernet de la machine distante afin d'établir et d'identifier une session unique. PPPoE
inclus donc un protocole de découverte.

Lors du processus de découverte, un hôte (PC, MAC) découvre le concentrateur d'accès (BAS).
Quand la découverte s'achève avec succès, l'hôte et le concentrateur d'accès choisissent les
informations qu'ils emploieront pour construire leur connexion point à point sur Ethernet.
Une fois que la session PPPoE est ouverte, les données PPP sont envoyées comme dans
l'encapsulation PPP.

l'unité maximum de retour pour une trame d'option (Maximum-Receive-Unit = MRU) ne doit

29
pas être négociée à une taille supérieure à 1492 octets. En effet, une trame Ethernet à une taille
maximale de 1500 octets, l'en-tête PPPoE est de 6 octets et le PPP ID est de 2 octets, le PPP
MTU ne doit pas être plus grand que 1492o.

9- PPPoA (Point of Point Protocol over AAL5)

Point to Point Protocol over ATM. Il est utilisé entre l’utilisateur et le BAS et gère
l’encapsulation des trames PPP.

10- Radius
Il est utilisé entre le BAS, le PAS (Plate-forme d’accès aux services = Proxy RADIUS), et le
serveur RADIUS du FAI. Le protocole RADIUS comprend deux parties :
1) L’authentification, qui permet à l’utilisateur de se connecter en transmettant des attributs
comme son identifiant et son mot de passe, elle se fait par des échanges BASPAS-serveur
RADIUS. En cas d’acceptation, le PAS transmet des attributs come l’adresse IP attribuée à
l’utilisateur et le nom du routeur virtuel du BAS auquel l’utilisateur appartient.
2) Le comptage permet de mesurer le temps de connexion d’un utilisateur par l’envoi par le
BAS de d’un message de début et d’un message de fin (ou intermédiaire) qui contient des
attributs comme le nombre d’octets envoyés et reçus.

Remarque :

Le datagramme est un paquet de données dans un réseau informatique utilisé par des
protocoles orientés non connectés tel que : IPX ou UDP. Le datagramme est le terme
généralement utilisé pour désigner la transmission d'un paquet via un service non « fiable » : il
n'y a aucun moyen de s'assurer que le paquet est arrivé à sa destination (un peu comme une
lettre sans accusé de réception).

L'inventeur du datagramme est l'ingénieur Louis Pouzin.

30
11- IP

Internet Protocol, est un protocole de télécommunications très répandu, utilisé sur les réseaux
qui servent de support à Internet. Il permet de découper l’information à transmettre en paquets,
d’adresser les différents paquets, de les transporter indépendamment les uns des autres et de
recomposer le message initial à l’arrivée.
Pour l'ADSL, l'IP est utilisé au niveau du BAS pour router les données provenant de l'abonné
vers son FAI au travers du réseau backbone de collecte IP.

31
Chapitre 4
Les protocoles des réseaux sans fil et des
réseaux mobiles
I- Les Protocoles 802.11
802.11 est un ensemble de standards qui régissent les transactions sur les WLAN.
Chaque standard ou sous standard est désigné par une lettre de l’alphabet. Ceci ne correspond
pas à une appellation empirique, mais désigne le groupe de travail chargé à l’IEEE de l’étude
et de la publication d’un standard ou sous standard de la famille 802.11. Nous remarquerons
aussi qu’il y des trous dans l’alphabet, ceci afin de ne pas prêter à confusion avec d’autres
standards de la famille 802 (exemple 801.1x et 802.11x). L’histoire ne dit pas encore ce que
va faire l’IEEE maintenant que la lettre « z » est atteinte. Il faut faire une différence entre
lettres minuscules, relatives au standard, et lettres majuscules, relatives à des
recommandations non obligatoires.
La norme IEEE 802.11 définit les deux premières couches (basses) du modèle OSI, à savoir la
couche physique et la couche liaison de données. Cette dernière est elle-même subdivisée en
deux sous-couches, la sous-couche LLC (Logical Link Control) et la couche MAC (Medium
Access Control).

802.11 FHSS/DSSS/IR (1997)


A l’origine fut un premier standard 802.11 tout court, ratifié en 1997, pour émettre dans la
bande 2,4 GHz. Il prévoyait trois types de partage du média : FHSS, DSSS et IR (infrarouge).
Le protocole d’accès CSMA/CA (Carrier Sense Multiple Access with Collision Avoidance),
technique issue d’Ethernet sera conservé sur toutes les évolutions du standard. CSMA/CA
prévoit d’écouter si la voie est libre avant d’émettre et de la réserver, comme quand on
regarde à droite et à gauche avant de traverser la rue.
Ce standard annonçait un débit théorique de 1 ou 2 Mbits/s selon le type de modulation.
L’infrarouge, peu performant, fut rapidement classé sans suite.

32
Le FHSS (Frequency Hopping Spread Spectrum) et le DSSS (Direct Sequence Spread
Spectrum) sont tous deux basés sur une large utilisation du spectre par le signal à émettre,
d’où la notion d’étalement. En FHSS, chaque communication utilise un canal de 1 MHz et
l’étalement se fait en faisant varier périodiquement la position de ce canal sur la largeur du
spectre alloué. Bien que présentant pas mal d’avantages, notamment au niveau de l’immunité
au bruit, le FHSS ne permet pas d’évoluer vers de très hauts débits et fut rapidement
abandonné.
Le DSSS prévoit un étalement du signal sur un canal de 30 MHz en le multipliant par un code
donné (chipping code). Le DSSS permet d’évoluer vers de plus hauts débits, ce que nous
verrons dans la suite de l’alphabet.

802.11A HIGHER SPEED PHY EXTENSION IN THE 5GHZ BAND (1999)


Moins connu que son frère 802.11b, 802.11a fut ratifié en 1999, mais les premiers produits
n’apparurent qu’en 2002.
Contrairement au standard d’origine, il émet dans la bande 5 GHz, bien moins encombrée que
la bande 2,4 GHz. Une variante avec le standard d’origine, l’accès au média se fait en OFDM
(Orthogonal Frequency Division Multiplexing).
Pour faire bref, l’OFDM répartit le signal à émettre sur différents canaux radio. Le signal
occupe ainsi toute la largeur du spectre, mais par petits morceaux. Chaque canal est modulé
sur des porteuses orthogonales. Sur de telles bases, 802.11a annonce des débits théoriques de
54 Mbits/s.

802.11B HIGHER SPEED PHY EXTENSION IN THE 2.4 GHZ BAND (1999)
Beaucoup plus proche du standard 802.11 d’origine, il reprend la bande de fréquences 2,4
GHz et le DSSS. Une amélioration des techniques de modulation lui permet d’atteindre des
débits théoriques de 11 Mbits/s. Lorsque les conditions de transmission se dégradent, la
modulation courante se replie automatiquement vers une autre de performances inférieures, le
processus pouvant se réitérer jusqu’au repli vers la modulation et les performances du 801.11
DSSS original. Bien sûr, il se produit la même chose en sens inverse, la modulation devenant
plus performante au fur et à mesure que les conditions de transmission s’améliorent.

33
L’édition b de 802.11 connut très rapidement un vif succès et pour mettre fin à l’anarchie des
implémentations du standard, la Wi-Fi Alliance (initialement WECA) édita des règles propres
à garantir l’interopérabilité des équipements. C’est alors qu’on commença à parler de Wi-Fi.

802.11C MEDIA ACCESS CONTROL (MAC) BRIDGES - SUPPLEMENT FOR


SUPPORT BY IEEE 802.11 (1998)
Ce n’est qu’une extension du standard incluse dans 802.1d (un des standards régissant le
fonctionnement des LAN/WAN) pour établir des ponts avec des trames 802.11.

802.11D OPERATION IN ADDITIONAL REGULATORY DOMAINS (2001)


Inclus dans 802.11b, 802.11d définit l’implémentation internationale du standard, notamment
au niveau de l’adaptabilité aux bandes de fréquences disponibles. Celles-ci, bien qu’étant en
gros centrées sur 2,4 GHz, présentent des limites différentes en fonction de spécificités
nationales.

802.11E MAC ENHANCEMENTS (QOS) (2005)


Le développement de 802.11e fut longue et laborieuse et sa ratification repoussée d’année en
année. Il introduit la QoS (Qualité de Service) sur les réseaux 802.11 et répond à l’attente des
utilisateurs de communications de phonie (VoWiFi). Il est basé sur la priorisation des flux et
la fragmentation des trames longues. En attendant sa ratification, des solutions ont été
développées sur des drafts du standard qui n’assurent pas l’interopérabilité des produits.

802.11F INTER-ACCESS POINT PROTOCOL ACROSS DISTRIBUTION SYSTEMS


SUPPORTING IEEE 802.11 OPERATION (2003 RETIRÉ EN 2006)
Cette extension du standard définit un protocole inter Access Points et le roaming (ou
itinérance) qui permet à un utilisateur de changer d’Access Point de manière transparente. Il a
été supprimé par l’IEEE en 2006, essentiellement du fait qu’aucune expérimentation n’a pu
être menée.

802.11g FURTHER HIGHER DATA RATE EXTENSION IN THE 2.4 GHZ BAND
(2003)

34
Nous avons vu que 802.11b était limité à des débits théoriques de 11 Mbits/s et qu’une
amélioration sensible du débit était obtenue par 802.11a. Ce dernier n’a pas eu un
développement foudroyant, en partie à cause des limitations d’émission dans la bande 5 GHz,
mais surtout à cause de son incompatibilité totale avec 802.11b, rendant impossible la
migration des réseaux existants.
Une alternative fut trouvée avec 802.11g, ratifié en 2003. Cette nouvelle version du standard
fonctionne dans la bande 2,4 GHz, comme 802.11b, mais utilise l’OFDM comme 802.11a, ce
qui lui permet d’atteindre le même débit théorique de 54 Mbits/s (toutefois les débits utiles
restent inférieurs à ceux de 802.11a). Un Access Point 802.11g sait gérer bien sûr des
terminaux 802.11g mais sait se replier en mode 802.11b pour supporter des terminaux de
génération antérieure (bien sûr l’inverse n’est pas vrai, un Access Point 802 .11b reste
802.11b !). Cette particularité permet donc une migration « en douceur » des réseaux, sans
avoir à intervenir immédiatement sur le parc de terminaux.
Depuis sa ratification, 802.11g s’est imposé sur le marché pour améliorer les performances
des réseaux sans fil. Sa prise de position massive a évidemment été facilitée par sa
compatibilité avec les équipements 802.11b.

802.11h SPECTRUM AND TRANSMIT POWER MANAGEMENT EXTENSIONS IN


THE 5 GHZ BAND IN EUROPE (2003)
Le complément 802.11h introduit DFS et TPC sur les réseaux 802.11a, les rendant ainsi
compatibles avec les contraintes Européennes.
En effet, L’ETSI impose en Europe deux règles d’émission dans la bande 5 GHz qui sont la
sélection dynamique de fréquences (DFS) et le contrôle de la puissance d’émission (TPC).
Celles-ci n’étaient pas satisfaites par le standard 802.11a.
Le DFS (Dynamic Frequency Selection) permet à un Access Point de sélectionner
automatiquement un canal libre afin d’éviter toute interférence avec d’autres systèmes
(notamment radars) et de répartir le trafic de manière homogène sur tous les canaux. Cette
fonction a en outre l’avantage d’éviter à l’utilisateur d’établir un plan de fréquences.
Le TPC (Transmission Power Control) ajuste automatiquement le niveau d’émission des
Access Points sur chaque canal afin d’éviter les interférences avec les systèmes satellites.

802.11i MAC SECURITY ENHANCEMENTS (2004)

35
Très attendu fut aussi 802.11i qui introduit des mécanismes avancés de sécurité dans les
réseaux 802.11.
Le standard 802.11 ne prévoyait qu’un mécanisme de sécurité plutôt faible, le WEP, qu’un
hacker bien entraîné pouvait « casser » en un quart d’heure. Cette fâcheuse caractéristique fut
bientôt contournée par des solutions propriétaires, bien sûr incompatibles, et l’IEEE revit sa
copie sur la sécurité. Dans une première phase, apparut un protocole WPA-1 (Wi-Fi Protected
Access), basé sur une authentification forte RADIUS et le protocole de gestion de clés TKIP,
permettant d’améliorer l’ancien WEP. Les équipements WEP ne nécessitent qu’une mise à
jour logicielle pour passer en WPA-1.
La seconde version WPA-2 est le résultat du processus de standardisation 802.11i qui est
l’aboutissement du processus de sécurisation du Wi-Fi. Il reprend les grandes lignes de WPA-
1 mais avec un mode de chiffrement AES, beaucoup plus puissant. L’envers de la médaille est
que les anciens équipements WEP doivent subir une mise à niveau matérielle pour supporter
WPA-2, par contre les équipements natifs WPA-1 sont prêts pour la migration.

802.11j 4.9 GHZ-5 GHZ OPERATION IN JAPAN (2004)


Cette extension concerne exclusivement le Japon pour adapter 802.11a à la bande de
fréquences 4,9-5 GHz, propre à ce pays.

802.11k RADIO RESOURCE MEASUREMENT OF WIRELESS LANS (2008)


Cette extension consiste à optimiser la charge des Access Points en évitant qu’un nombre
excessif de terminaux se concentre sur le même, ce qui conduirait à une surcharge de l’Access
Point et à une dégradation du service. En cas de saturation d’un Access Point, le trafic
excédentaire est dirigé automatiquement vers un autre sous-utilisé, même si le niveau de
signal est inférieur. Globalement, le service rendu se trouve amélioré.
Pour cela un terminal peut demander à un autre des informations telles que :
- Le nombre d’Access Points en vue sur un canal ou tous les canaux.

- Le niveau du signal reçu de chacun de ces Access Points.

- Le nombre de trames reçues de ces Access Points dans un intervalle de temps donné et le
délai.

- Le niveau sur chaque canal des interférences avec d’autres systèmes radio.

- Etc.
Ces informations sont stockées dans les terminaux et disponibles auprès du réseau via SNMP.

36
802.11 l
Non utilisé.

802.11m MAINTENANCE GROUP


Il ne se cache là-dessous aucun standard. Le groupe de travail 802.11m est responsable de la
maintenance du standard et notamment de la publication des nouvelles versions du standard
(telles 802.11-2007) qui incorporent tous les amendements et sous standards développés et
ratifiés individuellement depuis la précédente édition.

802.11-2007 DERNIÈRE ÉDITION DU STANDARD 802.11 (2007)


Cette dernière révision globale du standard 802.11-2007 intègre les variantes 802.11a/b/g et
nombre de sous standards développés en vue d’améliorations et de besoins spécifiques
(802.11d/e/h/i/j).
Tout ce qui suit concerne des évolutions de 802.11-2007.

802.11n HIGH THROUGHPUT (2009)


Après sept ans de réflexion, ce standard a été ratifié en juillet 2009, et après l’apparition de
produits 802.11n sur le marché. Ceux-ci ont en effet été développés sur la base d’un draft dit «
draft N » dont l’IEEE avait garanti la compatibilité avec le standard définitif. Il n’y a donc
aucun souci quant à l’interopérabilité de ces produits avec ceux produits sur la base du
802.11n officiel.
Le but de 802.11n est d’augmenter la portée et le débit des réseaux Wi-Fi et promet 300
Mbit/s (théorique), et n’exclut pas la possibilité de faire mieux.
Pour arriver à ce résultat, 802.11n mise sur le technique MIMO (Multiple Input Multiple
Output). Un signal radio transmis entre deux points est censé aller en ligne droite. En fait il
n’en est rien car les ondes se réfléchissent un peu partout sur les murs, meubles plafonds… et
le récepteur ne reçoit pas un signal unique mais plusieurs signaux décalés en fonction de la
longueur de chaque trajet. Ces trajets multiples, plutôt considérés comme calamiteux dans les
réseaux radio, MIMO va en tirer parti pour optimiser la transmission entre deux points. Le
principe est d’utiliser plusieurs antennes en émission et plusieurs antennes en réception. Il
n’est pas nécessaire qu’il y en ait le même nombre de chaque côté. Les antennes émettrices
émettent les mêmes signaux, déphasés de façon à ce que la puissance émise à chaque fois soit
maximale. L’optimisation de la transmission sur antennes multiples, en réduisant les pertes

37
dues aux interférences, a pour autre conséquence l’amélioration de la portée de réseau en
termes de couverture radio.
Le standard 802.11n reprend l’OFDM des versions a et g et est compatible avec les deux
bandes de fréquences 2,4 et 5GHz. Il est possible de doubler la largeur canal dans la bande 5
GHz, moins encombrée, afin de quasiment doubler le débit.

II- Les protocoles 802.15

38
Les PAN (Personal Area Network) regroupent des équipements contrôlés par un seul
utilisateur La norme 802.15 définit les PAN sans fil appelé WPAN (Wireless PAN) dont les
technologies sont le Bluetooth, les normes IEEE 802.15.3 (WPAN haut débit) et IEEE
802.15.4 (WPAN faible débit, Zig-Bee).
Le rôle du Bluetooth est de permettre la communication radio sur de courtes distances
Première norme de communication pour les WPAN approuvée en 2002 sous le numéro IEEE
802.15.1. Dans la bande des 2,4 Ghz, possibilité d'atteindre sur des distances inférieure à 10m,
jusqu'à 720 kbit/s.

II-1- Applications possibles


Transfert de fichiers d'informations d'agendas électroniques, téléphones portables, ...
Transfert de flux audio entre un téléphone et un casque Interconnexion sans fil des lecteurs
MP3 à d'autres dispositifs pour le téléchargement Contrôle à distance de l'allumage ou
extinction d'appareils ménagers. Le Bluetooth est prévu pour fonctionner dans des
environnements pouvant impliquer des nombreux utilisateurs Il peut y avoir jusque huit
équipements communiquants dans un piconet. 10 piconets peuvent être présent dans une
même zone pour former un scatternet. Les domaines d’application sont :
- Données et voix
- Élimination du câblage
- Portée pouvant aller jusque 100m avec des amplificateurs adaptés Réseau ad-
hoc
La technologie Bluetooth est définie par une architecture composée de protocoles
fondamentaux protocoles de remplacement des fils.
II-2- protocoles de téléphonie
Ici les fonctionnalités sont réparties en 5 couches.
1-Radio : spécification des détails de l'interface radio (puissance d'émission, technique de
modulation, fréquences et saut de fréquences
2-Bande de base : Etablissement des connexions dans un piconet (Un piconet est un réseau
ad hoc qui relie un groupe d'utilisateurs sans fil à l'aide de protocoles de technologie
Bluetooth.), l'adressage, la formation de paquet, la synchronisation et le contrôle de puissance.
3-Protocole gestionnaire de liaison (LMP) : protocole responsable de la gestion des liaisons
permanentes entre les équipements, de certains aspects de sécurité comme l'authentification,
le chiffrement et le contrôle et la négociation des tailles de paquets du niveau bande de base
4- Protocole de contrôle et d'adaptation de lien logique (L2CAP)

39
adapte les protocoles de la couche supérieure à la couche bande de base. L2CAP offre un
service avec et sans connexion.
5- Protocole de découverte de service (SDP) : permet d'obtenir des informations sur les
services disponibles sur un équipement Le protocole de contrôle de téléphonie TCS BIN
(Telephony Control Specification – Binary) est orienté bit et définit la signalisation de
contrôle d'appel employée dans l'établissement de connexions pour la voix et les données
entre des équipements téléphoniques. Les protocoles adoptés sont des protocoles définies dans
des spécifications publiés par d'autres organismes normatifs mais pris en compte dans
l'architecture bluetooth. Ces protocoles sont les suivants
PPP : Permet le transport de datagrammes IP sur une liaison point à point.
TCP/UDP/IP : principaux protocoles au coeur du monde Internet.
OBEX : protocole d'échange d'objets de la couche session développé par IrDA (Infrared Data
Association). Il possède des fonctionnalités similaires à HTTP mais de façon simplifiée. Il
inclut également des modèles de représentation de données comme les formats vCard et
vCalendar.
WAE/WAP (Wireless Application Environment) et le WAP (Wireless Application Protocol)
utilisés par les téléphones portables ont également été intégrés dans l'architecture Bluetooth
La configuration réseau de base avec le Bluetooth est un piconet. Un piconet se compose d'un
équipement radio Bluetooth assurant le rôle de maître et de un à sept autres équipements
jouant le rôle d'esclaves. Le maître assure la synchronisation et la détermination du canal à
Utiliser.
Après le 802.15.1, le Bluetooth, le groupe IEEE 802.15.2 a publié en 2003 un document
récapitulant les pratiques recommandées sur la bande ISM des 2,4 Ghz La problèmatique de
la bande de fréquence ISM 2,4 Ghz est d'être utilisé à la fois pour le IEEE 802.11 et IEEE
802.15.
Le groupe IEEE 802.15.3 s'est ensuite penché sur le problème de la transmission à débit
beaucoup plus élevée qu'en Bluetooth, document initialement publié en 2003.
La même année, la norme 802.15.4 pour des débits très faibles, inférieurs au Bluetooth, mais
aussi pour des équipements d'un très faible coût Le 802.15.3. Pour le développement de
WPAN haut débit. Les applications concernées sont :
- les connexions entre appareil photo numérique et imprimante.
- les connexions entre ordinateurs portables et vidéo-projecteur.
- les connexions entre un haut-parleur et un appareil récepteur.
Les débits bruts sont > 110 Mbit/s sur des distances < 10 m Caractéristiques du 802.15.3

40
Faible portée : 10 m
Haut débit : > 20 Mbit/s pour supporter les flux vidéo et/ou audio multi-canaux
Faible consommation d'énergie
Faible coût
Qualité de Service permettant d'offrir un débit garanti
Supporte un environnement dynamique. L'apparition ou la disparition d'équipement ne doit
pas perturber le comportement du réseau. Une vitesse inférieure à 7 km/h doit être supportée
Connectivité simple sans connaissance particulière de l'utilisateur. Confidentialité IEEE
802.15.4
Cette norme spécifie 2 couches physiques :
- Une PHY DSSS sur la bande des 868/915 Mhz avec des débits de 20 et
40 kbit/s. une PHY DSSS dans la bande des 2,4 Ghz avec des débits de 250 kbits/s
Applications incluent les réseaux de capteurs, les jouets interactifs, les badges intelligents, la
domotique.
- La ZigBee Alliance travaille sur des spécifications pouvant opérer sur des
implémentations 802.15.4 et couvrant les couches réseau, sécurité et application.

III- Les protocoles 802.16

41
42
43
44
45
IV- Les protocoles GSM
Tel quel, le réseau GSM (Global System for Mobile Communications, originally Groupe
Spécial Mobile) est adéquat pour les communications téléphoniques de parole. En effet, il
s'agit principalement d'un réseau commuté, à l'instar des lignes fixes et constitués de circuits,
c'est-à-dire de ressources allouées pour la totalité de la durée de la conversation. Rien ne fut
mis en place pour les services de transmission de données. Or, parallèlement au déploiement
du GSM en Belgique, en 1994, la société Netscape allait donner un tour spectaculaire à un
réseau de transmission de données, appelé Internet, en diffusant le premier logiciel de
navigation grand public, articulé sur le protocole http et communément appelé web.

1- Pile de protocoles

La figure en dessous représente l’architecture des protocoles GSM des différents éléments du
réseau. Au niveau applicatif, on distingue les protocoles suivants qui, au travers de différents
éléments du réseau, relient un mobile à un centre de communication (MSC) : 1. Le protocole
Call Control (CC) prend en charge le traitement des appels tels que l’établissement, la
terminaison et la supervision.

2- Le protocole Short Message Service (SMS)

Permet l’envoi de courts messages au départ d’un mobile. La longueur d’un SMS est limité à
160 caractères de 7 bits, soit 140 bytes.

3- Le protocole Supplementary Services (SS)

Prend en charge les compléments de services. La liste de ces services est longue mais, à titre
d’exemple, citons le Calling Line Identification Presentation (CLIP), le Calling Line
Identification Restriction (CLIR) et le Call Forwarding Unconditional (CFU).

4- Le protocole Mobility Management (MM)

Gère l’identification, l’authentification sur le réseau et la localisation d’un terminal. Cette


application se trouve dans le sous-réseau de commutation (NSS) et dans le mobile car ils
doivent tous deux connaître la position du mobile dans le réseau. 13.

46
5- Le protocole Radio Ressource management (RR)

S’occupe de la liaison radio. Il interconnecte une BTS et un BSC car ce dernier gère
l’attribution des fréquences radio dans une zone. Les trois premiers protocoles applicatifs pré-
cités (CC, SMS et SS) ne sont implémentés que dans les terminaux mobiles et les
commutateurs; leurs messages voyagent de façon transparente à travers le BSC et le BTS.

47
V- Les protocoles 3G
Apparue en 2000, la troisième génération (3G) désigne une génération de normes
de téléphonie mobile. Elle est représentée principalement par les normes Universal Mobile
Telecommunications System (UMTS) et CDMA2000, permettant
des débits (de 2 à 42 Mb/s définis par la dernière génération des réseaux UMTS : l'HSPA+
DC) qui sont bien plus rapides qu'avec la génération précédente, par exemple le GSM.

Les premières applications grand public de la 3G sont l'accès à Internet, le visionnage de


vidéos, voire d'émissions de télévision et la visiophonie.

Les spécifications IMT-2000 (International Mobile Telecommunications for the year 2000) de
l'Union Internationale des Communications (UIT), définissent les caractéristiques de
la 3G (troisième génération de téléphonie mobile). Ces caractéristiques sont notamment les
suivantes :

 un haut débit de transmission :

 144 Kbps avec une couverture totale pour une utilisation mobile,

 384 Kbps avec une couverture moyenne pour une utilisation piétonne,

 2 Mbps avec une zone de couverture réduite pour une utilisation fixe.

 compatibilité mondiale,

 compatibilité des services mobiles de 3ème génération avec les réseaux de seconde
génération,
La 3G propose d'atteindre des débits supérieurs à 144 kbit/s, ouvrant ainsi la porte à des
usages multimédias tels que la transmission de vidéo, la visio-conférence ou l'accès à internet
haut débit. Les réseaux 3G utilisent des bandes de fréquences différentes des réseaux
précédents : 1885-2025 MHz et 2110-2200 MHz.

La principale norme 3G utilisée en Europe s'appelle UMTS (Universal Mobile


Telecommunications System), utilisant un codage W-CDMA (Wideband Code Division
Multiple Access). La technologie UMTS utilise la bande de fréquence de 5 MHz pour le
transfert de la voix et de données avec des débits pouvant aller de 384 kbps à 2 Mbps. La
technologie HSDPA (High-Speed Downlink Packet Access) est un protocole de téléphonie
mobile de troisième génération baptisé « 3.5G » permettant d'atteindre des débits de l'ordre de

48
8 à 10 Mbits/s. La technologie HSDPA utilise la bande de fréquence 5 GHz et utilise le
codage W-CDMA.

VI- Les protocoles 4G


En télécommunications, la 4G est la quatrième génération des standards pour la téléphonie
mobile. Succédant à la 2G et la 3G, elle permet le « très haut débit mobile », c'est-à-dire des
transmissions de données à des débits théoriques supérieurs à 100 Mbit/s, voire supérieurs à 1
Gbit/s (débit minimum défini par l'UIT pour les spécifications IMT-Advanced (en)). En
pratique, les débits sont de l'ordre de quelques dizaines de Mbit/s selon le nombre
d'utilisateurs, puisque la bande passante est partagée entre les terminaux actifs des utilisateurs
présents dans une même cellule radio

Une des particularités de la 4G est d'avoir un « cœur de réseau » basé sur IP et de ne plus
offrir de mode commuté (établissement d'un circuit pour transmettre un appel « voix »), ce qui
signifie que les communications téléphoniques utilisent la voix sur IP (en mode paquet).

Le réseau mobile 4G peut donc offrir un débit nettement supérieur à celui de la fibre optique
actuelle, du moins en théorie car en pratique il n'est pour l'instant "que" de quelques dizaines
de Mb/s, du fait que la bande passante soit partagée entre les différents utilisateurs du réseau
dans une même zone.

En France, la norme 4G utilisée est le LTE (Long Term Evolution) et elle utilise les bandes de
fréquences des 2 600 MHz et des 800 MHz.
Comme pour le passage de la 2G à la 3G, les terminaux mobiles doivent être adaptés à la
nouvelle génération 4G, ce qui est déjà le cas pour bon nombre de produits qui ont été mis sur
le marché récemment. En effet, qu'il s'agisse d'une clé mobile ou d'un smartphone, leur
adaptation aux nouveaux protocoles IPv6, fournis par la connexion 4G, est nécessaire. De leur
côté, les opérateurs commencent peu à peu à proposer des forfaits adaptés.

49
Chapitre 5
Les protocoles internet
I- Internet (historique et évolution)

L’histoire d'Internet remonte au développement des premiers réseaux de


télécommunication. L’idée d’un réseau informatique, permettant aux utilisateurs de
différents ordinateurs de communiquer, se développa par de nombreuses étapes successives.
La somme de tous ces développements conduisit au « réseau des réseaux » (network of
networks) que nous connaissons aujourd’hui en tant qu'Internet. Il est le fruit à la fois de
développements technologiques et du regroupement d’infrastructures réseau existantes et de
systèmes de télécommunications.
Deux phases d'accélérations se produisirent : à la fin des années 1960-1970, l’application
pratique, par des scientifiques américains puis français, des concepts évoqués à la fin
des années 1950 et ensuite, dans les années 1990, lorsque la popularisation des fondements de
l’Internet moderne passa par l’apparition du World Wide Web.
L’infrastructure d’Internet se répandit autour du monde pour créer le large réseau mondial
d’ordinateurs que nous connaissons aujourd’hui. Il se répandit au travers des pays
occidentaux puis frappa à la porte des pays en voie de développement, créant ainsi un accès
mondial à l’information et aux communications sans précédent ainsi qu’une fracture
numérique. Internet contribua à modifier fondamentalement l’économie mondiale, y compris
avec les retombées de la bulle Internet.

50
II- Protocoles des services de messagerie (SMTP), POP, IMAP
Le principe d'utilisation du courrier électronique est relativement simple, c'est ce qui en a
rapidement fait le principal service utilisé sur internet. A la manière du service postal
classique, il suffit de connaître l'adresse de son expéditeur pour lui faire parvenir un message.

II-1 Le protocole SMTP

Le protocole SMTP (Simple Mail Transfer Protocol, traduisez Protocole Simple de Transfert
de Courrier) est le protocole standard permettant de transférer le courrier d'un serveur à un
autre en connexion point à point.
Il s'agit d'un protocole fonctionnant en mode connecté, encapsulé dans une trame TCP/IP. Le
courrier est remis directement au serveur de courrier du destinataire. Le protocole SMTP
fonctionne grâce à des commandes textuelles envoyées au serveur SMTP (par défaut sur
le port 25). Chacune des commandes envoyées par le client (validée par la chaîne de
caractères ASCIICR/LF, équivalent à un appui sur la touche entrée) et suivi d'une réponse du
serveur SMTP composée d'un numéro et d'un message descriptif.

51
SMTP est un protocole de type client / serveur.
En effet, il y a une session qui s'établit entre le programme client et le serveur SMTP.
Durant cette session, un jeu de commandes est utilisé.
Chaque commande envoyée par le client est suivie d'une réponse du serveur.
La réponse est de type :

<code><msg>[<précisions>]

Par exemple, la réponse suivante indique que la commande passée a correctement été reçue et
appliquée par le serveur :

250

II-2- Le protocole POP

POP signifie Post Office Protocol. Actuellement c'est la version 3 qui est utilisée.
Le service POP écoute sur le port 110 d'un serveur.

POP est avant tout un protocole très simple, de ce fait il ne propose que des fonctionnalités
basiques:

 Délimiter chaque message de la boite aux lettres,


 Compter les messages disponibles,
 Calculer la taille des messages.
 Supprimer un message.
 Extraire chaque message de la boite aux lettres.

Malgré tout, ces fonctionnalités sont amplement suffisantes pour répondre aux besoins de la
plupart des utilisateurs.

Tout comme SMTP, POP est un protocole de type client / serveur.


Il utilise un jeu de commandes spécifiques lors d'une session entre le programme client et le
serveur. Chaque commande envoyée par le client est suivie d'une réponse du serveur.
Par exemple, la réponse suivante indique que la commande passée a correctement été reçue et
appliquée :

+OK

Le format de réponse suivant indique une erreur au niveau du serveur :

52
-ERR <raison>

Les commandes sont présentées dans l'ordre chronologique d'utilisation.

1/ Il faut tout d’abord s’identifier auprès du serveur :

USER <nom_utilisateur>

2/ Ie serveur requiert un mot de passe afin de valider la connexion :

PASS <mot_de_passe>

3/ Pour connaitre le nombre de messages présents sur le serveur ainsi que la taille totale des
messages :

STAT

4/ Pour lister les messages sur le serveur, avec pour chacun le numéro d’ordre dans la file de
messages et la taille en octets :

LIST

5/ Pour récupérer les messages :

RETR <id_msg>

6/ Pour récupérer les premiéres lignes d’un message (l’en-tete et le début du message) :

TOP <id_msg> <nbr_de_lignes>

7/ Pour effecer un message :

DELE <id_msg>

8/ Pour clore la session avec le serveur :

QUIT

Il est possible de visualiser les échanges entre son client et le serveur POP de son Fournisseur
d'Accès à Internet (FAI) lorsque l'on utilise le logiciel de messagerie Outlook.
Pour cela, il faut cocher la case comme indiqué ci-dessous:

53
Le service POP3 est très simple mais propose toutes les fonctionnalités nécessaires pour la
gestion d'un compte mail. Ainsi, de par son efficacité, POP 3 reste l'un des protocoles les plus
utilisés pour récupérer ses mails.

POP3 présente tout de même quelque points faibles notamment le fait que le mot de passe
circule en clair sur le réseau lors de l'établissement de la connexion avec le serveur.

Le gros point noir de POP3 réside dans le fait de l'impossibilité de choisir les messages que
l'on souhaite rapatrier.

II-3- Le protocole IMAP

MAP signifie Internet Message Access Protocol, la version actuellement utilisée est la 4. Le
service IMAP écoute sur le port 143 d'un serveur.

54
Tout comme POP, IMAP est un protocole de récupération de mails. IMAP4 se pose donc
comme une alternative à POP3. Non seulement IMAP propose plus de services que POP,
mais ceux-ci sont aussi plus évolués. Une des principales nouveautés est la possibilité de
pouvoir lire uniquement les objets des messages (sans le corps).
Ainsi on peut par exemple effacer des messages sans les avoir lus.

Contrairement au protocole POP où tous les mails sont rapatriés du serveur vers le logiciel de
messagerie du client, avec IMAP, les mails restent stockés dans des dossiers sur le serveur.
Ceci permet de proposer de nombreuses fonctionnalités très pratiques, telles que :

●créer des dossiers sur le serveur,

●effacer, déplacer des messages sans les lire, éventuellement avec des règles de tri
automatique,

●rapatrier en local certains messages et pas d'autres, en faisant une copie ou un déplacement,
lire des messages en les laissant sur le serveur,

●marquer des messages sur le serveur,

●recopier sur le serveur des messages qui sont en local.

Ce protocole est de plus en plus utilisé. Et bien tout simplement, parce qu’en laissant les mails
sur le serveur, on peut y avoir accès de n’importe où (ordinateur à la maison, webmail en
vacances, smartphone, tablette, …).

Le principal inconvénient est qu’il faut être connecté pour mettre à jour ou lire les nouveaux
messages.

Il existe plusieurs serveurs IMAP, mais deux sortent du lot et dominent le marché.
Ces deux serveurs fonctionnent différemment :

- UW-IMAPD est développé par l'université de Washington aux USA.


- Cyrus est développé par l'université de Carnegie Mellon aux USA.
D'autres serveurs existent, comme courier-imap. Il est plus proche de Cyrus
que de UW-imap et utilise lui aussi le format "Maildir".

55
IMAP, à l'instar de POP ou SMTP, est un protocole de type client / serveur.
Le client peut envoyer plusieurs commandes sans obligatoirement attendre à chaque fois la
réponse. Un tag précédant chacune des commandes doit être ajouté afin de permettre au
serveur de retrouver facilement la réponse à une commande donnée.
De plus chaque commande envoyée par le client est suivie d'une réponse par le serveur de la
forme suivante en cas de réussite :

<tag> OK commandes completed

Le nombre de commandes mises à disposition par un serveur IMAP est beaucoup plus
important qu'en POP (25 contre 12).
Les commandes présentées ici sont dans l'ordre chronologique d'utilisation.

1/ Il faut tout d'abord s'authentifier auprès du serveur :

Login <user> <mot_de_passe>

2/ Il faut ensuite choisir la boite aux lettres que l'on souhaite utiliser :

Select inbox

3/ La commande Fetch est très puissante elle permet de faire de nombreuses et diverses
sélections auprès de la liste des messages et des messages eux-mêmes :

Fetch <id(s)_msg(s)> <action>

4/ Enfin pour quitter la session de dialogue avec le serveur :

Logout

III- Protocoles des services d’information (http, ftp, protocoles


d’applications)

III-1- Le protocole http


Le protocole HTTP (HyperText Transfer Protocol) est le protocole le plus utilisé sur Internet
depuis 1990. La version 0.9 était uniquement destinée à transférer des données sur Internet
(en particulier des pages Web écrites en HTML]. La version 1.0 du protocole (la plus utilisée)

56
permet désormais de transférer des messages avec des en-têtes décrivant le contenu des
messages. Donc, en clair un protocole de transfert d’HyperText !

HyperText : un hypertexte est un texte contenant des liens qui permettent d’accéder
directement à d’autres ressources (documents, images, …). Si on regarde bien, les pages qui
sont affichées dans votre navigateur sont de l’hypertexte car elles contiennent des liens (vers
des URL).

Pour surfer sur le web, vous utilisez un navigateur Internet. En fonction de vos clicks ou de
vos saisies, celui-ci va appeler des pages contenues sur des serveurs, les récupérer et les
afficher. Comme le montre le schéma suivant:

Sur le schéma, et pour simplifier, on peut représenter deux étapes :

- Le navigateur demande la page puis la récupère.


- Le serveur attend les connexions et les demandes, il se contente de répondre à la
demande en envoyant du contenu.

En général, le surf commence par une adresse, que vous l’ayez saisie directement, ou
qu’elle soit le résultat d’un moteur de recherche (qui d’ailleurs est lui aussi lancé par une
adresse comme par exemple http://www.google.fr, il vous faut toujours une adresse pour aller
quelque part. Pour atteindre un serveur http, c’est pareil : on utilise une adresse.

57
Une adresse Internet est toujours constituée de la façon suivante :

Protocol : //adresse-du-serveur : port / Chemin/ressource

http: //www.culture-informatique.net / C’est-quoi-un-serveur-http-ou-serveur-web

(Il faut noter que le port, le chemin et la ressource peuvent alors être omis, alors ce sont les
valeurs par défaut qui seront utilisées).

(Attention, certains navigateurs n’affichent pas http://, ils considèrent que http étant la norme
par défaut, il n’est pas nécessaire de l’afficher).

Cette adresse est appelée URL (Uniform Resource Locator) .

Cette URL désigne et contient plusieurs informations :

http : C’est le protocole qui va être utilisé par le navigateur pour accéder au serveur et lui
adresser ces demandes: il faut que le navigateur sache dans quelle langue il doit parler au
serveur. Cette langue est appelée protocole.

www.culture-informatique.net : C’est l’adresse du serveur. Il y a des millions de serveurs sur


Internet, votre ordinateur ne va pas s’adresser à n’importe quel serveur, mais il va accéder au
serveur contenant le site « culture-informatique.net ».

Et si on parle de la ressource à récupérer ou à accéder, on va parler de l’URI (Uniform


Resource Identifier).

o une image : www.culture-informatique.net/WordPress3/wp-


content/uploads/2015/10/ID-1009783.jpg
o de la musique : www.culture-informatique.net/WordPress3/wp-
content/uploads/2015/11/mozart-symphonie-n-40.mp3
o un fichier à télécharger : www.culture-
informatique.net/download/FileZilla_Server-0_9_53.exe
ici le chemin d’accès est un répertoire sur le serveur qui s’appelle /download.

58
o et si vous voulez accéder à l’ensemble des fichiers à télécharger sur Culture-
Informatique, vous pouvez donc cliquer sur : http://www.culture-
informatique.net/download/
o etc …

III-2- Le protocole FTP

FTP veut dire « File Transfert Protocol » ou Protocole de transfert de Fichier. C’est donc un
langage qui va permettre l’échange de fichiers entre 2 ordinateurs (NAV, et plus
exactement entre un serveur et un client.
On parle alors de :

 serveur FTP
 client FTP
Il y a deux intervenants dans un échange FTP : le serveur et le client » ; (connexion au site
<culture informatique>.

Le serveur FTP est un logiciel qui va répondre aux demandes des clients. Lorsque le serveur
reçoit une demande, il vérifie les droits et si le client à les droits suffisants, il répond à cette
demande sinon la demande est rejetée.

Le client FTP C’est lui qui va être à l’initiative de toutes les transactions. Il se connecte au
serveur FTP, effectue les commandes (récupération ou dépôt de fichiers) puis se déconnecte.
Toutes les commandes envoyées et toutes les réponses seront en mode texte. Cela veut dire
qu’un humain peut facilement saisir les commandes et lire les réponses.
Le protocole FTP n’est pas sécurisé : les mots de passe sont envoyés sans cryptage entre le
client FTP et le serveur FTP. (Le protocole FTPS avec S pour « secure » permet de crypter les
données).

Il faut dire qu’autrefois, il était incontournable d’utiliser FTP pour télécharger des fichiers.
Maintenant, avec des connexions plus performantes, la plupart des téléchargements
s’effectuent avec le navigateur web, en cliquant sur les liens proposés et les téléchargements
démarrent directement. Pourtant dans certains cas encore, il est nécessaire d’utiliser FTP pour
télécharger des fichiers.

59
Vous pouvez également vous servir des services FTP pour échanger des fichiers avec
des personnes ou des entreprises.

III-3- Le protocole https

Le protocole https a été créé pour pallier aux défauts de l’http, il est composé de deux
protocoles :

●le protocole http

●le protocole ssl : c’est lui qui donne le S au protocole httpS (S pour Secure).

Grace à un échange de clés entre eux, le serveur et le client vont établir une connexion
chiffrée dont eux seuls pourront lire le contenu. Car seul le client et le serveur en possession
de la clé de décryptage pourront déchiffrer les données reçues.

III-4- Le protocole FTPS

Le protocole FTPS est le protocole de transfert de fichiers avec sécurité (S), c’est une
extension du protocole FTP qui ajoute des mécanismes /capacités basés sur la sécurité de la
couche de la sécurité SSL {soum}.

III-5- Le protocole SSL

SSL = Secure Socket Layer. C'est un système qui permet d'échanger des informations
entre 2 ordinateurs de façon sûre. SSL assure 3 choses:

Confidentialité: Il est impossible d'espionner les informations échangées.

Intégrité: Il est impossible de truquer les informations échangées.

Authentification: Il permet de s'assurer de l'identité du programme, de la personne ou de


l'entreprise avec laquelle on communique.

60
61