Académique Documents
Professionnel Documents
Culture Documents
MANUEL DE FORMATION
Cours EXP-MN-SI110
Révision 0
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
INSTRUMENTATION
AUTOMATISME CENTRALISÉ - DCS
SOMMAIRE
1. OBJECTIFS .....................................................................................................................7
2. INTRODUCTION .............................................................................................................8
2.1. HISTORIQUE DU CONTRÔLE DES PROCÉDÉS....................................................8
2.2. DÉBUTS DES TABLEAUX DE COMMANDE LOCALE ............................................8
3. ÉVOLUTION DU CONTRÔLE DE TRAITEMENT DE L’USINE.....................................10
3.1. DES SALLES DE CONTRÔLE PLUS SOPHISTIQUÉES .......................................10
3.2. COMMANDE CENTRALE DE L’ORDINATEUR CENTRAL....................................10
3.2.1. Commande numérique directe (CND) .............................................................10
3.2.2. Commande analogique commandée numériquement (DDAC) .......................11
3.3. CONTRÔLE RÉPARTI DES PROCESS .................................................................13
3.4. SYSTÈMES DE PROCESSEURS RÉPARTIS .......................................................15
3.5. AUTOMATES PROGRAMMABLES INDUSTRIELS (API / PLC) ET CONTRÔLE
COMMANDE DE PROCÉDÉ .........................................................................................16
3.6. COMPARAISON DCS ET PLC :FACILITÉ DE CONFIGURATION.........................18
3.6.1. Configuration typique d’un système de PLC....................................................19
3.6.2. Configuration typique d’un système DCS ........................................................19
3.7. SYSTÈME SCADA..................................................................................................20
3.8. RÔLE ACCRU DES ORDINATEURS PERSONNELS (PC)....................................21
4. QU’EST-CE QU’UN DCS ?............................................................................................22
5. QUELLE DIFFERENCE AVEC UN AUTOMATE PLC ? ................................................23
6. LA PARTIE HARDWARE : STRUCTURE D’UN DCS....................................................24
6.1. L’EMBASE ..............................................................................................................24
6.2. L’ALIMENTATION ...................................................................................................25
6.3. LES CARTES D’ENTRÉES/SORTIES ....................................................................26
6.3.1. La carte d’entrée logique .................................................................................26
6.3.2. La carte de sortie logique ................................................................................26
6.3.3. La carte d’entrée analogique ...........................................................................27
6.3.4. La carte de sortie analogique ..........................................................................27
6.3.5. Le Microprocesseur .........................................................................................28
6.3.6. La carte de communication .............................................................................29
6.4. STRUCTURE MATÉRIELLE DES CONTRÔLEURS ..............................................30
6.4.1. Contrôleur classique de procédé.....................................................................30
6.4.2. Architectures du contrôleur..............................................................................31
6.5. STRUCTURE LOGICIELLE DES CONTRÔLEURS................................................34
6.5.1. Programmation................................................................................................34
6.5.2. Organisation du temps d’exécution pour les actions de contrôle.....................35
6.5.3. Progrès dans la structure logicielle..................................................................36
6.5.4. Programmation contre configuration................................................................36
6.5.5. Blocs fonction ..................................................................................................37
6.5.6. Connection des blocs ......................................................................................38
6.6. REDONDANCE DU CONTRÔLEUR.......................................................................41
6.6.1. Le mythe de l’intégrité boucle simple ..............................................................41
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 2 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
1. OBJECTIFS
Le but de ce cours est de permettre à un futur instrumentiste de connaître
l’instrumentation qui se situe en zone à risques et ses différents marquages sur un site
industriel à dominance pétrolière.
2. INTRODUCTION
Pour mieux comprendre le concept de contrôle-commande réparti, nous devons nous
intéresser à l’historique des salles de commande et à la commande par ordinateur.
Nous étudierons également quelques distinctions arbitraires entre DCS, API (PLC) et PC.
Ce ne seront là que des comparaisons incomplètes, bien entendu, du fait des nombreuses
créations et innovations des fournisseurs, mais dans un souci de compréhension, nous en
passerons par des généralisations.
Cela impliquait que chaque opérateur développe sa propre sensibilité par rapport au
procédé, art s’il en est. L’un des défis d’une telle gestion d’usine consistait à coordonner
les nombreux opérateurs afin qu’ils puissent gérer le flux de produit d’un bout à l’autre de
l’usine de façon cohérente. Du fait de la subjectivité de ce « ressenti » de l’exploitation, les
résultats de l’usine pouvaient varier selon les différents opérateurs et leurs différents états
émotionnels. Les délais et autres inefficacités en résultant étaient ainsi les facteurs limitant
la productivité de l’usine.
Avec les progrès technologiques, il est devenu possible de transmettre des signaux
pneumatiques. La salle de contrôle a ainsi fait son apparition dans les usines les plus
importantes et les volumineux appareils de mesure ont donc été placés en un seul lieu,
avec quelques dispositifs de contrôle commande qui transmettaient les signaux en retour
aux vannes les plus proches sur le terrain.
Différents opérateurs pouvaient alors enregistrer leurs relevés dans un journal et réaliser
quelques réglages sur les procédés d’exploitation sans devoir se rendre sur les sites aussi
fréquemment qu’auparavant. Naturellement, il restait nécessaire de visiter l’usine pour
régler les vannes, registres et autres éléments finaux les plus distants.
Un concept venait de naître : il s’agissait désormais d’amener l’usine aux opérateurs plutôt
que le contraire.
Du fait de l’apport de la plupart des informations nécessaires aux opérateurs, les délais de
prise de décisions en matière de résultats de procédé, en ont été fortement réduits. Il
devenait ainsi plus aisé et plus rapide de repérer les interactions entre différentes portions
du procédé.
Tout ceci était réalisé par contrôle-commande et supervision, grâce à un câblage direct et
des signaux analogiques. L’avantage était qu’il ne fallait pas trop de câblage (ou de
canalisations, pour le cas d’installations pneumatiques).
Mais l’inconvénient était qu’il n’existait qu’une faible marge de contrôle commande, de
supervision et d’alarme.
Après la seconde guerre mondiale, les commandes électriques sont devenues plus
robustes et pratiques pour un usage en environnements industriels.
De plus nombreuses mesures devenaient alors possibles du fait de la baisse du coût des
capteurs.
La taille des contrôleurs était plus petite, de sorte qu’un plus grand nombre d’entre eux
pouvait tenir sur un même tableau et une surface réduite. Tout cela a conduit à une salle
de commande plus complexe, d’où le besoin d’un câblage plus important vers ce lieu.
Cela présentait des problèmes de gestion des informations pour les opérateurs, outre les
défis en termes de logistique de gestion du signal pour l’ingénieur d’instrumentation.
À mesure que les progrès technologiques ont fait baisser les prix des ordinateurs, ceux-ci
sont devenus plus courants, sur les installations plus grandes et plus complexes. Cela a
ainsi permis le développement accru des salles de commande centralisée.
Si ces ordinateurs pouvaient désormais traiter toutes ces nouvelles données, ils n’en
restaient pas moins conçus d’abord pour les entreprises. Au cours des années 60 - 70,
deux types d’ordinateurs pour la commande des procédés sont apparus :
Avantages :
Inconvénients :
Fiabilité de l’ordinateur
Cherté
Avantages :
Fiabilité élevée
Redondance complète
Inconvénients :
Cherté
Cette salle centrale de contrôle-commande offrait ainsi une image bien plus précise de
l’exploitation globale de l’usine. En revanche, une fois toutes les parties distantes de
l’usine reliées à cette salle unique, les éléments suivants devenaient très coûteux du fait
des :
Conception de l’ingénierie
Un problème grave apparaissait également : une panne sur l’ordinateur pouvait alors
provoquer l’extinction de l’usine entière ! Pour résoudre cela, des contrôleurs de secours
étaient souvent introduits dans le système informatique.
Afin d’assurer une meilleure fiabilité du système, il fallait fréquemment dupliquer les
systèmes de contrôle (soit 2 jeux de contrôle-commande pour chaque élément). Cette
redondance impliquait ainsi souvent l’emploi d’instruments analogiques pour permettre à
l’usine de continuer de fonctionner.
Les opérateurs devaient ainsi être en mesure de faire fonctionner les ordinateurs et mais
aussi de connaître le contrôle-commande de procédé. Il était par conséquent difficile de
trouver du personnel qualifié, dont le salaire était donc particulièrement élevé.
L’emploi d’un ordinateur de contrôle pour la gestion des points de consigne et autres
paramètres sur les contrôleurs analogiques permettait d’éviter la perte de signal au niveau
des éléments terminaux à l’arrêt de l’ordinateur. Cela n’économisait pas le double système
de contrôle commande, mais au moins les opérateurs pouvaient-ils éviter d’apprendre à
gérer le procédé par l’ordinateur. Si l’ordinateur de contrôle était bien implémenté, les
opérateurs pouvaient aller jusqu’à en oublier la présence.
Avantages :
Inconvénients :
Beaucoup de câblage
Extensibilité limitée.
En effet, il était difficile d’étendre les solutions sans reprogrammer l’ordinateur au complet.
Corriger ces inconvénients coûtait cher.
Le démarrage du Contrôle réparti est devenu possible du fait des capacités des
technologies vidéo de juxtaposition permettant d’afficher des données, voire même pour
l’opérateur d’initier des actions de contrôle-commande « par vidéo ».
La salle de contrôle central rassemblait les informations sans que tous les traitements ne
soient situés en un seul lieu, ce qui répartissait les risques.
Le coût et la complexité du câblage pouvaient en outre être amoindris par l’emploi d’un
signal numérique passant par un simple câble servant de réseau de communication
(autoroute de l’information), reliant ainsi les différentes parties de l’usine. Le secret du
parcours de tous ces signaux est en fait une vieille technologie : le télégraphe.
L'architecture répartie de procédés permet une répartition fonctionnelle des tâches entre
différents processeurs, ce qui réduit les risques d’une panne globale. À mesure que des
méthodes de réduction des boucles de masse ont fait leur apparition, la répartition
physique est également devenue possible. Ces éléments critiques ont dès lors commencé
à ouvrir des possibilités pour fixer les informations centrales sur le contrôle local pour les
sites où cela était capital.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 13 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Cette vision de l’exploitation de l’usine depuis la salle de contrôle central offre à l’opérateur
une fenêtre unique sur l’ensemble du procédé. Et les opérateurs n’ont plus à faire le tour
de l’usine.
C’est du bout des doigts qu’ils font désormais la visite, en visualisant chaque contrôleur ou
groupe de contrôleurs sur leur écran pour superviser le déroulement de leur traitement.
Si nécessaire, ils peuvent aisément faire le point et commander des modifications depuis
leur clavier, comme ils peuvent gérer toutes les alarmes en cas d’alerte sur un procédé.
Par ailleurs, si nécessaire, une usine peut disposer de plusieurs postes opérateur sur ce
réseau. Un poste d’opérateur local peut être implanté sur une partie spécifique de l’usine,
directement sur la même autoroute d’information ou directement câblé sur un ensemble de
boucles de contrôle.
Côté inconvénients, ces systèmes de contrôle réparti présentaient toujours des capteurs
et éléments finaux reliés à des armoires de contrôle-commande et les branchements entre
composants provenant de différents fabriquants pouvaient présenter un certain nombre de
difficultés. C’est à cela que répondent les E/S numériques ou bus de terrain.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 14 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Connectés à une fonction et en conjonction les uns avec les autres, cette combinaison
d’ordinateurs établit un système réparti de microprocesseurs.
Certains puristes seront mécontents de cet emploi un peu vague des définitions. Cela dit,
ces puristes ne sont jamais d’accords entre eux !
Si l’on comprend bien les fonctions des améliorations des microprocesseurs, on peut
mieux en apprécier les possibilités. De nouvelles stratégies de contrôle-commande
peuvent être pensées et de nouveaux capteurs et actionneurs pourront être développés
pour tirer le meilleur parti de la puissance de gestion des informations du microprocesseur.
Comme vu précédemment, ces progrès matériels sont inhérents à la moindre taille, au prix
réduit et à la fiabilité accrue de la technologie de ces composants. L’architecture du
contrôleur est passée d’un ordinateur central unique qui assurait toutes les tâches de
contrôle et offrait à la fois l’affichage, le traitement et la communication, avec les entrées et
les sorties à une architecture de processeurs répartis sur le système.
Ces processeurs peuvent être associés pour assurer les fonctions spécifiques de contrôle-
commande de proccédé, communication entre contrôleurs et affichage et gestion des
informations du système de contrôle.
L’étape intermédiaire entre ces deux étapes a été l’évolution de ces micro-ordinateurs
spécifiques vers des contrôleurs propriétaires et postes opérateurs.
Le matériel (hardware) était propriétaire parce que dans les années 1960, 1970 et 1980,
les ordinateurs normaux ne présentaient pas la vitesse de traitement et la capacité de
mémoire pour fonctionner en temps réel, c’est à dire répondre immédiatement aux actions
du procédé et informer l’opérateur et lui indiquer ce qu’il doit faire ensuite.
Les automates programmables industriels (API / PLC) ont été conçus pour les fonctions
d’automatisation dans les usines, lorsque l’exploitation nécessitait de nombreuses
opérations rapides, répétées, comme sur la plupart des chaînes.
Bien que ce ne soit pas typique des usines de traitement traditionnelles, certaines
opérations peuvent également exploiter les capacités extrêmement puissantes d’un PLC.
Les PLC actuels peuvent être bien plus efficaces que jamais pour les opérations de
séquençage, de régulation et de verrouillage. Le contrôle commande en temps réel pour le
verrouillage de moteurs et équipements relatifs est une opération très pratique au sein des
PLC employés dans le monde du contrôle-commande des procédés.
Ces réseaux sont parfois, mais pas toujours, P2P : ainsi, un PLC peut parler avec un autre
de façon directe, sans passer par un quelconque dispositif intermédiaire.
Parmi les applications typiques se trouvent les arrêts/démarrages des équipements et les
verrouillages de sécurité, le filtrage, groupage simple, emballage, embouteillage et
manipulation de matériel. Les PLC sont le plus souvent une alternative bon marché aux
DCS, dont les stratégies sophistiquées de boucles de traitement ne sont pas nécessaires.
Parmi les avantages les plus puissants des PLC dans le contrôle-commande de procédé :
Très bon marché, ce qui permet de les adapter aux fonctions du produit
Nécessité de configurer les PLC, outre la configuration des ordinateurs et des DCS
sur les systèmes qui conjuguent ces 2 éléments
Les PC, DCS et PLC pâtissent tous des compromis entre coût et performance, même si
ce ne sont pas les mêmes. On peut aisément trouver des arguments en faveur ou contre
tous les éléments de comparaison qui apparaissent ici ou dans presque tous les articles
de magazines disponibles. Comme pour tout, il n’existe pas de solution idéale pour
prendre la bonne décision... dans le cas contraire, vous ne seriez pas là à tenter de savoir
comment acheter le produit idoine pour votre usine (plus besoin d’ingénieurs, un bon de
commande suffirait à tout acheter).
Pour trouver le bon système, il faut tenir compte de tous les paramètres. Comme pour
choisir entre deux marques, la décision entre PLC, DCS ou ordinateurs généralistes (ou
PC), les fonctions nécessaires sont le paramètre clé. L’acheteur doit toujours avoir en tête
la compréhension du procédé. (En effet, la plupart connaissent mais ne comprennent pas
le procédé. La compréhension peut venir de la collecte d’informations qu’un nouveau
système pourrait offrir.)
Les systèmes propriétaires de DCS étaient initialement configurés comme des blocs
fonctions représentant différents instruments et contrôleurs provenant du même
fournisseur. En général, ces blocs offraient les forces et faiblesses de ce fournisseur,
selon son expertise des applications sur les marchés qui lui étaient familiers.
Il n’existait pas de norme dans ce domaine, mais la plupart de ces systèmes étaient plutôt
simples à configurer. En effet, en principe, c'était aussi le fournisseur qui concevait la
station de travail pour garantir l’adéquation entre l’Interface opérateur et ces
« instruments ». Outre cette simplicité, l’utilisateur était certain de disposer d’une
exploitation en temps réel et de ne pas risquer de « polluer » par inadvertance son logiciel.
Par ailleurs, les PLC venaient en principe remplacer des relais et étaient programmés soit
par logique des relais soit, si un contrôle commande plus complexe était nécessaire, dans
l’un des langages évolués tels que Pascal, Basic ou encore un mélange des deux.
Une interface opérateur bien plus simple existait alors, d’un niveau de communication très
minime et d’un besoin très limité de communication temps réel entre dispositifs.
Chaque PLC doit être configuré à part et il faut être très organisé pour éviter de dupliquer
des repères de procédés, etc. On réserve en principe les stratégies complexes aux PLC
individuels.
Le PC doit être configuré pour communiquer avec chaque PLC pour trouver les variables
spécifiques, puis configuré pour les vues, puis les historiques, puis les tendances, etc. Les
systèmes PLC disposent en général de multiples bases de données pour configuration et
appariement.
La base de données peut tenir sur une simple station de travail, avec copie sur les
contrôleurs. Il faut parfois procéder à des téléchargements pour la sauvegarde des
contrôleurs redondants. Vues, historiques et tendances devront également être
configurés.
Certains pourront présenter une base de données commune, selon le fournisseur (et l’âge
du système).
Les PC, le plus souvent compagnons, doivent configurer des liens uniques pour le
contrôle commande et les vues, etc. sur une base de données indépendante, comme pour
les systèmes PLC.
Les systèmes DLC présentent en général une base de données unique et ne doivent pas
être régulièrement synchronisés entre eux.
Ces systèmes SCADA n’ont en principe pas été employés pour le contrôle de process
mais plutôt pour le démarrage et l’arrêt d’unités distantes, comme par exemple dans le cas
des transformateurs de puissance distants ou des pompes à eau ou à gaz sur les
pipelines.
Le plus souvent, la liaison ne se fait pas par câble mais par transmission radio, ligne
téléphonique, voire même satellite. Les délais sur ces systèmes SCADA ont imposé de ne
pas se fier au contrôle-commande des détails du process lui-même à distance.
Cela interdit en principe tout procédé d’action continue, qui nécessite une exploitation à
meilleur temps de réponse. Pendant des décennies, des technologies exclusives ont été
mises en œuvre pour contrecarrer ces limitations de contrôle, comme par exemple ces
routines extrêmement rigoureuses de « contrôle avant exécution » sur toute transmission
de données.
Bon gré mal gré, le milieu des années 90 est devenu l’ère du Microsoft de Bill Gates, qui
est toujours plus influent sur l’ensemble de notre technologie.
Le volume des produits Microsoft et les volumes des produits compatibles a créé des
normes de fait et des ordres de prix imbattables. En quelques courtes années, ceci a filtré
dans toutes les gammes de produits de contrôle-commande de process, outre les produits
commerciaux et les pratiques professionnelles en découlant.
Prix, puissance et caractère universel sont ce qui génère la demande des utilisateurs, qui
souhaitent ensuite également de la robustesse pour ces produits.
Le secteur des contrôles de procédés n’a quant à lui jamais bénéficié de l’avantage du
volume pour la plupart des produits qu’il utilise.
Contrairement aux systèmes commerciaux ou, à plus forte raison, aux produits grand
public. Il suffit de comparer le nombre d’usines de béton soutenues par les exigences
économiques modiales au nombre de postes de TV, micro-ondes, jeux vidéo (liste
interminable) en bénéficiant. Les prix chutent à mesure que les volumes croissent. La
recherche en nouvelles technologies répondra toujours aux marchés qui peuvent soutenir
ces investissements. Les autres utilisateurs n’ont qu’à attendre les résultats puis modifier
la technologie pour leur propre usage.
Une alimentation,
Une (ou plusieurs) cartes de communication par réseau avec des ordinateurs,
Une (ou plusieurs) cartes de communication par liaison série RS232 ou RS422 /
RS485,
DCS veut dire Distributive Control System et plus souvent appelé en Europe sous le nom
de SNCC (Système Numérique de Contrôle Commande).
Un système DCS est donc tout simplement destiné aux réglages de boucles de régulation,
aux enregistrements de toutes les mesures dont nous avons besoin, surveillance de tous
les paramètres nécessaires au procédé.
Il reste une différence pour les cycles de scrutation qui sont généralement plus rapides sur
PLC que sur DCS (normal vu que nous scrutons que des entrées sorties logiques sur un
PLC !!).
En fait la distinction entre DCS et PLC est de plus en plus une question historique (ou
d'habitude) et de moins en moins une réalité profonde.
D'ailleurs DCS et PLC utilisent les mêmes langages de programmation définis par la
norme IEC 61131-3.
Quand au superviseur, il est extérieur au DCS (ou au PLC). C'est un programme dans un
ordinateur extérieur qui est chargé de réaliser l'interface nécessaire à la conduite par
l'homme des processus industriels.
Généralement les PLC sont fournis sans superviseur (SCADA) dans la configuration de
base alors que les DCS sont fournis avec leur superviseur dédié d'où certaines confusions
courantes entre DCS et superviseur.
6.1. L’EMBASE
L’embase est tout simplement le rack sur lequel vous allez enficher toutes vos cartes
d’entrées sorties, la carte d’alimentation, la carte CPU (microprocesseur associé à la
mémoire) et enfin votre carte de communication.
L’embase est très pratique car l’alimentation de l’automate est répartie sur tous les
modules de cette embase en fond de panier, donc une seule alimentation suffie (via la
carte d’alimentation).
Figure 9: Embase
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 24 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
6.2. L’ALIMENTATION
Bouton poussoir,
Pressostat,
Thermostat,
Détecteur de niveau,
Électrovanne,
Commande de moteur,
Voyant lumineux,
Pression,
Débit,
Température,
Niveau,
Vanne de régulation,
Variateur de vitesse,
6.3.5. Le Microprocesseur
Exécution du programme.
RUN-P
Toutes les fonctions PG sont autorisées
Exécution du programme.
RUN
Seules les fonctions PG lecture sont autorisées
Effacement général : Cette fonction efface toutes les données utilisateur de la CPU. Il
doit être effectué une fois avant le début de la programmation (en début de projet par
exemple).
Elle sert aussi au technicien de maintenance qui peut connecter son pc portable
dessus pour vérifier ce qu’il ne fonctionne pas.
Vous pouvez remarquer sur la photo que vous avez deux ports Ethernet, c’est ce
qu’il va permettre de connecter vos pc avec un câble réseau RJ45.
Divers fournisseurs ont utilisé différentes approches pour concevoir leurs produits, partant
de la façon dont ils envisageaient le rôle de leur équivalent analogique.
Sur certains instruments, ce contrôleur n’était pas une Indication de la sortie du contrôleur
mais plutôt la position réelle de l’élément final (soupape, unité d’entraînement moteur, etc.)
à partir d’un signal de retour
Dans le rack (ou la ficche) du contrôleur réparti, l’emplacement de la carte est devenu
celui de différentes boucles se partageant un processeur (Figure ci-dessous).
Comme auparavant, il existait des câbles vers les capteurs et éléments finaux mais ce
rack de contrôleur ne comptait plus de câbles directs ni de branchements classiques.
Tous deux devaient se convertir au numérique. Désormais des valeurs à alarme en une
boucle pouvaient déclencher des actions en cascade. Outre le fait pas si évident qu’un
nombre « infini » de câbles peut venir se brancher sur un point numérique sans « charge »
électrique...
Par le passé, cette dernière idée engendrait une sévère restriction sur les capacités à
développer différentes stratégies de contrôle.
Au milieu des années 90, deux architectures très générales de contrôleurs sont apparues
et ont investi la plupart des DCS toujours en exploitation, parmi les dizaines de milliers
existant dans le monde entier. Ces deux types ont influencé l’approche retenue dans les
conceptions les plus récentes et il vaut mieux en comprendre le fonctionnement,
notamment si votre société en utilise quelques-uns.
Les deux versions reposent sur un traitement réparti, mais de façon spécifique. Pour la
version à fonction partagée, toutes les boucles arrivant sur ce contrôleur particulier
partageaient plusieurs cartes à microprocesseur (Figure ci-dessous).
On pouvait les reconnaître parce qu’ils disposaient de telle carte en carte de sortie (ou en
carte ou encore station de stockage), carte de conditionnement, de base de données,
d’algorithme, de communication externe. Ces cartes étaient en principe accompagnées
d’autres cartes nécessaires, telles que carte d’alimentation ou d’autoroute de l’information.
Le principal avantage du contrôleur à fonctions partagées est que tous les contrôleurs
disposent des mêmes jeux matériel/logiciel, ce qui facilite les commandes, installations,
modification de commandes, formation, maintenance et stockage des pièces.
Certaines cartes étaient dédiées au contrôle de boucle et d’autres au contrôle logique. Les
fonctions de sortie, entrée, conditionnement du signal, etc. étaient assurées sur chaque
carte par le même processeur. Il y avait également d’autres cartes dédiées à la
programmation, selon le jeu standard d’algorithmes du fournisseur. Souvent, ces cartes
sont dites multifunctions, multitâches...
communiquer toutes ces cartes entre elles. Les systèmes de l’époque étaient le plus
souvent des Bailey, Fisher Controls, Foxboro IA, Rosemount, Taylor et Toshiba.
Les conceptions ultérieures ont commencé à agencer ces idées peu évidentes à classifier,
tirant avantage de la puissance toujours croissante des processeurs et capacités de
mémoire. Fruit de ces deux conceptions initiales, une conception plus courante est née,
où toutes les fonctions sont embarquées sur une même carte ou un même module.
En général, les architectures commercialisées au milieu des années 1990 utilisaient des
contrôleurs multifunctions plutôt que des contrôleurs de boucle, de logique ou d’application
spécifique. Cette approche offre également les avantages du jeu matériel/logiciel unique.
C’est la forme que prend le contrôle programmé au sein des PC. L’avantage de boucles
multiples sur la même carte permet même de très puissantes stratégies de contrôle
multiboucles.
Cette possibilité écarte l’objectif d’intégrité de boucle simple, quasiment impossible à tenir,
quelle que soit la stratégie de contrôle de verrouillage choisie.
La seule protection pour les actuelles stratégies de contrôle est le contrôleur redondant,
désormais plus pratique et meilleur marché qu’auparavant.
4 de ces langages reposent sur des blocs fonction pour contrôle continu, logique ladder
pour besoins numériques, diagrammes fonction séquentielle pour séquençage et contrôle
de lots et textes structurés pour calculs complexes. (Le 5ème est équivalent à l’assembleur,
peu convivial pour la configuration de procédé).
Les contrôleurs analogiques des débuts ont influencé les premières conceptions
matérielles mais aussi le logiciel. Ce dernier devait assurer les fonctions réelles des
contrôleurs, mais de nouvelles fonctions sont nées des exceptionnelles possibilités des
logiciels.
6.5.1. Programmation
Le logiciel (Software) est l’ensemble des instructions dans le PC, ce qui le fait fonctionner.
Le micro-logiciel (Firmware) est quant à lui ce qui fait tourner la PROM et reste immuable,
faisant tourner certaines routines toujours de la même façon, comme un algorithme pour
un contrôleur trimodal, un multiplicateur ou un diviseur.
Les routines sont inaccessibles, la combinaison correspondante de bits est stockée dans
la mémoire morte (ROM), inaccessible à l’utilisateur. Il existe une routine très basique qui
commande à la CPU de considérer une instruction pour un registre particulier, réaliser la
commande que cette instruction définit puis passer à l’instruction suivante. En l’absence
d’instruction, elle attend et scrute périodiquement, jusqu’à apparition d’une autre
instruction, qu’elle traite.
Pour généraliser un peu, les instructions dirigent les informations qui sont stockées sur
une adresse spécifique de la mémoire, fournies au microprocesseur, puis placées sur un
registre de données. Elles sont ensuite transmises à une unité arithmétique logique (UAL),
dans laquelle les données subissent les opérations arithmétiques ou logiques.
Les informations peuvent être stockées temporairement sur un autre registre dit
accumulateur, pour être combinées à d’autres parties de données, appelées par une
instruction subséquente. Aussi rapidement que possible, les informations modifiées sont
envoyées par la CPU pour nouveau stockage dans une mémoire.
On peut ainsi réaliser des tâches spécifiques. Les unités de mémoire dans lesquelles ces
informations traitées sont stockées ne se trouvent pas dans la mémoire morte (ROM) mais
dans la vive (RAM), qui est accessible au programmeur.
Dans un logiciel, le microprocesseur lit les lignes de code correspondant à une fonction.
Le concepteur dispose de
différentes approches pour
l’exécution de son logiciel, de
même que pour l’assemblage
des parties matérielles.
Les progrès réalisés dans les systèmes répartis ont également largement bénéficié des
nouvelles approches en cours et permettent de configurer les systèmes informatiques
sans pour autant être programmeur.
L’objectif est que l’ingénieur d’usine qui a en charge le développement des systèmes de
contrôle-commande des procédés puisse, sans être programmeur, comprendre
parfaitement la programmation pour faire fonctionner son système de contrôle commande.
Cela dit, les éléments nécessaires au contrôle commande ont évolué en quelques années
de la programmation à la configuration.
Il se peut que vous connaissiez le détail du fonctionnement d’une ampoule, cela dit, ce
n’est pas capital pour utiliser la lumière produite. Vous avez juste besoin de pouvoir
tourner le bouton et d’être suffisamment éclairé pour travailler. La conception d’un
système de contrôle repose sur ce même principe.
La logique des relais est née du matériel de relais et a facilité la compréhension des
dysfonctionnements des semi-conducteurs par les électriciens nord-américains. La
programmation de fonctions complexes comme les PID est très lourde et les ingénieurs
préfèrent la logique booléenne pour exprimer les mêmes informations de programmation.
Tous ces langages ont tenu un rôle dans l’histoire des méthodes de programmation des
contrôles, qu’il s’agisse de contrôle logique ou contrôle réparti de programmation. Tous
ont évolué au fil du temps.
Qui propose le plus grand nombre de fonctionnalités ? Aucun des deux peut-être !
Le premier peut proposer de grands blocs fonction, très complets et puissants, dont
certains offrent des alarmes appropriées et des liens numériques d’état embarqués. Si
plus tard vous devez ajouter des alarmes ou relier l’état d’une nouvelle fonction, il vous
faudra vous brancher sur l’existant sans pouvoir changer les temps de balayage ou
trouver la place nécessaire pour glisser la (les) fonction(s) dans la configuration.
En général, les fournisseurs qui ont employé l’approche de l’intervalle fixe de temps ont
mis en œuvre des blocs grandes fonctions.
Le second fournisseur peut proposer plusieurs blocs fonctions plus petits. Plusieurs blocs
fonction peuvent être nécessaires pour créer une opération assurée par un seul bloc du
premier fournisseur. (J’ai en mémoire un fournisseur qui appelait 42 blocs petite fonction
pour réaliser une action de contrôle en cascade, ce qu’assurait l’un de ses concurrents
avec seulement 2 de ses blocs fonction).
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 37 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Des blocs de plus petite fonction offrent clairement une plus grande flexibilité, mais une
quelconque modification impliquera sans doute une plus grande réorganisation de la
stratégie de contrôle, un re-calcul fastidieux des temps de balayage et la prise en compte
d’autres interactions. Cela nécessite parfois une vérification de l’ordre de celle nécessaire
pour du code informatique.
En général, les fournisseurs ayant fait le choix de l’intervalle variable de temps proposent
des blocs de plus petite fonction.
Les fournisseurs ont créé l’équivalent plusieurs types de matériel d’instruments en créant
des blocs fonction réalisant les mêmes calculs.
Figure 26: Passage du matériel au micro-logiciel : les blocs fonctions peuvent être des
instruments’
Ces blocs de fonction standardisée varient en général d’un fournisseur à l’autre et leur
conception interdit à l’utilisateur toute modification d’actions fondamentales. Ils proposent
cependant nombre d’ajusteurs et terminaux, comme pour le matériel qu’ils remplacent.
Vous vous faires une omelette un matin et un enfant de 4 ans vous aide. Quiconque en a
dans son entourage sait que les enfants de cet âge veulent désespérément apporter de
l’aide mais qu’ils ne sont pas assez expérimentés pour le faire réellement. Vous n’en
attendez pas moins que cette expérience de l’aide apportée porte ses fruits plus tard.
« Donne-moi vite deux œufs » lui dites vous. La réaction de l’enfant est de vous les lancer,
n’avez-vous pas dit vite ?
Ils se brisent évidemment. Vous dites « non, apporte-les moi en les mettant à l’abri ».
L’enfant pense à les mettre dans ses poches, où ils se brisent à nouveau. Comme vous
voulez des œufs entiers, vous modifiez à nouveau votre requête. L’enfant trouve un sac et
y place délicatement les 2 nouveaux œufs. Entre la longueur de son bras et la taille du
sac, les œufs se fracassent à nouveau, cette fois sur le sol (ils étaient pourtant à l’abri
dans le sac !), au moment où l’enfant tout heureux vient vers vous avec son sac.
Cela dit, chacune de vos instructions était juste et les réponses apportées adaptées, mais
les œufs ne sont jamais arrivés entiers. C’est ce que les programmeurs appellent la
coordination. On peut tous donner des instructions à un ordinateur, mais avec la véritable
expérience de l’application on peut surtout dire tout ce qu’il ne faut pas faire !
Plaçons quelques blocs fonction dans une configuration simple, comme figure ci-après.
Par exemple :
Il y a quelques années, cela n’était possible que par un ordinateur central unique, par le
biais de liaisons de communication vulnérables et lentes.
Avec du matériel, ce n’était sans doute pas possible du tout ou manquait pour le moins de
praticité. C’est de ces cas de configuration que les changements peuvent apparaître dans
les techniques de process qui garantissent la productivité.
La productivité était la véritable raison pour que votre chef vous dise de regarder dans le
DCS.
À gauche et à droite sur la figure suivante, vous pouvez voir des connections physiques
sur un contrôleur, provenant du monde réel des capteurs et éléments terminaux.
Entre les barres verticales se trouvent des blocs fonction reliés par câblage virtuel,
établissant une stratégie de contrôle.
L’exemple est ici une chaudière industrielle, avec contrôle analogique du fuel et de l’huile.
Ces contrôles sont interconnectés, de sorte que si le point de consigne du contrôleur d’air
est modifié, des liaisons et circuits de commande assurent le bon niveau de fuel.
L’opérateur n’a pas besoin de les gérer de façon indépendante, avec des résultats
imparfaits.
Vous noterez par ailleurs les déclencheurs discrets en cas d’extinction de la flamme, de
niveau d’huile trop bas, etc. Ils sont par ailleurs reliés à des circuits de commande logique,
afin de pouvoir éteindre la chaudière si l’ensemble des conditions l’impose.
Notez en outre l’impact de la pression de vapeur, débit d’huile, pression dans la colonne et
débit d’air. Il y a même ici une équation pour le rendement de la chaudière. Bien entendu,
une chaudière pour une installation de puissance serait bien plus complexe, mais pourrait
toutefois être réalisée par des blocs fonction et un câblage virtuel.
Au bon vieux temps du matériel de contrôle monoboucle, il était assez rare qu’une boucle
de procédé soit doublée par une autre boucle.
S’il fallait des relais de verrouillage, la redondance devenait très compliquée du fait des
composants additionnels, qui pouvaient éventuellement rendre la stratégie moins fiable !
Il y a sans aucun doute des possibilités de contrôle redondant pour une boucle simple de
procédé. On peut cependant penser qu’on en a fait plus que nécessaire. La plupart des
contrôleurs basés sur microprocesseur se trouvent sur des unités de procédé à plus d’une
variable simple, comme par exemple la température.
Bien souvent, cette boucle est liée à la pression, au débit et à un analyseur ou autres
dispositifs. Dans ce cas, la boucle n’est plus indépendante et si la boucle se déroule mal,
c’est toute l’exploitation qui s’arrête.
Pour éviter cela, c’est toute la stratégie qui doit être redondante ou la boucle simple doit
être doublée avec un grand nombre de relais et coupe-circuit vulnérables, qui, comme
nous l’avons déjà mentionné auparavant, sont plus suceptibles de faillir que la boucle de
contrôle elle-même.
Pour changer le rapport coût/bénéfice du vendeur de DCS, le second vendeur montait une
campagne pour écrire des spécif sur la nécessité de proposer des backup pour chaque
boucle, indépendamment des autres.
Ceci convainquit plusieurs clients d’exiger un secours monoboucle un pour un, ce qui
obligeait le fournisseur de DCS qui favorisait l’approche du backup partagé de proposer au
quadruple l’équipement (et son coût) pour répondre aux exigences client. Désormais, les
schémas de contrôle puissant multi-boucle sont si aisément obtenus par des contrôleurs
boucle partagée à microprocesseur que la plupart des procédés d’unité en emploient.
Comme nous pourrons le voir un peu plus avant dans ce chapitre, l’ensemble des
contrôleurs multi boucle à microprocesseur peuvent être rendus redondants.
Malgré tout, et très longtemps après ces batailles commerciales, les vendeurs continuent
de rencontrer des clients qui demandent dans leurs spécifications une intégrité
monoboucle, ne serait-ce que parce qu’ils ignorent que la véritable question est de rendre
redondant l’ensemble de la stratégie de contrôle.
Lorsqu’une erreur apparaissait sur le premier poste (lorsque et pas si), la routine de
permutation devait comparer chaque ligne de code avant d’autoriser la modification. Ce
travail coûtait ainsi un temps considérable, parfois des heures de travail.
Voilà qui serait tout à fait inacceptable dans la plupart des applications de contrôle de
procédé. Ayez à l’esprit le fait que la plus grande part de notre héritage informatique venait
des ordinateurs commerciaux, pour lesquels la perte de fonctions n’était pas aussi vitale
que la perte de produit sur une ligne de production.
Il y avait là 8 boucles dans le même boîtier. Il était acquis que ces versions numériques
des boucles de process résidant dans un même boîtier pouvaient effectivement transférer
les informations entre les boucles et permettre des stratégies complexes de contrôle. De
ce fait, il a ensuite été tenu pour acquis que c’était là la meilleure solution de secours pour
l’ensemble de la stratégie globale de contrôle.
Lorsque l’unité de contrôle percevait que le diagnostic de l’un de ces 8 contrôleurs était
mauvais, elle pouvait commuter immédiatement la base de données depuis le contrôleur
défaillant vers un contrôleur de secours, rediriger les entrées et sorties et continuer
l’exploitation depuis ce nouveau contrôleur, comme contrôleur principal ou primaire. Tout
se déroulait bien dans le laps de temps de défaillance du contrôleur déficient.
Dans une architecture dont tous les jeux matériel/logiciel sont identiques, les stratégies de
contrôle sélectionnées pour ces contrôleurs ne sont pas nécessaires. Un backup 1 pour N
est possible parce que toutes les stratégies de contrôles sont redoublées. La redondance
est transparente pour le procédé mais aussi pour l’affichage opérateur (sauf, bien
entendu, diagnostic concernant la panne initiale).
On ne trouve plus que quelques-unes de ces versions sur le marché, mais il en existe des
dizaines de milliers en exploitation dans des usines du monde entier.
Sur ces racks de contrôleurs monocarte proposés par différents fournisseurs, seules des
cartes multifonction peuvent dupliquer leur exacte jumelle. La plupart d’entre elles sont
automatiquement mises à jour à la moindre modification apparaissant sur le contrôleur
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 44 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Ceci peut être dangereux, car cela implique une rigoureuse et systématique discipline de
la part de chacun des utilisateurs du système, afin de garantir que la bonne configuration
soit sauvegardée pour le cas où une panne se produirait. Dans le cas contraire... il pourrait
se passer des choses très étonnantes sur le procédé !
Il existe une forme partagée de secours, 1-pour-N chez certains fournisseurs, pour le cas
où plus d’une carte multifonction identique (matérielle) serait sauvegardée par un
« directeur » sur une carte de secours. Ici, comme pour les racks à contrôleur partagé,
chaque stratégie de configuration doit être unique.
Il y a permutation des E/S de la carte défaillante vers la carte redondante. Sur certaines
des versions partagées, une carte spécifique de mémoire conserve l’ensemble des
configurations (mais pas les valeurs courantes) de toutes les cartes de ce rack et
télécharge selon les besoins celle qu’il convient. D’autres récupèrent la configuration
adaptée au contrôleur, à partir d’une station de travail.
Les deux types (partagé et un-pour-un) disposent de cartes redondantes sur le même fond
de panier et certains utilisent des chemins redondants de circuit sur ce fond de panier.
Certains fournisseurs emploient des chemins redondants de bus sur le fond de panier
pour assurer la sécurité, déclarant que le fond de panier est passif et susceptible de subir
des pannes. Cependant, nombre d’entre eux ne prennent pas la peine de placer la carte
redondante sur une alimentation séparée.
C’est ce qui se produit s’il faut recharger la configuration à partir d’un autre emplacement
sur un module de remplacement. Dans le domaine du contrôle commande d’un four à
traitement thermique, une usine pharmaceutique ou à procédé discontinu pour la chimie,
cela pourrait poser problème. Certains fournisseurs ont conçu le contrôleur redondant
comme un disque de secours à chaud, qui scrute en continu les valeurs courantes, ainsi
que les modifications en ou hors ligne sur la configuration du contrôleur primaire.
Cela garantit que la permutation se fait de façon plus souple et que le procédé se poursuit
relativement continûment.
Mais tous les fournisseurs ne proposent pas cette correspondance. Dans ce cas de figure,
les contrôleurs peuvent être situés dans des armoires différentes, avec différentes
alimentations, si ce niveau d’intégrité de données est nécessaire.
Ces différentes solutions sont proposées pour que l’utilisateur puisse jouer entre prix et
redondance, selon les besoins sur un même système.
Nous avons précédemment établi qu’une interruption d’alimentation impliquait souvent que
la stratégie de contrôle séquentiel reprenne sa routine au début. Ce peut également être le
cas sur plusieurs modèles de PLC.
Le plus souvent, ce n’est pas un problème pour des situations d’automatisation industrielle
mais pour le contrôle de procédé cela pourrait compromettre le procédé lui-même, selon la
compléxité du système.
Si certains contrôleurs doivent encore recharger leur configuration après une interruption
d’alimentation, nombre d’entre eux sont équipés de batteries internes afin de protéger la
mémoire RAM, qui contient la configuration.
La charge de ces batteries est souvent surveillée et un temps d’alerte significatif est fourni
par des diagnostics internes. Cette alarme, qui se déclenche en principe plusieurs
semaines à l’avance, s’affiche sur le contrôleur lui-même (DEL ou code alphanumérique)
ainsi que sur l’affichage vidéo de diagnostic destiné aux opérateurs et autres.
La technologie modifie très vite toute cette séquence, non seulement sur les réseaux
numériques de bus de terrain, mais aussi la nature profonde des capteurs eux-mêmes.
L’autre interface critique est celle avec l’opérateur humain.
Dans la plupart des systèmes de contrôle commande, la station de contrôle sur un réseau
gère toutes les entrées et sorties ainsi que les fonctions de contrôle. Dans la boucle de
contrôle du process, le branchement au capteur par le contrôleur et le retour à l’élément
final de contrôle devra être libre.
Ceci implique que tous les chemins aux entrées et sorties du contrôleur soient aussi
directs que possible, même s’ils doivent être partagés entre différentes entrées et sorties.
Les entrées et sorties d’un contrôleur sont en principe passées d’analogiques à discret.
Quelques entrées à impulsion ont été mises à disposition au fil du temps pour des
dispositifs tels que fréquencemètres et des sorties à impulsion pour certaines unités
d’entraînement par moteur ou équivalents.
Le branchement des E/S au monde réel implique également toutes les questions délicates
telles que les boucles de terre, perturbations radioélectriques (RFI), interférences
électromagnétiques (EMI), protection contre les surtensions, protection contre les
atmosphères dangereuses, etc.
Bien que les modifications technologiques aient un impact sur cette partie du système, le
présent document (qui nous semble suffisamment long) ne s’intéressera pas plus avant
aux nombreuses questions de câblage standard d’instrumentation et vous propose de
compulser d’autres publications sur ce sujet.
Il existe aujourd’hui plusieurs versions de modules d’E/S reliés à la plupart des modules
de contrôleur, proposées en général pour les valeurs discrètes et analogiques.
D’autres entrées peuvent également être reçues, pour les nombreux signaux des
capteurs, analyseurs et autres dispositifs (tels que signaux faible niveau des différents
thermocouples, thermistors, capteur de température à [RTD], signaux numériques issus
des chromatographes, etc).
Plutôt que d’utiliser des contrôleurs, les modules E/S eux-mêmes ont de plus en plus
souvent tendance à présenter des microprocesseurs pour la conversion d’analogique à
numérique (et l’inverse), la linéarisation et le pré-traitement de signal.
Différentes sortes de signaux arrivent sur le contrôleur, à partir par exemple des
commutateurs et relais discrets, de lumière, température, débit et pression. Des signaux
numériques de communication peuvent même provenir de la frappe d’un clavier.
Tous ces signaux, qu’ils proviennent de valeurs discretes ou analogiques doivent ensuite
être converties en numérique. Dans le contrôle commande de procédé, ces signaux
analogiques sont typiquement entre 4 et 20 milliampères (mA), CC.
Une fois réalisée la manipulation de ces signaux numériques au sein du contrôleur, ils
doivent à nouveau être convertis en sorties discrètes et analogiques. Parfois à impulsion,
les signaux discrets de sortie sont en principe entre 1 et 5 volts (V) CC (4-20 mA) pour
pouvoir commander des actionneurs et positionneurs de valve ou des entraînements par
moteur.
Des signaux discrets de sortie entraînent des solénoïdes, freins d’inertie, relais, voyants
indicateurs et autres. Les communications numériques servent également à transmettre
des données à différents affichages opérateurs et imprimantes.
À mesure que le signal analogique passe différents seuils, tous sont enregistrés en bits.
Dans cet exemple, il s’agit d’une conversion à 3 bits, lors du passage du signal de 0 à +4V
puis redescente jusqu’à –4V.
Les bits d’horloge réguliers se lisent de gauche à droite et à chaque intersection de bit il se
forme une marche vers chaque point de la courbe. La conversion repose sur 23
combinaisons de 1 et 0.
Pour illustrer l’amélioration, une entrée 13-bit représente une résolution de 1 pour 8 000 et
une entrée 14-bit une résolution de 1 pour 16 000, soit une amélioration conséquente
dans la conformité.
(Note : les entrées présentent une meilleure résolution que les sorties pour permettre un
arrondi dans les calculs. La résolution des capteurs et éléments terminaux du monde réel
nécessite rarement cela, mais la somme des codes de qualité présentés dans ces calculs
le permettrait).
Une meilleure résolution sur les entrées ou sorties est sans doute inutile. Un
accroissement de la résolution sur l’entrée permet un arrondi au fil du traitement. La
précision des capteurs eux-mêmes est le plus souvent inférieure à ce niveau de
résolution. De même pour la sortie, où une résolution 10-bit est sans doute supérieure à
ce que peuvent suivre la plupart des dispositifs en sortie.
Naturellement, avec les progrès technologiques, ces limites en viendront sans doute à
changer de façon significative, notamment à mesure que les capteurs et éléments
terminaux deviennent eux-mêmes numériques et nécessitent toujours moins de
conversion en signaux analogiques. La communication E/S numérique de bus de terrain
devient la norme.
Les E/S distantes sont de plus en plus fréquemment (souvent avec traitement de signal)
disponibles. C’est devenu le sous-réseau de communication numérique du contrôleur et le
plus souvent la connection est plutôt parallèle que série. Le caractère parallèle n’est bien
évidemment pas obligatoire.
L’emploi de fibres optiques peut accroître les économies car il ne requiert pas de
protection contre les perturbations électromagnétiques, radioélectriques, la foudre et les
boucles de terre.
La fibre optique :
À la fin des années 1990 des capteurs et éléments toujours plus nombreux peuvent
transmettre des données par réseaux numériques de communication de terrain (figure
suivante).
En général, les systèmes employent une carte ou un module de communication pour relier
un contrôleur avec différents protocoles numériques. Un changement de carte peut
compromettre le travail avec un
autre protocole.
HART (Transducteur à distance, adressable par bus) est apparu comme le protocole du
transmetteur « intelligent » de Rosemount. Ce fournisseur a choisi alors d’ouvrir son
protocole pour en permettre la copie par d’autres. D’autres fournisseurs ont alors employé
HART, devenu ainsi un standard de fait.
Il existe une pression considérable de la part des vendeurs et des utilisateurs pour
développer une liaison numérique aux capteurs et éléments finaux de contrôle, plutôt que
le traditionnel signal analogique 4 à 20 mA. Ce lien numérique n’offre pas seulement une
entrée simple provenant d’un capteur ou entrant sur l’élément de contrôle, mais aussi une
communication viable et bi-directionnelle entre ces éléments.
Sur la plupart des systèmes d’aujourd’hui, la liaison au procédé lui-même est toujours
analogique. Il existe cependant une possibilité pour qu’un lien numérique existe, qui
puisse transporter plus d’informations, être plus précis et moins vulnérable à l’activité de
conversion de signal.
Permettent des liaisons plus directes entre systèmes de contrôle réparti (DCS)
et interconnections avec les PLC
Ils offriront en outre les bénéfices opérationnels d’une meilleure exactitude et précision, un
contrôle de meilleure qualité et plus sûr, de plus nombreuses informations, une meilleure
fiabilité et sécurité et de moindres temps d’arrêt. Cela permet par ailleurs des gains en
termes de maintenance, notamment concernant une fiabilité accrue, des remplacements
bon marché de l’équipement, une documentation automatisée et des diagnostics distants.
Par exemple, un fournisseur dont la simple entrée de thermocouple devrait subir le coût
d’un logiciel très cher de supervision avec un transmetteur intelligent pour communiquer
sur le même réseau. Un système complet de communication nécessite de nombreux blocs
fonction logiciels pour permettre à cette variété de produits sophistiqués de cohabiter sur
le système.
Il existe nombre d’autres problèmes. Ainsi, combien d’informations devront transiter sur ce
bus de terrain ?
D’autres fournisseurs sentent qu’ils n’ont besoin que d’une petite quantité d’informations,
ce qui réduit les coûts mais aussi la flexibilité. Toutes ces questions apparaissent en
comité et, comme souvent, il s’y déroule nombre de discussions et retours d’expérience
avant d’arriver à une idée commune et unifiée mondiale (qui s’appliquerait en Asie,
Afrique, Europe et aux Amériques).
Vers la fin des années 1990, quelques-uns des principaux fournisseurs ont distribué des
produits basés sur le PC, dont on prétend qu’ils sont ouverts alors que dans les faits, ils ne
permettent pas le chemin de migration vers les versions ultérieures que l’on pourrait en
attendre, du fait de leur technologie de conception et n’offrent pas non plus la connectivité
suffisante vers leurs importants DCS existants.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 54 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Au-delà, on pourrait imaginer un réseau propriétaire sur une salle de contrôle plus locale,
avec plusieurs PC (figure suivante).
lEEE 802.3 - norme Ethernet LAN sauf pour zone type (10 Mbps) ; standard
couche physique, méthode d’accès CSMA/CD sur LAN à structure en bus.
IEEE 802.6 – norme réseau métropolitain (ou réseau local haut débit).
Des fonction plus sophistiquées peuvent être tirées de stations de travail plus puissantes
(et plus chères), déjà construites à partir de l’une des nombreuses variantes UNIX (figure
suivante).
Windows NT commence à prendre sa place ici, mais UNIX n’est pas près d’être distancé !
En général dans une relation Client/Serveur, les stations de travail UNIX permettent de
gérer plus de points et balises système.
Comme il est possible d’utiliser terminaux X, on peut ajouter plus de vues dans la salle de
contrôle, ce qui permet plus de sauvegardes significatives.
Les terminaux X sont schématiquement ceux qui utilisent l’électronique sur le serveur de
la station de travail.
Client – L’un des différents dispositifs présents en général sur un réseau informatique,
alimenté par un autre processeur agissant comme serveur de données, mémoire ou
fonction(s) ; le logiciel client interroge et répond au logiciel du serveur.
Serveur - Un processeur qui fournit au réseau un service spécifique, tel qu’une fonction
de routage et agit comme source commune de données, mémoire ou fonctions à partager
avec plusieurs dispositifs qui les demandent.
Les systèmes DCS communiquent en réseau ETHERNET avec les ordinateurs servant
aux opérateurs souvent appelés ‘OS’ (Operating System), tout cela en communiquant par
l’intermédiaire de passerelle et de cartes réseaux.
7.1.1. Architecture
Sur cet architecture, qui est de plus en plus utilisé, vous pouvez vous apercevoir que nous
câblons tous nos instruments de mesure et actionneurs sur des entrées/sorties déportées
(ici sur notre exemple ce sont des entrées/sorties déportées ABB).
Ces modules d’entrées/sorties déportées peuvent être conçues soit en version standard
ou alors en version zones à risque Ex. Ils nous permettent d’associer toute
l’instrumentation en réseau avec un DCS, ceci vous permet un gain de temps de câblage
considérable.
Ces modules d’entrées/sortie en Profibus PA sont interconnectés entre eux par un câble
Profibus (vois cours accessoires en instrumentation) et surtout n’oubliez pas en bout de
ligne d’installer une résistance de fin de ligne sinon, votre DCS va vous informer
cycliquement qu’il y a une coupure de réseau et vos entrées/sorties câblés sur tout votre
bus réseau ne fonctionneront jamais.
C’est le même principe pour mettre des entrées sorties tout ou rien en réseau avec votre
système de conduite à part que vous aurez la seule différence d’un coupleur DP / DP.
Pour les longues distances entre module d’entrées sorties déportées et le système DCS, il
est préférable d’installer des câbles en fibre optique car en Profibus vous êtes limitez à
une distance maximum de 300 mètres.
Sur un même réseau, vous pouvez aussi rajouter des entrées sorties en cas de revamping
mais il faut bien faire attention au nombre limité d’entrées sorties selon les fournisseurs
sur un même bus de réseau (il faudra dans ce cas là ajouter aussi des répéteurs RS485).
Mais vous devez vous dire, comment je fais pour visualiser en salle de contrôle toutes ces
informations ?
Et bien nous allons voir cela tout de suite dans le chapitre suivant.
7.2.1. Introduction
Deux serveurs,
Des Operating System dit ‘OS’ (ce sont les pc industriels que les opérateurs
utilisent pour gérer le bon fonctionnement de leurs installations de productions)
Des Engineering System dit ‘ES’ (ce sont les pc industriels qui vont servir à la
programmation des DCS).
Ce sont deux pc industriels hautement performent avec double disque dur rack, cela
permet au cas où un disque dur tombe en panne que l’autre prend le relais.
Ils sont généralement situés dans les locaux techniques instrumentation. Ils sont
entièrement redondants et reliés aux cartes microprocesseurs de chaque système DCS à
l’aide de leur carte réseau (carte réseau utilisant adresse mac pour plus de sécurité ou
éviter des conflits avec d’autres cartes).
Comme vous pouvez le constater sur la photo les pc serveurs d’un système DCS sont en
rack 19 pouces et sont souvent installés dans des armoires en local technique avec écran,
clavier et souris afin d’intervenir sur les serveurs comme vous le souhaitez.
Ces serveurs ont pour fonction de stocker tous les historiques, toutes les alarmes, tous les
programmes des DCS, toutes les vues synoptiques. Il gère donc tous les pc clients OS
ainsi que les postes ES.
Vous avez la plupart du temps un graveur DVD qui va vous permettre de pouvoir
sauvegarder toute la configuration de votre système de conduite. Il est important de faire
des sauvegardes régulièrement.
Sur ce genre de pc, vous n’avez accès qu’aux vues synoptiques, listing d’alarmes,
historiques, boucles de régulation avec ‘face plate’ des régulateurs etc….
Les OS client se trouve généralement en salle de contrôle. Ils sont interconnectés sur un
réseau ethernet associé au système DCS.
Le ou les pc OS client ont un logiciel graphique d’installer avec une licence appropriée. Ils
vont en fait venir chercher toutes les vues synoptiques qui sont enregistrées dans les
serveurs. Vous pouvez donc en conclure que quand vos serveurs ne fonctionnent plus,
l’opérateur ne pourra plus rien visualiser à l’écran.
Les OS client viennent chercher toutes les informations nécessaires à leur fonctionnement
sur le serveur maître, si le serveur maître tombe en panne ils basculent automatiquement
sur le serveur esclave et vous avez une petite interruption des vues synoptiques et de
toutes les informations associées pendant le basculement.
L’interface graphique de chaque OS client est installé sous Windows XP voir Vista édition
professionnelle.
Les pc Engineering System ont la même particularité que les pc OS client sauf que les pc
ES vous pourrez effectuer des modifications ou des projets complet à partir de ce poste.
Si vous êtes sur un projet vous aurez certainement l’occasion d’utiliser l’interface
graphique qui vous verrez selon le constructeur vous offre des bibliothèques bien
développées de nos jours.
Vous avez pratiquement tous les symboles de la norme ISA qui sont intégrés dans la
bibliothèque ainsi que des petits outils utiles qui ont été rajouté selon le constructeur. Voici
des exemples d’outils extrait de la bibliothèque du logiciel ‘graphics designer’ de chez
SIEMENS :
Sur cette vue synoptique vous pouvez voir en couleur orange et jaune les tuyauteries
process ainsi que des symboles de vannes de régulation, de vannes tout ou rien, des
mesures de débit, pression, niveau, etc…..
La plupart du temps, quand les vannes sont ouvertes elles sont de couleur vertes ou
quand elles sont fermées elles sont de couleur rouge.
Le bandeau en haut de la vue synoptique avec sur cet exemple les boutons 1, 2, 3 et 4
servent au chaînage de vues : c'est-à-dire que quand vous cliquez sur un de ces 4
boutons vous allez directement sur la vue désirée.
Le bandeau noir en bas de la vue synoptique est le plus souvent un bandeau servant à
afficher toutes les alarmes. En fonction de la gravité de l’alarme (priorité), vous pouvez les
acquittez.
Comme nous venons de le dire, les alarmes s’affichent sur le bandeau en bas de la vue
synoptique et vous pouvez voir aussi que les boutons 1 et 2 sur le bandeau du haut, ceux-
ci sont de couleur jaune, cela veut dire que sur les vues 1 et 2 vous avez des alarmes de
priorités correspondante à la couleur jaune.
Vous avez devinez qu’il y a aussi des régulations sur une vue synoptique et bien pour cela
selon les paramétrages il vous suffit de cliquez sur une vanne de régulation ou sur une
mesure qui est affichée pour vous apercevoir qu’un régulateur va s’afficher comme sur la
figure ci-dessous
Figure 53: Face plate d’un régulateur sur une vue synoptique
Etc……
Vous pouvez aussi démarrer ou arrêter une pompe à distance comme sur la figure ci-
dessous.
Figure 54: Face plate d’une pompe sur une vue synoptique
Ou aussi grâce à cette ‘face plate vous pouvez voir aussi les défauts qui vous empêche de
démarrer la pompe (exemple : pressostat, fin de course vanne fermée, etc….)
Vous pouvez ainsi contrôler tout un process industriel à l’aide du DCS qui devient de plus
en plus évoluer.
Je vous conseille de faire une formation chez le fournisseur de votre DCS qui vous
permettra vraiment d’améliorer plein de détails sur un DCS et d’intervenir rapidement en
cas de problèmes.
Les ‘Process controller, PLC’s, Fire and gas et ESD’ sont interconnectés sur des switchs
par l’intermédiaire de leur carte de communication pour être ensuite relié aux serveurs.
Le réseau de terrain n'est pas précisé ; en effet Freelance est prévu pour fonctionner
simultanément avec les réseaux suivants :
Frofibus-DP
Modbus
Fieldbus Foundation
7.3.3. Conclusion
le niveau Ethernet,
Il existe un grand nombre de type de réseaux de terrain, il faut distinguer des réseaux
assez généralistes et classiques comme profibus DP avec comme média la fibre
optique ou la liaison RS485 et des réseaux plus spécifiquement dédiés à l'instrument en
milieu antidéflagrant sous la norme IEC1158-2.
Il ne faut pas croire qu'un réseau de terrain est associé à un DCS particulier, bien au
contraire on peut généralement installer plusieurs cartes différentes sur un même DCS.
Chaque constructeur a naturellement ses préférences mais les évolutions sont rapides.
Nous pouvons citer 2 réseaux très connus, que nous étudierons sommairement dans les
chapitres suivants, HPIB (IEEE 488) et RS 232. Toutefois l'expansion des performances
de l'électronique créant le développement de l’informatique que nous connaissons, ces
réseaux furent vite dépassés, et bien que les normes RS 232 et HPIB restent encore
utilisées de nos jours, il convient de fortement relativiser leur domaine d’utilisation.
ETHERNET est le réseau le plus répandu dans le cadre industriel. Cependant, il existe
bien des applications où ETHERNET est inutilisable, par exemple, le transfert
d’information simple, en temps réel, entre des automates et des ordinateurs, ou pire
encore entre des capteurs et un automate. C’est ici qu’apparaissent les nouveaux réseaux
locaux industriels.
Or c'est là que se situe le principal problème avec les réseaux locaux, la multiplication des
standards rend souvent la sélection complexe, seuls comptent alors l'application et le
matériel disponible. En effet, souvent les constructeurs d'automates sont aussi des
constructeurs de réseaux locaux, d'où une parfaite compatibilité des machines, et par
extension inadéquation pour les machines des autres marques.
Heureusement, certains systèmes semblent devenir des standards de fait, c'est à dire des
standards par la force des choses. A ce petit jeu, rare seront les gagnants, mais il semble
que CAN soit devenu le standard en terme de réseau embarqué (dans l'automobile ou
dans aéronautique). Il n'en reste pas moins que l'avenir n'est pas clair.
On peut donc espérer qu'à l'instar de l'informatique, les prochaines années verront
apparaître, non un, mais un ensemble de réseaux normalisés, standardisés et accessible
par tous les fabricants.
FIELDBUS : les réseaux qui permettent de contrôler les structures, soit une
quantité relativement faible de donnée à faire circuler sur des distances assez
importantes (1km), avec une notion d'événement temps réel.
DEVICEBUS : les réseaux locaux qui font transiter des flots peu importants de
données sur de faibles distances (100m) en temps réel.
SENSORBUS : les réseaux locaux qui ne font transiter que des événements sur
des distances réduites (de 10 à 100m) en temps réel.
Comme on l'a vu, pour transmettre une information, les problèmes sont nombreux. Donc
on a tendance à utiliser les méthodes éprouvées, héritées des télécommunications. Mais
l’évolution technologique a sévèrement remis en cause cette vision peu innovatrice des
choses.
Avant d'étudier les méthodes utilisées pour transmettre un signal en bande de base ou en
bande décalée (on verra ces termes plus tard), il convient de préciser comment on réalise
une liaison entre deux machines, proches ou lointaines.
Connecter deux machines entre elle semble simple au premier abord. Il existe trois
méthodes de connexion :
La connexion à un fil,
Dans le cas d'une transmission à un seul fil, on joue sur le fait que la masse est la même
pour les deux machines, ce qui ne peut être vrai que pour des distances extrêmement
courtes (sur une même carte électronique par exemple).
Ce type de liaison ne peut pas s'appliquer à grande distance. Par exemple, en considérant
que masse et terre sont reliées, si l'on réalisait un tel câblage entre l'Europe et les Etats
Unis d'Amérique, la différence de potentiel entre les deux terre peut dépasser les 100V.
Cette technique présente des avantages (la protection des données, par exemple) et de
nombreux inconvénients comme par exemple le parasitage de la masse (quand la liaison
est longue), la différence de potentiel intercontinentale qui peut induire de forts courants
dans les fils ou tout simplement le risque de foudre sur la ligne qui pourrait détruire à la
fois l'émetteur et le récepteur.
Pour lutter efficacement contre le bruit, on utilise quasi systématiquement la solution qui
consiste à transmettre en mode différentiel.
Comprenons-nous bien, l'information n'est pas redondante, elle est dédoublée. On crée
ainsi une voie en "logique positive" et une autre en "logique négative", l'information étant la
soustraction de ces 2 signaux.
En cas de perturbation, les deux fils de la liaison sont touchés presque en même temps
par la perturbation et avec presque la même puissance de bruit.
S = (A + B) − (−A + B) = A + B + A − B = 2 ⋅ A
Ce type de liaison est utilisé dans de très nombreux réseaux à moyenne ou grande
échelle (ETHERNET) ou subissant un environnement extrêmement bruyant (CAN).
Maintenant que l'on connaît les techniques permettant de réaliser l'interconnexion entre
deux machines en vue d'une transmission, il faut s'intéresser aux modifications à apporter
aux données pour leur permettre de circuler sur la ligne.
Pour transmettre plusieurs signaux dans une ligne, on a longtemps utilisé des méthodes
analogiques : les modulations. Maintenant que l’informatique et les systèmes numériques
fonctionnent à des vitesses élevées, on s’est naturellement tourné vers techniques de
transmission numérique.
Et partant de là, on a étudié des systèmes capables de compacter le signal sur des
gammes de fréquence de plus en plus réduites, ces méthodes sont regroupées sous le
nom de transmission en bande de base.
On dit d'un code qu'il est unipolaire lorsque le codage de l'information fait intervenir un
niveau électrique (en plus de la masse). On dit d'un code qu'il est bipolaire lorsque le
codage de l'information fait intervenir deux niveaux électriques pour coder l'information (la
masse pouvant être utilisée comme 3ème niveau). Les codes bipolaires éliminent
généralement la composante continue du signal transmis.
Exemples :
Les systèmes de transmission jouent aussi sur la façon de coder un signal en terme, non
plus de niveau de tension, mais d'évolution dans le temps. Le code que nous appelons le
binaire ('0' = 0V et '1' = +5V) est en réalité un code unipolaire (le niveau des tension), NRZ
(l'organisation dans le temps).
NRZ signifiant Non Return to Zéro, c'est à dire : qui ne change pas d'état pendant la durée
d'un bit.
C'est en fait le contraire du code RZ (Return to Zéro) qui crée automatiquement un retour
à l'état zéro pendant la durée d'un bit.
Exemple :
On peut aussi parler des codes NRZI (Non Return to Zéro Inverted). Ces codes
engendrent des changements de niveaux du signal en sortie du codeur sur un niveau
donné du signal entrant. Par exemple, le code NRZI-S (Non Return to zéro Inverted on
Space) change l'état du signal en sortie à chaque fois que le bit présenté à l'entrée du
codeur est à '0' (le zéro étant considéré comme un espace).
Le principal souci avec les codes asynchrones est justement présent dans leurs noms, il
s'agit de l'absence d'horloge.
Les horloges respectives de l'émetteur et du récepteur n'étant par définition pas les
mêmes, elles battent à des rythmes proches mais différents. Il faut donc réussir à
resynchroniser régulièrement les deux machines.
Ce sont les fronts sur le signal de données qui sont utilisés pour recaler l'horloge du
récepteur sur celle de l'émetteur. Or plus la transmission se fait pour de grosse quantité de
données, plus la probabilité d'avoir un long "blanc", c'est à dire une absence de front, est
grande.
Voilà pourquoi, il est excessivement rare d'utiliser des codes asynchrones sans avoir de
petits messages à transmettre (quitte à ce qu'il y ait beaucoup de petits messages
successifs). Dès que la transmission nécessite le transfert d'une grosse quantité de
données, on a tendance à utiliser des codes synchrones.
Le principe des codes synchrones réside dans le mélange de l'information d'horloge avec
le signal de données pour composer un signal possédant à la fois une horloge facilement
utilisable et dont on peut facilement extraire les données.
Le code Manchester II
Ce code est assez utilisé dans les réseaux, c'est un code biphasé et bipolaire. Le principe
du codage Manchester consiste à traduire le '1' comme un front descendant et le '0'
comme un front montant. Pour ce faire, on utilise une fonction logique NON OU
EXCLUSIF entre l'horloge et le signal de données.
Ce signal peut paraître assez compliqué à analyser, mais en réalité il est très simple. Tout
les nombres impairs de fois T/2 (T/2, 3T/2, 5T/2, …), il y a systématiquement un front. Si
ce front est montant, il s'agit d'un '0' logique, si ce front est descendant, il s'agit d'un '1'
logique. Épisodiquement, il y a sur le signal des fronts après un nombre pair de demi
période. Ce phénomène apparaît lorsqu'il y a consécutivement deux bits ayant la même
valeur. En effet pour pouvoir avoir deux fronts descendants, il est indispensable d'avoir un
front montant entre les deux.
Le signal codé en Manchester, outre qu'il ne comporte pas de composante continue, élargi
considérablement le spectre du signal NRZ au point de lui faire occuper une bande de
fréquence située entre 2F/3 et 3F/2 (F est la fréquence de l'horloge d'émission). Son
spectre contient donc inévitablement une composante à la fréquence F de l'horloge. La
réalisation d'un tel codage est, comme on l'a vu, extrêmement simple. Son décodage est
quand à lui un peu plus difficile, il faut recréer une horloge (la partie compliquée du travail)
avant de passer cette horloge dans une même porte NON OU EXCLUSIF pour récupérer
les données.
La régénération de l'horloge ne peut se faire qu'en éliminant les transitions aux instants
multiples de T, et en ne gardant que les fronts à T/2. A l'origine, on utilisait (avant que les
techniques numériques ne le remplace) un système à base de monostables non
redéclenchable pour éliminer les fronts à T. Puis on utilisait une PLL pour re-fabriquer à
partir du signal extrait des monostables, une horloge de même fréquence et en phase
avec celle de l'émetteur. Cette horloge était en suite utilisée pour la récupération des
données.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 78 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Le code Miller
Le code Miller est un code dérivé du code biphasé classique, il répond à la nécessité de
transmettre un signal dans une bande plus étroite. Pour réaliser un code Miller, on passe
le code biphasé dans une bascule montée en diviseur par 2.
Bien entendu, cette fois ci, le décodage est beaucoup plus compliqué.
Le code HDB3
Le code HDB3 est le code utilisé en téléphonie (pas au niveau utilisateur, mais au niveau
des centraux et de l'international). Le code HDB3 est un code bipolaire, retour à zéro,
alterné (les bits à '1' sont une fois positifs, une fois négatifs), asynchrone. Il permet de
transmettre des trames extrêmement longues, sans qu'il puisse il y avoir de
désynchronisation de l'émetteur et du récepteur.
Le principe utilisé ici s'appelle le bit stuffing, il consiste (dans le cas du code HDB3) à
substituer des bits à '0' par des bits fictivement à '1'. On parle alors de bit stuffing
substitutif. Dans le cas d'autres réseaux, il n'y a pas substitution, mais ajout d'un bit à '1'.
On parle alors de bit stuffing additif.
Dans le code HDB3, si une série de plus de 3 zéros consécutifs apparaît sur la ligne de
données (d'où le 3 de HDB3), on substitue volontairement le quatrième '0' par un '1' qu'on
appelle bit de viol.
Pour pouvoir identifier immédiatement un bit de viol d'un bit réellement à '1', le bit de viol
est systématiquement de la même polarité que le dernier bit à '1' (que ce soit un vrai bit à
'1' ou un bit de bourrage). Ce bit viol la règle de l'alternance.
Toutefois, ce non respect de l'alternance risque, en cas de très longue série de '0',
d'engendrer l'apparition d'une tension continue (les bits de viols étant tous dans le même
sens). Pour les compenser, on introduit donc des bits dit de bourrage pour forcer des
alternances.
Le décodage de ce système est simple, il consiste à repérer les bits de viol (facile, il ne
respectent pas la règle de l'alternance), puis pour éliminer les bits de bourrage, il faut
savoir qu'un bit de viol est précédé d'une série de trois '0'…
En effet, si plusieurs personnes "parlent" en même temps en un même lieu, il est assez
difficile d'extraire la parole de l'un de la parole de l'autre. Dans le cas de la radio, un grand
nombre d'émetteurs qui "parlent" en même temps, mais heureusement pour nos oreilles,
grâce aux modulations, pas aux mêmes fréquences.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 80 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
De plus, la voix ne se transmet pas bien à grande distance (le milieu ayant tendance à très
vite l'atténuer). Les techniques de modulation permettent donc à la fois de trouver la
fréquence où le milieu est le plus propice à la transmission, et en même temps à autoriser
que plusieurs émetteurs parlent en même temps.
Bien que relativement peu utilisée dans le monde des réseaux câblés, les modulations ont
fait récemment une entrée remarquable, dans le monde des réseaux, avec l'apparition des
technologies sans fil (WIRELESS).
Il existe deux familles de modulations analogiques. L'une fait évoluer l'amplitude d'un
signal à haute fréquence en fonction d'un autre signal contenant l'information. On parle
alors de modulation d'amplitude.
L'autre fait varier non plus l'amplitude, mais la phase, ou la fréquence, du signal porteur en
fonction du signal informatif. On parle alors de modulation angulaire.
Les modulations d'amplitude sont en général inadaptées aux signaux logiques car elles ne
savent pas transmettre convenablement un front (on a vu que l'élément fondamental d'une
transmission de signaux numérique est le front du signal de données). De plus, les
modulations d'amplitude sont très sensibles aux bruits.
Les modulation angulaires sont quand à elle beaucoup plus complexes à mettre en
oeuvre, mais elles offrent, par contre, de très nombreux avantages comme une bonne
immunité au bruit ou la capacité de transmettre des fronts assez raides. Elles sont donc
beaucoup plus utilisées que les modulations d'amplitude pour transmettre des signaux
numériques.
Les modulations d'amplitude sont utilisées essentiellement dans des gammes d'ondes
dites telluriques (fréquences qui se propagent par effet de sol sur de très longues
distances).
D'un coté, un signal informatif appelé signal modulant (f) et d'un signal "haute fréquence"
appelé porteuse (p). En sortie, du modulateur on récupère un signal modulé (s).
Expressions mathématiques :
Sachant que :
et
Si maintenant on considère que le signal informatif n'est plus une sinusoïde mais un signal
polychromatique (qui est constitué d'un spectre de plusieurs raies).
On peut alors considérer que si la transformée de Fourrier du signal f(t) est F(ω), on
trouve alors l'expression de S(ω).
On peut réaliser une modulation d'amplitude avec porteuse en insérant une composante
continue dans le signal informatif.
Lorsqu'on réalise une modulation avec porteuse, on utilise exclusivement des indices de
modulation m supérieur à 1.
Or ce type de démodulation est aussi celui employé pour les modulations sans porteuses.
Dans ce cas, pourquoi consommer de l'énergie à transmettre une porteuse dont on n’a
physiquement pas besoin ?
La représentation temporelle des signaux est alors variable, en fonction de m. Dans le cas
d’une sur modulation (indice de m supérieur à 1), le signal informatif est toujours supérieur
à 0.
Les modulations sans porteuse permettent d'économiser la puissance que l'on fournit à la
porteuse et qui fait énormément chuter le rendement de transmission. Dans une
modulation d'amplitude sans porteuse, on est confronté à la nécessité de reconstituer une
porteuse pour démoduler le signal.
Or on a régulièrement (à chaque fois que le signal informatif passe par zéro volt), une
inversion de la phase de la porteuse. On peut facilement distinguer par représentation
temporelle la différence entre les modulations avec et sans porteuses.
Les modulations à bande réduite sont des techniques de transmission assez récentes. La
plus connue de ces modulations est la modulation BLU (Bande Latérale Unique). Elle a un
rendement de modulation de 100% (toute l'énergie est utilisée par le signal d'information).
Néanmoins elle est extrêmement complexe à démoduler, ce qui la rend inutilisable dans
les réseaux locaux. Le principe de la modulation BLU consiste à éliminer à la fois la
porteuse et la moitié du spectre du signal informatif.
Les modulations d'amplitude sont totalement absentes du monde des réseaux locaux
industriel, les fronts des signaux numériques se prêtant peu à l’utilisation de modulations
d’amplitude. Leur usage est en général limité aux transmissions de faible qualité ou à de
très longues distances. De plus, leur trop grande sensibilité aux perturbations extérieures
en fait des éléments dangereux.
En effet, elles ne protègent pas, voir même, elles sensibilisent un peu plus, les signaux
transmis. Le moindre bruit pouvant déformer l'enveloppe du signal modulé. Dés lors on
utilise, plus généralement lorsque l'on souhaite transmettre des données numériques, des
modulation angulaires. Précisons encore que dans le domaine des RLI, l'utilisation de
modulations (angulaires ou d'amplitude) est extrêmement rare.
L'autre méthode pour décaler le spectre du signal informatif est de modifier la phase ou la
fréquence instantanée d'un signal porteur en fonction de l'amplitude du signal informatif.
Les modulations angulaires sont très utilisées pour les signaux numériques car elles
permettent une bonne transmission des fronts ainsi qu'une bonne immunité aux bruits
(l'amplitude du signal transmis ne contenant pas d'information).
La FSK
.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 87 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Or souvent le canal de transmission utilisé est assez étroit cela revient à dire que f1 et f2
sont imposés et souvent proches l'une de l'autre. On joue donc sur la fréquence
supérieure du signal informatif pour obtenir l'indice souhaité.
Il faut là encore distinguer deux famille de FSK, d'une part les FSK à phase continue, c'est
à dire sans saut de phase lors du passage de f1 à f2 (et inversement), ou les FSK à phase
discontinue où des saut de phase peuvent avoir lieu.
Comme présenté dans les exemples précédents, les FSK à phase continue ont un bien
meilleur spectre (largeur réduite) que leurs équivalentes à phase discontinue. Bien
entendu, les FSK à phase continue sont bien plus complexes à réaliser que les FSK à
phase discontinue.
La PSK
La PSK (Phase Shift Keying) est une autre forme de modulation angulaire. Elle agit par
saut de phase. Il existe là encore un grand nombre de PSK utilisant différentes techniques
pour traduire le code numérique transmis. Certaines PSK standard code le '1' logique
comme un signal avec une phase de 180° et le '0' comme un signal avec une phase nulle.
Il s'agit ici de valeurs de phase absolues.
D'autres PSK (les DPSK pour différentiel PSK) codent la phase relativement à la valeur
précédente. Ainsi les '1' logiques et '0' logiques correspondent à des sauts de phase
respectivement de +90° et de -90° par rapport à sa phase précédente du signal.
Il existe aussi des PSK qui codent, en même temps, plusieurs bits. Par exemple avec
deux bits, on va établir quatre déphasages en fonction de la valeur des deux bits. Par
exemple le "00" correspond à un déphasage nul, le "01" comme un déphasage de 90°,
etc.
Attention, plus la PSK va coder un grand nombre de bit à la fois (et ainsi augmenter le
débit de la liaison), plus il est difficile de discriminer entre deux phases, donc plus il est
compliqué de réaliser le démodulateur.
Comme elle n'est pas utilisée dans les réseaux, je ne ferais aucun commentaire dessus.
Dans ce chapitre, nous allons étudier toujours le cadre de la transmission des données,
comment on prépare ces données en vue d’une transmission où l'on peut grâce à un
codage approprié améliorer la qualité, la vitesse ou la quantité des données transmises.
Le codage des informations est utilisé dans les transmissions, aussi bien en bande de
base qu'en bande décalée, pour éviter la transmission d'erreurs. Une erreur étant toujours
inacceptable, il convient pour l’éviter, de fournir, en plus des données, un code qui permet,
dans le pire des cas, de détecter les erreurs et dans le meilleur, de les corriger.
Le code le plus simple pour transférer une information est le codage de la parité. Cette
méthode, la plus élémentaire, fut l'une des premières à être utilisée. Son principe est
assez simple, il s'agit d'ajouter un bit supplémentaire aux données transmises. Dans le
cas d'une parité paire, ce bit permet au message d'être composé d'un nombre toujours
pair de bits à '1', et dans le cas d'une parité impaire, un nombre toujours impaire de bits à
'1'. Ce codage est réalisé au moyen de la fonction OU EXCLUSIF pour la parité paire et
NON OU EXCLUSIF pour la parité impaire.
Au décodage, on va utiliser la même fonction logique que celle utilisée pour le codage
pour valider le message. Par exemple avec la parité paire, on va réaliser une fonction OU
EXCLUSIF entre les n bits du message et le bit de parité. Si le résultat vaut '0', le
message est réputé vrai, si le résultat vaut '1' il est réputé faux. Il faut toutefois relativiser
ce résultat, en effet un code de parité ne sait détecter qu'un nombre impair d'erreur. Il lui
est impossible de détecter deux erreurs. On considère donc que les codes de parité
simple ne savent détecter qu'une seule erreur.
On peut aussi s'intéresser à la quantité de bits de contrôle transmis par message. Dans le
cas d'un code de parité simple, on considère en général qu'il est dangereux de dépasser
une proportion de 1/8 soit un bit de contrôle pour huit bits de données.
Une évolution des codes de parité consiste à introduire une redondance des codages.
Ainsi, on peut envisager, toujours en utilisant un contrôle de parité, de retrouver le bit
erroné. Envisageons d'envoyer un message de 5 mots de 5 bits, on peut alors coder de la
façon suivante le message. Coté émission, à l'extrémité de chaque ligne, on place un bit
de parité paire et on fait la même chose avec les colonnes. On nomme parité transverse
les bits de parités créés pour chaque colonne et parité longitudinale ceux créés pour
chaque ligne.
A la réception, on récupère le message qui a été transmis et on lui applique encore une
fois un contrôle de parité longitudinal et transverse. Si une erreur s'est glissée dans le
code, immanquablement une parité longitudinale et une parité transverse sont à '1'. Cela
signifie qu'il y a eut une erreur dans la transmission.
Dans notre exemple, en vérifiant les valeurs de contrôle, on constate qu'il y a 2 codes de
contrôle non valable, l'un sur une ligne, l'autre sur une colonne. Donc on connaît
rigoureusement l'emplacement de l'erreur. Ce code permet donc de corriger l’erreur
puisqu’elle est placée à l’intersection des 2 lignes et colonnes fautives. Toutefois, si à la
réception, il y a deux ou trois erreurs, il y aura toujours systématiquement au moins un bit
de parité transverse ou longitudinale à '1'. On peut donc détecter jusqu'à trois erreurs. Par
contre, on ne peut corriger qu'une seule erreur.
La proportion des bits de contrôle par rapport aux bits de données, au moment de la
transmission, passe (dans notre exemple) de 1/5 (0,2) pour une parité simple à 11/25
(0,44) pour les parités composées.
Exemple :
Imaginons que l'on cherche à transmettre un mot de 4 bits. Le code de HAMMING nous dit
que pour n bits d'information, il faut k bits de contrôle pour corriger une erreur.
On peut exprimer k en fonction de n grâce à la formule suivante : 2k ≥ n+ k+ 1
Par itération, on peut résoudre cette équation. Pour n Erreur sur le bit e3 e2 e1
= 4, on a k = 3.
Aucun 0 0 0
Cela veut dire que l'on va transmettre 7 bits (m = k +
1er bit (m1) 0 0 1
n). Il faut maintenant coder les k bits en vue de la
transmission. 2ème bit (m2) 0 1 0
Pour cela on va coder dans un tableau toutes les 3ème bit (m3) 0 1 1
possibilités d'erreur dans le message. Il y a pour un
message de m bits, m+1 possibilité d'erreur. Ce 4ème bit (m4) 1 0 0
tableau est composé de k (=3) colonnes. D'où la 5ème bit (m5) 1 0 1
formule précédente (m + 1 = n + k + 1 et 2k
représente le nombre de ligne identifiable avec k 6ème bit (m6) 1 1 0
colonnes).
7ème bit (m7) 1 1 1
On sort maintenant les équations de e1, e2 et e3, et on trouve :
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 92 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
e1 = m1 ⊕ m3 ⊕ m5 ⊕ m7
e2 = m2 ⊕ m3 ⊕ m6 ⊕ m7
e=m⊕ m⊕ m⊕ m
Si l’on regarde bien, on se rend compte que les termes m1, m2 et m4 n’apparaissent
qu’une seule fois dans les équations. On peut donc en faire (pour simplifier les équations)
les bits de codage de Hamming.
m7 m6 m5 m4 m3 m2 m1
n4 n3 n2 k3 n1 k2 k1
Pour terminer la réalisation de notre codage, il reste à remplir le tableau, c’est à dire
trouver les valeurs de k1, k2 et k3 qui rendent e1, e2 et e3 nuls. En effet, le message n’étant
pas encore émis, il n’est pas sensé contenir d’erreur.
k1 = m1 = e1 ⊕ m3 ⊕ m5 ⊕ m7
k2 = m2 = e2 ⊕ m3 ⊕ m6 ⊕ m7
k3 = m4 = e3 ⊕ m5 ⊕ m6 ⊕ m7
k1 = m3 ⊕ m5 ⊕ m7
k2 = m3 ⊕ m6 ⊕ m7
k3 = m5 ⊕ m6 ⊕ m7
m7 m6 m5 m4 m3 m2 m1
n4 n3 n2 k3 n1 k2 k1 n= k=
0 0 0 0 0 0 0 0 0
0 0 0 0 1 1 1 1 3
0 0 1 1 0 0 1 2 5
0 0 1 1 1 1 0 3 6
0 1 0 1 0 1 0 4 6
0 1 0 1 1 0 1 5 5
0 1 1 0 0 1 1 6 3
0 1 1 0 1 0 0 7 0
1 0 0 1 0 1 1 8 7
1 0 0 1 1 0 0 9 4
1 0 1 0 0 1 0 10 2
1 0 1 0 1 0 1 11 1
1 1 0 0 0 0 1 12 1
1 1 0 0 1 1 0 13 2
1 1 1 1 0 0 0 14 4
1 1 1 1 1 1 1 15 7
A la réception, il suffit de calculer les valeurs de e1, e2 et e3 pour définir s’il y a eut une
erreur et où elle se situe. On est alors capable de transmettre un message en détectant
les erreurs et en les corrigeant.
e1 = m1 ⊕ m3 ⊕ m5 ⊕ m7 = 1 ⊕ 1 ⊕ 0 ⊕ 1 = 1
e2 = m2 ⊕ m3 ⊕ m6 ⊕ m7 = 0 ⊕ 1 ⊕ 1 ⊕ 1 = 1
e3 = m4 ⊕ m5 ⊕ m6 ⊕ m7 = 0 ⊕ 0 ⊕ 1 ⊕ 1 = 0
On sait donc où l’erreur se situe car e1, e2 et e3 indiquent une erreur sur le 3ème bit. On
peut donc corriger le code reçu et écrire que le code sans erreur est 1100001 donc que le
message est 1100.
Avec ce code de Hamming, on sait donc corriger une erreur sur un bit mais on est
capable, sans les corriger, de détecter jusqu'à trois erreurs.
Quand à la proportion des bits de contrôle, on constate que plus n est grand, plus k
augmente, mais pas de façon linéaire. Par exemple, si pour détecter 3 erreurs, il y a
besoin de 3 bits de contrôle pour 4 bits de données, avec 112 bits de données, il suffit
d'utiliser 7 bits de contrôle.
Puisque G(x) est de degré v, R(x) est forcément d'un degré inférieur ou égal à v. C'est ce
reste R(x) qui va être transmis en plus de P(x) au récepteur.
A l'arrivée, on connaît donc R(x) (le reste transmis avec le message), v (qui est obtenu par
analyse de G(x)), G(x) (connu par définition) et P(x) (le message transmis). On va alors
refaire le même calcul que celui réalisé par l'émetteur et comparer les restes des deux
divisions.
S’il y a une différence entre les deux restes, on est sûr alors qu'une erreur s'est glissée
dans la transmission.
G(x) est défini par la norme de transmission utilisée. L'avis V41 de la norme CCITT
(Comité Consultatif International pour le Télégraphe et le Téléphone) définit G(x) comme :
Et c'est là que l'on constate l'efficacité du code CRC, puisque dans le cas du bus CAN, il
permet de repérer les erreurs suivantes :
C'est ce qui fait que le codage CRC est très utilisé pour les supports peu fiables, mais
aussi dans la majeure partie des réseaux.
Du point de vue des proportions entre le nombre de bits de données et le nombre de bits
de contrôle, on constate que, par exemple, le réseau Ethernet utilise un code CRC de 32
bits qui lui permet d'assurer la sécurité de sa trame de donnée qui peut contenir jusqu'à
1526 octets, soit un rapport de 4/1526 (0,0026).
Plus généralement, les codes CRC sur 64 bits sont utilisés par les logiciels de
compression de données (ZIP ou RAR) pour valider des fichiers pouvant atteindre
plusieurs dizaine de Méga octets.
Il faut toutefois se rendre compte que les codes CRC que nous vous avons présentés ne
permettent pas de corriger les erreurs, de même, ils n'assurent aucune confidentialité aux
communications malgré leur grande similarité avec les codes de cryptage, militaires ou
civil. Il existe tout de même des codes CRC correcteurs d'erreurs, mais nous ne les
étudieront pas.
Dans le monde des réseaux, les codes ne sont là que pour détecter les erreurs de
transmission, même si ils sont capables de les corriger. La capacité de transfert des
réseaux moderne, et la sensibilité des données, sont telles que l'on préfère retransmettre
un paquet si il est susceptible de contenir des erreurs plutôt que d'en commettre de
nouvelles par des corrections hasardeuses.
8.1.6. Le Multiplexage
Depuis toujours, l'objectif des transmissions est de transmettre plus de données dans un
minimum d'espace. Actuellement, avec la multiplication des réseaux hertziens, avec
l'essor de la téléphonie, le manque de place est cruel. Or le monde des transmissions est
régit par une loi intangible :
Pour transmettre plusieurs signaux sur un même canal, il faut être capable de tous
les extraire.
Cela imposait donc de décaler soit dans le temps, soit en fréquence les signaux à
transmettre. Cette technique appelée multiplexage, se conjugue donc selon 2 axes : d'un
coté l'axe temporel, de l'autre, l'axe fréquentiel. Dans les 2 cas, cela revient à découper la
bande autorisée en petits intervalles qui seront autant de voies de communication.
La voix humaine telle que les télécoms l'imaginent, est un signal occupant une bande de
300 à 3400Hz (vision un peu restrictive puisqu'en général, on juge que la parole occupe
une bande de 20Hz à 20KHz). Grâce à cette restriction de la bande de fréquence, et au
multiplexage fréquentiel, on peut placer environ 1800 communications simultanées sur
une même ligne.
Cette ligne à 12 voies va vers le poste central où elle sera encore multiplexée avec
d'autres voies de même gabarit pour créer sur une ligne un canal de 144 voies. Ce canal
est alors assemblé à d'autre de même taille pour former une ligne de 1728 voies.
Précisons toutefois que comme vous n'êtes pas dépositaire d'une fréquence fixée, et donc
que vous utilisez la première fréquence disponible au niveau du central immeuble, il y a en
systématiquement, en plus des voies de communication, des voies de codage qui sont
ajoutées, et ainsi permettent d'acheminer toutes les conversations vers leurs destinataires
respectifs.
Celles de vos voisins qui sont en train de communiquer, et expédiée sur une ligne
composée
Cette méthode de multiplexage fut créée avec l'avancée des technologies numériques.
Moins coûteuse que le multiplexage fréquentiel qui nécessite une pléthore de porteuses
accordées très finement, et des modulations BLU (donc plutôt complexe à réaliser), le
multiplexage numérique n'utilise qu'une seule horloge, couplée avec des composants
numériques à haute fréquence.
C'est donc avec l'intégration des composants numériques que l'on a su réaliser des
centraux numériques à haut débit, ouvrant ainsi la voie au multiplexage temporel
(rappelons que c'est en 1996, que l'intégralité du système de communication, de FRANCE
TELECOM, est passé au numérique).
On a donc une liaison discontinue avec notre interlocuteur. Mais si l'émission de ces petits
morceaux de parole, se fait à une cadence très élevée, cela permet de rendre ce
phénomène inaudible (c'est le principe de l'échantillonnage).
Il faut remarquer que de nos jours une troisième forme de multiplexage est apparue, il
s'agit de la technologie employée pour les systèmes UMTS, on la nomme multiplexage de
puissance. Dans l'illustration précédente, un axe n'est pas exploité (l'axe P pour
puissance), c'est selon cet axe que se réalise ce multiplexage.
Par cette technique, on arrive à extraire, parmi plusieurs autres signaux, transmis en
même temps, et à la même fréquence, un signal par la seule connaissance de son code
pseudo-aléatoire.
Cette technique est aussi utilisée (mais cette fois ci à des fins de protection) dans le
concept du GPS.
Ce paragraphe est un petit lexique de certains termes dont l'usage est courant dans les
transmissions.
SIMPLEX : Méthode de transmission imposant sur une ligne une machine qui parle et une
seule, sans possibilité pour qu’une autre machine ne parle.
connexion multipoints (ou répartie) à n’utiliser qu’une seule ligne pour relier toutes les
machines.
LE TEMPS REEL : Cette notion est un élément important dans les réseaux locaux. La
notion de temps réel, c’est en fait la capacité qu’à un système pour répondre en un temps
donné. Prenons l’exemple d’un banc de perçage automatique, on dispose en général d’un
capteur permettant de détecter une rupture du foret. En cas de rupture, il convient de
réagir relativement vite, soit en détournant les pièces sur d’autres unités de perçage, soit
en stoppant la chaîne pour permettre un remplacement de la pièce défectueuse. Il faut
donc que l’information arrive à l’ordinateur central avant qu’une nouvelle pièce se
présente. Donc l’ordre répondant à une rupture du foret doit être traité en un temps limite.
Ce temps limite est à la base de la notion de temps réel.
RESEAU DETERMINISTE : On dit qu’un réseau est déterministe lorsqu’il n’y a pas de
hasard dans la méthode d’accès (l’ordre de parole des machines est déterminé). On
l’oppose en général aux réseaux d’accès aléatoire.
NŒUDS : Point de connexion d’une machine avec le réseau. Ce terme exprime le nombre
d’éléments reliés à un réseau. Attention, entre 2 nœuds, on peut placer un répéteur, celui-
ci ne sera pas comptabilisé puisqu’il n’est pas actif vis-à-vis du transfert d’information.
BIG ENDIAN : Le bit de poids fort est transmis en premier, le bit de poids faible à la fin.
SMALL ENDIAN : Inverse de BIG ENDIAN, cela consiste à transmettre le poids faible
d’abord et le poids fort à la fin.
Le RS232 est une façon de faire communiquer deux machines entre elles, mais en aucun
cas le terme réseau ne peut lui être appliqué. Ceci est une pure vérité, mais, comme il faut
bien commencer quelque part, commençons donc par ce système puisque je suis sûr que
vous en avez entendu parlé (peut être sous le nom de liaison série).
La norme RS232 permet de connecter entre elles 2 et seulement 2 machines. Entre ces
machines va circuler, via une liaison série à 3 ou à 9 fils, l’information à transmettre. Les
signaux présents sur ces fils, auxquels il convient d’ajouter la masse sont :
Pin Signal
1 DCD Data Carrier Detect (détection de porteuse) Entrée
2 RD Received Data (réception) Entrée
3 TD Transmitted Data (transmission) Sortie
4 DTR Data Terminal Ready (terminal prêt) Sortie
5 Signal Ground
6 DSR Data Set Ready (données prêtes) Entrée
7 RTS Request To Send (demande d’émission) Sortie
8 CTS Clear To Send (prêt à émettre) Entrée
9 RI Ring Indicator (détection de sonnerie) Entrée
8.2.1.1. Présentation.
La norme RS 232 est un protocole de transmission série qui permet des transmissions full
duplex, half duplex ou même simplex. Les signaux transmis sont codés en ±12V avec le
"1" logique équivalent à un niveau -12V. La communication est régie par des paramètres
matériels qui doivent être identiques sur les deux machines en communication :
Le débit : Il peut être choisi, selon les versions de la norme entre 75 bauds et
plusieurs centaines de kilo bauds (valeur typique 9600 bauds),
En outre, une fois les paramètres matériels définis à l'identique sur les deux machines,
pour quelles communiquent, on doit choisir un mode de transmission, c'est à dire définir le
processus de contrôle de flux utilisé pour la liaison série.
La notion de contrôle de flux doit être comprise comme un moyen mis en oeuvre pour faire
en sorte qu'entre deux machines connectées à une liaison série avec un débit fixe et des
vitesses de traitement différentes selon les machines, on s'aligne sur la capacité de
traitement la plus lente.
Même si de nos jours, la capacité de traitement des ordinateurs modernes rend ridicule le
temps de traitement de l'information par rapport à la durée d'un bit, il existe toujours des
cas où ce contrôle est indispensable.
Le contrôle de flux matériel, consiste à utiliser des signaux supplémentaires pour "rythmer"
les échanges, c'est à dire que les machines en communication vont transmettre des
données de contrôle sur des voies supplémentaires.
Il existe plusieurs méthodes de contrôle de flux matériel utilisant plus ou moins de signaux.
Parmi les autres possibilités, de câblage, il existe des liaisons à 5 fils (contrôle de flux
partiel) et à 3 fils (sans contrôle de flux matériel).
On peut aussi utiliser un protocole logiciel pour contrôler le flux des échanges. Cette fois-
ci, la connexion n'a plus besoin des signaux RTS, CTS, DTR, DSR et DCD, on peut donc
se limiter à une liaison 3 fils.
C’est au niveau logiciel que les machines vont contrôler leurs échanges de données. Le
protocole (puisqu'il s'agit là d'un protocole) se nomme Xon/Xoff. Il est limité aux échanges
en ASCII. Il est impossible d'utiliser ce protocole pour envoyer des informations binaires.
Les codes ASCII utilisés pour contrôler les échanges sont Xon, qui est le code ASCII 17
(0x11) ou CTRL Q et Xoff qui est le code ASCII 19 (0x13) ou CTRL S.
Du point de vue de la machine réceptrice qui, à l'origine, est naturellement prête à recevoir
des données; chaque octet reçu est stocké dans un tampon de réception.
Une fois atteint un second seuil (50% en général), elle envoie alors à metteur le caractère
Xon pour que le transfert de données puisse reprendre.
Du coté émetteur, la réception du Xoff bloque l'émission jusqu'à la réception d'un Xon.
Application
Ainsi une transmission de 7 bits de données avec un contrôle de parité paire et 2 bits de
stop à 9600 bauds représente une transmission de 11 bits au total dont 7 utiles. Soit
(9600*7) / 11 = 6110 bits utiles /s.
Une fois ces points définis, on peut transmettre les données en utilisant un UART. La
forme des trames est alors la suivante :
Le réception des données est réalisée par l’horloge interne d’un UART, multiple de la
fréquence de transmission (horloge interne = N* horloge transmission) pour lui permettre
de se synchroniser avec le signal transmis.
Un front descendant du signal permet de définir le début du bit de start (qui vaut ‘0’ alors
que la ligne inoccupée ou le stop est à ‘1’), on a alors un comptage des fronts de l’horloge
interne. Comme on a défini le débit de la transmission, le récepteur sait combien de fronts
de l’horloge interne (N) représentent un bit transmis, à N/2, l’UART sait la donnée
présente sur la ligne. On fait de même avec les autres bits de la transmission à 3N/2,
5N/2, etc…
La norme RS232 est désormais réservée à une utilisation basique. Certaines évolutions
(RS422, RS423 et RS485) de la norme permettent des débits bien supérieurs entre de
multiples machines. Toutefois, elles ne sont pas « de série » sur les ordinateurs
modernes, ce qui est un handicape sévère à leur développement.
Le bus IEEE 488 est le premier bus d'instrumentation qui a connu une normalisation, né
du bus HPIB (HEWLETT PACKARD INSTRUMENTATION BUS), ce bus est
exclusivement dédié à l'automatisation de chaînes de mesures.
Le bus est obligatoirement géré par un contrôleur (souvent l’unité de traitement des
données). Sur ce bus, toutes les machines (dont le contrôleur) peuvent être
alternativement TALKER (émetteur) ou LISTENER (récepteur). Il ne doit y avoir plus d’un
émetteur à la fois, mais il peut y avoir plusieurs récepteurs.
Les signaux qui transitent sur les lignes sont de 3 types (les nombres entre parenthèse
représentent le numéro de broche sur le connecteur IEC) :
Les signaux de contrôle REN (5), IFC (10), ATN (12), SRQ (11) et EOI (6),
Les signaux de contrôle du flux DAV (7), NRFD (8), NDAC (9),
REN permet une prise en main d'une machine par le bus. Dans le cas où le signal REN
est à "0", les instruments (de mesure ou de visualisation) sont accessibles par leurs faces
avant. Si REN est à 1, les instruments sont pilotés par le bus et leur face avant est
désactivée.
On peut alors les commander par envoi de données. Le format des messages est alors un
code ASCII, tel que le constructeur de la machine l’a définit.
IFC permet au contrôleur du bus d'initialiser toutes les machines reliées à lui. Lorsque IFC
est à 1, toutes les machines s'arrêtent. On libère la ligne et ainsi les signaux de contrôle
des données restent libre et permettent au contrôleur d'initialiser les machines.
Ce signal (optionnel) est utilisé par les machines (certaines seulement) pour prévenir le
contrôleur de la nécessité de donner de nouveaux ordres. Cette ligne est commune à
toutes les machines donc le contrôleur se doit de décoder, suite au passage à 1 de SRQ,
l'adresse de la machine demandeuse.
Le signal EOI permet au contrôleur de définir la machine qui lui demande de l'aide grâce à
SRQ (identification).
Ces signaux sont transmis avec une masse pour améliorer l'immunité aux bruits. Les
masses sont placées sur les broches 13 et de 18 à 25.
ATN permet au contrôleur du bus de prendre la parole. Lorsque ATN est à 1, le contrôleur
devient aussi l'émetteur d'ordres de fonctionnement. C'est-à-dire qu’il ne fournit plus des
données mais des commandes. Quand ATN est à 0, le contrôleur est une machine
comme les autres, émettrice ou réceptrice selon la programmation et les signaux sur le
bus sont alors des données.
NDAC permet à un récepteur de signaler à l'émetteur qu'il n'a pas encore saisi
les données présentées sur le bus.
Avant T0, le récepteur signale qu'il n'est pas en mesure de recevoir des
données.
A T1, les données sont présentes depuis un temps Ta sur la ligne. L'émetteur
signale alors au(x) récepteur(s) que les données sont valables.
A T4, l'émetteur annonce que les données ne sont plus valables (bien qu'elles
restent encore valides pendant un temps Tb).
Comme vous pouvez le constater, les réseaux sont des éléments complexes, faisant
appel à une technique importante, souvenons nous qu’il n’y a pas 2 réseaux identiques,
on en trouve donc une quantité impressionnante, avec chacun un domaine de prédilection,
d’où la définition de plusieurs niveaux de spécification sous forme d’une pyramide nommé
CNIM.
Cette jolie représentation est en train de voler en éclat du fait de l'utilisation de plus en
plus répandue d'Internet. Un grand nombre d'industriels ayant réduit à cet égard, de façon
drastique, la diversité de leur offre réseau. De plus en plus, le lot commun est devenu
Ethernet + TCP/IP, la pyramide se limitant alors à 2 couches. Une couche supérieure
(Ethernet +TCP/IP) puis au dessous des réseaux de capteurs.
On timbre (session).
Voilà en 7 lignes, j’ai définit le principe de tous les réseaux, on part d’une application (ce
que l’on souhaite transmettre), on rajoute une présentation, etc…. et à la fin, le message
est transmis.
On comprend donc qu’il a fallu greffer, autour du texte, un ensemble d’éléments qui pour
nous représentent peu d’information, mais qui permettent au courrier d’atteindre sa cible.
On a donc déposé des couches successives d’information. D’où l’idée d’une définition de
ces ajouts sous forme de couches.
Une couche assure une base stable, elle permet une communication correcte
entre le niveau inférieur et le niveau supérieur (un peu comme les briques dans
un mur, où il faut pouvoir s’appuyer sur les briques déjà posées). On trouve
alors comme règle de dialogue, la possibilité de communiquer avec les niveaux
adjacents (dialogue vertical). On nomme cette fonction le service.
La couche physique représente le plus bas niveau de spécification, elle définit les
spécifications électriques et mécaniques d'un réseau. On définit ainsi le type de connexion
(full duplex, half duplex ou simplex), le type de liaison (série ou parallèle), le média (liaison
hertzienne, câble coaxial, paire torsadée, etc.).
La couche de transport est utilisée pour contrôler le flux des données dans un réseau. Elle
gère le contrôle des erreurs de transmission et la fiabilité de la liaison.
La couche de session a pour fonction de mettre en relation les services disponibles dans
les 2 machines, en permettant ainsi de rendre transparent les couches inférieures du
réseau.
La couche d’application est la couche supérieure du réseau. Elle englobe l’intégralité des
applications que va utiliser le réseau. C’est en général cette couche que l’utilisateur aura
comme interface. On distingue 2 types d’applications : les applications en mode
connectées (où la connexion doit être maintenue) et les applications en mode non
connectées (où la connexion est intermittente, comme par exemple INTERNET ou le
courrier électronique).
On utilise souvent les couches 1,2 et3 le surnom de couches basses (utilisant
l’informatique industrielle) par opposition aux autres nommées couches hautes.
La définition des couches OSI d’un réseau au sens global, nous amène à étudier
l’influence de ces couches dans nos applications. Par exemple, l’utilisation du bus IEEE
488 sous entend que les couches 1,2 et 7 sont utilisées. Ce qui veut dire que les couches
3, 4, 5 et 6 sont inexistantes.
Ce point est extrêmement important puisqu’il permet de dire que si la « modélisation » OSI
permet de définir tous les réseaux, en aucun cas, les réseaux ne sont contraints d’utiliser
l’ensemble des 7 couches du modèle OSI.
L’encapsulation c’est l’ajout, couche par couche, de données en plus de celles fournies
par la couche supérieure pour autoriser un décodage correct de l’information.
Les termes de trames et de paquets représentent des éléments très importants dans les
transmissions. Reprenons l'exemple du courrier, on a vu que sur le texte à transmettre, on
a ajouté des paramètres supplémentaires tels que l'adresse du destinataire, l'adresse de
l'expéditeur, etc.
Dans la réalité électronique des réseaux, on retrouve à peu près la même chose, si le
texte représente n bits, il faut y adjoindre des termes supplémentaires pour que la
transmission s'effectue.
Une trame représente la plus petite unité compréhensible par un réseau, c'est à dire le
minimum de bits pour que le message puisse être transmis. Analysons donc comment
sont fabriquées les trames dans les réseaux.
Si on se base toujours sur notre exemple, on se rend compte que notre message peut se
résumer à :
Malheureusement, cette trame élémentaire est trop simple pour les réseaux actuels. En
effet, si le message n'est pas de longueur constante, on risque fort de ne pas savoir où il
s'arrête et où démarre le suivant.
On rajoute donc un champ supplémentaire pour définir la taille du texte. Mais cela risque
de ne pas suffire, il faut aussi être sûr que chaque machine lisant le message comprenne
que si dans le texte du message, elle trouve son adresse, il ne s'agit que d'une
coïncidence.
Aussi, on ajoute en général un code en début de trame permettant d'en repérer le début,
on appelle ce code le marqueur. On y ajoutera aussi un champ pour le contrôle d'erreur.
Ce qui donne :
parler (limite supérieure) ou pour des raisons technologiques que nous aborderons plus
loin (limite inférieure).
La couche physique permet de définir l'ensemble des caractéristiques physiques (d'où son
nom) du réseau. Elle permet en fait de réaliser l'adaptation au médium utilisé pour la
transmission en fixant les limites de son utilisation (débit, longueur, etc.).
L'anneau
Les machines sont placées pour former une boucle fermée, réalisée avec des liaisons
point à point.
L'étoile
Les machines sont réparties, en étoile, autour d'une autre, nommé concentrateur, et
reliées avec cette dernière par une liaison point à point. Cette topologie permet de créer
de petits îlots indépendants.
Le bus
Les machines sont réparties tout le long de la ligne, comme les mémoires sur un bus de
microprocesseur, reliées au routeur par une liaison multipoints. Comme pour l'étoile, le
retrait ou l'installation d'une machine (hormis le routeur) peut se faire sans condition
particulière, toutefois, il suffit d’une machine pour créer une défaillance du réseau.
En plus de ces méthodes élémentaires, il existe aussi des fonctions plus complexes
permettant des formes plus variées, donc plus adaptées aux architectures des bâtiments
ou du mode d'utilisation. Ces formes (le back-bone, l'arborescence et le réseau maillé)
sont respectivement des dérivés du bus de l'étoile et de l'anneau.
Le Back-Bone
La traduction de Back-bone donne colonne vertébrale, c'est sur cette ligne que sont
reliées toutes les autres structures (comme les côtes qui s'articulent sur l'axe qui transmet
l'information nerveuse).
L'arborescence
L'arborescence, est à l'image d'un arbre dont le nombre de branches augmente à mesure
que l'on s'éloigne a du tronc.
Le réseau maillé.
Cette structure utilise des liaisons point à point multiples offrant plusieurs voies de
communication pour se rendre d'un point à un autre (redondance des liaisons).
Toutes ces topologies présentent chacune un (ou plusieurs) défauts spécifiques, l'anneau
risque une ouverture, l'étoile est très difficile à reconfigurer, le bus crée des risques de
collisions et enfin le réseau maillé impose l'utilisation d'un protocole de routage.
Il n’est pas rare de voir des entreprises (IBM, HP, etc…) utiliser un réseau en étoile
comme structure de l’immeuble et de créer de petits îlots avec des réseaux en anneau. A
ce sujet cassons le cou à quelques idées reçues :
Les réseaux en anneau sont souvent beaucoup plus rapides que les réseaux en
étoile ou en bus. En effet, ces derniers sont « saturables », c'est-à-dire qu’ils ont
une capacité au dialogue qui diminue avec le nombre de machines en
communication, tandis qu’un réseau en anneau offre toujours les mêmes
performances,
Les réseaux en étoile ou les bus utilisent parfois des ressources partagées
(réparties sur plusieurs machines) ce qui les rendent aussi sensibles que les
anneaux vis-à-vis de la défaillance d’une machine,
Aucun réseau n’est d’avance conseillé pour une application et seul une étude
permet de dire que l’un est meilleur que l’autre.
8.5. LE MEDIUM
Le médium est la liaison physique entre les machines, c'est donc un aspect technologique
des réseaux que l'on va aborder ici.
Il existe une grande variété de média pour une information, on trouve par exemple, les
liaisons par câble que nous verrons plus loin, mais aussi, des liaisons hertziennes,
infrarouges, ultrason, etc….
Par exemple, le bus de terrain utilisé par EUROCOPTER pour tester l'hélicoptère TIGRE
utilise pour une raison évidente une liaison hertzienne pour communiquer avec les
capteurs placés sur les rotors.
Toutefois, il faut en convenir, c’est essentiellement par des liaisons filaires, d’autre part,
les fibres optiques.
On utilise généralement une paire torsadée pour réaliser des réseaux de petite taille (dans
un immeuble). En effet, il est souvent plus simple d’accepter un certains taux d’erreur que
d’utiliser des médias à coût élevé.
La vitesse de propagation dans une ligne électrique en cuivre est globalement de l’ordre
de 220 000 Km/s, cela correspond à la formule :
On définit n comme l'indice du milieu. Dans les fibres optiques, l'indice du milieu est de
l'ordre de 1,5, cela donne une vitesse de propagation de l’ordre de 200 000 Km/s. On
peut aussi noter que dans l'eau, la lumière atteint 75% de c et qu’elle est comprise entre
50 et 60% de c dans le verre.
On constatera donc que l’information se propage plus vite dans le cuivre que dans la fibre
optique.
L'utilisation du nom générique "paire torsadée" ne cache pas une uniformité des qualités,
on les classe selon 3 normes cumulatives :
On parle ici de catégorie de paire torsadée, il existe 7 (ou 8 catégories) de liaison en paire
torsadée.
Fréquence
Catégorie Débit Domaine d’utilisation
Maximum
Cat. 1
Câble téléphonique Abandonné
Cat. 2
Cat. 3 16 MHz 10 Mbits/s 10 BASE-T
Cat. 4 20 MHz 16 Mbits/s Token Ring ou 100BASE-T4
Cat. 5 100 MHz 100 Mbits/s 100BASE-TX ou ATM
Cat. 5e 100 MHz 1 Gbit/s
Cat. 6 200 MHz 1 Gbit/s et + Ethernet Gigabit ou plus
Cat. 7 600 MHz 1 Gbit/s et +
Cette norme est plus connue sous le nom de AWG (American Wire Gauge), elle donne à
partir d’un nombre le diamètre du conducteur mais aussi sa résistance linéique. Tout au
moins c’est ce qui était prévu à l’origine, malheureusement il semble qu’il y ai eu quelques
divergences.
diamètre = 0,32"×2
AWG
6
r = μ×2
AWG
6
Cette norme qui, à l’origine était utilisée pour les cordes de guitare (monter d’un ton
revient à prendre une corde en AWG+1), est désormais dédiée aux câbles électriques. Il
existe de très nombreux tableaux (pas tous très cohérents) pour éviter de fastidieux
calculs savants.
Bien que dans la très grande majorité des cas, le simple fait d'utiliser un système de
transmission différentiel soit amplement suffisant pour protéger les informations qui
circulent dans une paire torsadée, il existe une norme décrivant la protection apportée à
une ligne. Ce classement se fait par indice de protection.
Unshielded Twisted
Câble non blindé UTP
Pair
Shielded-Foiled
Câble écranté-blindé S-FTP
Twisted Pair
Les paires torsadées UTP n'ont aucune protection particulière, elles sont donc
théoriquement plus sensibles que les autres aux perturbations.
En FTP, un écran en aluminium (en général non connecté à la masse) viens ajouter un
écran vis à vis des parasites extérieurs, c'est en général une solution intermédiaire entre le
UTP et le S-FTP.
En S-FTP (parfois appelé STP pour Shielded Twisted Pair), en plus de l'écran des FTP, on
ajoute une tresse reliée à la masse qui joue le rôle de cage de Faraday.
Enfin S-STP est le nec plus ultra des liaisons en paire torsadée, chaque paire est
individuellement blindée et l'ensemble est blindé lui aussi. Ces lignes de transmission sont
virtuellement parfaitement isolées de tous les parasitages, précisons qu'elles coûtent
horriblement cher…
Pour toutes les paires torsadées de type UTP, FTP ou S-FTP, il existe une forme
sournoise de parasitage, la diaphonie, c'est à dire l'effet d'une paire sur une autre.
Les paires torsadées disposent donc, en outre de leur protection, d'une autre astuce leur
permettant de réduire l'effet de la diaphonie : la fréquence de torsadage des paires.
Dans une liaison à 2 paires, les paires 1 et 2 sont torsadées à des fréquence différentes
(en général il y a un facteur 2). Dans une liaison à 4 paires, les paires 1 et 3 sont de
fréquences identiques, de même que les paires 2 et 4, mais ces 2 fréquences sont
différentes.
Il existe 2 grands types de fibres optiques, les fibres monomodes, où l'onde lumineuse
circule dans le coeur de la fibre, et les fibres multimodes (à saut ou à gradient d'indice), où
l'onde se réfléchie sur les parois de la fibre.
Les fibres optiques sont apparues au début des années 60, mais ce n'est qu'au cours des
années 70 qu'elles sont entrées dans le domaine des réseaux, grâce à une meilleur
maîtrise du silicium et de ses dopants qui a permis d'obtenir des atténuations de l'ordre de
20dB/Km (au lieu de 1000dB/Km à l'origine).
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 126 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Avec les années 80 des fibres monomodes, l'atténuation dans les lignes fut portée à
2dB/Km.
De nos jours, les fibres monomodes offrent des atténuations de 0,2 à 0,3dB/km.
On considère que les fibres optiques à saut d'indice (quasiment abandonnées de nos
jours) offrent des débits de l'ordre de 50 Mbits/s, tandis que celles à gradient d’indice
permettent d’atteindre 1Gbit/s. Les fibres monomodes quand à elle d'atteindre des débits
de 40Gbit/s sur des distances allant de 3Km pour les fibres monomode standard (G 652)
jusqu'à 25Km pour les fibres "True Wave" (G 655).
Les fibres optiques travaillent dans le proche infrarouge (de 800 à 1600 nm de longueur
d'onde). Elles sont réalisées en oxyde de silicium (SiO2) avec une très faible densité d'ions
OH- (ces ions ayant la fâcheuse tendance à absorber le rayonnement en proche
infrarouge). On dope en suite le coeur de la fibre à l'aide de Germanium ou de phosphore,
ce qui permet d'augmenter légèrement l'indice du coeur. On dope aussi la gaine à l'aide
de bore ou de fluor pour diminuer légèrement son indice.
Le coeur d'une fibre optique a un indice (n1) d'environ 1,5 pour un diamètre de l'ordre de
200μm pour les fibres à saut d'indice, de 62,5μm pour les fibres à gradient d'indice et de
10μm pour les fibres monomodes.
Le tout est enrobé d'une enveloppe en acrylique qui assure l'absorption des chocs
mécaniques. C'est la fibre optique seule qui donne à la ligne de transmission ses
propriétés mécaniques longitudinale, l'enveloppe en plastique ne servant qu'à la protéger
contre le cisaillement. En théorie, une fibre de 29mm de diamètre devrait supporter le
poids de 216 éléphants (1300 tonnes).
Les fibres optiques ne sont toutefois pas exemptes de défauts, même si elles sont
parfaitement immunes aux perturbations électromagnétiques, elles ont tendance à diffuser
la lumière, c'est à dire à créer des tâches floues, de même, elles ne propagent pas toutes
les longueurs d'onde à la même vitesse, ce qui tend à déformer les signaux transmis.
Enfin leur atténuation naturelle limite les distances de transmission.
L'autre élément fondamental de la couche 1 qui permet les interconnexions sans analyse
des protocoles est le HUB.
8.6. ETHERNET
Ethernet est le standard le plus connu dans le monde des réseaux, bien qu’étant parmi les
moins performants sur le marché, son utilisation mondiale en a fait l’outil par l’excellence
de toutes les entreprises. Conçu en 1980 par Bob Metcalf (le fondateur de 3Com).
Il est une interface peu onéreuse permettant de connecter des machines via une topologie
de bus en vue de partager des ressources.
Bien que ne faisant pas réellement partie du monde des réseaux locaux industriels au
sens strict, Ethernet n’en reste pas moins un réseau local d’entreprise. Le fait qu’il n’est
plus rare du tout de voir des automates connectés à Ethernet sinon à Internet via Ethernet
(exemple : serveur web).
Ethernet n’utilise que les deux couches les plus basses de la pyramide OSI. La couche
physique permet de se connecter via 3 familles de média : paire torsadée (UTP) ; câble
coaxial (gros ou fin) et fibres optiques. La couche d’accès au medium utilise un processus
normalisé (IEEE 802.3).
Mais ce qui caractérise le plus ce réseau, c’est l’incroyable quantité d’applications qui ont
été développées « sur » lui. En effet, s’y sont greffés de nombreux protocoles, comme
TCP/IP, PROFIBUS, FIELDBUS, etc….
En définitive, Ethernet est un support universel. Ce qui lui vaut une grande popularité.
Nous allons donc étudier la trame standard d’Ethernet puis les connexions utilisées. Enfin
nous nous intéresserons aux chapitres suivant ‘protocole TCP/IP et PROFIBUS’.
Cette trame a subit d’importante modification depuis sa mise en place par les primo
géniteurs du réseau. A l’origine, la longueur de la trame était codée dans un champ
spécifique. Depuis elle s’est transformée en une définition du type de données
encapsulées.
Le champ de données,
Le champ de CRC.
Ethernet Header
8.6.1.1. Le préambule
Les adresses sont composées de 2 zones de 3 octets chacune première permet de définir
le nom du constructeur (elle est fourni par un organisme de régulation) tandis que les 3
octets de poids faible codent le « n° de série » de la carte. On appelle généralement ces
adresses les adresses MAC (du nom de la couche où l’on les utilise). Une spécificité de
cet adressage c’est qu’il n’utilise pas d’adresses impaires pour parler à des machines
individuelles. Ces adresses sont strictement réservées aux émissions multiples (multicast
et broadcast).
8.6.1.3. Le type
Le champ de données est utilisé par les couches supérieures pour y placer des données.
Ce champ doit contenir au moins 46 octets. Si une trame ne contient pas assez de
données pour remplir cet intervalle, on utilise des bits de remplissage pour compléter
l’espace.
Originellement, Ethernet était conçu pour utiliser exclusivement du câble coaxial 50Ω,
avec une topologie en bus donc avec des impédances de terminaison.
L'utilisation d'un câblage en 10BASE-5 impose l'installation d'un câble principal (le Back
Bone ou colonne vertébrale) "rigide", sur lequel on branche avec des prises vampires
(permettant une connexion sans rupture de ligne) des tranceivers ou des prolongateurs.
Cet ensemble forme un MAU pour Media Attachment Unit.
Ce gros câble doit avoir une longueur qui est un multiple impaire de 3,4m (23,4m, 70,2m,
117m, 163,8, etc.) sans pour autant dépasser 500m soit au 491 soit 21 segments de câble
coaxial. Son atténuation ne doit pas dépasser 8,5 dB pour 500m à 10MHZ et sa résistivité
doit être inférieure à 10Mohms/m.
Mais l’évolution des techniques et surtout la réelle nécessité de réduire les coûts de
câblage permet la mise en place d’autres versions telle que le 10BASE-2 qui utilise un
câble coaxial fin et nettement moins coûteux, avec les câbles coaxiaux relié directement
au niveau de chaque machine par des connecteurs en tés. Par contre la distance entre
machine est réduite à 200m et il est interdit de relier une machine via un brin au
connecteur en té.
Ce câblage est dénommé câblage coaxial fin (ou yellow cable), son atténuation grimpe en
flèche à 4,6dB pour 100m à 10MHz, il est aussi plus lent à propager l’onde
électromagnétique que le gros câble coaxial.
Ces câblages présentaient toujours l’inconvénient d’interdire toute installation (ou retrait)
de machine sans interruption des communications et toute défaillance d’un élément du
réseau influençait tous les autres.
L’utilisation d’un câblage plus évolutif devint vite une nécessité, d’où l’implémentation par
le comité IEEE de câblages en paire torsadées. Cette technologie permet d’utiliser des fils
torsadés non blindés donc un type de câblage extrêmement économique. En utilisant une
technologie non plus en bus mais en étoile, en utilisant la désormais célèbre prise RJ45.
Figure 105 : Réseau Ethernet en étoile avec connexion sur un HUB en RJ45
On peut alors établir une connexion avec la machines via une interface (AUI pour
Attachment Unit Interface), composée d'un connecteur de type CANON DB15.
Les câbles en paire torsadée ont une impédance caractéristique de 120Ω, ils sont encore
plus lents que le câble coaxial fin vis-à-vis de la propagation des signaux
électromagnétiques. Enfin il impose une atténuation de 11,5dB pour 100m à 10MHZ. On
leur connaît aussi d'autres défauts tels que la diaphonie (influence d'un brin sur l'autre ),
cette dernière ne doit pas excéder 26dB à 10MHz.
Cette méthode de câblage a reçu le nom de 10BASE-T. Comme elle utilise 2 paires de fil
torsadé, un pour la transmission, et un pour la réception, elle permet un transfert en FULL
DUPLEX des informations.
Toutefois, dès qu’il y a une segmentation en réseaux et sous réseaux, il est impératif
d’inclure un protocole de couche 3 voir de couche 4. Le protocole TCP/IP étant le plus
utilisé.
La couche de liaison repose sur la trame précédemment décrite, elle permet du fait de sa
taille une encapsulation facile de message en provenance des couches supérieures. Ainsi,
une trame normalisée. Ainsi, une trame normalisée IEEE 802.3 en provenance directe de
la couche d'application de la pyramide OSI peut être présenté de la façon suivante:
Tandis que l’utilisation des encapsulations permet de décomposer à nouveau les trames
reçues :
Ces informations s'adressant à des éléments de la machine non pointé par des adresses
MAC, les données encapsulées dans le champ de donnée de la trame MAC commence
donc par la définition du service destinataire et du service source (dans notre cas, il s'agit
de l'adressage des SAP de la couche LLC entrant en communication). On réduit donc
d'autant la taille du champ de données.
Toujours dans le cadre du protocole, on doit s'appesantir un peu sur les principes
d'adressage. Ainsi, les 6 octets du champ d'adresse sont décomposés en 2 fois 3 octets.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 135 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Il faut aussi permettre un aiguillage correct des données, c'est-à-dire établir à quel service
sont destinées les données présentes sur le bus. Aussi on a reconverti le champ de
longueur en un champ de 2 octets codant le type d'informations portées. A titre d'exemple,
un champ IP est référencé 080016.
Le premier octet (ou l’octet de poids fort) permet d’identifier le constructeur. Tous les pays
identifient les constructeurs de la même façon, mais ce code n'est pas véhiculé par les
algorithmes de routage. Il n'est donc connu que localement. Les constructeurs peuvent
donc utiliser 2 fois (ou plus) une même adresse à condition de ne pas vendre ces cartes
dans la même zone géographique, d'où un certain risque à acheter dans deux pays
différents des cartes réseaux d'un même constructeur.
Le second octet (ou l'octet de poids faible) permet d'identifier la carte. Cet octet doit
impérativement être pair.
Mais même si l'adresse est paire, il circule sur le réseau (on peut le constater avec un
espion) des trames dont les adresses sont impaires. Ce sont des trames à destination de
groupes de cartes (MULTICAST) voir même de toutes les cartes (BROADCAST).
L'adresse de BROADCAST est assez simple à retenir puisqu'elle n'est composée (en
binaire) que de 1 ce qui donne en hexadécimal "FF FF FF FF FF FF". A cette adresse de
diffusion, toutes les machines sont censées répondre si le contenu du message les
concerne. On verra dans le cadre de l'utilisation de TCP/IP comment cela fonctionne.
Les adresses de MULTICAST sont elles par contre légion (environ 8 millions), elles sont
obtenues par un algorithme à partir des adresses des machines concernées par le
message. Cet algorithme apparenté aux calculs de CRC permet de recréer
automatiquement une adresse commune à l'ensemble des machines concernées. Chaque
machine en appliquant le même calcul retrouvera ainsi son adresse propre.
L'utilisation des commandes de MULTICAST est plus limitée que l'utilisation des
commandes de BROADCAST. Toutefois, dans le cadre de l’utilisation des couches
supérieures, il n'est pas rare de voir ce genre de trames circuler.
8.7. LE PROFIBUS
Les Technologies de l’Information jouent un rôle moteur dans la montée en puissance des
systèmes d’automatismes. Bousculant l’organisation pyramidale de l’entreprise,
révolutionnant ses schémas traditionnels et modifiant radicalement ses flux, elles
n’épargnent aucun secteur d’activité (continu, manufacturier, logistique, GTB…).
Á la base de l’édifice industriel, les signaux des équipements TOR sont transmis par un
bus capteurs/actionneurs. Simplicité et économie sont ici de rigueur : il s’agit d’acheminer,
sur un même câble, non seulement les données utiles (échanges cycliques), mais aussi
l’alimentation en 24 V des appareils de terrain. C’est le domaine de prédilection du réseau
AS-i.
Les données du procédé sont transmises de façon cyclique, tandis que les alarmes,
paramètres et informations de diagnostic le sont de façon acyclique, au gré des besoins.
PROFIBUS répond parfaitement à ces exigences en offrant un maximum de transparence
aussi bien dans le domaine manufacturier que celui du process.
Autre exigence clé : la connectivité transparente des équipements à des réseaux couvrant
tous les besoins de l’entreprise, à base d’Ethernet et de protocole TCP/IP
(Internet/intranet). L’explosion des Technologies de l’Information en automatisation crée
de nouveaux gisements d’économie, directement puisés dans l’optimisation des procédés,
et contribue largement à une meilleure exploitation des ressources.
Les réseaux industriels sont les fers de lance de cette révolution. C’est le cas de
PROFIBUS, véritable « colonne vertébrale » du système d’information de l’usine. Son
intégration à des réseaux reliant toute l’entreprise sur TCP/IP.
Le système de communication repose sur des réseaux locaux qui, selon les conditions
cadre, peuvent être réalisés à l’aide de supports de transmissions :
purement électriques
purement optiques
à infrarouge
L’automatisation de la production et des process fait de plus en plus appel à des systèmes
d’automatisation décentralisés. En d’autres termes, une fonction d’automatisation
complexe est décomposée en tâches partielles plus simples gérées par des systèmes
d’automatisation décentralisés.
Les besoins en communication entre les systèmes décentralisés sont par conséquent très
importants. Les structures décentralisées présentent entre autres les avantages suivants :
Il en résulte :
câble triaxial 50 W
8.7.1.4. AS–Interface
8.7.1.5. PROFIBUS
Réseau de communication pour le niveau cellule et terrain selon EN 50170–1–2 avec les
procédures d’accès hybrides Token Bus et maître–esclave. L’interconnexion s’effectue à
l’aide de câbles bifilaires, de câble FO ou par infrarouge.
8.7.1.6. PROFIBUS–PA
PROFIBUS est un réseau de terrain ouvert, non propriétaire, répondant aux besoins d’un
large éventail d’applications dans les domaines du manufacturier et du process. Son
universalité (indépendance vis-à-vis du constructeur) et son ouverture sont garanties par
les normes européennes EN 50170, EN 50254.et international IEC61158 PROFIBUS
autorise le dialogue de matériels multi constructeurs, sans passer par des interfaces
spécialisées.
Il se prête aussi bien à la transmission de données exigeant des actions réflexes, en des
temps de réaction très courts, qu’aux échanges de grandes quantités de d’informations
complexes. En perpétuelle évolution, PROFIBUS reste le réseau de communication
industriel du futur.
En outre, dans le cadre des évolutions techniques du réseau, l’association des utilisateurs
du PROFIBUS travaille actuellement sur la mise en place des concepts universels d’«
intégration verticale » de tous les niveaux de la pyramide CIM, sous TCP/IP. Enfin, les
profils applicatifs définissent, pour chaque type d’équipement, le protocole et la technique
de transmission adaptés à l’application. Ils s’attachent également à préciser le
comportement des équipements, indépendamment de leur constructeur.
Ces profils ont pour objet de définir la façon dont les données sont transmises en série par
l’utilisateur, sur un même support physique.
DP
Profil de communication le plus répandu dans l’industrie et le plus prisé pour sa rapidité,
ses performances et sa connectique à faible coût, DP est réservé au dialogue entre
automatismes et périphérie décentralisée. Il remplace à merveille la transmission
classique de signaux parallèles en 24 V dans le manufacturier et de signaux analogiques
sur boucle 4-20 mA ou interface Hart dans le process.
FMS
Le champ d’action d’un bus de terrain est largement dicté par le choix de son support
physique. Aux exigences générales de fiabilité de la transmission, de gestion des longues
distances et des débits élevés, s’ajoutent des critères spécifiques, orientés process :
fonctionnement en atmosphère dangereuse et transmission des données et de l’énergie
sur un même câble.
Précisons, toutefois, que l’avenir est à une couche physique PROFIBUS bâtie sur des
composants Ethernet du commerce, capables de transmettre à 10 Mbit/s et 100 Mbit/s.
Dans cette optique, l’offre PROFIBUS comporte déjà des coupleurs et des liaisons
assurant la migration d’une technique à l’autre. Si les coupleurs mettent en oeuvre le
protocole de façon transparente, en tenant compte des contraintes du milieu, les liaisons,
par essence « intelligentes », dotent la configuration des réseaux PROFIBUS de
fonctionnalités étendues.
Au premier rang de ces profils « métier » figure PROFIBUS-PA, qui décrit les paramètres
et les blocs de fonctions d’instruments de process tels que transmetteurs, vannes et
positionneurs.
PROFIBUS spécifie les caractéristiques techniques d’un bus de terrain série destiné à
interconnecter des automatismes numériques répartis aux niveaux terrain et cellule. Ce
réseau multi maître autorise l’exploitation conjointe de plusieurs systèmes
d’automatisation, de développement et de visualisation avec leur périphérie décentralisée,
sur un même câble.
A cette fin, PROFIBUS distingue des équipements maîtres et des équipements esclaves :
Le profil ultrarapide DP n’exploite que les deux couches basses 1 et 2, ainsi que l’interface
utilisateur. Cette rationalisation de l’architecture garantit la rapidité et l’efficacité de la
transmission.
L’adaptateur DDLM (Direct Data Link Mapper) facilite l’accès de l’interface utilisateur à la
couche 2. Les fonctions applicatives de l’utilisateur et le comportement des divers types
d’équipement DP (systèmes et appareils) sont précisés dans l’interface utilisateur.
Le profil universel FMS met en oeuvre les couches 1, 2 et 7. Cette dernière se compose
de la messagerie FMS (Fieldbus Message Spécification) et de l’interface LLI (Lower Layer
Interface). FMS spécifie une pléiade de services de communication évolués entre maîtres
et entre maîtres et esclaves. LLI définit la représentation de ces services FMS dans le
protocole de transmission de la couche 2.
La mise en oeuvre de la liaison RS 485 est d’une grande facilité ; l’installation de la paire
torsadée ne requiert pas de connaissance particulière et la structure du bus permet l’ajout
ou le retrait de stations ou la mise en service par étapes du système sans répercussion
sur les autres stations.
Le bus s’achève par une terminaison active, à chaque extrémité de segment. Pour écarter
tout risque d’erreur, les deux terminaisons de bus doivent toujours être alimentées. La
terminaison peut d’ordinaire être activée au niveau des équipements ou des connecteurs
de terminaison de bus.
Brochage :
1 = VP
2 = RxD/TxD-N
3 = DGND
4 = RxD/TxD-P
5 = blindage
Lors du raccordement des stations, veillez à ne pas inverser les lignes de données. Il est
impératif d’utiliser des lignes de données blindées pour garantir un antiparasitage optimal
en ambiance à forte pollution électromagnétique. Ce blindage doit être relié à la masse
mécanique à chaque extrémité, tout en assurant une bonne conductivité avec des colliers
de blindage couvrant la zone la plus large possible.
Il est en outre recommandé de dissocier les lignes de données des câbles haute tension.
On évitera également les câbles de jonction pour les débits atteignant ou dépassant 1,5
Mbit/s.
Á cet égard, il convient de noter que 90 % des problèmes survenant sur un réseau
PROFIBUS sont imputables à des erreurs de câblage et d’installation. On peut y remédier
en utilisant des testeurs et des analyseurs de bus, capables de détecter bon nombre de
défauts de câblage, avant même de procéder à la mise en service.
Les possibilités et les limites de PROFIBUS sur liaison CEI 1158-2, en atmosphère
explosible, sont définies par le modèle FISCO (Fieldbus Intrinsically Safe Concept).
Élaboré par l’institut de physique allemand Physikalisch Technische Bundesanstalt, ce
concept fait aujourd’hui autorité dans ce domaine.
En régime établi, chaque station nécessite un courant minimal de 10 mA. Grâce à la télé
alimentation, ce courant alimente les appareils de terrain.
Les signaux de transmission sont générés par l’équipement émetteur par modulation de
+/- 9 mA du courant de base.
Sécurisation des données En-tête, caractères de début et de fin protégés contre les erreurs
Protection en zone explosible Mode sécurité intrinsèque (Eex ia/ib) et antidéflagrant (Eex d/m/p/q)
Figure 114 : Télé alimentation des instruments de terrain sur PROFIBUS en transmission
CEI1158
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 149 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Les links, quant à eux, sont « intelligents ». Ils regroupent l’ensemble des appareils de
terrain raccordés au segment CEI 1158-2 en un seul esclave RS 485. Dans ce cas, le
débit du segment RS 485 n’est pas limité : d’où la possibilité de mettre en oeuvre des
réseaux rapides assurant, par exemple, des fonctions de contrôle commande avec des
instruments de terrain connectés sur CEI 1158-2.
Le réseau PROFIBUS sur CEI 1158-2 accepte des topologies arborescente et linéaire, les
deux étant combinables.
Dans une topologie linéaire, les stations sont raccordées au câble principal à l’aide de
connexions en T. La topologie arborescente, pour sa part, s’apparente à la technique
classique d’installation des équipements de terrain.
Le câble principal multibrin est remplacé par le câble de bus bifilaire. Le répartiteur de
terrain sert toujours à raccorder les appareils et à abriter la résistance de terminaison de
bus. Dans un réseau arborescent, tous les appareils reliés au segment de bus sont câblés
en parallèle dans le répartiteur. Dans tous les cas de figure, il faut tenir compte des
longueurs maximales admissibles des lignes de jonction pour calculer la longueur totale
de la ligne.
Pour des applications à sécurité intrinsèque, une dérivation ne doit pas dépasser 30 m.
Le support de transmission est une paire torsadée blindée. Chaque extrémité du câble
principal est équipée d’une terminaison de bus passive, constituée d’un élément RC
connecté en série (R = 100 Ω et C = 1 μF).
La terminaison de bus est déjà intégrée au coupleur de segment ou au Link. Une inversion
de polarité sur des appareils de terrain transmettant en CEI 1158-2 ne nuit pas à la
fonctionnalité du bus, ces équipements étant normalement dotés d’un système de
détection automatique de polarité.
Le nombre de stations raccordables à un segment est limité à 32. Ce nombre peut être
encore réduit par le mode de protection retenu et l’alimentation sur le bus. Dans le cas de
réseaux conçus en sécurité intrinsèque, la tension et l’intensité d’alimentation maximale
sont définies dans des limites précises. Même pour des applications sans sécurité
intrinsèque, la puissance de l’unité de télé alimentation est limitée.
Table 8 : Alimentations normalisées pour un réseau profibus sur une liaison CEI1158-2
L’intensité nécessaire (Σ) est donnée par la somme des courants de base des
équipements, de chaque appareil de terrain raccordé au segment choisi, sans oublier une
marge supplémentaire de 9 mA par segment destiné au courant de fonctionnement du
La fibre optique s’impose principalement dans trois cas d’utilisation de PROFIBUS : pour
pallier des environnements électromagnétiques perturbateurs, assurer un parfait isolement
électrique et augmenter la portée maximale du réseau, à de hauts débits. On distingue
plusieurs types de fibre, dont les propriétés varient avec la distance, le coût et l’application
envisagée.
Les segments PROFIBUS à fibre optique sont conçus en étoile ou en anneau. Certains
fabricants proposent des composants PROFIBUS/FO permettant la redondance des
liaisons optiques : la défaillance d’une première liaison provoque un basculement
automatique sur la seconde. Nombre de fournisseurs proposent également des coupleurs
RS 485/FO qui autorisent à tout moment le passage d’un support de transmission à
l’autre, dans un même réseau.
La méthode d’accès est assurée par la sous couche MAC (Medium Access Control) qui
veille au partage du canal de communication en garantissant qu’une seule station a le
droit d’émettre à un instant donné. PROFIBUS répond à deux exigences fondamentales
de la méthode d’accès MAC :
Pour y parvenir, la méthode d’accès à PROFIBUS est de nature hybride (voir figure
suivante) : la communication inter maître repose sur la méthode du jeton, tandis que les
échanges entre maîtres et esclaves s’effectuent sur le mode maître esclave.
La méthode du jeton, réservée aux échanges entre stations complexes, garantit l’accès
de chaque maître au bus, au moins une fois dans un temps donné. En clair, cela signifie
que le jeton, télégramme spécial véhiculant un droit de parole de maître en maître, doit
être transmis à chaque maître au moins une fois dans une fenêtre temporelle configurable.
La méthode maître esclave permet au maître détenant le jeton d’accéder à ses esclaves
pour leur envoyer des messages ou, à l’inverse, lire leurs messages.
On entend par anneau à jeton le chaînage des stations actives formant, par leur adresse
sur le bus, un anneau logique, au sein duquel chaque participant passe à son voisin, dans
un ordre défini (adresses croissantes), le jeton lui donnant le droit d’émettre ou de passer
son tour. Sur réception de ce jeton, toute station active peut assumer le rôle de maître
pour une période donnée et dialoguer ainsi avec tous ses esclaves en mode maître
esclave et l’ensemble des maîtres en mode maître maître.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 153 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
En outre, elle s’assure que le jeton circule bien d’un maître à l’autre, en respectant l’ordre
croissant des adresses. Précisons que le temps de parole d’un maître dépend du temps
maximal de rotation du jeton.
Dans FMS, ces SAP servent à adresser les relations de communication logiques.
Dans DP, chaque SAP remplit une fonction bien définie. Plusieurs SAP peuvent être
utilisés en même temps pour toutes les stations actives et passives. Notons que l’on
distingue des SAP sources (Source SAP) et des SAP destination (Destination SAP).
DP est destiné aux échanges série rapides, principalement cycliques, entre contrôleurs
de cellule (API ou PC) ou systèmes de conduite/supervision et périphérie décentralisée
(E/S, variateurs, vannes, transmetteurs de mesure…). Les fonctions de communication
correspondantes sont définies par les fonctionnalités de base de DP, normalisées EN 50
170. Celles-ci sont complétées de services de communication évolués, acycliques,
destinés au paramétrage, à l’exploitation, à la surveillance et au traitement des alarmes
des équipements de terrain intelligents.
Le contrôleur de cellule (maître) lit les entrées de ses esclaves et écrit leurs sorties, de
façon cyclique. Le temps de cycle du bus doit être inférieur à celui du programme de
l’automatisme qui avoisine 10 ms pour de nombreuses applications. Outre ce transfert
cyclique de données utilisateur, DP intègre de puissants outils de diagnostic et de mise en
service, assortis de fonctions de surveillance, côtés maître et esclave
Méthode d’accès :
Communication :
Mode d’explitation :
Synchronisation :
Fonctionnalités :
Distance de Hamming = 4
Types d’équipement :
La course au débit n’est pas le seul critère de succès d’un bus de terrain. Simplicité
d’installation et d’exploitation, diagnostic de qualité et immunité aux parasites sont parmi
les priorités de l’utilisateur.
Vitesse
DP ne met qu’environ 1 ms (à 12 Mbit/s) pour transmettre 512 bits d’entrée et 512 bits de
sortie à 32 stations déportées. La transmission des entrées/sorties en un seul cycle de
message explique la supériorité de DP sur FMS en matière de vitesse. Dans DP, les
données utilisateur sont transmises avec le service SRD de la couche 2.
Diagnostic
Diagnostic de voie : Précise la cause du défaut sur un bit (ou voie) d’E/S
(court-circuit sur sortie n° 7, par ex.).
DP peut fonctionner en mode mono maître ou multi maître, d’où sa grande souplesse de
configuration. Un bus dessert un maximum de 126 équipements, maîtres ou esclaves. Les
spécifications de configuration du réseau définissent le nombre de stations, l’affectation
des adresses de station par rapport aux adresses d’E/S, la cohérence des données d’E/S
et le format des messages de diagnostic ainsi que les paramètres du bus.
Figure 116 : Temps de cycle du bus dans une configuration mono maître
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 157 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Esclave
C’est un organe périphérique (bloc d’E/S, variateur, IHM, vanne, transmetteur de mesure)
qui, en entrée, collecte des informations et, en sortie, les envoie aux périphériques. On
trouve aussi dans cette catégorie des appareils ne fournissant que des entrées ou que des
sorties.
En multi maître, plusieurs maîtres se partagent le bus. Il peut s’agir soit de sous réseaux
indépendants, chacun constitué d’un maître DPM1 et de ses esclaves, soit d’équipements
de configuration et de diagnostic supplémentaires. Les entrées sorties des esclaves
peuvent être lues par tous les maîtres DP. Néanmoins, un seul maître (plus précisément,
le DPM1 désigné lors de la configuration) peut accéder en écriture aux sorties.
Figure 118 : Les deux trames de transmission cyclique de données utilisateur dans DP
DPM1 peut être commandé soit en local, soit via le bus par l’outil de configuration. On
distingue trois principaux états :
Clear : DPM1 lit les entrées des esclaves et maintient leurs sorties en sécurité
positive.
DPM1 envoie périodiquement son état à tous les esclaves qui lui sont rattachés,
à l’aide d’une commande de multi diffusion, selon une périodicité paramétrable.
La réaction automatique du système à une erreur au cours du transfert de
DPM1 (défaillance d’un esclave, par ex.) est déterminée par le paramètre de
configuration auto-clear.
Si celui-ci est vrai, DPM1 bascule les sorties de tous ses esclaves en sécurité
positive dès que l’un d’eux n’est plus en mesure de transmettre de Clear.
L’esclave peut alors passer à la phase de transfert. Ces contrôles visent à fiabiliser la
protection contre les erreurs de paramétrage. Outre le transfert des données,
automatiquement exécuté par DPM1, un nouveau paramétrage peut être envoyé aux
esclaves sur demande de l’utilisateur.
Ces commandes utilisent deux modes, synchro et freeze, pour assurer la synchronisation
sur événement des esclaves.
Lorsqu’ils reçoivent de leur maître une commande de synchronisation, les esclaves sont
en mode synchro.
Les sorties de tous les esclaves adressés sont gelées dans leur état présent. Au cours
des transmissions suivantes, les données de sortie sont stockées dans les esclaves, sans
modification de leur état.
Ces données ne sont pas envoyées aux sorties tant qu’une nouvelle commande de
synchronisation n’est pas reçue du maître. Le mode synchro prend fin sur une commande
de désynchronisation Unsync.
De même, une commande Freeze provoque le gel de tous les esclaves adressés ; l’état
des entrées est alors gelé, avec la valeur en cours. Ces données ne sont pas rafraîchies
tant que le maître n’envoie pas de nouvelle commande de freeze. Le mode freeze prend
fin sur une commande de dégel Unfreeze.
Cela permet d’utiliser, par exemple, un outil de développement (DPM2) pour optimiser les
paramètres des esclaves raccordés ou connaître l’état des appareils de terrain sans
perturber le fonctionnement du réseau.
Il faut toutefois ménager au maître le temps nécessaire pour mener à bien ces services
acycliques, ce qui doit être pris en compte dans le paramétrage du réseau. Pour cela,
l’outil de paramétrage augmente normalement le temps de rotation du jeton pour que le
maître puisse cumuler transmissions cyclique et acyclique.
Les fonctions DP étendues, facultatives, sont compatibles avec les fonctions de base DP.
Les équipements existants qui peuvent s’en dispenser reste exploitables, ces extensions
ne faisant que compléter les fonctions de base.
Pour adresser les données, PROFIBUS perçoit les esclaves comme des briques de base
physiques ou les découpe en modules fonctionnels logiques. Ce modèle vaut également,
dans les fonctions DP de base, pour la transmission cyclique où chaque module possède
un nombre constant d’octets d’entrées et/ou de sorties dont la position de transmission
dans le télégramme des données utilisateur reste fixe.
L’adressage s’appuie sur des identificateurs qui caractérisent le type de module (entrée,
sortie ou entrée/sortie), l’ensemble de ces identificateurs constituant la configuration d’un
esclave, elle aussi contrôlée par DPM1 au démarrage du réseau.
Les services acycliques se fondent également sur ce modèle. Tous les blocs de données
validés en lecture ou en écriture sont aussi considérés comme appartenant aux modules.
Ces blocs peuvent être adressés par numéro d’emplacement et par index, le numéro
d’emplacement repérant le module, et l’index, les blocs de données rattachés au module.
Précisons que la longueur maximale d’un bloc de données est de 244 octets.
Sur des appareils modulaires, chaque module reçoit un numéro d’emplacement, partant
de 1 et suivant l’ordre croissant d’implantation des modules dans l’équipement. Le numéro
0 est, quant à lui, réservé à l’équipement lui-même. Les appareils compacts sont traités
comme un seul ensemble de modules virtuels, soumis au même principe d’adressage (n°
d’emplacement + index).
Ce dernier y répond par un bref acquittement, sans émettre les données demandées tant
qu’il ne les a pas traitées. La demande suivante de scrutation du maître est satisfaite par
une réponse MSAC2_Read qui autorise la lecture et la transmission au maître des
données de l’esclave.
Tous les objets de communication d’un appareil FMS figurent dans le dictionnaire
d’objets (Object Dictionary) qui renferme la description, la structure et le type de données,
ainsi que la relation entre les adresses internes des objets de communication et leur
désignation sur le bus (index/nom).
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 164 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Variable simple
Domaine
L’adressage logique est la méthode d’adressage privilégiée des objets. L’accès effectue
par une adresse courte (index), constituée d’un nombre non signé de 16 bits. A chaque
objet correspond un index. En option, les objets peuvent aussi être adressés par leur nom.
Les objets de communication peuvent également être protégés des accès non autorisés
(protection d’accès) ou l’accès à un objet peut être restreint à certains services (lecture
seule).
Figure 121 : Récapitulatif des services FMS et exécution d’un service confirmé
L’utilisateur dialogue avec les autres processus sur des voies logiques appelées relations
de communication.
LLI fournit plusieurs types de relations de communication pour l’exécution des services
FMS et de gestion. Ces relations de communication offrent diverses possibilités de
connexion (surveillance, transmission et demande aux partenaires de communication).
Toutes les relations de communication d’un équipement FMS sont recensées dans la liste
CRL (Communication Relationship List). Pour des appareils simples, celle-ci est prédéfinie
par le constructeur ; pour des appareils complexes, elle est configurée par l’utilisateur.
Chaque relation de communication est identifiée par une brève référence de
communication locale (Communication Reference).
Vue du bus, cette référence CR se définit par une adresse station, le SAP de la couche 2
et le SAP de l’interface LLI. La liste CRL donne la relation entre la référence CR et
l’adresse de la couche 2 et de LLI. En outre, elle indique, pour chaque CR, les services
FMS accessibles, la longueur des télégrammes…
La garantie d’un accès uniforme pour les outils de configuration s’obtient par spécification
de la liaison de gestion des défauts. Pour chaque équipement acceptant les services
FMA7, en tant que répondeur, il faut saisir, dans la liste CRL, une liaison de gestion des
défauts référencée CR = 1.
Les profils applicatifs de PROFIBUS ont pour objet de décrire l’emploi des profils de
communication et des profils physiques dans certaines applications (automatisation des
procédés et GTB) ou pour des types précis d’équipements (codeurs, variateurs…).
L’emploi de PROFIBUS dans le domaine du process est défini par le profil PA. PA exploite
le support de transmission normalisé CEI 1158-2, dans le cas d'instrument 4 fils (sans télé
alimentation), le support RS485 peut être une alternative. Il définit le paramétrage et le
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 168 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Né d’une collaboration étroite avec des utilisateurs de l’industrie des procédés (NAMUR),
le profil PA répond aux quatre grandes exigences du secteur :
Ajout et retrait de stations du bus, même dans des zones à sécurité intrinsèque,
sans perturber les autres stations.
Télé alimentation par le bus des transmetteurs de mesure, sur une même paire
de fils selon CEI 1158-2.
La figure ci-après résume les différences entre l’approche classique du câblage en fil à fil
4-20 mA et un réseau PROFIBUS.
Les instruments de terrain installés en zone dangereuse sont connectés sur PROFIBUS
par une liaison CEI 1158-2 qui assure à la fois la transmission des données et la télé
alimentation, sur deux fils.
Le passage en zone saine (PROFIBUS DP sur RS 485) est réalisé au travers d'un
coupleur de segment ou à un link. Contrairement au câblage traditionnel qui impose de
tirer une ligne pour chaque signal entre l'instrumentation et la carte d'E/S du système de
contrôle commande (PLC, DCS), les données de plusieurs équipements sur PROFIBUS
sont acheminées sur un seul câble. De même, si les solutions classiques de câblage
exigent une alimentation (antidéflagrante, si nécessaire) pour chaque signal, sur
PROFIBUS, le coupleur de segment ou la liaison assure cette fonction indistinctement
pour de multiples appareils.
Figure 123 : Comparaison entre les deux solutions de câblage : fil à fil 4-20mA et réseau
PROFIBUS PA
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 170 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
L’utilisateur peut alors substituer à la valeur réelle une valeur de mesure fictive, saisie
avec l’outil de développement, puis transmise au système. Cette démarche facilite la
simulation des états critiques d’une usine et assiste le personnel chargé de sa mise en
service par étapes.
Vannes, positionneurs
Analyseurs
Pour décrire les fonctions et les paramètres de l’équipement, il s’appuie sur un modèle de
blocs de fonctions universellement reconnu par le marché.
Les paramètres d’entrée et de sortie des blocs de fonctions peuvent être reliés par le bus
et raccordés à une application d’ingénierie du procédé.
•
Lecture de la valeur de la variable du procédé et de
OUT
son état
• •
Mise à l’échelle des variables du procédé (seuil
PV_SCALE inférieur et supérieur de la plage de mesure, unités
de mesure et nombre de décimales)
• •
Constante d’intégration de la sortie du bloc de
PV_FTIME
fonction (en secondes)
• •
Hystérésis des fonctions d’alarme (% de la plage
ALARM_HYS
de mesure)
• •
Seuil d’alarme très haut ; en cas de dépassement,
HI_HI_LIM
les bits d’alarme et d’état passent à 1
• •
Seuil d’avertissement haut ; en cas de
HI_LIM dépassement, les bits d’avertissement et d’état
passent à 1
• •
Seuil d’avertissement bas ; en cas de
LO_LIM dépassement, les bits d’avertissement et d’état
passent à 1
• •
Seuil d’alarme très bas ; en cas de dépassement,
LO_LO_LIM
les bits d’alarme et d’état passent à 1
HI_HI_ALM • Etat du seuil d’alarme très haut avec datation
HI_ALM • Etat du seuil d’avertissement haut avec datation
LO_ALM • Etat du seuil d’avertissement bas avec datation
LO_LO_ALM • Etat du seuil d’alarme très bas avec datation
Bloc transmetteur : Contient des données propres à l’application, comme les paramètres
de réglage.
Entrée analogique : Lit la valeur mesurée par le capteur, ainsi que son état et la mise à
l’échelle.
Sortie TOR : Fournit à la sortie TOR la valeur donnée par le système. Toute application
comporte plusieurs blocs de fonctions, intégrés dans les instruments de terrain par le
constructeur et accessibles par la communication et les outils de développement.
Les équipements opérant sous PROFISafe sont donc en mesure de fonctionner sans
limite, en parfaite harmonie avec des équipements standard, sur un même câble. Basé sur
le profil DP, PROFISafe accepte les transmissions RS 485, fibre optique ou CEI 1158-2.
PROFISafe offre également deux avantages décisifs : dans le manufacturier, une très
grande réactivité héritée de DP et, dans le process, l’absence d’alimentation
supplémentaire pour les instruments de terrain PA. Il s’agit donc d’une solution logicielle
qui regroupe communication de sécurité et transmission standard sur une seule voie, sans
aucun autre câblage spécifique.
PROFISafe prend en compte toutes les erreurs qui pourraient s’infiltrer dans la
transmission série standard (répétition, perte, insertion, erreur de séquence, retard,
mascarade, corruption des données et défaut d’adressage). Mieux encore, il définit des
mécanismes de sécurité complémentaires qui vont bien au-delà des simples détection et
correction d’erreur de la gestion d’accès PROFIBUS.
Basés sur le profil de communication DP, ces profils applicatifs sont définis pour quatre
types d’équipement :
Codeurs (n° 3.062) : Ce profil porte sur le raccordement des codeurs rotatifs,
angulaires et linéaires (mono et multi tours) sur DP. Deux classes d’équipement
définissent des fonctions de base et des fonctions complémentaires, telles la
mise à l’échelle, le traitement des alarmes et le diagnostic.
De puissants outils permettent la configuration d’un réseau PROFIBUS. Basés sur les
fichiers GSD, ils facilitent considérablement cette tâche pour des réseaux PROFIBUS
fédérant des équipements multi sources.
Grâce à ces fichiers, la notion d’automatisation ouverte descend réellement sur le terrain,
au plus près de l’opérateur posté. Ils peuvent être chargés durant la configuration à l’aide
de n’importe quel outil de configuration moderne, ce qui apporte un plus de convivialité et
de simplicité à l’intégration d’équipements multi sources au sein de PROFIBUS.
Les fichiers GSD donnent un descriptif clair et exhaustif des caractéristiques d’un type
d’équipement, dans un format extrêmement précis. Préparés pour chaque type
d’équipement par le fournisseur, ils sont proposés à l’utilisateur sous forme électronique.
La définition très précise du format de fichier permet à l’outil de configuration d’y puiser
automatiquement toute l’information nécessaire à la configuration du bus.
L’ingénieur est ainsi dispensé de la fastidieuse pêche à l’information dans les manuels
techniques. Même en pleine configuration, les erreurs de saisie sont systématiquement
traquées et la cohérence entre les données entrées et la totalité du système est
automatiquement vérifiée.
Dans chaque cas, ces paramètres sont séparés par des mots clés. On distingue des
paramètres obligatoires (par ex., fournisseur Vendor_Name) et des paramètres facultatifs
(mode de synchronisation Sync_Mode_supported).
Le format du GSD garantit une grande souplesse d’exploitation. Constitué de listes (par
ex., débits supportés par l’équipement), il ménage assez de place pour décrire les divers
constituants d’une machine modulaire.
Les messages de diagnostic peuvent aussi s’accompagner de textes en clair. Pour faciliter
la tâche des fabricants, la page d’accueil du site Internet de PROFIBUS
http://www.profibus.com propose, dans sa rubrique Download, le téléchargement d’un
éditeur et d’un contrôleur GSD qui simplifient la réalisation de ces fichiers. De même, les
formats de fichier GSD sont décrits dans deux directives PROFIBUS.
Des numéros d’identification génériques, compris entre 9700H et 977FH, ont été réservés
aux instruments de terrain PA. Tous les appareils PA répondant exactement aux
définitions de la version 3.0 (ou supérieure) du profil PA doivent donc être numérotés dans
cette plage. La définition de ces numéros génériques renforce l’interchangeabilité des
instruments de terrain PA.
Cette évolution trouve sa justification dans l’impossibilité de couvrir jusqu’à présent tous
les besoins de la vitesse variable à l’aide d’une seule solution réseau s’appuyant sur les
bus de terrain ouverts du marché.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 180 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Si, par exemple, le réseau a pour triple vocation de piloter les variateurs, de lire et
d’afficher les E/S déportées, ou encore d’assurer la visualisation et l’exploitation, il faut
obligatoirement éclater ces fonctions sur plusieurs bus. Les nouvelles fonctionnalités de
PROFIBUS dédiées à la commande d’axes permettront aux utilisateurs de ne plus faire
appel à des bus spécialisés dans nombre d’applications.
Pour des applications courantes, la gigue du signal d’horloge, de cycle en cycle, doit être
inférieure à 1 μs. Des dérives plus importantes sont considérées comme des défauts du
cycle et, à ce titre, ignorées. Si l’on omet un cycle, le cycle suivant doit de nouveau se
situer dans la tranche horaire.
Des esclaves simples (E/S déportées, par exemple) peuvent prendre part à ce bus
synchrone, sans aucune modification. Grâce aux fonctions Synchro et Freeze , entrées et
sorties sont gelées à un instant du cycle et transmises au cycle suivant.
La parfaite synchronisation de tous les participants du bus est toutefois soumise à une
limitation du nombre de maîtres : un seul DPM1 (l’automatisme) et un seul DPM2 (l’outil
de développement).
Les esclaves existants qui ne disposent pas encore de ces extensions de protocole
peuvent cohabiter sur le même segment de bus avec des variateurs intégrant déjà ces
nouvelles possibilités.
8.8. LE PROFINET
Les appareils répartis dans l’atelier sont intégrés dans l’architecture PROFInet IO ; celle-ci
utilise la vue habituelle des E/S de PROFIBUS DP et ses mécanismes de transfert
cyclique des E/S des équipements déportés dans la mémoire image du processus de
l’automate.
L’étude et la réalisation d’un réseau PROFInet IO n’auront pas de secret pour les
intégrateurs PROFIBUS DP, les appareils répartis sur le terrain étant, par configuration,
attachés à un automate.
8.8.2. Communication
L’installation de PROFInet obéit aux consignes propres aux réseaux Ethernet en milieu
industriel. Les constructeurs d’automatismes reçoivent un cahier des charges précis
stipulant les exigences en matière d’interfaçage et de câblage des équipements. Le «
Guide d’installation PROFInet » renseigne les industriels sur les principales règles
d’installation des réseaux Ethernet.
La notion de gestion de réseau englobe tous les aspects de l’administration des appareils
PROFInet sur Ethernet : configuration des appareils et du réseau, diagnostic du réseau.
Pour dialoguer sur le Web, PROFInet s’appuie sur la technologie Ethernet et sur des
mécanismes Internet de grande diffusion pour autoriser l’accès aux composants
PROFInet.
De même, son ouverture aux autres niveaux de la hiérarchie industrielle fait appel aux
standards OPC DA et DX
L’une des grandes vertus de PROFInet est sa facilité à gérer la transition entre la
technologie bus existante (dont PROFIBUS DP) et la solution Ethernet industriel : les
PROFInet IO permet l’intégration directe des appareils de terrain sur Ethernet ; pour cela,
le modèle producteur/consommateur remplace la méthode d’accès maître esclave de
PROFIBUS DP.
En matière de communication, tous les constituants d’un réseau Ethernet sont traités de
façon démocratique, avec une bande passante partagée de manière égalitaire. La
configuration sert néanmoins à définir l’affectation des appareils de terrain à un
automatisme centralisé, l’interface utilisateur bien connue de PROFIBUS étant transférée
dans les périphériques PROFInet : c’est en effet au niveau de la périphérie décentralisée
que les signaux sont lus et transmis à l’automatisme qui les traite, puis renvoie ses sorties.
Les échanges entre contrôleur et périphériques d’E/S empruntent différents canaux selon
le type de données :
emplacements pour l’insertion des modules, lesquels sont pourvus de canaux véhiculant
les signaux d’E/S du process.
Dans l’architecture PROFInet IO, chaque périphérique d’E/S reçoit un identifiant unique de
32 bits, scindé en code constructeur (16 bits) et code appareil (16 bits).
Le code constructeur est donné par PROFIBUS International tandis que le code appareil
peut être attribué par le constructeur, en fonction de son développement produit.
Ce fichier GSD est basé sur XML, standard ouvert et très répandu de description des
données, qui contribue à la puissance des outils et de leurs propriétés :
Structure hiérarchique.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 188 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Le fichier GSD, normalisé ISO 15745, comprend une partie « Appareil » (configuration et
paramétrage des modules) et une partie « Communication » (débit, connectique).
Figure 134 : Les 2 étapes de configuration avant l’échange des données entre contrôleur
et périphérique E/S sur PROFInet IO
Le fichier GSD des périphériques d’E/S est d’abord importé dans l’outil de configuration.
Chaque canal d’E/S reçoit une adresse de périphérique ; les adresses d’entrée rapatriant
les valeurs du processus sont analysées et traitées par le programme d’application, qui
crée des valeurs de sortie et les renvoie au processus. C’est aussi à ce niveau que
s’effectue le paramétrage de chaque module ou canal d’E/S (plage de courant 4-20 mA
d’un canal analogique, par ex.).
8.9.5. Diagnostiques
Sur apparition d’une erreur, le périphérique d’E/S incriminé transmet au contrôleur une
alarme de diagnostic, qui appelle le sous-programme automate permettant de réagir au
défaut.
N° d’emplacement (module) ;
N° de canal ;
Données constructeur.
Lorsqu’une erreur survient au niveau d’un canal, le périphérique d’E/S incriminé transmet
au contrôleur une alarme de diagnostic, qui déclenche l’appel du sous-programme d’erreur
correspondant dans la logique de commande. Ce dernier étant exécuté, le contrôleur
acquitte l’erreur dans le périphérique d’E/S. Ce mécanisme garantit le traitement
séquentiel de l’erreur dans le contrôleur.
Les composants PROFInet sont donc des fonctions logicielles encapsulées, au standard
COM ; ce dernier est une évolution de la technologie objet autorisant le développement
d’applications à base de composants prédéfinis, qui sont autant d’entités autonomes
interconnectables.
Ces composants peuvent librement s’assembler comme des briques logicielles facilement
réutilisables, indépendamment de leur programmation et de leurs fonctionnalités internes.
L’accès à l’interface technologique du composant obéit à une définition unifiée PROFInet.
Lorsqu’il s’agit de définir la granularité des modules, il faut tenir compte de leur
réutilisabilité dans plusieurs systèmes, sous l’angle des facteurs coût et disponibilité.
Pour faciliter la configuration d’un réseau PROFInet, PROFIBUS a adopté une ingénierie
indépendante des constructeurs permettant le développement d’outils de configuration
capables d’utiliser des composants multi constructeurs ainsi que la spécification
d’extensions constructeurs ou utilisateurs.
Interconnexion
Téléchargement
Figure 138 : Téléchargement des connexions dans les appareils de terrains configurés
Ce fichier XML est créé avec les outils du constructeur, si celui-ci dispose d’un «
générateur de composants ».
Le fichier PCD contient des informations sur les fonctions et les objets des composants
PROFInet, à savoir :
Figure 139 : Vue technologique d’une installation avec plan d’interconnexion graphique
des composants
Figure 140 : Vue du réseau représentant les appareils de terrain raccordés au bus
Le temps réel logiciel SRT (Soft Real Time) pour les données process à temps
critique utilisées en automatisation industrielle ;
Le temps réel isochrone IRT (Isochronous Real Time) pour des applications
pointues comme la commande et la synchronisation d’entraînements (Motion
Control).
Ces caractéristiques constituent l’un des points forts de PROFInet ; elles en garantissent
la cohésion à tous les niveaux de l’entreprise, de l’atelier à la direction, et une grande
réactivité au sein du processus.
8.9.7.1. TCP/UDP et IP
Ethernet et TCP/IP sont les piliers de la communication PROFInet. TCP/IP est en effet le
protocole de communication du monde informatique. Néanmoins, en matière
d’interopérabilité des applications, l’établissement d’un canal de transport TCP ou UDP
commun (couche 4) sur les appareils de terrain ne suffit pas.
En effet, seule l’utilisation d’une même couche Application par l’ensemble des appareils
est gage d’interopérabilité.
Quelques rappels :
Une communication temps réel doit pouvoir minimiser la charge du processeur des
appareils et garantir ainsi le traitement prioritaire du programme applicatif. L’expérience a
pourtant montré que le temps de transmission d’une donnée sur une liaison Fast Ethernet
à 100 Mbit/s (ou plus) est négligeable au regard du temps de traitement dans les
appareils. Le temps nécessaire pour fournir cette donnée à l’application du producteur
n’est pas affecté par la communication.
Pour satisfaire les contraintes temps réel de l’automatisation, PROFInet possède un canal
de transmission optimisé, dénommé Soft Real Time. Basé sur Ethernet (couche 2), il
raccourcit considérablement le temps de traitement dans la pile de communication et
accroît la vitesse de rafraîchissement des données process.
Tout comme si, par analogie avec la circulation autoroutière, on réservait la file de gauche
au trafic express (temps réel) et confinait les autres usagers (transport TCP/IP) sur la file
de droite, de sorte que les embouteillages sur ce côté de la chaussée ne ralentissent pas
le trafic à temps critique.
Au démarrage de PROFInet IO, le protocole RPC basé sur UDP/IP sert au lancement des
échanges entre appareils, au paramétrage des équipements distribués et aux diagnostics.
Grâce à l’ouverture de ce protocole standardisé, les postes de conduite (IHM) et stations
d’ingénierie (superviseurs) peuvent aussi accéder aux périphériques d’E/S PROFInet IO.
Le canal temps réel de PROFInet est ensuite utilisé pour transmettre E/S et alarmes.
Dans un réseau PROFInet IO type, un contrôleur échange des E/S cycliques avec
plusieurs périphériques d’E/S par le biais de relations de communication. À chaque cycle
de scrutation, les données d’entrée des périphériques interrogés sont envoyées au
contrôleur qui leur renvoie des données de sortie.
La couche de transmission des données de PROFInet est définie dans l’IEEE 802.3, qui
décrit la configuration des protocoles et la surveillance des défauts. Un télégramme de
données utilisateur comprend un minimum de 64 octets et un maximum de 1500 octets,
dont 28 octets pour les données temps réel.
Dans la vue des composants PROFInet, DCOM (Distributed COM) est le protocole
applicatif TCP/IP servant au partage des données entre composants PROFInet.
DCOM est l’extension du modèle COM (Component Object Model) pour la distribution des
objets sur le réseau et leur interopérabilité. DCOM s’appuie sur le standard RPC.
PROFInet utilise DCOM non seulement pour accéder aux fonctions d’ingénierie
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 199 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
DCOM n’est toutefois pas indispensable au dialogue entre composants PROFInet. C’est à
l’utilisateur de décider, au niveau du système d’ingénierie, d’échanger les données
utilisateur sur DCOM ou canal temps réel.
Le canal temps réel PROFInet est ensuite utilisé pour la communication temps réel entre
noeuds, au sein d’applications à temps critique.
Précisons que la solution cyclique convient mieux aux changements de valeur fréquents
car, à l’inverse, l’interrogation ponctuelle des appareils pour contrôle et acquit alourdit la
charge du processeur.
C’est dire qu’aucune ne tient compte des impératifs et spécificités du milieu industriel :
Topologie bus ;
Bureautique Industrie
Installation de base fixe Câblage dicté par le site
Câblage dans faux-planchers Cheminement de câbles lié au site
Changement fréquent de points de
Rare modification des points de connexion
connexion
Câblage préconfectionné Câblage sur site
Topologie arborescente Topologies bus et anneau (redondant)
Gros volumes de données (ex. : images) Faibles volumes de données (mesures)
Disponibilité moyenne du réseau Très haute disponibilité du réseau
Températures modérées Températures extrêmes
Absence d’humidité Présence d’humidité (étanchéité IP65)
Quasi-absence de vibrations Vibration des machines
Faibles contraintes CEM Fortes contraintes CEM
Faible risque mécanique Risque de casse mécanique
Pollution chimique (graisses et ambiances
Quasi-absence de risques chimiques
agressives)
8.9.8.1. Topologies
Les topologies visent à satisfaire les exigences des unités fédérées sur le réseau ; les plus
utilisées sont l’étoile, le bus, l’arborescence et l’anneau. En pratique, un réseau tend à
panacher ces structures, décrites ci-après, qui empruntent des supports physiques comme
le cuivre ou la fibre optique, également sur PROFInet.
Étoile
Un noeud central (commutateur) répartit les signaux entre chaque branche le raccordant
aux nœuds d’extrémité. Le réseau en étoile convient aux applications à forte densité
d’équipements et faible rayon d’action (petites cellules de fabrication ou machine de
production isolée, par exemple).
Arborescence
Cette topologie consiste à réunir plusieurs étoiles pour former un réseau combinant au
besoin fibre optique et paire torsadée ; elle permet de subdiviser des installations
complexes en sous réseaux.
Ligne (bus)
Anneau (redondant)
Dans un réseau en anneau, toutes les stations sont montées en série dans une boucle
fermée. Cette topologie vaut pour les systèmes exigeant une haute disponibilité et une
protection contre les coupures de ligne ou défaillances des constituants de réseau.
Les câbles industriels sont soumis à d’énormes sollicitations mécaniques ; ils sont donc
fabriqués spécialement pour l’atelier. PI a défini différents types de câbles optimisés pour
fonctionner aux limites des conditions industrielles. Grâce aux réserves suffisantes du
système, la longueur de câble d’une installation aux normes industrielles peut varier sans
limite.
Connecteurs et câbles forment un tout parfaitement cohérent : seuls ceux dont on a testé
et validé la compatibilité sont certifiés PROFInet. Les exigences de câblage au niveau
terrain s’apparentent à celles de PROFIBUS. Les stations recevant aussi bien des
données qu’une alimentation en 24 V, le câble hybride (véhiculant signaux et alimentation)
est idéal. L’offre est double : câble mixte Cu/FOC (2 fibres optiques pour les données/4 fils
pour l’alimentation) ; câble Cu/Cu (4 fils de données/4 fils d’alimentation).
Rappelons les deux grands avantages de la fibre optique sur la paire torsadée :
insensibilité aux perturbations électromagnétiques et déploiement de réseaux étendus.
support de transmission est la paire de cuivre blindée STP (Shielded Twisted Pair)
constituant un câblage 100Base-TX, à 100 Mbit/s (Fast Ethernet). Seuls les câbles et une
connectique blindés sont autorisés. Chacun doit être en catégorie 5 normalisée CEI
11801, et toute la liaison doit être conforme à la classe D, toujours selon la CEI 11801.
De plus, les câbles PROFInet ont une section AWG 22 afin de pouvoir réaliser des
câblages complexes avec un affaiblissement minimal du signal. C’est pourquoi le câblage
PROFInet privilégie la modularité, en respectant la CEI 11801 et des règles d’installation
simples. Les raccordements d’équipements se matérialisent par des connecteurs
débrochables RJ45 ou M12. Les câbles de liaison sont pourvus de connecteurs aux deux
extrémités, que l’on peut pré assembler avec le câble AWG 22.
Tous les appareils sont connectés au réseau par un équipement actif. PROFInet utilise
des constituants commutés dont la spécification garantit la simplicité d’installation. Les
câbles de transmission sont équipés de connecteurs identiques aux deux extrémités, pré
assemblé selon les mêmes critères. La longueur d’un segment est limitée à 100 m.
Pour les applications à l’extérieur de l’armoire électrique, la gaine du câble doit satisfaire
les exigences de protection mécanique, chimique et thermique du lieu de production. La
longueur maximale d’un segment est de 2 km en multimode et de 14 km en monomode.
8.9.8.3. Connectiques
L’un des premiers critères d’adéquation au milieu industriel est la possibilité de réaliser
des systèmes de raccordement sur site. Les connecteurs M12 et RJ45 sont faits pour
cela ; leur montage est facilité par l’emploi d’outils standard.
Les connecteurs situés à l’extérieur de l’armoire doivent tenir compte des contraintes
industrielles : ce sont des RJ45 protégés IP65 ou IP67 ou des connecteurs M12.
Le connecteur M12 de PROFInet est la version blindée codée D, spécifiée dans le projet
de norme CEI 61076-2-101.
La connectique « duplex DC », conforme ISO/CEI 11801, est surtout utilisée pour la fibre
optique, elle-même décrite dans la norme CEI 60874-14.
Les appareils sont équipés de l’embase femelle et du câble de raccordement avec la fiche
mâle. On peut aussi utiliser les connecteurs à fibre optique BFOC/2.5 normalisés CEI
60874-10.
Le connecteur hybride s’emploie pour les architectures réparties dont les appareils de
terrain sont reliés par un connecteur mixant données et alimentation. Le RJ45 protégé
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 205 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
8.9.8.4. Commutateurs
Les commutateurs adaptés à PROFInet sont ceux conçus pour Fast Ethernet (100 Mbit/s,
IEEE 802.3u) et la transmission en full duplex ; dans ce mode, le commutateur reçoit et
émet simultanément sur un même port, sans risque de collision et, donc, sans perte de
bande passante due aux mécanismes de détection Ethernet.
Les commutateurs PROFInet gèrent également la priorité des télégrammes selon IEEE
802.1Q et les fonctions suivantes : diagnostics standardisés, changement automatique de
polarité, auto négociation, détection automatique du câblage croisé et, en option,
duplication de port (port mirroring) aux fins de diagnostics.
Partant de là, PROFInet permet d’intégrer d’autres bus de terrain comme Foundation
Fieldbus, DeviceNet, Interbus, CC-Link…. On définit alors pour chaque bus une image
spécifique des interfaces de composants pour les différentes possibilités de
communication, que l’on sauvegarde dans le proxy. Cela permet de raccorder d’un seul
coup n’importe quel réseau de terrain à PROFInet.
La fonction proxy garantit que la vue PROFInet reste encapsulée dans le système
d’automatisme sous forme de module technologique. Toutes les opérations en amont de
PROFIBUS se déroulent comme auparavant.
8.10.1. TCP/IP
Figure 152 : Présentation du modèle OSI adapté à quelques éléments de la suite TCP/IP
8.10.2. Le protocole IP
L'adresse IP est composée, comme on le verra plus loin, de 32 bits, mais pour en
simplifier l'usage (on pourra juger cette simplification un peu trop "informaticienne", on a
regroupé ces termes par octet et énuméré l'adresse en décimal pointé (4 nombres
décimaux inférieurs à 255 et séparés d par des points).
On trouve cette adresse encapsulée dans la trame Ethernet (dans les premiers octets du
champ de donnée de la trame IEEE 802.3). Elle est placée à l’intérieur de l’entête IP.
4 8 16 32 bits
Ver. IHL Type of service Total length
Identification Flags Fragment offset
Time to live Protocol Header checksum
Source address
Destination address
Option + Padding
Data
L’adresse IP est définie par un ensemble de 4 octets. Ce qui permet de définir 232
adresses (4 300 milliards de nœuds). Ces adresses sont rangées selon 5 classes,
dépendant de la valeur des premiers bits de l’adresse.
La classe A permet de créer 126 réseaux de 224 machines (16 millions), soit une
utilisation des adresses 1.0.0.0 à 126.255.255.255.
La classe B permet de créer 16384 réseaux de 216 machines (65 536), soit une
utilisation des adresses de 128.1.0.0 à 191.255.255.255.
La classe C permet de créer 221 réseaux (2 millions) de 256 machines, soit une
utilisation des adresses 192.0.1.0 à 223.255.255.255.
Enfin la classe E est réservée à de futures utilisations, elle utilise quand même
les adresses comprises entre 240.0.0.0 et 247.255.255.255.
Cette répartition permet aussi de définir non seulement une "arborescence" du nombre de
réseau, mais aussi une organisation hiérarchique.
Au niveau de la classe A, toutes les machines sont des routeurs ou des passerelles
interconnectées sur un faible nombre de réseaux. On forme à ce niveau les
interconnexions des grands réseaux intercontinentaux.
Cette valeur composée de 4 octet lui permet de définir l'adresse du réseau sur lequel elle
est connecté, et par déduction connaître son "nom" sur le réseau.
IP 192 10 15 20 IP 192 10 15 20
& Masque 255 255 255 0 + Masque 255 255 255 0
= Réseau 192 10 15 0 = Machine 255 255 255 20
Attention, les nombres précédents sont présentés en base 10, pour mieux comprendre la
manipulation présentée dans cet exemple de traduire les nombres en hexadécimal.
IP C0 A F 15 IP C0 A F 15
& Masque FF FF FF 0 + Masque FF FF FF 0
= Réseau C0 A F 0 = Machine FF FF FF 15
4 8 16 32 bits
Ver. IHL Type of service Total length
Identification Flags Fragment offset
Time to live Protocol Header checksum
Source address
Destination address
Option + Padding
Data
Les 4 premiers bits définissent le numéro de version IP, généralement ce nombre est 4
(IPv4).
Le champ IHL (Ip Header Length) donne le nombre de mots de 32 bits contenu dans
l'entête (les données n'en font pas partie), mais en incluant les options et le Padding.
001 : priority
010 : immediate
011 : flash
101 : critic
110 : internetwork control
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 214 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Les 4 derniers bits servent à décrire le service demandé. Ils sont exclusifs (un
seul bit peut être validé pour une trame)
T : Maximiser le débit, bien entendu, cette option est utilisée dès qu'il y a
beaucoup de données à transmettre.
Le Champ TLF (Total Length Field) permet de fixer la taille totale du paquet IP (donc, on
connaît la taille de l’entête du champ de donnée. Ce champ permet ainsi d’éliminer des
termes de bourrage utilisé pour porter les petites trames IP au format minimum de la
trame Ethernet (46 octets).
Le champ TTL (Time To Live) permet de fixer le nombre maximal de routeur qu'un
datagramme peut traverser. Ce champ est initialisé à une certaine valeur au départ. Puis
chaque routeur traversé le décrémente. Arrivé à 0, le datagramme est rejeté, et l'émetteur
prévenu. Contrairement à ce que l'on peut croire, cette méthode n'est pas coercitive, mais
permet d'éliminer des paquets perdus sur le réseau.
Le champ protocole permet de définir quel type de service (TCP, UDP, etc.) utilise le
champ de données de IP pour y encapsuler ses données. On peut noter certaines valeurs
de ce champ (1 pour ICMP, 6 pour TCP et 17 pour UDP)
Le champ HCS (Header Check Sum) contient un code CRC permettant de valider l'entête
IP et exclusivement l'entête IP encapsulé dans la trame Ethernet. Il faut noter que le
propre champ HCS est lui même inclus dans l'entête, donc dans le champ de contrôle,
pour cela on le considère pour le calcul valant zéro.
Enfin, on présente les adresses IP de la source et du destinataire, puis, avant d'empiler les
données, on laisse systématiquement 32 bits libres pour la définition d'options (si il y en a)
ou pour un usage ultérieur.
La trame IP peut contenir des options. Celles-ci servent à la mise au point des réseaux.
Elles restent toutefois optionnelles bien que devant être implémentées par tous les
éléments d'un réseau. Les options sont décrites par un simple octet.
0 1 2 3 7
C Classe d’option Numéro d’option
Le premier bit de l’octet est l’indicateur de copie, il permet de signifier si les informations
concernant cette option doivent être copié pour chacun des éventuels fragments (bit à 1)
ou pas (bit à 0).
00 : classe de contrôle
Les options n’utilisant qu’un seul octet pour leur définition, on ajoute systématiquement
des octets de remplissage pour compléter le paquet de 4 octets commencé par la
définition de l’option. On parle alors de PADDING.
8.10.4. IP et Ethernet
L'utilisation du protocole IP sur Internet impose la définition de deux problèmes, d'une part
où et comment se rangent les données et l'identification de la trame IP (au sens physique),
d'autre part comment on associe le fonctionnement des 2 protocoles (au sens logique).
Le protocole IP et le protocole Ethernet sont liés l'un à l'autre par une table d'échange
nommée table ARP (pour Adress Résolution Protocol). Le rôle de cette table est
d'associer à une adresse IP une adresse MAC. Ceci se fait suivant une procédure très
simple.
Les 3 paramètres qui doivent être définis pour toutes les machines utilisant IP sont
respectivement : l'adresses IP, le masque de sous réseau et l'adresse IP de sa passerelle
(qui doit être sur le même réseau physique que la machine).
Lors de l'émission d'une trame IP, la machine source compare l'adresse IP de la machine
cible avec l'adresse de son sous réseau. Si elle ne reconnaît pas alors l'adresse de son
propre réseau, elle sait que la seule passerelle est à même de faire transiter son message
sur le Web, elle va donc essayer de contacter sa passerelle. Pour se faire, elle va utiliser
la même procédure que celle lui permettant de contacter une machine sur le même sous
réseau.
Si la cible est sur le même sous réseau, en considérant que la machine source est restée
inactive assez longtemps, elle doit alors associer à l'adresse IP de sa cible une adresse au
niveau de la couche MAC (IP n'est pas un réseau, rappelez vous ce que j'en ai dit, seul la
couche MAC donne accès à la liaison physique). Pour identifier l'adresse de sa cible, la
machine source envoie une trame ARP Request.
La trame ARP utilise le champ de donnée de la trame du réseau local pour présenter son
entête et place dans le champ de définition du type de trame encapsulé le code
hexadécimal 0806.
16 32 bits
Hardware Type Protocol Type
HLen (8) Plen (8) Operation
Sender Hardware Adress
Sender Protocol Address
Target Hardware Address
Target Protocol Address
La trame ARP Request envoie alors un message à toutes les machines (BROADCAST
ALL) leur demandant de répondre à l'émetteur si leur adresse IP est présente dans la
trame. La machine concernée répondra par une trame ARP Reply directement adressée à
l'émetteur de la requête.
L'entête ARP est composé de 2 type de champs, d'une part des champs orientés vers la
couche physique (HARDWARE ) d'autre part les champs orientés vers la couche IP
(PROTOCOL). Tout commence par 4 octets définissant respectivement pour les 2
premiers le type de couche MAC utilisée (Ethernet est caractérisé par un 1), et pour les 2
derniers le type de couche réseau utilisée (on utilise le code 0x0800 pour IP).
Les champs Hlen et Plen définissent respectivement la taille en octets des adresses de la
couche MAC (6 pour Ethernet) et celles de la couche réseau (4 pour IP).
Le champ OP indique s'il s'agit d'une requête ou d'une réponse ARP (1 pour une requête
et 2 pour une réponse) ou d'une commande RARP (Reverse Adress Résolution Protocol).
Les champs précisés par la suite sont respectivement l'adresse MAC de la source, puis
son adresse dans eau en suite viennent les adresses MAC et réseau de la cible.
Lors de la requête, le champ correspondant à l'adresse MAC de la cible est laissé vide.
Lors de la réponse, c'est la machine qui était la cible qui devient la source donc c'est elle
qui fournit les valeurs d'adresse source et d'adresse cible au niveau de la couche réseau,
comme au niveau de la couche MAC. La machine cible étant alors la machine qui a émis
la requête.
Ces données sont alors stockées dans une table dynamique (qui s'efface si on ne la
rafraîchit pas au bout de 30 secondes). Ainsi, on efface automatiquement les données
entrées dans la table si elles ne sont plus utilisées.
La commande PING vient de Packet INternet Groper, elle permet de tester la réponse
d’une machine cible à une sollicitation de la part d'une machine source. Cette sollicitation
est un écho que la machine cible doit retourner.
Le message émis est donc composé d'un entête IP avec l'adresse de la machine source
et de la machine cible, en suite on trouve, encapsulé dans le champ de donnés de IP
l'entête ICMP qui possède un type et un code à 0, suivent un code d'identification de la
machine source et le numéro de séquence.
Le message renvoyé par la cible est lui aussi composé d'un entête IP et d'un entête ICMP
où le type vaut 8 et le code vaut 0, le champ d'identification et le numéro de séquence sont
ceux de la requête d'écho (le message émis).
8.10.6. Fonctionnement de IP
Lorsqu'une machine souhaite communiquer avec une autre, elle doit utiliser un support
physique de réseau pour faire transiter ses données. Prenons l'exemple d'un réseau fictif
où trône 3 machines.
Dans notre premier cas, on va imaginer qu'un utilisateur sur la machine n°1 souhaite
communiquer avec la machine n°2. Cette machine ayant été inactive depuis très
longtemps, elle ne connaît pas ses voisins.
Pour communiquer, elle a besoin de l'adresse physique de la machine cible (si celle-ci est
sur le même réseau qu'elle) ou alors de l'adresse physique du routeur si sa machine cible
n'est pas sur son réseau local.
Pour définir l'adresse de son réseau, la machine source réalise un ET logique entre son
adresse IP et le masque. On trouve :
192 0 1 2
255 255 255 0
192 0 1 0
Le réseau est donc 192.0.1.0. La cible ayant pour adresse 192.0.1.3, on cherche pour elle
aussi, son réseau :
192 0 1 3
255 255 255 0
192 0 1 0
Les 2 machines sont donc sur le même réseau. La machine source va donc demander à
toutes les machines du réseau celle qui a pour adresse IP : 192.0.1.3.
Cette demande se fait en envoyant une requête ARP en BROADCAST ALL, c'est à dire à
l'adresse de toutes les machines. On trouve donc une trame ARP contenant les
informations suivantes :
des adresses IP et MAC, dans la table ARP. De plus, une table de routage leurs permet
de connaître désormais la voie à suivre pour se parler.
Prenons maintenant le second cas : la machine n°2 souhaite dialoguer avec la machine
n°4 on recommence alors la procédure :
192 0 1 3
255 255 255 0
192 0 1 0
192 0 2 3
255 255 255 0
192 0 2 0
Les réseaux étant différents, la machine source sait qu'elle ne peut pas discuter
directement avec sa cible, elle doit donc impérativement dialoguer avec son routeur pour
obtenir le transfert des informations vers la cible.
Comme la machine n'a pas dialogué avec le routeur depuis longtemps, elle doit associer à
nouveau, à l'adresse IP du routeur, l'adresse MAC de ce dernier. Pour cela elle lance une
requête ARP en BROADCAST ALL.
Désormais, la machine n° 2 sait parler à son routeur. C'est maintenant à lui d'établir la fin
de la communication. Pour cela, il existe plusieurs possibilités : le routage statique (le
chemin à suivre à été fixé par un administrateur) ou le routage dynamique (les routeurs
doivent se découvrir sans aide extérieure).
Mais quel que soit la méthode de routage, le principe reste le même, le routeur comme les
autres machines, vérifie la présence du réseau cible dans sa table de routage. Et si celui
ci n'est pas présent, il consulte les autres machines grâce à des protocoles d'échange de
routes (comme le protocole IRDP pour Internet Router Discovery Protocol).
Le principal protocole utilisé par les routeurs est le protocole RIP (pour Routing
Information Protocol). Celui ci permet à un routeur de définir automatiquement et
dynamiquement (c'est à dire sans intervention extérieure) le plus court chemin à suivre
pour atteindre une cible.
Les informations de routages ne sont pas centralisées mais sont diffusées localement.
Chaque routeur dispose de sa propre table de routage appelée table RIP. Il n'y a pas sur
le réseau, de noeud centralisateur de l'information de routage, pas plus qu'il n'y a de
routeur connaissant l'ensemble des réseaux disponible.
La définition du chemin le plus court passe par l'utilisation d'une mesure de distance, basé
sur le HOP. Un HOP correspondant au passage d'un routeur. La distance n'est donc pas
réelle mais fictive, en effet, peu importe qu'un réseau mesure de plusieurs centaines de
kilomètres, ce qui compte c'est que l'on mobilise un nombre minimum de routeur pour
transférer une information.
Régulièrement (environ toutes les 30 secondes), les routeurs diffusent leurs tables RIP.
Heureusement, il existe 2 garde-fous à ces échanges, qui sur un réseau aussi vaste
qu'Internet pourraient poser de gros problèmes de saturation. Le premier tient au fait que
les tables sont propagées avec une limitation à 15 HOP de la distance maximale
accessible. La seconde tiens au fait que seul le chemin le plus court est mémorisé.
Les 1, 2 et 3 placé sur les fils reliés aux routeurs représentent la fin de l’adresse IP du
point de connexion.
Ces tables sont entretenues dynamiquement, cela veut dire par exemple que si le réseau
192.0.3.0 est défaillant (par exemple, le lien est brisé), dès le routeur C (ou le routeur D)
essayera de transmettre sur ce réseau, il détectera une erreur et fera évoluer sa table de
routage et par propagation celle des autres.
La création de ces tables de routage est réalisée par propagation de la table d'autres
routeurs (en incrémentant les distances), via des échanges de trames RIP.
A ce point les 4 réseaux 192.0 X 0 sont tous connus, pour mieux comprendre le
cheminement utilisé, on va synthétiser ces résultats sous la forme d’un tableau.
Les distances devant être minimisées, après la troisième étape, l’ensemble des éléments
du réseau connaît le chemin le plus court pour atteindre sa cible. Si l’on ajoute les routeurs
E et F, la diffusion est un peu plus longue mais elle conduira aux mêmes résultats.
La trame RIP est encapsulée dans une trame IP. Elle se compose d'un nombre variable
de champs. Toutefois, au minimum, la trame RIP est composée de 24 octets. La trame
suivante est en octets.
1 1 2 2 2 4 8 4
C V ZERO AFI ZERO ADDRESS ZERO ETRIC
Les champs ZERO sont des champs « vides » (remplis de zéro)
C Cela peut être une requête (un routeur sollicite d’un autre
Command la propagation de sa table) ou une « réponse » qui est soit
une mise à jour régulière soit une mise à jour
extraordinaire (cas où un brin du réseau est défaillant).
V
Donne le numéro de version du protocole RIP utilisé
Version
Une trame RIP peut contenir jusqu'à 25 occurrences des champs ADDRESS et METRIC,
permettant ainsi (pour chaque trame) de donner la position de 25 routeurs.
L'adresse IP de la passerelle à contacter pour le routage est quand à elle dans la trame IP
qui encapsule la trame RIP.
Le dialogue maître – esclave peut être schématisé sous une forme successive de liaisons
point à point.
8.10.8.2. Adressage
Les abonnés du bus sont identifiés par des adresses attribuées par l’utilisateur.
Le maître interroge un esclave de numéro unique sur le réseau et attend de la part de cet
esclave une réponse
Le maître diffuse un message à tous les esclaves présents sur le réseau, ceux-ci
exécutent l’ordre du message sans émettre une réponse.
La question
Elle contient un code fonction indiquant à l’esclave adressé quel type d’action est
demandé.
Les données contiennent des informations complémentaires dont l’esclave a besoin pour
exécuter cette fonction.
La réponse
Si une erreur apparaît, le code fonction est modifié pour indiquer que la réponse est une
réponse d’erreur.
Les données contiennent alors un code (code d’exception) permettant de connaître le type
d’erreur.
Deux types de codage peuvent être utilisés pour communiquer sur un réseau Modbus.
Tous les équipements présents sur le réseau doivent être configurés selon le même type.
Type ASCII : chaque octet composant une trame est codé avec 2 caractères ASCII
(2 fois 8 bits).
Type RTU (Unité terminale distante) : chaque octet composant une trame est codé sur 2
caractères hexadécimaux (2 fois 4 bits).
Le mode ASCII permet d’avoir des intervalles de plus d’une seconde entre les différents
caractères sans que cela ne génère d’erreurs, alors que le mode RTU permet un débit
plus élevé pour une même vitesse de transmission.
Le maître s’adresse à l’esclave dont l’adresse est donnée dans le champ prévu à cet
effet.
Le champ de données est codé sur n mots en hexadécimal de 00 à FF, soit sur n octets.
Dans le cas du mode RTU, le champ contrôle d’erreur CRC (Contrôle de Redondance
Cyclique) contient une valeur codée sur 16 bits.
Nota : Le contrôle de parité peut dans certains cas être supprimé car d’autres contrôles
d’échanges sont mis en oeuvre (cas du contrôle CRC encore appelé contrôle par
Checksum)
L’esclave renvoie sa réponse ; il place sa propre adresse dans le champ adresse afin que
le maître puisse l’identifier.
Manuel de Formation EXP-MN-SI110-FR
Dernière Révision: 08/04/2009 Page 232 de 249
Formation Exploitation
Instrumentation
Automatisme Centralisé - DCS
Il utilise ensuite le champ fonction pour indiquer si la réponse contient une erreur. Pour
une réponse normale, l’esclave reprend le même code fonction que celui du message
envoyé par le maître, sinon il renvoie un code erreur correspondant au code original avec
son MSB à 1.
Le champ contrôle d’erreur contient une valeur codée sur 16 bits. Cette valeur est le
résultat d’un CRC (Cyclical Redundancy Check) calculé à partir d’un message.
Chaque octet composant un message est transmis en mode RTU de la manière suivante :
Avant et après chaque message, il doit y avoir un silence équivalent à 3,5 fois le temps de
transmission d’un mot.
Le protocole MODBUS ne définit que la structure des messages et leur mode d’échange.
On peut utiliser n’importe quel support de transmission RS 232, RS 422 ou RS 485, mais
la liaison RS 485 est la plus répandue car elle autorise le « multipoints ».
- Adresse esclave : 04
- CRC : 25 CA
- Adresse esclave : 04
- CRC : 01 31
- Adresse esclave : 04
- CRC : B8 DE
Le nombre d’appareils compatibles avec HART utilisés dans le monde dépasse les 20
millions et ils constituent le plus grand protocole de communication. La technologie HART
est facile à utiliser et elle est très fiable.
Il existe plusieurs raisons pour faire communiquer un ordinateur central avec un appareil
utilisateur. Entre autres :
Diagnostic de l’appareil
Dépannage de l’appareil
Et beaucoup d’autres !
HART est un protocole de communication maître-esclave créé dans les années 80 pour
faciliter la communication avec les appareils utilisateurs intelligents. HART signifie
Highway Addressable Remote Transducer (télétransducteur adressable par bus). Le
protocole HART utilise la norme de modulation par déplacement de fréquence (FSK) Bell
202 pour superposer les signaux de communication numériques bas niveau aux signaux
4-20 mA.
Cela permet le dialogue avec les utilisateurs ainsi que la communication d’informations
supplémentaires, en plus de la variable de processus normal, vers/à partir d’une machine
utilisateur intelligente. Le protocole HART communique à 1200 bits/seconde sans
interrompre le signal de 4-20 mA et permet à une application hôte (maître) de recevoir
deux mises à jour numériques, ou davantage, par seconde, d’une machine utilisateur.
Comme le signal numérique FSK est à phase continue, il n’y a pas d’interférence avec le
signal de 4-20 mA.
HART est un protocole maître/esclave, ce qui signifie qu’une machine utilisateur (esclave)
ne parle que si un maître s’adresse à elle. Le protocole HART peut être utilisé en divers
modes pour communiquer des informations vers/à partir de machines utilisateurs
intelligentes et vers/à partir de systèmes centraux de commande ou de surveillance.
Le protocole HART permet d’effectuer toutes les communications numériques avec les
machines utilisateurs selon des configurations en réseau point par point ou en réseau
multipoint.
HART offre deux voies de transmission simultanées : le signal analogique 4-20 mA ainsi
qu’un signal numérique. Le signal 4-20 mA transmet la valeur primaire mesurée (dans le
cas d’un appareil utilisateur) en utilisant la boucle de courant de 4-20 mA – la norme
industrielle la plus rapide et la plus fiable.
Ensemble, les deux voies de transmission offrent une solution complète de communication
avec les appareils utilisateurs, facile à utiliser et à configurer, de coût peu élevé et très
robuste.
Commandes HART
Parmi les applications, on peut citer l’interrogation à distance des variables de processus,
l’accès cyclique aux données de processus, la fixation de paramètres et les diagnostics.
La couche Application définit les commandes, les réponses, les types de données et
l’établissement d’états d’avancement de travaux, pris en charge par le Protocole. En plus,
certaines conventions du Protocole HART (par exemple, comment régler un courant de
boucle) sont également considérées comme faisant partie de la couche Application.
Alors que le Résumé des Commandes, les Tables Communes et les Spécifications sur le
Code de Réponse aux Commandes établissent les pratiques obligatoires de la Couche
Application (p. ex. types de données, définitions communes de données élémentaires, et
procédures), les Commandes Universelles indiquent le contenu minimum de la Couche
Application pour tous les appareils compatibles avec HART.
Plusieurs types de données ou d’informations peuvent être transmis à partir d’un appareil
compatible avec HART. Entre autres :
Données de mesure
Données d’étalonnage
Une fois que ces données sont intégrées dans les systèmes de commande, de gestion
d’actifs ou de sécurité, il est alors possible d’améliorer les opérations de l’unité de
production, de diminuer les coûts et d’augmenter la disponibilité de l’unité de production.
Entrer message
Entrer étiquette
Entrer date
Définir descripteur
Davantage d’états disponibles - Indique que les données sur l’état des appareils
supplémentaires sont disponibles
Variable primaire hors limites - Indique que la valeur de la variable primaire est en
dehors des limites du capteur
Nom du fabricant (Code) - Code établi par HCF et fixé par fabricant
Message – Espace message pour zone de travail (32 caractères), fixé par
l’utilisateur
Upper Range Value - Primary Variable Value in engineering units for 20mA
point, set by user
Lower Range Value - Primary Variable Value in engineering units for 4mA point,
set by user