Vous êtes sur la page 1sur 5

L’automatique est une science qui traite de la modélisation, de l’analyse, de l’identification et de

la commande des systèmes dynamiques. Elle inclut la cybernétique au sens étymologique du


terme, et a pour fondements théoriques les mathématiques, la théorie du signal et l’informatique
théorique. L’automatique permet de commander un système en respectant un cahier des
charges (rapidité, précision, stabilité…).
Les professionnels en automatique se nomment automaticiens. Les objets que l’automatique
permet de concevoir pour procéder à l'automatisation d'un système (automates,
régulateurs, etc.) s'appellent les automatismes ou les organes de contrôle-commande d'un
système piloté.
Un exemple simple d'automatisme est celui du régulateur de vitesse d’une automobile : il permet
de maintenir le véhicule à une vitesse constante prédéterminée par le conducteur,
indépendamment des perturbations (pente de la route, résistance du vent, etc.). James Clerk
Maxwell, dans son article « On Governors »1 (1868), définissait ainsi le système de régulation
qu'il avait inventé : « A governor is a part of a machine by means of which the velocity of the
machine is kept nearly uniform, notwithstanding variations in the driving-power or the
resistance ». Cette définition est une excellente introduction à l'automatique.

Histoire de l'automatique[modifier | modifier le code]


Préhistoire de l'automatique[modifier | modifier le code]
On peut faire remonter les débuts de l’automatique à l’Antiquité. Par exemple, les Romains
régulaient le niveau d’eau des aqueducs grâce à un système de valves. Au XVIe siècle, Cornelis
Drebbel a conçu l'asservissement de température d'un four en combinant des effets thermiques
et mécaniques ; alchimiste, Drebbel espérait grâce à ce four (« l'athanor ») transformer le plomb
en or. Puis, au XVIIe siècle, Robert Hooke et Christian Huygens conçurent des régulateurs de
vitesse (pour les moulins à vent en ce qui concerne Huyghens). En 1769, James Watt a conçu
son fameux régulateur à boules pour la régulation de vitesse des machines à vapeur. Parmi
d’autres pionniers de l’automatique, il convient d’évoquer l’astronome Airy (vers 1840), James
Clerk Maxwell (son article On governors, déjà mentionné, est le premier article mathématique sur
la théorie du contrôle1), Ivan Alexeïevitch Vichnegradski (1876) ; et, bien entendu, les
mathématiciens Adolf Hurwitz et Edward Routh (auteurs du critère de stabilité qui porte leur nom,
datant de la fin du XIXe siècle), ainsi que les Français Liénard et Chipart, qui ont amélioré en
1914 le critère de Routh-Hurwitz. On peut citer aussi Alexandre Liapounov, qui a présenté en
1892 sa thèse fondamentale sur la stabilité des équations différentielles, ainsi que tous les
mathématiciens qui ont contribué à la théorie de la stabilité (voir l'histoire de la théorie de la
stabilité). Ces derniers travaux, qui mènent à une époque assez récente, sont néanmoins à
caractère essentiellement mathématique.

L'automatique fréquentielle[modifier | modifier le code]


L’histoire de l’automatique proprement dite commence avec les fameux chercheurs
des laboratoires Bell (fondés en 1925) : Harold Stephen Black et Nathaniel Nichols (en), qui
ont conçu leur célèbre diagramme, Harry Nyquist qui, le premier sans doute, a compris le
problème de stabilité que posent les systèmes bouclés2, enfin et surtout Hendrik Wade Bode. Ce
dernier est très connu par son diagramme, mais son œuvre maîtresse est son livre Network
Analysis and Feedback Amplifier Designer3, édité juste après la Seconde Guerre mondiale (et
réédité depuis), qui marque la maturité de l’automatique fréquentielle.

Les systèmes échantillonnés[modifier | modifier le code]


Il faut mentionner aussi les pionniers de l’automatique à temps discret : l’Américain Claude
Shannon, lui aussi chercheur aux laboratoires Bell, le Russe Yakov Zalmanovitch Tsypkin,
l'Américain Eliahu Jury (en) enfin, auteur du critère correspondant à celui de Routh-Hurwitz
mais pour les systèmes à temps discret. Une découverte fondamentale est le théorème de
l'échantillonnage, attribué par de nombreux auteurs à Nyquist et Shannon, mais auquel il faut
aussi associer, entre autres Edmund Taylor Whittaker et Vladimir Kotelnikov.
La commande optimale[modifier | modifier le code]
Dans les années 1950, d’autres approches de l’automatique se préparent : en Russie avec Lev
Pontriaguine et ses collaborateurs, aux États-Unis avec Richard Bellman. Pontriaguine conçoit
le principe du maximum pour la commande optimale. Il s’agit d’une extension du calcul des
variations, avec « variations fortes » qui permettent d’obtenir une condition de maximum à la
place de l’égalité d’Euler. Bellman invente la programmation dynamique, d’où il déduit l’équation
d’Hamilton-Jacobi-Bellman (en), généralisation de l’équation d’Hamilton-Jacobi du Calcul des
variations.

La représentation d'état[modifier | modifier le code]


Les découvertes qui viennent d’être évoquées jouent bien sûr un rôle essentiel dans la théorie
de la commande optimale, mais elles ont également conduit à la notion de représentation d’état.
C’est Rudolf Kalman qui, en 1960, a fait la théorie (presque) complète de ces systèmes dans le
cas linéaire. Il a notamment mis en évidence les notions fondamentales de commandabilité et
d’observabilité. La même année (son annus mirabilis), il faisait la théorie de la commande
optimale linéaire quadratique (par application des résultats de Pontriaguine et de Bellman) et sa
« version duale », le filtre de Kalman qui généralise le filtre de Wiener. Puis quelques
mathématiciens, dont Harold J. Kushner, développent la commande optimale stochastique4.

Applications de l'algèbre et de la géométrie


différentielle[modifier | modifier le code]
S’ouvre alors une nouvelle ère de l’automatique, avec des travaux de nature algébrique (pour les
systèmes linéaires) ou relevant de la géométrie différentielle (dans le cas des systèmes non
linéaires). Pour ce qui concerne les systèmes linéaires, un livre célèbre de Walter Murray
Wonham, dont la première édition date de 1974 (mais qui a été plusieurs fois réédité), marque
l’apogée de cette période5. Concernant les systèmes non linéaires, un livre d'Alberto
Isidori (en), dont la première édition date de 1985, puis plusieurs fois réédité et augmenté, a
eu une influence considérable6.

La robustesse[modifier | modifier le code]


Bien que la notion de robustesse ait été prise en compte dans des approches fréquentielles
traditionnelles, telles que la « théorie quantitative de la rétroaction » développée par Isaac
Horowitz dès 1963, c'est vers la fin des années 1970 que la problématique de la commande
robuste, qui était complètement occultée dans une approche uniquement algébrique, est
apparue comme incontournable. La commande optimale « linéaire quadratique » a des
propriétés de robustesse intrinsèques (marge de phase d'au moins 60°, etc.), du moins dans le
cas des systèmes monovariables, comme il résulte d'un article publié par Kalman dès 1964. La
question s'est donc posée de savoir si cette propriété se conserve en présence d'un observateur.
Or en 1978, John Doyle (en), un des pionniers de la théorie de la robustesse, a montré
qu’une commande linéaire quadratique gaussienne (LQG) (dont l'observateur est un filtre de
Kalman) peut n’avoir aucune propriété de robustesse. Le formalisme H-infini, établi par le
mathématicien Godfrey Harold Hardy dès le début du XXe siècle, mais introduit en 1981
par George Zames dans le domaine de l'automatique, s’est avéré utile pour formaliser les
problèmes de commande robuste7. Il a été rapidement associé à des techniques d’optimisation
convexe fondées sur des « inégalités matricielles linéaires » (LMI) qui ont pu conduire à des
méthodes de synthèse (parfois excessivement) complexes.

Applications de l'analyse algébrique et de l'algèbre


différentielle[modifier | modifier le code]
Enfin, depuis le début des années 1990 se développe une nouvelle approche de l’automatique
linéaire fondée sur la théorie des modules (plus précisément, des D-modules) et l’analyse
algébrique (branche des mathématiques fondée sur les idées d'Alexandre Grothendieck, puis
développée par Mikio Satō, Masaki Kashiwara et, pour ce qui concerne les systèmes d'équations
différentielles, Bernard Malgrange8). On peut évoquer ici l’approche « behaviorale » de Jan C.
Willems (en), ainsi que les travaux de Michel Fliess (qui a également appliqué aux systèmes
non linéaires des méthodes issues de l'algèbre différentielle9 et est à l'origine, avec trois autres
automaticiens, de la notion de « système plat »), d’Ulrich Oberst, ainsi que de leurs divers
collaborateurs et émules10.

Généralités, concepts[modifier | modifier le code]

Consigne (en noir) et réponse (en bleu) d’un système asservi avec un régulateur PID (sans paramètres
optimaux)

On souhaite contrôler la température d’un four. La première tâche consiste à définir


le système « four ». Celui-ci possède une entrée (le courant fourni à la résistance de chauffage)
et une sortie (la température à l’intérieur du four). On modélise le système sous forme
d’équations, qui permettent d’exprimer les relations entre les entrées et les sorties du système,
sous la forme d’une équation différentielle ou d’une fonction de transfert. On détermine aussi les
conditions de stabilité du système (on ne veut pas que le four se mette à augmenter la
température sans s’arrêter).
Les personnes chargées de réguler ce système ont un cahier des charges à respecter :

• la stabilité (le régulateur ne doit pas rendre le système instable),


• la poursuite (la température du four doit atteindre la température en consigne, on
peut spécifier dans le cahier des charges si on a des contraintes de rapidité ou de
dépassement),
• le rejet des perturbations (on ouvre la porte du four, la température descend, la
température doit rejoindre la température voulue).
• Les coûts et délais de développement.
Après avoir déterminé la solution répondant le mieux aux besoins, on va synthétiser un nouveau
système, le « régulateur » ; celui-ci aura pour entrées la consigne (c’est-à-dire la température
souhaitée à l’intérieur du four) ainsi que la température réelle du four fourni par un capteur, et
pour sortie, la commande du four ; cette sortie est ainsi reliée à l’entrée du système four.
L’ensemble forme ce qu’on appelle un « système asservi ».
Le régulateur peut alors être réalisé sous forme analogique (circuit électronique) ou numérique
(microcontrôleur). Il existe également des régulateurs dans le commerce qui permettent ces
fonctions, où l’automaticien peut choisir la méthode de régulation, ou par exemple entrer les
coefficients dans le cadre d’un régulateur Proportionnel-Intégral-Dérivé.

Les systèmes[modifier | modifier le code]


Un système est une modélisation d’un procédé en fonctionnement. Il possède une ou plusieurs
entrées, et une ou plusieurs sorties. Les entrées du système sont appelées variables exogènes ;
elles rassemblent les perturbations et les variables manipulées, commandes ou grandeurs de
réglage. Elles sont souvent représentées de manière générique par la lettre u ou e. Elles sont
reliées au procédé en tant que tel par un actionneur.
Les sorties du système sont appelées variables contrôlées, mesures ou grandeurs réglées. Elles
sont souvent représentées de manière générique par la lettre y. Le procédé est relié à la sortie
du système par un capteur.
Dans le cas d’un système échantillonné, les entrées et sorties sont à temps discret, mais le
système en lui-même demeure à temps continu. Le système inclut donc un convertisseur
numérique-analogique en entrée, un convertisseur analogique-numérique en sortie et une
horloge permettant de fixer la fréquence d'échantillonnage.
Il existe une infinité d’exemples de systèmes : des systèmes mécaniques, des systèmes
électriques ou des procédés chimiques. La représentation du système ne pourra alors se faire
qu’avec de bonnes connaissances dans le domaine physique correspondant.

Différents systèmes[modifier | modifier le code]


Les systèmes peuvent être classés en plusieurs catégories.
Systèmes à temps continu, à temps discret[modifier | modifier le code]

• Systèmes à temps continus : ce sont les systèmes qui existent naturellement. Pour

ces systèmes, le temps décrit la droite réelle.

• Systèmes à temps discret : ce sont des systèmes pour lesquels le temps est

une variable discrète (on se ramène généralement au cas où décrit l’ensemble


des nombres entiers). Sauf exception, ces systèmes n’existent pas à l’état naturel (la
majorité des systèmes physiques naturels sont à temps continu), mais étant donné
que la plupart des contrôleurs utilisés en automatique sont calculés par des
processeurs numériques, il est parfois intéressant de modéliser le système
commandé comme un système à temps discret.
• Systèmes à événements discrets : systèmes dont le fonctionnement peut être
modélisé par des événements discrets. Généralement, ces systèmes sont modélisés
par des réseaux de Petri, des GRAFCET (qui en sont des cas particuliers très
répandus, notamment dans l'industrie) ou par les algèbres de dioïdes. Des exemples
sont les réseaux ferroviaires, ou le fonctionnement d’une chaîne de montage.
• Systèmes hybrides : systèmes dont la modélisation nécessite l’utilisation des
techniques liées aux systèmes continus et aux systèmes à évènements discrets, par
exemple : une boîte de vitesses de voiture.
Systèmes monovariables, systèmes multivariables[modifier | modifier le code]
Quatre possibilités existent :

• le système a une entrée et une sortie, c’est un système monovariable


ou SISO (Single Input Single Output) ;
• le système a plusieurs entrées et plusieurs sorties, c’est un système multivariable ou
MIMO (Multiple Input Multiple Output) ;
• le système a une entrée et plusieurs sorties, système SIMO ;
• le système a plusieurs entrées et une sortie, système MISO.
Néanmoins, ces deux derniers termes sont peu utilisés.
Système invariant (ou stationnaire)[modifier | modifier le code]
Ce sont des systèmes dont les paramètres du modèle mathématique ne varient pas au cours du
temps.
Systèmes linéaires ou non linéaires[modifier | modifier le code]
Article détaillé : Système linéaire.
On dit qu’un système est linéaire s'il est régi par un système d'équations différentielles linéaires.
En pratique, aucun système n’est linéaire, ne serait-ce que par les saturations (butées
physiques, par exemple) qu’il comporte ou encore par les phénomènes d’hystérésis. Toutefois,
un système non linéaire peut être considéré comme linéaire dans une certaine plage d’utilisation.
Il faut toujours garder à l’esprit que le système sur lequel on peut travailler n’est qu’un modèle
mathématique de la réalité, et que par conséquent il y a une perte d’information lors du passage
au modèle. Bien sûr, il incombe à l’ingénieur de juger la pertinence de son modèle vis-à-vis des
objectifs fixés.
Un système peut admettre une représentation linéaire et une autre représentation non linéaire.
Par exemple, un système pourra être linéaire en utilisant des coordonnées cartésiennes, et
deviendra non linéaire en coordonnées polaires.

Représentation des systèmes linéaires invariants[modifier | modifier


le code]
Les automaticiens ont l’habitude de représenter graphiquement un système asservi par
l’utilisation de schémas fonctionnels.
Équation différentielle et fonction de transfert[modifier | modifier le code]
Article détaillé : Fonction de transfert.
Un système physique se décrit généralement avec des équations différentielles (par exemple
le principe fondamental de la dynamique, caractéristique d’un condensateur ou d’une bobine…).
La transformation de Laplace permet alors de passer de l’équation différentielle temporelle à une
fonction de transfert, l'inverse n'étant exact que sous certaines hypothèses, car l'obtention d'une
fonction de transfert suppose qu'on travaille à conditions initiales nulles.
Pour un système à temps discret on utilise la transformation en Z.
Ces transformations permettent d’étudier le comportement entrée-sortie

Vous aimerez peut-être aussi