Vous êtes sur la page 1sur 394

Mathématiques pour les systèmes dynamiques

© LAVOISIER, 2002
LAVOISIER
11, rue Lavoisier
75008 Paris
Serveur web : www.hermes-science.com

ISBN 2-7462-0565-3

Catalogage Electre-Bibliographie
Richard, Jean-Pierre (sous la direction de)
Mathématiques pour les systèmes dynamiques
Paris, Hermès Science Publications, 2002
ISBN 2-7462-0565-3
RAMEAU : communication, théorie mathématique de la
systèmes dynamiques
DEWEY : 519 : Probabilités et mathématiques appliquées

Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une


part, que les "copies ou reproductions strictement réservées à l'usage privé du copiste et non
destinées à une utilisation collective" et, d'autre part, que les analyses et les courtes citations
dans un but d'exemple et d'illustration, "toute représentation ou reproduction intégrale, ou
partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est
illicite" (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce
soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Mathématiques
pour les systèmes
dynamiques

sous la direction de
Jean-Pierre Richard
Mathématiques
pour les systèmes dynamiques
sous la direction de Jean-Pierre Richard

fait partie de la série SYSTÈMES AUTOMATISÉS dirigée par Claude Foulard

TRAITÉ IC2 I NFORMATION – COMMANDE – COMMUNICATION


sous la direction scientifique de Bernard Dubuisson

Le traité Information, Commande, Communication répond au besoin


de disposer d'un ensemble complet des connaissances et méthodes
nécessaires à la maîtrise des systèmes technologiques.
Conçu volontairement dans un esprit d'échange disciplinaire, le traité IC2
est l'état de l'art dans les domaines suivants retenus par le comité
scientifique :
Réseaux et télécoms
Traitement du signal et de l'image
Informatique et systèmes d'information
Systèmes automatisés
Productique

Chaque ouvrage présente aussi bien les aspects fondamentaux


qu'expérimentaux. Une classification des différents articles contenus
dans chacun, une bibliographie et un index détaillé orientent le lecteur
vers ses points d'intérêt immédiats : celui-ci dispose ainsi d'un guide pour
ses réflexions ou pour ses choix.
Les savoirs, théories et méthodes rassemblés dans chaque ouvrage ont
été choisis pour leur pertinence dans l'avancée des connaissances ou pour
la qualité des résultats obtenus dans le cas d'expérimentations réelles.
Liste des auteurs

Brigitte D’ANDRÉA-NOVEL Eric MOULINES


Ecole nationale supérieure Ecole nationale supérieure
des mines de Paris des télécommunications
Paris
Jean-Pierre BABARY
LAAS-CNRS Jamal NAJIM
Toulouse Ecole nationale supérieure
des télécommunications
Jean-Pierre BARBOT Paris
Ecole nationale supérieure
de l’électronique Dorothée NORMAND-CYROT
et de ses applications L2S-CNRS
Cergy-Pontoise Gif-sur-Yvette

Wilfrid PERRUQUETTI
Emmanuel DELALEAU
Ecole centrale de Lille
Université Paris-Sud
Orsay Pierre PRIOURET
Université Pierre et Marie Curie
Vladimir B. KOLMANOVSKII
Paris
CINVESTAV
Mexico, Mexique Jean-Pierre RICHARD
Ecole centrale de Lille
Laurent LEFÈVRE
Ecole supérieure d’ingénieurs Frédéric ROTELLA
en systèmes industriels avancés Ecole nationale d’ingénieurs de
Valence Tarbes

Salvatore MONACO Irène ZAMBETTAKIS


Università La Sapienza IUT de Tarbes
Roma, Italie LAAS-CNRS, Toulouse
7DEOHGHVPDWLqUHV

$YDQWSURSRV                                        
-HDQ3LHUUH 5 ,&+$5'

35(0,Ê5( 3$57,( 0$7+e0$7,48(6 3285 /(6 6,*1$8; (7 6<67Ê0(6     

&KDSLWUH  7UDQVIRUPpHV LQWpJUDOHV HW GLVWULEXWLRQV                

/DXUHQW / ()Ê95(
 0RWLYDWLRQV                                      

 7UDQVIRUPDWLRQ GH )RXULHU                             

 7UDQVIRUPDWLRQ GH /DSODFH                            

 'LVWULEXWLRQV                                     

 0RWLYDWLRQV                                  

 6WUXFWXUHV GH FRQYHUJHQFH HVSDFH GXDO HW GLVWULEXWLRQV        

 'LVWULEXWLRQV WHPSpUpHV                           

 7UDQVIRUPpHV GH )RXULHU GH GLVWULEXWLRQV                

 &DUDFWpULVDWLRQV GHV HVSDFHV GH 6REROHY                 

 $SSOLFDWLRQ DX[ SUREOqPHV DX[ OLPLWHV HOOLSWLTXHV           

 %LEOLRJUDSKLH                                     

&KDSLWUH  &DOFXO RSpUDWLRQQHO GH 0LNXVL VNL                    

)UpGpULF 5 27(//$
 /¶DQQHDX GH FRQYROXWLRQ GHV VLJQDX[ j WHPSV FRQWLQX            

 /¶RSpUDWHXU G¶LQWpJUDWLRQ                          

 'LYLVHXUV GH ]pUR                               

 /H FRUSV GHV RSpUDWHXUV                              

 0XOWLSOLFDWLRQ SDU XQ VFDODLUH                       

 /¶RSpUDWHXU GH GpULYDWLRQ S                        

 )RQFWLRQV G¶RSpUDWHXUV                               


10 Mathématiques pour les systèmes dynamiques

 /¶RSpUDWHXU GH UHWDUG                             

 'pULYDWLRQ HW LQWpJUDWLRQ                          

 (TXDWLRQV GLIIpUHQWLHOOHV G¶RSpUDWHXUV                  


 3URFHVVXV JpQpUDWHXU G¶XQ VLJQDO                         
 6LJQDX[ WUDQVIRUPDEOHV DX VHQV GH /DSODFH               
 )UDFWLRQV UDWLRQQHOOHV HQ S                         
 )RQFWLRQV DQDO\WLTXHV                            
 &DOFXO RSpUDWLRQQHO                                 
 (TXDWLRQV GLIIpUHQWLHOOHV RUGLQDLUHV j FRHIILFLHQWV FRQVWDQWV      
 (TXDWLRQV LQWpJUDOHV GH FRQYROXWLRQ                   
 (TXDWLRQV j UHWDUG                              
 (TXDWLRQV DX[ GpULYpHV SDUWLHOOHV                     
 6\VWqPHV HW WUDQVIHUWV                                
 2SpUDWHXU GH WUDQVIHUW                            
 4XHOTXHV FDV SDUWLFXOLHUV                          
 6\VWqPHV PXOWLHQWUpHV PXOWLVRUWLHV                    
 &DV GHV VLJQDX[ j WHPSV GLVFUHW                         
 $QQHDX HW TXRWLHQWV GH FRQYROXWLRQ                   
 4XHOTXHV RSpUDWHXUV                             
 &DOFXO RSpUDWLRQQHO                              
 %LEOLRJUDSKLH                                    

&KDSLWUH  3UREDELOLWpV HW pOpPHQWV GH FDOFXO VWRFKDVWLTXH            


(ULF 0 28/,1(6 -DPDO 1$-,0 3LHUUH 35,285(7
 'pILQLWLRQV JpQpUDOHV                                
 (VSDFH GH SUREDELOLWp                            
 3UREDELOLWp                                   
 9DULDEOHV DOpDWRLUHV                             
 4XHOTXHV LQpJDOLWpV XWLOHV                          
 0RPHQWV G¶RUGUH S HVSDFHV /S                      
 9DULDQFH FRYDULDQFH                             
 ,QGpSHQGDQFH PHVXUHV SURGXLWV                      
 )RQFWLRQV FDUDFWpULVWLTXHV WUDQVIRUPpH GH )RXULHU           
 9DULDEOHV DOpDWRLUHV JDXVVLHQQHV                      
 7KpRUqPHV OLPLWHV                                  
 (VSpUDQFH FRQGLWLRQQHOOH                             
 &RQVWUXFWLRQ pOpPHQWDLUH                          
 *pQpUDOLVDWLRQ                                 
 3URFHVVXV DOpDWRLUHV                                 
 3UHPLqUHV GpILQLWLRQV                            
 5pSDUWLWLRQV ILQLHV                              
 3URFHVVXV JDXVVLHQ                              
Table des matières 11

 /H PRXYHPHQW EURZQLHQ                             


 'pILQLWLRQ                                   
 3URSULpWpV GHV WUDMHFWRLUHV GX PRXYHPHQW EURZQLHQ          
 )LOWUDWLRQV SURFHVVXV DGDSWpV                           
 0DUWLQJDOHV                                      
 7KpRUqPHV G¶DUUrW                              
 ,QpJDOLWpV PD[LPDOHV                             
 7KpRUqPHV GH FRQYHUJHQFH                         
 &DOFXO VWRFKDVWLTXH                                 
 &RQVWUXFWLRQ GH O¶LQWpJUDOH VWRFKDVWLTXH                 
 &RQWLQXLWp GH O¶LQWpJUDOH VWRFKDVWLTXH                   
 0DUWLQJDOHV ORFDOHV                              
 0RXYHPHQW EURZQLHQ GGLPHQVLRQQHO                  
 (VSDFHV JDXVVLHQV                                  
 3URFHVVXV G¶,W{                                   
 (TXDWLRQV GLIIpUHQWLHOOHV VWRFKDVWLTXHV ('6                
 ,QWURGXFWLRQ                                 
 6ROXWLRQ GHV ('6  FDV OLSVKLW]LHQ                    
 'pSHQGDQFH HQ IRQFWLRQ GHV FRQGLWLRQV LQLWLDOHV           
 &DUDFWqUH PDUNRYLHQ GHV VROXWLRQV                    
 (TXDWLRQV GLIIpUHQWLHOOHV VWRFKDVWLTXHV OLQpDLUHV            
 %LEOLRJUDSKLH                                    

' (8;,Ê0( 3$57,( 6<67Ê0(6 '<1$0,48(6                     

&KDSLWUH  2XWLOV GH JpRPpWULH GLIIpUHQWLHOOH                    

%ULJLWWH '¶$1'5e$129(/
 1RWLRQ GH YDULpWp GLIIpUHQWLHOOH                          

 (VSDFH WDQJHQW                                    

 &KDPS GH YHFWHXUV HW FURFKHW GH /LH                      

 (VSDFH FRWDQJHQW IRUPHV GLIIpUHQWLHOOHV HW GLVWULEXWLRQV         

 $SSOLFDWLRQ j O¶pWXGH GH OD FRPPDQGDELOLWp                  

 %LEOLRJUDSKLH                                     

&KDSLWUH  (TXDWLRQV GLIIpUHQWLHOOHV RUGLQDLUHV                   

:LOIULG 3 (55848(77,
 ,QWURGXFWLRQ                                     

 %LRORJLH                                    

 &KLPLH                                     

 (OHFWULFLWp                                   

 (OHFWURQLTXH                                  

 (OHFWURWHFKQLTXH                               

 0pFDQLTXH                                   


12 Mathématiques pour les systèmes dynamiques

 (TXDWLRQV GLIIpUHQWLHOOHV RUGLQDLUHV VRXV IRUPH LPSOLFLWH          

 'pILQLWLRQV                                   

 4XHOTXHV pTXDWLRQV SDUWLFXOLqUHV                      

 (TXDWLRQV GLIIpUHQWLHOOHV GX SUHPLHU RUGUH                   

 1RWLRQ GH VROXWLRQ                              

 &ODVVLILFDWLRQ                                 

 1RWLRQ GH IORW                                 

 &RPSDUDLVRQ GH VROXWLRQV LQpJDOLWpV GLIIpUHQWLHOOHV          

 4XHOTXHV FDUDFWpULVDWLRQV GH FRPSRUWHPHQWV                 

 (QVHPEOHV UHPDUTXDEOHV                          

 3URSULpWpV                                   

 &DV OLQpDLUH DXWRQRPH                               

 &DOFXO GHV VROXWLRQV                             

 &RQGLWLRQV GH VWDELOLWp                            

 'LVFUpWLVDWLRQ G¶XQH pTXDWLRQ G¶pWDW OLQpDLUH DXWRQRPH        

 (WXGH GH FRPSRUWHPHQWV  UpVXOWDWV ORFDX[                   

 6WDELOLWp VWUXFWXUHOOH                             

 'X PRGqOH OLQpDLUH DX PRGqOH QRQ OLQpDLUH               

 6WDELOLWp  VHFRQGH PpWKRGH GH /LDSRXQRY HW UpVXOWDWV JOREDX[       

 )RQFWLRQV GH FRPSDUDLVRQ                         

 )RQFWLRQV GH /LDSRXQRY                           

 7KpRUqPHV DVVRFLpV j OD VHFRQGH PpWKRGH GH /LDSRXQRY       

 7KpRUqPHV GH =XERY HW *UXMLü                       

 3ULQFLSH G¶LQYDULDQFH /D 6DOOH                       

 7KpRUqPHV UpFLSURTXHV                           

 7KpRUqPHV G¶LQVWDELOLWp                           

 ([WHQVLRQV YHFWRULHOOHV                           

 7KpRULHV GHV SHUWXUEDWLRQV HW GH PR\HQQLVDWLRQ                

 ,QWURGXFWLRQ                                  

 3HUWXUEDWLRQV UpJXOLqUHV                           

 3HUWXUEDWLRQV VLQJXOLqUHV                          

 0R\HQQLVDWLRQ                                

 %LIXUFDWLRQ HW FKDRV                                 

 'pSHQGDQFH G¶XQ SDUDPqWUH                        

 %LIXUFDWLRQ ORFDOH GH FRGLPHQVLRQ                    

 &KDRV                                      

 %LEOLRJUDSKLH                                    

&KDSLWUH  $OJqEUH GLIIpUHQWLHOOH                            

(PPDQXHO ' (/$/($8


 ,QWURGXFWLRQ                                     

 7KpRULH GHV FRUSV                                  


Table des matières 13

 $OJqEUH GLIIpUHQWLHOOH                                

 &RUSV GLIIpUHQWLHO                               

 ([WHQVLRQ GH FRUSV GLIIpUHQWLHOV                      

 %DVH GH WUDQVFHQGDQFH GLIIpUHQWLHOOH                   

 'HJUp GH WUDQVFHQGDQFH GLIIpUHQWLHO                    

 &RQVWUXFWLRQ GH O¶H[WHQVLRQ GLIIpUHQWLHOOH DVVRFLpH

j XQ V\VWqPH G¶pTXDWLRQV GLIIpUHQWLHOOHV                     

 6\VWqPHV HW G\QDPLTXHV                              

 6\VWqPH QRQ OLQpDLUH                             

 (QWUpH                                      

 '\QDPLTXH                                  

 6RUWLH                                      

 (WDW HW UpDOLVDWLRQ                               

 ,QYHUVLRQ HQWUpHVRUWLH                               

 5DQJ GLIIpUHQWLHO GH VRUWLH                          

 ,QYHUVLRQ j JDXFKH LQYHUVLRQ j GURLWH                  

 3ULQFLSDOHV SURSULpWpV VWUXFWXUHOOHV                        

 3ODWLWXGH                                    

 2EVHUYDELOLWp                                 

 %RXFODJHV                                       

 1RWLRQV GH ERXFODJH                             

 %RXFODJH G¶pWDW                                

 %RXFODJH TXDVL VWDWLTXH G¶pWDW                       

 6\QWKqVH SDU ERXFODJHV                               

 'pFRXSODJH                                  

 5HMHW GH SHUWXUEDWLRQV                            

 /LQpDULVDWLRQ                                  

 ([HPSOH                                        

 0RGqOH                                     

 &RQVWUXFWLRQ GH O¶H[WHQVLRQ GLIIpUHQWLHOOH                

 &KRL[ GH O¶HQWUpH HW UpDOLVDWLRQ SDU YDULDEOHV G¶pWDW          

 3ODWLWXGH                                    

 'pFRXSODJH HW OLQpDULVDWLRQ                         

 5HMHW GH SHUWXUEDWLRQV                            

 %LEOLRJUDSKLH                                    

&KDSLWUH  (TXDWLRQV GLIIpUHQWLHOOHV j VHFRQG PHPEUH GLVFRQWLQX       

:LOIULG 3(55848(77, HW -HDQ3LHUUH %$5%27


 ,QWURGXFWLRQ                                     

 5DSSHOV G¶DQDO\VH FRQYH[H                            

 (QVHPEOHV FRQYH[HV                             

 0XOWLIRQFWLRQV                                


14 Mathématiques pour les systèmes dynamiques

 ,QFOXVLRQV GLIIpUHQWLHOOHV SUREOqPH GH &DXFK\                

 1RWLRQ GH VROXWLRQ                              

 ([LVWHQFH GHV VROXWLRQV                           

 $QDO\VH GHV VROXWLRQV                            

 ,QWpJUDWLRQ QXPpULTXH                            

 ([HPSOHV                                       

 0RGHV JOLVVDQWV FODVVLTXHV                         

 0RGHV JOLVVDQWV G¶RUGUH VXSpULHXU                     

 %LEOLRJUDSKLH                                     

&KDSLWUH  'pYHORSSHPHQWV GH 9ROWHUUD SRXU OHV V\VWqPHV

QRQ OLQpDLUHV HQ WHPSV GLVFUHW                              

6DOYDWRUL 0 21$&2 HW 'RURWKpH 1250$1'&<527


 ,QWURGXFWLRQ                                     

 &RQWH[WH                                    

 &ODVVHV G¶pTXDWLRQV DX[ GLIIpUHQFHV                    

 )RQFWLRQQHOOHV HQWUpHpWDW HW HQWUpHVRUWLH                   

 &DV OLQpDLUH                                  

 &DV QRQ OLQpDLUH PRQRYDULDEOH                       

 4XHOTXHV RXWLOV PDWKpPDWLTXHV                          

 'pULYpH GH /LH                                

 6pULH GH /LH                                  

 ([SRQHQWLHOOH WHQVRULHOOH                          

 6pULHV GH 9ROWHUUD HW FDOFXO GHV QR\DX[                     

 ([SUHVVLRQ GHV QR\DX[ GH 9ROWHUUD                    

 &DV GHV V\VWqPHV OLQpDLUHV                         

 &DV GHV V\VWqPHV ELOLQpDLUHV                        

 &DV GHV V\VWqPHV DIILQHV RX OLQpDLUHV DQDO\WLTXHV           

 4XHOTXHV UpVXOWDWV GH UpDOLVDWLRQ                         

 &DV GHV V\VWqPHV OLQpDLUHV                         

 8Q UpVXOWDW GH UpDOLVDWLRQ QRQ OLQpDLUH                  

 8Q SRLQW GH YXH JpRPpWULTXH                           

 6\VWqPHV OLQpDLUHV HW LQYDULDQFH                      

 6\VWqPHV QRQ OLQpDLUHV LQYDULDQFH HW GpFRPSRVLWLRQV

ORFDOHV                                         

 %LEOLRJUDSKLH                                     

&KDSLWUH  (TXDWLRQV GLIIpUHQWLHOOHV j UHWDUG                    

9ODGLPLU % . 2/0$1296.,, HW -HDQ3LHUUH 5,&+$5'


 ,QWURGXFWLRQ                                     

 &ODVVHV G¶pTXDWLRQV GLIIpUHQWLHOOHV IRQFWLRQQHOOHV               

 (TXDWLRQV j UHWDUGV SRQFWXHOV                        


Table des matières 15

 (TXDWLRQV UHWDUGpHV JpQpUDOHV UHWDUGV GLVWULEXpV            

 1RWDWLRQV FRPSOpPHQWDLUHV                         

 /H SUREOqPH GH &DXFK\ SRXU OHV ('5                     

 0pWKRGH SDV j SDV                                  

 6WDELOLWp GHV V\VWqPHV j UHWDUGV                          

 1RWLRQ G¶pTXLOLEUH SRXU XQH ('5                     

 'pILQLWLRQV UHODWLYHV j OD VWDELOLWp GHV ('5               

 6WDELOLWp GHV V\VWqPHV OLQpDLUHV VWDWLRQQDLUHV              

 3UHPLqUH PpWKRGH GH /LDSRXQRY                     

 &DV GHV UHWDUGV IDLEOHV                            

 0pWKRGH GLUHFWH GH /LDSRXQRY                       

 6WDELOLWp HW pTXDWLRQV GH 5LFFDWL                      

 3ULQFLSH GH FRPSDUDLVRQ                          

 ([HPSOH G¶DSSOLFDWLRQ                            

 &RPSOpPHQWV ELEOLRJUDSKLTXHV                          

 %LEOLRJUDSKLH                                     

&KDSLWUH  6\VWqPHV j SDUDPqWUHV GLVWULEXpV                   

-HDQ3LHUUH % $%$5< HW ,UqQH =$0%(77$.,6


 ,QWURGXFWLRQ                                     

 /H FDGUH IRQFWLRQQHO                               

 (VSDFHV YHFWRULHOV QRUPpV GH GLPHQVLRQ LQILQLH            

 2SpUDWHXUV VXU GHV HVSDFHV YHFWRULHOV GH GLPHQVLRQ

LQILQLH                                         

 2SpUDWHXUV VXU GHV HVSDFHV GH +LOEHUW                  

 7KpRULH VSHFWUDOH                                  

 &DV JpQpUDO  OHV RSpUDWHXUV IHUPpV                   

 &DV GHV RSpUDWHXUV FRPSDFWV                       

 7KpRULH GHV VHPLJURXSHV                            

 1RWLRQ GH VHPLJURXSH                           

 /H SUREOqPH GH &DXFK\                          

 0pWKRGHV G¶DSSUR[LPDWLRQ                           

 6\VWqPHV OLQpDLUHV  OD PpWKRGH GHV IRQFWLRQV SURSUHV        

 6\VWqPHV QRQ OLQpDLUHV  OD PpWKRGH GHV UpVLGXV SRQGpUpV       

 0LVH HQ °XYUH GH OD PpWKRGH GH FROORFDWLRQ SDU SRLQWV       

 %LEOLRJUDSKLH                                    

,QGH[                                              
17

Avant-propos

Cet ouvrage fait suite au livre Algèbre et analyse pour l'automatique paru
dans cette même collection. Même si leurs dates de parution dièrent, ces deux
ouvrages ont été conçus simultanément et leur ensemble pourrait s'intituler
 Outils mathématiques pour l'automatique .
La problématique fondamentale de l'automatique est celle de la conception,
de la mise en ÷uvre et de l'exploitation des moyens permettant à l'homme
de maîtriser le comportement de systèmes complexes, naturels ou articiels.
Science des systèmes1 , elle constitue donc une discipline transversale à de nom-
breux domaines d'application : elle intervient ainsi dans les sciences pour l'in-
génieur, celles de l'information et de la communication, celles du vivant...
Cependant, si les concepts sur lesquels elle se fonde (rétroaction, modéli-
sation, système dynamique, état, signal, optimalité...) présentent une ecacité
pratique indéniable, leur apprentissage comme leur développement nécessitent
d'accéder à un bagage d'outils mathématiques assez variés. Ceci constitue une
caractéristique de la discipline : il sut pour s'en convaincre d'interroger les
étudiants de licences et maîtrises IEEA, des écoles d'ingénieurs ou des forma-
tions permanentes. Tous lui accordent une place à part (en bien ou en mal !)
liée à son niveau de théorisation relativement exigeant.
La question se pose alors de dénir une  boîte à outils mathématiques  as-
sez riche et susamment compacte, à laquelle puissent faire appel les étudiants
en formation initiale, mais également les doctorants et chercheurs conrmés.
Notre but a donc été de réunir une variété susante d'outils mathématiques
impliqués dans le domaine de l'automatique, en un minimum de pages et à un
niveau susamment poussé. Le lecteur familier de ces disciplines (et de la
recherche en général) imaginera aisément la gageure d'un tel objectif ! Car il
est bien certain que de tels outils sont en constante évolution et que la seule
possibilité réaliste était d'en donner une  photographie instantanée  portant
sur des besoins relativement stabilisés.

1 Le concept de  système , entendu en tant qu'outil pour la modélisation et l'utilisation

de la complexité, implique la prise en compte conjointe de plusieurs points de vue : opé-


rations créant une dynamique temporelle, auto-évolution de ces opérations par rétroaction,
prise en compte de l'environnement, émergence d'une nalité, avec non-séparabilité de ces
diérents aspects. On peut considérer que l'automatique contribue directement à l'étude de
ces questions.
18 Mathématiques pour les systèmes dynamiques

Après avoir établi un bilan des concepts mathématiques nécessaires, la so-


lution retenue a donc été de les présenter en deux livres traitant deux aspects
complémentaires de façon relativement indépendante :
 un premier ouvrage, déjà mentionné, a rassemblé les éléments d'analyse,
d'algèbre et d'optimisation : Analyse (Topologie - Dérivations et inté-
grations  Fonctions à variable complexe  Séries et fonctions ortho-
gonales), Algèbre et polynômes (Structures algébriques  Polynômes 
Quasi-polynômes), Matrices (Formulaire de calcul matriciel  Equations
matricielles classiques  Faisceaux matriciels  Matrices polynomiales et
rationnelles) et Optimisation (en dimension nie ou non) ;
 le présent ouvrage concerne les outils mathématiques pour les systèmes
dynamiques : Mathématiques pour les signaux et systèmes (Distributions,
transformées de Laplace, de Fourier, en z  Calcul opérationnel de Mi-
kuzi«ski  Probabilités et calcul stochastique) et Systèmes dynamiques
(Géométrie diérentielle  Equations diérentielles ordinaires  Algèbre
diérentielle  Equations diérentielles avec discontinuités  Equations
aux diérences  Equations diérentielles à retards  Systèmes à para-
mètres distribués).
Cette solution en deux volumes indépendants nous a semblé constituer un
compromis ecace entre, d'une part, une concision trop importante qui aurait
privé l'ouvrage de son intérêt pour un public exigeant, et d'autre part, une
exhaustivité aussi gourmande en place qu'inaccessible.
Sur la base de ce découpage, nous avons fait appel à des auteurs spécialistes
de chacun des domaines, gardant une vue d'ensemble sur la discipline et ayant
aussi une bonne expérience pédagogique. Ainsi, chaque chapitre fait-il référence
à diérents domaines d'utilisation en automatique. Bien sûr, ces exemples res-
tent volontairement réduits puisqu'ils ne constituent qu'un échantillonnage de
certains thèmes traités dans la collection  Automatique  dirigée par Claude
Foulard, dans le cadre plus général du Traité  Information, Commande, Com-
munication .
Par ailleurs, nous espérons que ce livre, volontairement ouvert, ne se limitera
pas au seul public  automaticien  mais pourra être une source d'information
pour d'autres utilisateurs de mathématiques. C'est en tous cas dans cette in-
tention qu'il a été conçu.
Pour conclure, je souhaite remercier ici tous les auteurs qui ont accepté
de contribuer à cet ouvrage : la relecture et l'unication de leurs diérentes
contributions m'ont permis de constater, avec plaisir, la grande variété des
connaissances exposées dans ces dix chapitres.

Jean-Pierre Richard
35(0,Ê5( 3$57,(

0DWKpPDWLTXHVSRXUOHVVLJQDX[
HWV\VWqPHV
Chapitre 1

Transformées intégrales et distributions

1.1. Motivations

Les transformées de Fourier et de Laplace sont des outils usuels d'analyse


des systèmes linéaires. De façon à comprendre l'adéquation de ces outils, cette
section de motivations considère brièvement une description informelle1 des
systèmes linéaires et des signaux entrées et sorties associés.
Soit u(t) une grandeur réelle (scalaire ou vectorielle) dont la dépendance
par rapport au temps est considérée comme donnée (u(t) est appelé signal
d'entrée) et soit y(t) une grandeur réelle (scalaire ou vectorielle, appelée signal
de sortie) dont la dépendance par rapport au temps est déterminée par la
connaissance du signal d'entrée et par la donnée d'un opérateur N spéciant
les caractéristiques du système considéré. L'opérateur N transforme les signaux
de l'espace des entrées U en signaux de l'espace des sorties Y (U et Y sont
supposés être des espaces vectoriels, au moins), de telle sorte qu'à toute entrée
u(t) ∈ U corresponde une sortie notée :

y(t) = N (u(t)) ∈ Y. (1.1)


On supposera en général que le système considéré est continu , c'est-à-dire qu'à
toute suite {un }n≥1 convergeant vers 0 dans U , correspond une suite {yn }n≥1
convergeant vers N (0) dans Y .
Etant donnée la très grande variété de signaux d'entrées possibles, il peut
sembler opportun de les décomposer en signaux élémentaires dont les réponses
correspondantes soient bien connues. Or, dans le cas des systèmes linéaires
et stationnaires, il est aisé de montrer que les exponentielles complexes sont
fonctions propres de l'opérateur N , c'est-à-dire :

N est = H(s)est , (1.2)
où s ∈ C est un nombre complexe quelconque et H est une fonction de s appe-
lée réponse isomorphe ou fonction de transfert. De cette observation naît l'idée
1
Par description informelle, nous entendons une description où toutes les hypothèses tech-
niques concernant la nature des signaux d'entrées ne sont pas spéciées.

Chapitre rédigé par Laurent Lefèvre .


22 Mathématiques pour les systèmes dynamiques

de décomposer la plus large classe possible de signaux comme combinaisons


linéaires2 d'exponentielles complexes, puis d'utiliser la linéarité de l'opérateur
N pour reconstruire la réponse à un signal d'entrée donné, comme combinaison
linéaire des réponses élémentaires. Cette idée est à la base de l'analyse fréquen-
tielle. En eet, la réponse du système à une fréquence donnée intervient par
l'intermédiaire de la fonction exponentielle :
eiωt = cos (ωt) + i sin (ωt) , (1.3)
où ω ∈ R (la pulsation) est un nombre réel. Pour ce cas particulier (s = iω), on
obtient une réponse isomorphe de la forme H(iω), appelée réponse en fréquence.
L'idée de décomposition élémentaire du signal d'entrée peut également être
exploitée pour caractériser la réponse de systèmes linéaires autonomes dans le
domaine temporel. A cet eet, dénissons l'échelon unité comme suit :

1 pour t > 0, 0 pour t < 0,
1+ (t) , 1 (1.4)
2 pour t = 0,

et notons y1+ (t) la réponse à cette entrée (réponse indicielle ). La dérivée de


l'échelon unité est nulle en tout point, hormis en t = 0 où elle n'existe pas.
Cette dérivée ne peut donc être considérée comme une fonction : il s'agit d'une
distribution , qui est appelée impulsion de Dirac et notée δ(t). La réponse à
δ(t), notée h(t), est la réponse impulsionnelle (elle aussi peut n'avoir de sens
que dans le cadre de la théorie des distributions). Or, pour les systèmes linéaires
stationnaires, la réponse à la dérivée d'un signal est la dérivée de la réponse au
signal (dans la mesure où ces dérivées ont un sens). Nous pouvons déduire :
dy1+ (t)
= h(t). (1.5)
dt

Dès lors que cette réponse impulsionnelle est connue, il est possible de cal-
culer la réponse à un signal d'entrée quelconque u(t) sous la forme [ZAD 63] :
Z t
y(t) = h(t − τ )u(τ )dτ , (1.6)
0

ces développements n'ayant ici encore de sens que dans le cadre de la théorie
des distributions. L'intégrale (1.6) est appelée intégrale de Duhamel (ou encore
de Carson, ou de superposition ). Elle est un exemple de produit de convolution
entre deux fonctions et explique en grande partie l'intérêt des transformées pour
l'étude des systèmes linéaires stationnaires. En eet, comme nous le verrons par
la suite, au produit de convolution (1.6) dans le domaine temporel, correspond
un simple produit de fonctions dans le domaine fréquentiel (ou de Laplace).
2
Il s'agit de sommes dans le cas des séries de Fourier ou d'intégrales dans le cas des
transformées de Fourier et de Laplace.
Transformées intégrales et distributions 23

Ainsi, l'étude de ce type de relations entrées-sorties est-elle considérablement


facilitée par le biais des transformées intégrales.
Les quelques développements qui précèdent montrent que le cadre des es-
paces de fonctions classiques doit être considérablement élargi pour que puissent
être dénies avec précision, et sans ambiguïté, les notions nécessaires à l'étude
de la réponse des systèmes linéaires stationnaires. C'est pourquoi, dans ce cha-
pitre, après avoir passé en revue quelques notions élémentaires sur les transfor-
mées de Fourier et de Laplace, une large part sera consacrée à la théorie des
distributions et aux résultats concernant leurs transformées.
Remarquons que seul le caractère linéaire et stationnaire de l'opérateur N
entre en jeu pour dénir une représentation intégrale de Duhamel et son cor-
respondant dans le domaine de Laplace. La nature de la réalisation du système
linéaire n'intervient ni dans l'énoncé, ni dans la démonstration du résultat. C'est
pourquoi ces représentations s'appliquent aussi bien aux systèmes d'équations
diérentielles ordinaires (en abrégé, EDO) qu'aux équations aux dérivées par-
tielles (en abrégé, EDP), aux équations diérentielles à retards, aux équations
intégro-diérentielles ou aux équations diérentielles d'ordre non entier (ou
fractionnaire).
Notons encore que la nature des espaces U et Y choisis détermine également
l'existence d'une représentation de Duhamel et les propriétés de la réponse im-
pulsionnelle associée. Par exemple, dans le cas où les signaux entrées sont res-
treints à l'espace des fonctions déclinantes (ou  à décroissance rapide , voir
paragraphe 1.4.2), la réponse impulsionnelle peut être comprise au sens d'une
distribution tempérée. Dans le cas où les entrées sont des fonctions continues à
support compact, on parlera pour la réponse impulsionnelle de mesure de Ra-
don. Si, par contre, les signaux d'entrée et de sortie doivent rester dans l'espace
des fonctions continues et bornées, alors l'opérateur N linéaire et stationnaire
possédera une représentation de Duhamel du type :
Z t
y(t) = u(τ )dg(t − τ ), (1.7)
0

où g est une fonction à variation bornée dénie sur R+ , non décroissante (la
mesure dg peut donc comprendre des impulsions de Dirac), si et seulement si
l'opérateur N possède la propriété de mémoire évanescente [BOY 85].
Ainsi, les distributions apparaissent naturellement comme le cadre théorique
approprié pour l'étude des systèmes linéaires et des signaux associés. De plus,
la représentation de Duhamel nous montre que les transformées de Fourier et
de Laplace peuvent être un outil performant pour l'analyse de tels systèmes.
Nous verrons que ces deux approches (théorie des transformées et distributions)
sont aussi le cadre naturel d'étude des problèmes d'échantillonnage de signaux
continus, quelle que soit la nature du système dont ils sont issus.
24 Mathématiques pour les systèmes dynamiques

1.2. Transformation de Fourier

Comme cela a déjà été mentionné, la transformée de Fourier d'une fonc-


tion est une décomposition de cette fonction en fonctions élémentaires, de type
exponentielle complexe. Plutôt que de ne considérer que les fonctions d'une va-
riable scalaire (généralement, le temps), il est possible de dénir la transformée
de Fourier de fonctions à n variables réelles de la manière suivante.
Dénition 1. La transformée de Fourier d'une fonction u ∈ L1 (Rn ) est dénie
sur Rn par : Z
b(η) ,
(Fu) (η) = u u(ξ)e−2iπξη dξ,
Rn

où ξη , hξ, ηiRn .
La transformée ub est ainsi bien dénie car :
−2iπξη
e = 1, ∀ξ, η ∈ Rn . (1.8)
La présence du facteur d'échelle 2π est optionnelle, mais simplie un certain
nombre de développements.
Dans la suite, nous utiliserons intensivement l'espace de Schwartz des fonc-
tions à décroissance rapide, notamment pour dénir les distributions, mais aussi
pour étendre la dénition de transformée de Fourier aux fonctions de carré in-
tégrable.
Dénition 2. Soit α , (α1 , . . . , αn ) ∈ Nn un multi-indice. Nous utiliserons
pour les multi-indices les conventions de notation suivantes :
|α| , α1 + . . . + αn , ∀α ∈ Nn ,
ξα , ξα1 . . . ξ n , ∀α ∈ N , ∀ξ ∈ R ,
1 αn n n

α1 αn
∂ ∂
∂ α = ∂1α1 . . . ∂nαn , α1 . . . αn , ∀α ∈ Nn , ∀ξ ∈ Rn .
∂ξ 1 ∂ξ n
Avec ces notations, l' espace de Schwartz sur Rn (espace des fonctions décli-
nantes) est déni par :
( )

S (Rn ) , u ∈ C ∞ (Rn ) : ∀α, β ∈ Nn , sup ξ α ∂ β u(ξ) < ∞ . (1.9)
ξ∈Rn

Les fonctions de cet espace sont aussi appelées fonctions à décroissance


rapide. Etant donnée la régularité et la décroissance de ces fonctions, il est
facile de démontrer les propriétés qui suivent de la transformée de Fourier dans
S (Rn ).
Proposition 1. Soient une fonction u ∈ S (Rn ) et un multi-indice α ∈ Nn .
Alors F ((−2iπξ)α u) = ∂ α F (u) et F (∂ α u) = (−2iπξ)α F (u).
Transformées intégrales et distributions 25

Ainsi, dans S (Rn ), la transformée de Fourier échange les dérivations et les


multiplications par des puissances. Cette propriété explique l'intérêt de cette
transformée non seulement dans la résolution d'équations diérentielles (pour
lesquelles on préfère cependant, en général, la transformée de Laplace ou de
Mikusi«ski), mais également en théorie des équations aux dérivées partielles.
Ces équations se traduisent en eet par une équation algébrique donnant la
transformée de Fourier de la solution.
Dénition 3. Soient u : Rn → C, a ∈ Rn et λ ∈ R0 (R privé de 0). L'opération
de translation est dénie par τ a u(ξ) , u(ξ − a), celle de réexion par ŭ(ξ) ,
u(−ξ) et celle de dilatation par ∂λ u(ξ) , u(ξ/λ).
Il est alors aisé de démontrer les propriétés suivantes de la transformée de
Fourier dans L1 (Rn ) (et donc aussi dans S (Rn )).
Proposition
R 2. SoientR u, v ∈ L1 (Rn ) , a ∈ Rn et λ ∈ R0 . On a alors :
(i) Rn
b(ξ)v(ξ)dξ = Rn u(ξ)b
u v (ξ)dξ ;
(ii) F (τ a u) = e−2iπa· F (u) ;
(iii) F (∂λ u) = |λ|n ∂1/λ F (u) ;
(iv) F ŭ(ξ) = ub(−ξ).
Une autre propriété fondamentale de la transformée de Fourier est la formule
d'inversion énoncée dans la proposition suivante [WIL 95].
Théorème 1. La transformation de Fourier F : S (Rn ) → S (Rn ) est une bi-
jection linéaire telle que (F ◦ F ) (u) = ŭ (dilatation dénie en 3), ∀u ∈ S (Rn ).
Cette propriété fondamentale établit l'existence d'une correspondance bi-
univoque entre les fonctions de S (Rn ) et leurs transformées. Elle permet, par
exemple, de transformer certains problèmes diérentiels dans le domaine tem-
porel en problèmes algébriques dans le domaine fréquentiel puis, à l'aide de
tables de transformées, d'utiliser la solution fréquentielle pour déterminer la
solution temporelle. La même démarche peut par ailleurs s'appliquer aussi bien
pour les EDO (équations diérentielles ordinaires) que pour les EDP (équations
aux dérivées partielles), puisque cette formule d'inversion est valable pour la
transformée dans Rn .
Munissons l'espace S (Rn ) du produit scalaire dans L2 (Rn ) et de la norme
associée. La proposition 2 (i ) et la formule d'inversion de Fourier permettent
de conclure que, ∀u, v ∈ S (Rn ) :
Z
hb
u, b
v i2 = b(ξ)b
u v (ξ)dξ = hu, vi2 , (1.10)
Rn

identité appelée égalité de Plancherel (ou, parfois, de Parseval ). Elle traduit le


caractère isométrique de la transformation de Fourier dans L2 (Rn ) (voir plus
loin pour l'extension à L2 (Rn ) de cette transformée). Nous avons vu que le
produit de convolution est une représentation possible des systèmes linéaires
26 Mathématiques pour les systèmes dynamiques

stationnaires. Le produit de convolution de deux fonctions u, v ∈ S (Rn ) peut


être facilement déni en observant que :
|u(ξ − η)v(η)| ≤ kuk∞ |v(η)| . (1.11)
Dès lors, le membre de gauche de (1.11) vit dans L1 (Rn ) et la dénition qui
suit a un sens.
Dénition 4. Le produit de convolution de u et v ∈ S (Rn ) est déni par :
Z
(u ∗ v) (ξ) , u(ξ − η)v(η)dη.
Rn

Les propriétés qui suivent justient l'utilité de la transformation de Fourier


dans l'analyse des systèmes linéaires stationnaires représentés par des opéra-
teurs de convolution entrée-sortie.
Proposition 3. Si u, v ∈ S (Rn ), alors :
(i) u ∗ v ∈ S (Rn ) ;
(ii) F (u ∗ v) = ubvb;
(iii) F (uv) = ub ∗ vb.
Jusqu'à présent, nous avons déni la transformée de Fourier dans L1 (Rn ) et
dans S (Rn ). Cependant, dans l'étude des signaux, l'espace L2 (Rn ) joue un rôle
fondamental, notamment parce que sa norme dénit souvent l'énergie contenue
dans un signal. C'est en outre un espace de Hilbert réexif, ce qui rend son
utilisation fort commode. L'extension de la transformée de Fourier à L2 (Rn )
se fait à l'aide d'un résultat de densité bien connu (voir une démonstration
dans [WIL 95]).
Dénition 5. L'espace des fonctions tests de n variables réelles est déni par :
D (Rn ) , {u ∈ C ∞ (Rn ) : suppt (u) est un compact de Rn }, où suppt (u) est le
support de la fonction u :
suppt (u) , {ξ ∈ Rn : u(ξ) 6= 0} . (1.12)
Théorème 2. L'espace des fonctions tests D (Rn ) est dense dans l'espace
Lp (Rn ) pour tout p ≥ 1.
Comme l'espace des fonctions déclinantes contient cet espace des fonctions
tests, le résultat de densité s'applique aussi à S (Rn ). De plus, l'égalité de
Plancherel garantit la continuité de la transformation de Fourier :
F : S (Rn ) → S (Rn ) ⊂ L2 (Rn ) , (1.13)
et, dès lors, il existe un et un seul prolongement de cette transformation à l'es-
pace L2 (Rn ) (par un résultat classique de densité, voir notamment [RIC 01]).
C'est ce prolongement unique que nous dénissons comme transformée de Fou-
rier d'une fonction de L2 (Rn ). Si u ∈ L2 (Rn ) ∩ L1 (Rn ), alors les dénitions
par prolongement et dans L1 (Rn ) (dénition intégrale) sont équivalentes.
Transformées intégrales et distributions 27

Des propriétés précédemment établies pour la transformation de Fourier


des fonctions déclinantes peuvent ainsi s'étendre aux fonctions de L2 (Rn ), par
densité et grâce à la continuité de la transformée de Fourier, du produit scalaire
ou de la norme dans L2 (Rn ). Par exemple, l'égalité de Plancherel montre que la
transformation de Fourier est une isométrie de L2 (Rn ). Il est ainsi aisé d'établir
la proposition suivante.
Proposition 4. Pour toutes fonctions u, v ∈ L2 (Rn ), on a :
(i) (FR ◦ F ) (u) = ŭ ; R
(ii) Rn ub(ξ)v(ξ)dξ = Rn u(ξ)b v (ξ)dξ ;
R
(iii) hb
u, vbi2 = Rn u v (ξ)dξ = hu, vi2 ;
b(ξ)b
(iv) kuk2 = kb uk2 .
Lorsque la fonction u est un signal dépendant seulement de la variable temps
(u = u(t)), la transformation de Fourier en donne une  décomposition en
fréquence  (voir équation (1.3) ). En pratique, il est souvent souhaitable de
n'eectuer cette décomposition que sur une bande de fréquence limitée, c'est-
à-dire de restreindre la transformée de Fourier à un intervalle de pulsations
[−Ω, +Ω] , Ω ∈ R+ . Appelons u b (ω) la transformée de Fourier du signal u(t)
non restreint et reconstruisons le signal temporel correspondant à la restriction
à de cette transformée, c'est-à-dire, d'après le théorème d'inversion de Fourier
(théorème 1) :
Z +Ω
uΩ (t) , b (ω) e2iπωt dω.
u (1.14)
−Ω

En permutant les ordres d'intégration (formule de Fubini [RIC 01]), on obtient :


Z +∞ Z +Ω
uΩ (t) = u(τ ) e2iπω(t−τ ) dωdτ (1.15)
−∞ −Ω
Z +∞
sin (2Ω(t − τ ))
= u(τ ) dτ ,
−∞ π(t − τ )

avec en particulier, pour la fonction échelon unité u(t) = 1+ (t) :


Z +∞
sin (2Ω(t − τ ))
uΩ (t) = dτ (1.16)
0 π(t − τ )
Z
1 1 2πΩt sin τ
= + dτ
2 π 0 τ
1 1
= + Si (2πΩt) ,
2 π
où la fonction Si est le sinus intégral. La valeur de la fonction uΩ (t) est re-
présentée à la gure 1.1. Notons que, pour Ω croissant, l'abscisse du premier
maximum positif (1/2Ω) décroît. En un certain sens, la fonction se rapproche
ainsi de l'échelon unité. Cependant, en ce premier maximum, la fonction vaut
28 Mathématiques pour les systèmes dynamiques

environ 1.09, indépendamment de la valeur de Ω. Ce phénomène a reçu le nom


de phénomène de Gibbs. Il peut être généralisé à toute fonction comportant un
nombre ni de discontinuités de première espèce, pour lesquelles la convergence
de uΩ (t) n'est pas uniforme.

0.8

0.6

0.4

0.2

-1 0 1 2 3

Figure 1.1. Fonction uΩ (t) pour Ω = 1 et Ω = 10

Remarquons que nous avons pris quelques libertés par rapport à la dénition
de transformée de Fourier telle que nous l'avons formulée jusqu'ici. En eet,
la fonction u(t) = 1+ (t) n'est ni dans S (Rn ), ni dans aucun espace Lp (Rn ) ,
p ≥ 1, atteint par densité. Ainsi, la restriction à un spectre borné [−Ω, +Ω]
de la transformée ub (ω) n'a pas encore reçu de sens précis. Nous verrons plus
loin que, pour dénir correctement celle-ci, nous aurons besoin de la théorie
des distributions. Nous allons conclure cette section consacrée à la transformée
de Fourier par un résultat fréquemment utilisé : un théorème d'échantillonnage
pour les signaux à spectre borné.
Les signaux à spectre borné jouent un rôle particulier dans les applications
où le choix est souvent fait de ne travailler que sur une bande de fréquence
déterminée. Par dilatation, il est toujours possible de se ramener
 aux signaux
à spectre inclus dans l'intervalle fondamental I , − 12 , + 21 (dont le complé-
mentaire dans R sera noté R \ I).
Dénition 6. L' espace des signaux L2 (R) à spectre borné est déni par :
b(ω) = 0 p.p. dans R \ I} .
BL2 , {u ∈ L2 (R) : u
Transformées intégrales et distributions 29

Ce sous-espace est muni du produit scalaire usuel dans L2 (R).


Ce sous-espace de L2 (R) jouit de quelques propriétés très intéressantes.
Tout d'abord, il s'agit d'un sous-espace fermé (il est donc complet). Ensuite,
les signaux de L2 (R) à spectre borné sont en fait continus et kuk∞ ≤ kuk2 . La
suite {τ k sinc}k∈Z , où τ k est l'opérateur de translation par un nombre entier k
et où la fonction sinc est le sinus cardinal déni par :
 sin πt
πt , t 6= 0,
sinc (t) , (1.17)
0, t = 0,

est une base hilbertienne de BL2 [WIL 95]. Dès lors, cette base hilbertienne
peut être utilisée pour décomposer toute fonction à spectre borné, ce qui est
formellement établi par le théorème suivant [WIL 95].
Théorème 3 (d'échantillonnage). ∀u, v ∈ BL2 , ∀k ∈ N, ∀t ≥ 0, on a :
(i) u(k) = P hu, τ k sinciL2 ;
(ii) u(t) = k∈N u(k) sinc (t − k), série convergeant uniformément, dans L2 ;
P
(iii) kuk22 = k∈N |u(k)|2 ;
P
(iv) hu, viL2 = k∈N u(k)v(k).

1.3. Transformation de Laplace

La transformation de Laplace est certainement la plus utilisée dans l'ana-


lyse des systèmes dynamiques décrits par des EDO (équations diérentielles
ordinaires) à coecients constants. Comme la transformation de Fourier, elle
substitue à ces équations diérentielles un ensemble d'équations algébriques
linéaires. Elle n'est donc pratiquement utilisée que pour les fonctions d'une
variable scalaire : le temps.
Dénition 7. Soit u une fonction mesurable dénie sur R. La transformée de
Laplace de cette fonction, lorsqu'elle existe, est dénie par :
Z +∞
L(u)(s) , u(t)e−st dt,
−∞

où s ∈ C est une variable complexe telle que l'intégrale converge.


Comme la plupart des systèmes dynamiques décrits par des EDO linéaires à
coecients constants sont intégrés à partir d'un temps initial (que l'on convient
de prendre égal à t = 0), la transformée de Laplace unilatère est plus souvent
utilisée dans ce cas. Elle est dénie par :
Z +∞
L(u)(s) = u(t)1+ (t)e−st dt, (1.18)
−∞
30 Mathématiques pour les systèmes dynamiques

où s ∈ C est une variable complexe telle que l'intégrale converge. Dans la litté-
rature consacrée aux systèmes linéaires continus, la dénition plus restreinte qui
suit de la transformée de Laplace unilatère est la plus fréquemment rencontrée.
Dénition 8. Une fonction u dénie sur R+ est dite transformable au sens
de Laplace s'il existe un nombre β ∈ R pour lequel e−β· u(·) ∈ L1 (R+ ). Dans
ce cas, sa transformée de Laplace unilatère est dénie par :
Z +∞
L(u)(s) , u(t)e−st dt,
0

pour s ∈ C+
β , {s ∈ C : Re (s) ≥ β}.
Exemple 1. La fonction exponentielle u(t) = eλt , où λ ∈ C, est telle que
pour tout β ∈ R avec β > Re (λ), e−β· eλ· ∈ L1 (R+ ). On a donc, pour tout
s ∈ C+
Re(λ) , {s ∈ C : Re (s) > Re (λ)} :
Z +∞
1
L(u)(s) , eλt e−st dt = . (1.19)
0 s−λ

La fonction constante u(t) = 1+ (t) est telle que pour tout β > 0, e−β· 1+ (·) ∈
L1 (R+ ). On a donc, pour tout s ∈ C+ 0 :
Z +∞
1
L(u)(s) , 1+ (t)e−st dt = . (1.20)
0 s

Comme le montrent ces deux exemples, l'intégrale dénissant la transformée


de Laplace au sens de la dénition 8 n'est en général convergente que pour la
variable complexe s appartenant à un demi-plan ouvert du plan complexe,
délimité à gauche par une droite parallèle à l'axe imaginaire dont l'abscisse est
appelée abscisse de convergence. Le demi-plan à droite de cette abscisse est
appelé, quant à lui, domaine de convergence. En séparant la partie réelle et la
partie imaginaire de s (c'est-à-dire en posant s = σ + jω) et en considérant le
cas d'un signal u causal 3 , il vient :
Z +∞ 
L(u)(s) , u(t)e−σt e−iωt dt (1.21)
0
Z +∞ 
= 2π u(2πt)e−2πσt e−2πiωt dt
0
h i
= 2πF ∂ 2π
1 u(·)e−σ· (ω).

Cette dernière propriété illustre un des attraits fondamentaux de la transfor-


mation de Laplace par rapport à celle de Fourier : elle peut être convergente
3 Un signal u, déni sur R, est dit causal si u(t) = 0, pour tout t < 0.
Transformées intégrales et distributions 31

pour des fonctions dont la transformée de Fourier n'est pas convergente au


sens habituel (intégrale de fonctions mesurables). C'est le cas pour toutes les
fonctions dont le domaine de convergence de la transformée de Laplace n'inclut
pas l'axe imaginaire. Il faut, dans ce cas, avoir recours aux distributions (voir
ci-après) pour dénir la transformée de Fourier de telles fonctions.
La relation (1.21) permet également d'étendre de nombreuses propriétés des
transformées de Fourier aux transformées de Laplace, notamment la formule
d'inversion de Fourier. En eet, pour un signal causal u et pour tout σ dans le
domaine de convergence, on a :
Z +∞
1
u(2πt)e−2πσt = L(u)(σ + iω)e+2πiωt dω, (1.22)
2π −∞

et donc :
Z ∞
1
u(t) = L(u)(σ + iω)e+(σ+iω)t dω (1.23)
2π ∞
Z σ+i∞
1
= L(u)(s)e+st dω.
2πi σ−i∞

Cette intégrale est parfois appelée intégrale de Bromwhich-Wagner et peut être


calculée par les techniques habituelles d'intégration d'une fonction de variable
complexe, notamment le théorème des résidus [RIC 01]. La fonction L(u)(s)
étant holomorphe dans un demi-plan complexe droit (domaine de convergence),
il est naturel que la valeur de l'intégrale (1.23) soit indépendante de l'abscisse σ
de la droite d'intégration dans le domaine de convergence (il n'y a pas de pôle à
l'intérieur du contour d'intégration formé par cette droite et par le  demi-cercle
à l'inni  à droite).
Dans le cas des systèmes d'EDO linéaires à coecients constants, les signaux
étudiés sont le plus souvent des combinaisons linéaires de fonctions élémen-
taires (fonctions exponentielles, sinusoïdales et polynomiales), causales (c'est-
à-dire multipliées par un échelon unité). Dans le domaine de Laplace, leurs
transformées sont des fractions rationnelles. Le calcul de ces transformées et
leur inversion s'eectuent alors par consultation d'un dictionnaire de transfor-
mées, éventuellement après décomposition préalable du signal temporel étudié
en combinaison linéaire de fonctions élémentaires, ou de la fraction ration-
nelle correspondante dans le domaine de Laplace en fractions simples. Le plus
souvent, le domaine de convergence des transformées utilisées n'est même pas
mentionné, puisque l'on sait explicitement qu'il s'agit d'un demi-plan complexe
laissant à sa gauche tous les points singuliers éventuels.
La relation (1.21) entre les transformées de Fourier de Laplace entraîne une
grande similitude entre leurs propriétés fondamentales. Nous allons ci-après
établir ces propriétés pour la transformée de Laplace de fonctions d'une variable
32 Mathématiques pour les systèmes dynamiques

réelle (application la plus courante de ces transformées) et non plus de plusieurs


variables réelles, comme nous l'avons fait pour la transformée de Fourier.
Proposition 5. Si la fonction u(t) dénie pour t ∈ R+ est transformable au
sens de Laplace et si elle est diérentiable sur R+ , alors :
du
L( )(s) = sL(u)(s) − u(0).
dt
Si, de plus, u(t) est k fois diérentiable sur R+ , alors :

dk u X di u
k−1
L( )(s) = s k
L(u)(s) − (0)sk−1−i .
dtk i=0
dt i

Cette propriété de la transformée de Laplace unilatère se démontre facile-


ment par induction. Le cas k = 1 s'obtient en procédant à l'intégration par
parties. Cette propriété de la transformée de Laplace et sa linéarité permettent
de substituer un système d'équations algébriques linéaires à un système d'EDO
linéaires à coecients constants. Une fois trouvée la solution de ce problème
algébrique, il n'y a plus qu'à procéder à l'inversion de celle-ci (en utilisant
par exemple des tables de transformées, comme le tableau 1.1) pour trouver
la solution correspondante dans le domaine temporel. De plus, le recours à la
transformée de Laplace unilatère introduit de façon systématique les conditions
initiales du problème diérentiel et conduit ainsi à sa solution globale.
Remarquons que les domaines de convergence d'un signal et de sa dérivée
(lorsqu'elle existe) sont généralement identiques, sauf dans le cas où l'abscisse
de convergence du signal est nul. Dans ce cas, l'opération de dérivation peut,
pour un pôle simple, éliminer le point singulier s = 0 (multiplication par s).
La dénition du produit de convolution de deux fonctions de S (R) (voir
la dénition 4) peut être étendue au cas de deux fonctions dans L1 (R). La
proposition qui suit justie cette possibilité [SCH 93].
Proposition 6. Soient u ∈ L1 (R) et v ∈ Lp (R) avec 1 ≤ p < ∞. Alors le
produit de convolution de u et v :
Z
(u ∗ v) (t) , u(t − η)v(η)dη,
R

est bien déni comme fonction de Lp (R) et :


ku ∗ vkp ≤ kuk1 kvkp .

Dans le cas où les signaux u et v sont de plus causaux, on a :


Z Z t
(u ∗ v) (t) = u(t − η)v(η)dη = u(t − η)v(η)dη.
R 0
Transformées intégrales et distributions 33

u(t) L(u)(s) Remarques


1
1+ (t) s
tm 1
(m−1)! 1+ (t) sm m∈Z
1
eat 1+ (t) s−a a∈C
tm eat 1 m∈Z
(m−1)! 1+ (t) (s−a)m a∈C
sin ωt 1
ω 1+ (t) s2 +ω2 ω∈R
cos (ωt) 1+ (t) s
s2 +ω2 ω∈R
s cos φ+ω sin φ
cos (ωt − φ) 1+ (t) s2 +ω2 ω, φ ∈ R
t sinωωt 1+ (t) s
(s2 +ω 2 )2
ω∈R
s2 −ω 2
t cos (ωt) 1+ (t) (s2 +ω 2 )2
ω∈R
tν eat 1
Γ(ν−1) 1+ (t) (s−a)ν ν, a ∈ R
√eat
1 (t) √1 a∈R
πt +
√ s−a
erf√ at √1
a
1+ (t) s s+a
a>0

cos(2 at) a
e− s
√ 1+ (t) √ a>0
πt
√ s
sin(2 at) e− s
a
√ 1+ (t) 3 a>0
πt s2
sin at
t 1+ (t) arctan a
s a∈R

Tableau 1.1. Quelques transformées de Laplace unilatères

Au vu de la proposition 6, le produit de convolution de deux signaux u et


v transformables au sens de Laplace (transformée unilatère) est transformable
au sens de Laplace et son domaine de convergence contient l'intersection des
domaines de convergence des deux signaux u et v. Comme celle de Fourier,
la transformée de Laplace traduit le produit de convolution dans le domaine
temporel en un simple produit de fonctions dans le domaine de Laplace et faci-
lite ainsi grandement l'analyse des systèmes linéaires stationnaires décrits par
leur réponse impulsionnelle. En eet, pour de tels systèmes, la réponse forcée
à un signal d'entrée est le produit de convolution du signal et de sa réponse
impulsionnelle (voir équation (1.6)). Ces considérations sont formalisées dans
la proposition qui suit (voir une démonstration dans [DOE 74]).
Proposition 7. Soient u, v deux signaux dénis sur R+ et transformables au
sens de Laplace. Alors, u ∗ v est transformable au sens de Laplace et :

L(u ∗ v)(s) = L(u)(s)L(v)(s).

De plus, si s, p ∈ C sont tels que p et s − p appartiennent aux domaines de


34 Mathématiques pour les systèmes dynamiques

convergence respectifs de L(v)(s) et de L(u)(s), alors :


Z σ+i∞
1
L(uv)(s) = L(u)(s − p)L(v)(p)dp,
2πi σ−i∞

où σ est la partie réelle de la variable d'intégration.


Notamment, si les conditions de convergence permettent d'annuler s, on a :
Z ∞ Z σ+i∞
1
u(t)v(t)dt = L(u)(−p)L(v)(p)dp, (1.25)
0 2πi σ−i∞

qui est un équivalent, pour la transformée de Laplace, de la relation de Parseval.


Il semble donc qu'il y ait moyen, comme dans le cas de la transformée de Fourier,
d'établir une isométrie entre les fonctions de L2 (R+ ) et leurs transformées.
Ceci est eectivement le cas, mais nécessite
 la dénition préalable d'un espace
de Hardy que nous noterons H2 C+ 0 .
Dénition 9. L'espace de Hardy H2 des fonctions d'une variable complexe à
valeurs dans Cn est déni par :
 n 2
o
H2 C+ +
0 , f : C0 → C : f est holomorphe et kf kH2 < ∞ ,
n

où :  Z ∞ 
2 1 2
kf kH2 , sup kf (σ + iω)kCn dω .
σ>0 2π ∞

L'espace H2 C+ 0 ainsi déni est un espace de Banach (il est complet, muni
de la norme k·kH2 , voir [KAW 72]). Cependant,

il est nécessaire de pouvoir dé-
nir un produit scalaire dans H2 C+ 0 pour établir une isométrie de cet espace
avec L2 (R+ ). Pour cela, la proposition
 suivante [KAW 72] fait remarquer que
les fonctions de l'espace H2 C+ 0 peuvent être représentées par leurs valeurs
sur l'axe imaginaire.

Proposition 8. Pour chaque fonction f ∈ H2 C+0 , il existe une unique fonc-
tion fe ∈ L2 (−i∞, +i∞) telle que :
Z +∞ 2

lim+ f (σ + iω) − fe(iω) n dω = 0.
σ→0 −∞ C

De plus, l'application f 7→ fe est linéaire, injective et préserve la norme.



En choisissant pour chaque fonction de H2 C+ 0 ce représentant unique dans
L2 (−i∞, +i∞), nous pouvons donc dénir sans ambiguïté le produit scalaire
de deux fonctions f et g de H2 C+ 0 par :
Z +∞ D E
1
hf, giH2 = fe(iω) , ge (iω) dω. (1.26)
2π −∞ Cn
Transformées intégrales et distributions 35

Comme
 corollaire immédiat de la proposition 8, nous pouvons déduire que
H2 C+
0 muni de ce produit scalaire est un espace de Hilbert. Il est maintenant
possible de formaliser l'observation faite à partir de l'équation (1.25). C'est
l'objet du théorème suivant.
Théorème 4 (de Paley-Wiener).  La transformée de Laplace est une isomé-
trie entre L2 (R+ ) et H2 C+ 
0 . Ainsi notamment, pour tout u, v de L2 (R+ ),
+
on a : L(u), L(v) ∈ H2 C0 et hu, viL2 = hL(u), L(v)iH2 .
Cette isométrie est fort utile, par exemple pour évaluer le gain L2 d'un
système linéaire stationnaire représenté par une convolution. De même que
celle de Fourier, la transformée de Laplace possède des propriétés intéressantes
de transformation des opérateurs de translation et de dilatation (dénition 3).
Proposition 9. Soient u une fonction transformable au sens de Laplace, a ∈
R, λ ∈ R0 et s0 ∈ C. On a alors :
(i) L (τ a u) = e−sa L (u) ;
(ii) L (∂λ u) = |λ| ∂1/λ L (u) ;
(iii) L (e−s0 t u) = τ s0 L (u) .
La première de ces propriétés permet de déterminer la fonction de transfert
d'un système caractérisé par un retard de transmission. Elle est également fort
utile pour la conversion de données échantillonnées à intervalles de temps régu-
liers. Les propriétés (ii ) et (iii ) aectent en général le domaine de convergence.
Elles sont utilisées surtout pour élargir les dictionnaires de transformées.
Il est possible de déterminer les valeurs initiale et nale d'une fonction u(t),
dénie sur R+ et à valeur dans Rn , à partir de l'expression de sa transformée
de Laplace. En eet, on a d'après la propriété 5 :
du
sL(u)(s) = L( )(s) + u(0+ ). (1.27)
dt
Ceci suppose que u(t) soit diérentiable sur R+ et, en particulier, que :

lim u(t) = u(0+ ), (1.28)


t→0+

existe. On obtient alors, en considérant les limites Re (s) → ∞ et Re (s) → 0+ ,


pour autant que s = 0 appartienne au domaine de convergence :

u(0+ ) = lim sL(u)(s), (1.29)


Re(s)→∞

u(∞) = lim sL(u)(s). (1.30)


Re(s)→0+

Lorsque l'axe imaginaire est la frontière du domaine de convergence, la relation


(1.30) peut être ou ne pas être vériée, comme le montrent les deux exemples
qui suivent.
36 Mathématiques pour les systèmes dynamiques

Exemple 2. (i) La transformée de Laplace de l'échelon unité 1+(t) est la fonc-


tion 1
s et son domaine de convergence est le demi-plan complexe ouvert droit
Re (s) > 0. En appliquant la formule (1.30), on trouve :
1
lim s = lim 1+ (t).
Re(s)→0+ s t→∞

(ii) La transformée de Laplace de sin (ωt) 1+ (t) est la fonction s2 +ω


ω
2 et son

domaine de convergence est le demi-plan complexe ouvert droit Re (s) > 0. En


appliquant la formule (1.30), on trouve :
ω
lim s = 0,
Re(s)→0+ s2 + ω 2

alors que la fonction sin (ωt) 1+ (t) n'a pas de limite pour t → ∞.

1.4. Distributions

1.4.1. Motivations
Nous avons été confrontés au problème de la généralisation de la notion
de fonction en abordant la question de la réponse impulsionnelle d'un système
linéaire stationnaire. Celle-ci nécessite le plus souvent de considérer l'impulsion
de Dirac qui doit être vue plutôt comme une forme linéaire (faisant correspondre
à une fonction u(ξ) la valeur de cette fonction en ξ = 0) que comme une
fonction.
Nous avons également été confronté au problème de la dérivation de cer-
taines fonctions non diérentiables au sens usuel (fonctions non continues, par
exemple), notamment à travers le prisme de la multiplication de leurs transfor-
mées de Fourier par des puissances du type (−2iπξ)α , α ∈ Nn .
Les transformées de Fourier et de Laplace, quant à elles, posent des pro-
blèmes de convergence. Un grand nombre de fonctions intéressantes, telle la
fonction constante 1, ne possèdent pas de transformées de Fourier, au sens
usuel de la transformée d'une fonction.

1.4.2. Structures de convergence, espace dual et distributions


La théorie des distributions apporte une solution élégante et précisément
formulée à l'ensemble de ces problèmes. Les espaces de distributions sont, en
général, des espaces duaux d'espaces de fonctions très étroits, notamment des
Transformées intégrales et distributions 37

espaces D (Rn ) et S (Rn ) que nous avons dénis plus haut. La première ques-
tion qui se pose alors est de dénir une notion de convergence  raisonnable 
sur ces espaces. Pour ce faire, nous avons recours à la notion de structure de
convergence.
Dénition 10. Soit X un espace vectoriel sur K (avec K = R ou C), χ ⊆ X N
un sous-espace vectoriel de l'ensemble des suites de points de X . Alors, χ dénit
une structure de convergence sur X s'il existe une application (appelée limite)
de χ dans X qui, à toute suite {un }n≥1 , fait correspondre un point u de X (on
notera {un }n≥1 7→ u), avec :
(i) {u, . . . , u, . . .} 7→ u ;
(ii) {un }n≥1 7→ u ⇒ ∀ sous-suite {unk }k≥1 7→ u ;

{un }n≥1 7→ u 
(iii) {vn }n≥1 7→ v ⇒ {λ(un + vn )}n≥1 7→ λu + λv .

λ∈K
L'ensemble χ est donc le domaine de cette application  limite , ou encore
l'ensemble des suites qui convergent (au sens particulier déni par la structure
de convergence).
Dénition 11 (Convergence faible). Soit X un espace de Hilbert, muni du
produit scalaire h·, ·iX à valeurs dans K (R ou C). Une suite {un }n≥1 ⊂ X
converge faiblement vers u, dans X , si :

∀v ∈ X : hun , viX → hu, viX , (1.31)


au sens de la convergence usuelle dans K.
Dénition 12 (Convergence dans D (Rn )). Une suite de fonctions {un}n≥1
de l'espace des fonctions tempérées D (Rn ) converge vers u dans D (Rn ) si :
(i) il existe un compact K ⊂ Rn telle que suppt (un ) ⊂ K, ∀n ≥ 1 (voir
(1.10) pour la dénition du support suppt) ;
(ii) ∀α ∈ Nn : k∂ α (un − u)k∞ → 0.
D
On note la convergence dans D (Rn ) : {un }n≥1 → u.
Dénition 13 (Convergence dans S (Rn )). Une suite de fonctions {un}n≥1
de l'espace de Schwartz S (Rn ) converge vers u dans S (Rn ) si ∀α, β ∈ Nn :
β α S
x ∂ (un − u) → 0. On note {un }
∞ n≥1 → u la convergence de cette suite
dans S (Rn ).
Remarquons que u ∈ D (Rn ) implique u ∈ S (Rn ) et que :
D S
{un }n≥1 → u ⇒ {un }n≥1 → u. (1.32)
Dénition 14 (Convergence dans K (Rn )). On dénit l' espace des fonc-
tions continues à support compact par :
K (Rn ) , {u ∈ C (Rn ) : suppt (u) est un compact de Rn } .
38 Mathématiques pour les systèmes dynamiques

Une suite de fonctions {un }n≥1 de K (Rn ) converge vers u dans K (Rn ) si :
(i) il existe un compact K ⊂ Rn telle que suppt (un ) ⊂ K, ∀n ≥ 1 ;
(ii) kun − uk∞ → 0.
D
On désigne la convergence de cette suite dans D (Rn ) par {un }n≥1 → u.
Dénition 15 (Convergence ponctuelle dans X 0). Soit X un espace vec-
toriel sur K, à structure de convergence. On dénit X 0 , l' espace dual de X ,
par :
X 0 , {f : X → K : f est linéaire et continue} , (1.33)
et on désigne alors la valeur de f en u par (f, u). On dit qu'une suite de
fonctions {fn }n≥1 de X 0 converge vers f dans X 0 lorsque :
∀u ∈ X : (fn , u) → (f, u) . (1.34)
Il s'agit donc de la convergence ponctuelle dans X 0 .
D
Il est intéressant de constater que la convergence {un }n≥1 → u est l'une
des plus exigentes rencontrées en analyse et qu'en conséquence, la convergence
associée dans l'espace dual D0 (convergence ponctuelle dans D0 ) est l'une des
plus faibles rencontrées en analyse.
La construction d'espaces de distributions consiste précisément à prendre
l'espace dual X 0 d'espaces de fonctions X susamment régulières, munis
d'une structure de convergence. On parlera d'espace des distributions D0 (Rn ),
d'espace des distributions tempérées S 0 (Rn ) et d'espace des mesures de Radon
K0 (Rn ). Ensuite, les applications linéaires continues dans X sont transposées
de manière à dénir les applications linéaires continues dans X 0 . Cette construc-
tion assez simple est susante pour répondre aux motivations que nous avons
posées à la section précédente. Rappelons tout d'abord la dénition d'applica-
tion linéaire continue.
Dénition 16 (Application linéaire continue). Soient X et Y deux espaces
vectoriels munis chacun d'une structure de convergence sur K et L : X → Y
une application linéaire. L'application L est continue si :
X Y
∀ {un }n≥1 ⊂ X : un → 0 ⇒ Lun → 0.

Dans le cas d'espaces X et Y normés et si la structure de convergence choisie


est la convergence en norme, c'est-à-dire :

(1.35)
X
un → 0 ⇔ lim kun kX = 0,
n→∞
Y
(L, un ) → 0 ⇔ lim kLun kX = 0,
n→∞

alors il s'agit de la notion usuelle d'application linéaire continue entre deux


espaces normés.
Transformées intégrales et distributions 39

La tansposition d'une application linéaire continue se dénit de manière très


naturelle dans les espaces duaux.
Dénition 17 (Transposition d'une application linéaire). Soient X et
Y deux espaces vectoriels munis de leurs structures de convergence et soit une
application linéaire continue L : X → Y . L'application linéaire transposée
L0 : Y 0 → X 0 , notée L0 ou LT , est dénie de manière telle que :

∀f ∈ Y 0 : (L0 f, u) , (f, Lu) , ∀u ∈ X.

Le lecteur vériera facilement que l'application transposée L0 est ainsi bien


dénie et elle-même linéaire et continue. Ce principe de transposition est le
moteur de la généralisation aux espaces de distributions de type X 0 de toutes les
applications linéaires continues de X dans lui-même. Il va nous permettre, par
exemple, de dénir la dérivation ou la transformée de Fourier d'une distribution.
Laurent Schwartz est à la source de la théorie simple et élégante des distri-
butions présentée ici et formulée par lui à la n de la seconde guerre mondiale.
Bien que les distributions aient été utilisées bien avant, notamment par Heavi-
side qui fait déjà largement usage de la dérivée de la fonction échelon unité vers
1890, la théorie des distributions de Schwartz fournit un cadre rigoureux (et
donc les résultats correspondants) et renouvelé à l'étude de l'analyse de Fou-
rier et des équations aux dérivées partielles. Ces deux domaines connaîtront
dès lors un essor spectaculaire, renforcé dans le cas de la théorie des équations
aux dérivées partielles, par l'introduction des espaces de Sobolev d'ordre entier
(Sobolev, 1938), puis non entier. Les travaux de Schwartz sur les distributions
sont présentés dans [SCH 66].

1.4.3. Distributions tempérées


L'espace de Schwartz S (Rn ), plus large que D (Rn ), permet d'analyser des
fonctions qui n'ont pas un support compact. Comme nous l'avons vu au début
de ce chapitre, son utilisation simplie considérablement l'étude de la transfor-
mée de Fourier4 . Nous le privilégierons dans la suite de ce chapitre.
Dénition 18 (Distributions tempérées). L' espace des distributions tem-
pérées est déni par :
S 0 (Rn ) , {f : S (Rn ) → C : f est linéaire et continue} .

C'est le dual de l'espace de Schwartz. Des formes à valeurs complexes ont été
choisies pour plus de généralité.
4 La simplication provient du caractère isométrique de la transformée de Fourier dans cet

espace et du fait que la propriété de dérivation F (∂ α u) = (−2iπξ)α F (u) rend fondamentale


l'utilisation de la condition de décroissance rapide.
40 Mathématiques pour les systèmes dynamiques

Nous avons déjà étudié un certain nombre d'applications linéaires et conti-


nues de S (Rn ) dans lui-même. Elles sont reprises ci-après.
Proposition 10. Avec les conventions associées aux multi-indices (voir dé-
nition 2), les opérateurs qui suivent sont des opérateurs linéaires et continus
de S (Rn ) dans lui-même :
(i) l'opérateur de dérivation ∂ γ , pour γ ∈ Nn ;
(ii) l'opérateur de translation τ a , pour a ∈ Rn ;
(iii) l'opérateur de dilatation ∂λ , pour λ ∈ R\{0}.
Démonstration : le caractère linéaire de ces opérateurs est évident. La continuité
se montre à l'aide de la dénition de S (Rn ). Par exemple, pour la dérivation,
S
un → 0 implique :

∀α, β ∈ Nn , sup ξ α ∂ β (∂ γ un (ξ)) = sup ξ α ∂ β+γ un (ξ) < ∞. (1.36)
ξ∈Rn ξ∈Rn

Le cas de la transformée de Fourier est plus subtil. Nous avons vu qu'il


s'agit d'une bijection linéaire de S (Rn ) dans lui-même, qui est une isométrie
lorsque S (Rn ) est muni du produit scalaire dans L2 (Rn ). La démonstration de
la proposition suivante se trouve, par exemple, dans [WIL 95].
Proposition 11. La transformée de Fourier dans l'espace S (Rn ) muni de la
structure de convergence dénie dans l'exemple 13 est une application continue.
Dénir un opérateur de multiplication des fonctions u de S (Rn ) par une
fonction g donnée est une idée qui paraît a priori intéressante. En eet, la
transposition de cet opérateur permettrait de construire un grand nombre de
distributions à partir d'une distribution f donnée, par simple application de la
formule (gf, u) , (f, gu), c'est-à-dire à l'aide de la multiplication dans S (Rn ).
La diculté réside ici dans la dénition d'une classe, la plus large possible, de
fonctions g qui dénissent un opérateur de multiplication continu dans S (Rn ).
On remarquera en particulier qu'il ne sut pas de prendre g ∈ C ∞ (Rn ) pour
avoir :
sup ξ α ∂ β (gu(ξ)) < ∞, ∀α, β ∈ Nn , ∀u ∈ S (Rn ) . (1.37)
ξ∈Rn

Une solution apportée par Schwartz à ce problème est la dénition de l'espace


des fonctions tempérées.
Dénition 19 (Fonctions tempérées). L' espace des fonctions tempérées
est déni par :
 
∀α ∈ Nn , ∃c ≥ 0, ∃m
∞ n
OM (R ) , g ∈ C (R )
n m∈ N : .
|∂ g(ξ)| ≤ c 1 + kξk2Rn , ∀ξ ∈ Rn .
α

Les fonctions de OM (Rn ) et toutes leurs dérivées présentent donc une crois-
sance polynomiale à l'inni, ce qui permet de capturer de nombreux exemples
intéressants.
Transformées intégrales et distributions 41

Exemple 3. Les fonctions sin(t) et cos(t) sont des fonctions de OM (R) car,
comme |∂ α sin(t)| ≤ 1, ∀α ∈ N, la condition de la dénition 19 est vériée pour
c = 1 et m = 0.
Exemple 4. Les polynômes de degré k de la forme :
X
g(ξ) = c α ξ α , c α ∈ Rn , (1.38)
|α|≤k
α∈Nn

sont des fonctions de OM (Rn ) car pour γ ∈ Nn et |γ| = p, on a :


 m
|∂ γ g(ξ)| ≤ c 1 + |ξ|2 , (1.39)
avec 2m ≥ k − p et c susamment grande. Il en va d'ailleurs de même pour
les polynômes d'ordre non entier α ∈ Rn et |α| ≤ k ∈ R+ .
Exemple 5. Les fonctions de S (Rn ) sont des fonctions de OM (R) car :

∀α, β ∈ Nn , ξ α ∂ β (gu(ξ)) ≤ cα,β , ∀ξ ∈ Rn , (1.40)
et donc :
∀β ∈ Nn , ∂ β (gu(ξ)) ≤ c0,β , ∀ξ ∈ Rn . (1.41)
La condition de la dénition 19 est vériée pour c = c0,β et m = 0.
La dénition de fonction tempérée assure que le produit d'une fonction u ∈
S (Rn ) par une fonction g ∈ OM (Rn ) est bien une fonction de S (Rn). La forme
m
particulière de la majoration a été choisie de manière à ce que c 1 + |ξ|2
soit de classe C ∞ (Rn ).
Proposition 12. Soit g ∈ OM (Rn ). L'opérateur de multiplication déni par :
Λg : S (Rn ) → S (Rn ) : u 7→ gu est continu.
Démonstration : la démonstration repose sur la formule de Leibnitz qui donne
le résultat de la dérivation d'un produit de fonctions. Elle est de nature es-
sentiellement calculatoire et les développements complets peuvent être trouvés,
par exemple, dans [SCH 66].
Proposition 13. Si v ∈ S (Rn ), alors l'opérateur de convolution par v, déni
par :
(v ∗ ·) : S (Rn ) → S (Rn ) : u 7→ v ∗ u,
est une application continue dans S (Rn ).
Démonstration : la continuité de l'opérateur de convolution dans S (Rn ) est
une conséquence directe de la continuité des opérateurs de transformation de
Fourier, de multiplication, de dilatation. Il sut de constater que, d'après les
propriétés de la transformée de Fourier dans S (Rn ), on a :
v ∗ u = (F ◦ F ◦ F ◦ F) (v ∗ u) (1.42)
= (F ◦ F ◦ F) (bb)
vu
= (∂−1 ◦ F ) (bb) .
vu
42 Mathématiques pour les systèmes dynamiques

Comme vb ∈ S (Rn ) ⊂ OM (Rn ), il s'ensuit que la convolution peut se décom-


poser en 4 applications linéaires continues. Elle est donc continue.
Ayant constaté les propriétés de linéarité et de continuité d'une série d'opé-
rateurs linéaires et continus dans S (Rn ), nous allons pouvoir les transposer
dans S (Rn ), à l'aide de la dénition 17. Pour nous guider dans la dénition
de ces opérations transposées, nous pouvons en particulier étudier les formes
linéaires fϕ : S (Rn ) → C qui ont une représentation intégrale :
Z
(fϕ , u) , ϕ(ξ)u(ξ)dξ, (1.43)
Rn

où ϕ est une fonction susamment régulière pour que les intégrales dénies plus
bas aient un sens (c'est le cas notamment si ϕ ∈ S (Rn )). Il est certain qu'il
s'agit d'une famille de distributions pour lesquelles les dénitions d'opérateurs
transposés doivent être valables. On a pour les distributions de cette famille :

1. Pour a ∈ Rn :
Z
(fϕ , τ a u) , ϕ(ξ)u(ξ − a)dξ (1.44)
Rn
Z
= ϕ(ξ + a)u(ξ)dξ
ZR
n

= (τ −a ϕ) (ξ)u(ξ)dξ.
Rn

2. Pour λ ∈ R\{0} :
Z
ξ
(fϕ , ∂λ u) , ϕ(ξ)u( )dξ (1.45)
Rn λ
Z
n
= |λ| ϕ(λξ)u(ξ)dξ
Rn
Z  
n
= |λ| ∂ λ1 ϕ (ξ)u(ξ)dξ.
Rn

3. Pour γ ∈ Nn :
Z
(fϕ , ∂ u) ,
γ
ϕ(ξ)∂ γ u(ξ)dξ (1.46)
Rn
Z
|γ|
= (−1) ∂ γ ϕ(ξ)u(ξ)dξ
Rn
Z  
|γ|
= (−1) ∂ γ ϕ (ξ)u(ξ)dξ.
Rn
Transformées intégrales et distributions 43

4. Pour g ∈ OM (Rn ) :
Z
(fϕ , Λg u) , ϕ(ξ)g(ξ)u(ξ)dξ (1.47)
ZR
n

= (Λg ϕ) (ξ)u(ξ)dξ.
Rn

5. Pour v ∈ S (Rn ) :
Z Z 
(fϕ , u ∗ v) , ϕ(ξ) u(ξ − η)v(η)dη dξ (1.48)
Rn
ZR
n
Z 
= ϕ(ξ) u(−θ)v(ξ + θ)dθ dξ
Rn Rn
Z Z 
= v(ξ + θ)ϕ(ξ)dξ u(−θ)dθ
Rn Rn
Z Z 
= v(ξ − θ)ϕ(ξ)dξ u(+θ)dθ
ZR Rn
n

= (∂−1 v ∗ ϕ) (ξ)u(ξ)dξ.
Rn

6. Enn, on a également (voir propriété 4) :


Z
(fϕ , F u) , ϕ(η) (F u) (η)dη (1.49)
ZR
n

= (F ϕ) (η)u(η)dη.
Rn

A l'aide des calculs qui précèdent, nous pouvons donc proposer les transpo-
sitions des opérateurs concernés dans S 0 (Rn ).
Dénition 20. Par transposition, on dénit, pour tout f ∈ S 0 (Rn ) et pour
tout u ∈ S (Rn ), les opérateurs :
(i) τ a , a ∈ Rn tel que (τ a f, u) = (f, τ −a u), 
(ii) ∂λ , λ ∈ R\{0} tel que (∂λ f, u) = |λ|n f, ∂1/λ u ,
(iii) ∂ γ , γ ∈ Nn tel que (∂ γ f, u) = (−1)|γ| (f, ∂ γ u),
(iv) Λg , g ∈ OM (Rn ) tel que (Λg f, u) = (f, Λg u),
(v) (· ∗ v), v ∈ S (Rn ) tel que (f ∗ v, u) = (f, (∂−1 v) ∗ u),
(vi) F , tel que (Ff, u) = (f, F u).
Ce sont des opérateurs linéaires et continus de S 0 (Rn ) dans lui-même.
On remarquera en particulier que toute distribution tempérée f possède une
transformée de Fourier et est inniment diérentiable au sens des distributions.
Il s'agit là bien-sûr d'un avantage décisif de ce cadre théorique pour l'analyse
fréquentielle et l'étude du comportement des systèmes linéaires dans le domaine
temporel, ou dans le domaine des transformées de Fourier.
44 Mathématiques pour les systèmes dynamiques

Nous avons déni plus haut des distributions tempérées fϕ par des intégrales
sur Rn (voir (1.43)), à l'aide de fonctions ϕ  susamment régulières . Ce
caractère  susamment régulier  est précisé par la proposition suivante, dont
une preuve se trouve par exemple dans [SCH 66].
Proposition 14. S'il existe 1 ≤ p < ∞ et 0 ≤ m entiers tels que :
−m
ϕ(ξ) 1 + kξk2Rn ∈ Lp (Rn ) ,

alors la forme fϕ dénie par (1.43) est une distribution tempérée.


Ce résultat peut être complété par un résultat d'unicité de la représentation
intégrale des distributions dénies de cette manière [SCH 66].
Proposition 15. Si ϕ et ψ vérient toutes deux la condition de la proposition
14 et dénissent la même distribution tempérée, c'est-à-dire sont telles que :
Z Z
∀u ∈ S (Rn ) : ϕ(ξ)u(ξ)dξ = ψ(ξ)u(ξ)dξ,
Rn Rn

alors ϕ = ψ presque partout dans Rn .


Nous observons que, par le caractère très restreint de l'espace S (Rn ), la
classe des fonctions qui permettent de dénir des distributions par représenta-
tion intégrale est très grande. Elle contient notamment tous les espaces Lp (Rn ),
p ≥ 1, ainsi que OM (Rn ) et C (Rn ). Cependant, il existe des distributions tem-
pérées qui ne sont pas dénies par des fonctions ϕ. Ainsi, l'impulsion de Dirac
dénie par :
δ : S (Rn ) → C : u 7→ (δ, u) = u(0) (1.50)
est bien une forme linéaire et continue, c'est-à-dire une distribution tempérée.
Cependant, il n'existe aucune fonction ϕ dans l'ensemble des fonctions vériant
l'hypothèse de la proposition 14, telle que :
Z
u(0) = ϕ(ξ)u(ξ)dξ, ∀u ∈ S (Rn ) . (1.51)
Rn

1.4.4. Transformées de Fourier de distributions


La dénition par transposition de la transformée de Fourier dans S 0 (Rn )
conduit naturellement à la généralisation des propriétés de cette transformée
dans S (Rn ). Nous allons brièvement les passer en revue. Pour la suite, nous uti-
liserons la notation ξ pour désigner les arguments des fonctions et distributions
et la notation η pour les arguments de leurs transformées de Fourier.
Proposition 16. La transformée de Fourier est une bijection linéaire continue
de S 0 (R) dans lui-même. Elle satisfait de plus la relation F ◦ F = ∂−1 .
Transformées intégrales et distributions 45

Démonstration : la bijectivité résulte du fait que F ◦ F ◦ F ◦ F = I. Par


conséquent F ◦ F = (F ◦ F)−1 est une bijection et F aussi.

Proposition 17. Soit f une distribution tempérée. On a alors :


(i) F (τ a f ) = e−2iπaη F (f ), pour a ∈ Rn ,
(ii) F (∂λ f ) = |λ| ∂1/λ F (f ), pour λ ∈ R\{0},
n

(iii) F (∂ f ) = (2iπη)α F (f ), pour α ∈ Nn ,


α

(iv) F (v ∗ f ) = F (v) F (f ), pour v ∈ S (Rn ) ,


(v) F (vf ) = F (v) ∗ F (f ), pour v ∈ S (Rn ) .

Démonstration : ces résultats se démontrent simplement en appliquant la for-


mule de transposition. Il faut cependant noter que e−2iπaη et (−2iπη)α sont
bien des fonctions de OM (Rn ) et que les multiplications ci-dessus ont donc un
sens. La démonstration du point (v ) fait appel au caractère injectif de la trans-
formée de Fourier : on a F (F (vf )) = ∂−1 (vf ) et F (F (v) ∗ F (f )) = ∂−1 (vf ).
Le caractère injectif de F achève la démonstration.
Il est intéressant de constater que le point (ii) de la proposition ci-dessus lie
l'étalement d'une fonction et de sa transformée de Fourier : en eet, lorque λ
diminue en se rapprochant de 0, la fonction ∂λ f est de plus en plus concentrée,
alors que sa transformée de Fourier ∂d b
λ f = |λ| ∂1/λ f est de plus en plus étalée.
n

A la limite, ∂λ f converge (au sens des distributions) vers l'impulsion δ , par-


faitement concentrée, et sa transformée de Fourier ∂d λ f converge (au sens des
distributions) vers la fonction constante 1 (voir proposition suivante), parfai-
tement étalée. Calculons à présent la transformée de Fourier de la distribution
de Dirac et quelques formules dérivées.

Proposition
R 18. En notant 1 la distribution dénie par 1 : S (Rn ) → C :
u 7→ Rn u(ξ)dξ, on obtient :
(i) bδ = 1 et b1 = δ,
(ii) F (∂ α δ) = (−2iπη)α et F ((2iπξ)  ) = (−1) ∂ δ , pour
α |α| α
α ∈ Nn ,
(iii) F (τ a δ) = e −2iπaη
et F e +2iπaξ
= τ a δ , pour a ∈ R .
n

R
Démonstration : il sut de remarquer que (bδ, u) = (δ, ub) = ub(0) = Rn
u(ξ)dξ,
puis d'appliquer les résultat de la proposition 17.
On peut notamment calculer à l'aide de cette propriété la transformée de
Fourier d'un développement polynomial :

 
X  X cα
F
 cα ξ α 
= (−1)|α| ∂ α δ, (1.52)
(2iπ)|α|
|α|≥1 |α|≥1
α∈Nn α∈Nn
46 Mathématiques pour les systèmes dynamiques

où cα ∈ Rn , ainsi que celle d'une série trigonométrique :


 
X  X
F
 cα e−2iπaα ξ 
= cα τ aα δ. (1.53)
|α|≥1 |α|≥1
α∈Nn α∈Nn

Il est également possible de calculer la transformée de Fourier d'une série d'im-


pulsions de Dirac. Un telle série est de la forme :
X
τ k δ, (1.54)
k∈Z

et est appelée peigne de Dirac. Pour calculer sa transformée de Fourier, nous


avons besoin d'un résultat préliminaire (démontré dans [WIL 95], par exemple).
Lemme 1 (Formule de Poisson). Soit u : R → C telle qu'il existe une
constante c > 0 pour laquelle :
|u(ξ)| < c(1 + |ξ|)−2 et u(η)| < c(1 + |η|)−2 .
|b
Alors, on a : X X
u(ξ − k) = b(k)e2iπkξ ,
u ∀ξ ∈ R.
Proposition 19. Le peigne de Dirac est une distribution tempérée égale à sa
k∈N k∈N

transformée de Fourier. On a :
!
X X X
F τ kδ = τ kδ = e2iπkη , η ∈ R. (1.55)
k∈N k∈N k∈N

Démonstration : par dénition :


!
X X X −1 
τ k δ, u = u (k) ≤ 1 + k2 1 + ξ 2 u(ξ) < ∞. (1.56)

k∈Z k∈Z k∈Z

La série est donc convergente et elle dénit une forme linéaire et continue
dans C. Il s'agit donc bien d'une distribution tempérée. Par continuité de la
transformation de Fourier et par la proposition précédente, il vient :
!
X X X
F τ kδ = F (τ k δ) = e2iπkη . (1.57)
k∈Z k∈Z k∈Z

Enn, pour conclure, nous avons recours à la formule de Poisson. Elle est ap-
plicable pour u dans S (Rn ) et montre que :
! ! ! !
X X X
τ k δ, u = b
τ k δ, u , F τ kδ ,u . (1.58)
k∈Z k∈Z k∈Z
Transformées intégrales et distributions 47

Le peigne est donc bien sa propre transformée.


P
Il est intéressant de remarquer que la série k∈Z e2iπkξ ne converge pas au
sens de la convergence ponctuelle dans C, car chaque terme de la série est de
module égal à un. Cependant, elle converge bien au sens des distributions vers
le peigne de Dirac. Le noyau de Poisson déni par :
X
Pr (ξ) = r|k| e2iπkξ pour r < 1, (1.59)
k∈Z

est, lui, une série convergente (convergence absolue et uniforme). Il peut être
utilisé pour approcher le peigne de Dirac. En eet, on a la convergence suivante
au sens des distributions :
S0
X
lim− Pr (ξ) = e2iπkξ . (1.60)
r→1
k∈Z

Cette approximation du peigne de Dirac est illustrée sur la gure 1.2.

2.5

1.5

-2 -1 0 1 2

Figure 1.2. Noyau de Poisson Pr (ξ) pour r = 0.5 et r = 0.7

Les distributions permettent également d'évaluer la transformée de Fourier


des fonctions de la forme :
1
fp (ξ) , , ξ ∈ Rn , 0 < p < n. (1.61)
kξkpRn
48 Mathématiques pour les systèmes dynamiques

La fonction fp n'est jamais intégrable (au sens L1 ) dans Rn . En eet, en coor-


données polaires, on obtient :
fp (ξ)dξ = rn−1 r−p dr = rn−p−1 dr, (1.62)
et pour que cette fonction soit intégrable sur Rn , il est nécessaire d'avoir simul-
tanément p > n (fonction mesurable pour r → ∞) et p < n (fonction mesurable
au voisinage de r = 0). Dès lors, la dénition intégrale de la transformée de
Fourier ne peut être appliquée. Cependant, le cas simple p = 0 donne f0 = 1
et fb0 = δ et nous montre qu'il peut être fondé de chercher la transformée de
Fourier au sens des distributions de la fonction de type puissance fp (ξ), comme
suit (démonstration dans [WIL 95]).
Proposition 20. Pour 0 < p < n, la fonction fp : Rn → R+ : ξ 7→ |ξ|1p admet
pour transformée de Fourier (au sens des distributions) une fonction du type :
1
fbp (η) = cn,p n−p ,
|η|
où cn,p > 0 est une constante réelle dépendant uniquement des paramètres n
(dimension de l'espace Rn ) et p (puissance non entière, en général).
En conséquence, on observe que la fonction |ξ|1n/2 est également un point
xe de la transformée de Fourier, au sens des distributions, dans Rn .

1.4.5. Caractérisation des espaces de Sobolev


Les espaces de Sobolev sont couramment utilisés dans la recherche de solu-
tions aux problèmes diérentiels, qu'il s'agisse d'EDO ou d'EDP. Nous n'abor-
derons dans cette section que la caractérisation des espaces de Sobolev néces-
saire au développement de la section suivante, qui concerne l'application de
la théorie des distributions et de la transformée de Fourier à la résolution des
problèmes diérentiels elliptiques.
La dénition usuelle des espaces de Sobolev fait intervenir des dérivations
d'ordre entier.
Dénition 21 (Sobolev d'ordre entier). Soit m entier positif. L' espace de
Sobolev d'ordre m sur Rn est déni par :
Hm (Rn ) , {u ∈ L2 (Rn ) : ∀α ∈ Nn , |α| ≤ m ⇒ ∂ α u ∈ L2 (Rn )} .

L'espace de Sobolev Hm (Rn ) est en général muni du produit scalaire :


X Z
hu, viHm , ∂ α u(ξ)∂ α v(ξ)dξ, (1.63)
|α|≤m Rn
Transformées intégrales et distributions 49

et de la norme associée :
q
kukHm , hu, uiHm . (1.64)

Dans ce cas, il s'agit d'un espace de Hilbert. Lorsqu'on cherche la solution


d'un problème diérentiel d'ordre m (voir section suivante), il est naturel de
la rechercher dans un tel espace, puisqu'il est déni de manière à ce que les
dérivées présentes dans le problème diérentiel existent. De plus, sa structure
d'espace de Hilbert facilite considérablement l'étude de ses propriétés (et donc
d'éventuelles solutions recherchées dans cet espace).
L'espace Hm comprend notamment des fonctions qui permettent de dénir
des distributions tempérées par représentation intégrale (voir proposition 14)
et qui peuvent être identiées à ces distributions. Cette observation incite à
plonger l'espace de Sobolev dans l'espace des distributions tempérées. C'est le
sens du théorème suivant.
Théorème 5. L'espace Hm (Rn ) est caractérisé par la dénition équivalente :
  m/2 
0 2
Hm = u ∈ S : 1 + |η| b (η) ∈ L2 .
u

Démonstration : la démonstration fait appel à la propriété de la transformée


de Fourier dans S 0 qui permute dérivation et multiplication. Pour des dévelop-
pements complets voir par exemple [WIL 95].
Cette caractérisation suggère à son tour d'élargir la dénition de Hm aux
ordres non entiers.
Dénition 22 (Sobolev d'ordre non entier). Soit s ∈ R. On dénit
l' espace de Sobolev d'ordre s :
  m/2 
2
Hs (Rn ) , u ∈ S 0 (Rn ) : 1 + |η| b (η) ∈ L2 (Rn ) ,
u

et on munit cet espace du produit scalaire et de la norme associée :


Z  
2
hu, viHs , 1 + |η| b (η) vb (η)dη,
u
Rn
q
kukHs , hu, uiHs .
Exemple 6. L'impulsion δ est une distribution tempérée de S 0 (R). Elle satis-
fait bδ = 1. En conséquence :
s s
1 + η2 b2 (η) = 1 + η 2
u , (1.65)
et on a donc δ ∈ Hs (R) pour s < − 21 .
50 Mathématiques pour les systèmes dynamiques

Remarque 1. Par application directe de la dénition, on a pour r < s :


S (Rn ) ( Hs (Rn ) ( Hr (Rn ) ( S 0 (Rn ) . (1.66)

Remarque 2. Dans la section suivante, nous utiliserons la notation Hsloc . Cet


espace peut être construit à l'intérieur de D0 (Rn ) en observant que :
f ∈ D0 (Rn ) , g ∈ D (Rn ) ⇒ f g ∈ S 0 (Rn ) , (1.67)

où la distribution tempérée f g est dénie par :


(f g, u) , (f, gu) , ∀u ∈ S (Rn ) . (1.68)
On dénit alors :
Hsloc (Ω) , {f ∈ D0 (Ω) : ∀g ∈ D (Ω) : f g ∈ Hs (Rn )} , (1.69)
où Ω est un ouvert de Rn (par exemple Rn tout entier).

1.4.6. Application aux problèmes aux limites elliptiques


La théorie des distributions a produit des apports considérables à la théorie
des équations aux dérivées partielles (EDP). Ce type d'applications semble en
général peu connu des théoriciens des systèmes continus. Nous allons donc, dans
cette section, illustrer cet apport par l'étude de quelques exemples. Considérons
tout d'abord le problème diérentiel :

−∆u + λu = f,
(1.70)
λ > 0, f ∈ S 0 (Rn ) ,

où ∆u désigne le laplacien de u. Puisque f est une distribution, il semble naturel


de chercher une solution u dans S 0 (Rn ). Ayant démontré le caractère bijectif de
la transformée de Fourier dans S 0 (Rn ), nous pouvons sans diculté transposer
ce problème diérentiel en un problème  algébrique . En eet, on obtient au
sens des distributions :
   
c + λb
−∆u
2
u (η) = 4π 2 |η| + λ u b
b(η) = f(η), (1.71)

dont l'unique solution est :

fb(η)
b (η) =
u 2 ∈ S 0 (Rn ) , (1.72)
4π 2 |η| + λ
Transformées intégrales et distributions 51

 −1
car 4π2 |η|2 + λ ∈ OM (Rn ). On déduit de la nature bijective de la trans-
formée de Fourier que :
!
−1 fb(η)
u (ξ) = F 2 ∈ S 0 (Rn ) . (1.73)
4π 2 |η| + λ

Une remarque importante et non triviale sur ce problème est que la condition
u ∈ S 0 (Rn ) constitue une condition aux limites. En eet, dans S 0 (Rn ), l'unique
solution au problème homogène −∆u + λu = 0 est u = 0. Mais les fonctions :

ui (ξ) = e± λξi
, (1.74)
pour i = 1, . . . , n , ainsi que leurs combinaisons linéaires, sont solutions du pro-
blème homogène. Les fonctions ui dénissent bien des distributions de D0 (Rn )
car les fonctions de D (Rn ) ont un support compact. Mais elles ne dénissent
pas des distributions dans S 0 (Rn ). D'ailleurs, elles ne vérient pas la condition
ui (ξ)(1 + kξk2Rn )−m ∈ Lp (Rn ) de la proposition 14. Ainsi, le problème (1.70)
admet-il une innité de solution dans D0 (Rn ), mais une seule dans S 0 (Rn ).
Ayant montré l'existence et l'unicité de la solution du problème diérentiel
(1.70) dans D0 (Rn ) et ayant construit cette solution (voir équation (1.73)), il
est naturel de s'interroger sur sa régularité. En eet, une solution au sens des
distributions est un résultat élégant, mais une fonction susamment régulière
serait une solution plus  praticable  du problème diérentiel. Avec la caracté-
risation des espaces de Sobolev formulée à la section précédente, nous disposons
d'un outil remarquablement simple et puissant pour aborder ce problème.
Proposition 21. Le problème diérentiel :

−∆u + λu = f,
λ > 0, f ∈ Hs (Rn ) ,
admet une seule solution u ∈ S 0 (Rn ), donnée par :
!
fb(η)
u (ξ) = F −1 2 .
4π 2 |η| + λ
De plus, u ∈ Hs+2 (Rn ).
Démonstration : on a :
 
2
  s+2 1 + |η|   s2
b
1 + |η|2 1 + |η|2
2
|b
u (η)| = f (η) . (1.75)
4π 2 |η|2 + λ
  s2   −1
Or 1 + |η|2 fb(η) ∈ L2 car f ∈ Hs et 1 + |η|2 4π2 |η|2 + λ est bor-
née sur Rn . Dès lors, le membre de gauche de (1.75) est dans L2 , ce qui conclut
la démonstration.
52 Mathématiques pour les systèmes dynamiques

La démarche que nous avons suivie pour résoudre le problème (1.70) peut
être généralisée au cas des équations elliptiques.
Dénition 23. Pour α ∈ Nn , on dénit l'opérateur diérentiel Dα de S 0 (Rn )
dans lui-même par :
−|α|
Dα = (2iπ) ∂α.
A tout polynôme d'ordre p ∈ N à coecients complexes dα ∈ Cn de la forme :
X
P (η) , dα η α ,
|α|≤p
α∈Nn

on associe l'opérateur diérentiel linéaire P (D) de S 0 (Rn ) dans lui-même, dé-


ni par : X
P (D) , dα Dα .
|α|≤p
α∈Nn

On appelle le polynôme P (η) le symbole de l'opérateur P (D). On dénit l' ordre


de P (D) comme le plus grand entier p tel que :
X
|dα | > 0.
|α|=p

On dénit le symbole principal d'un opérateur diérentiel P (D) d'ordre p, noté


Pp (η), par :
X
Pp (η) , dα η α .
|α|=p

L'opérateur diérentiel P (D) est alors dit elliptique si son symbole principal
Pp (η) ne s'annule qu'en η = 0.
Les dénitions de ces opérateurs diérentiels sont posées de manière à
simplier l'écriture des transformées de Fourier. On a en eet, pour tout
u ∈ S 0 (Rn ) :

d
D b(η),
αu = ηαu (1.76)
P\
(D)u = P (η)b
u(η). (1.77)

Passons en revue quelques exemples d'opérateurs diérentiels linéaires, de


façon à déterminer s'ils sont elliptiques.
Exemple 7. (1) L'opérateur laplacien déni par :
 
∆ = ∂ (2,0,...,0) + ∂ (0,2,...,0) + · · · + ∂ (0,0,...,2) (1.78)
Transformées intégrales et distributions 53

correspond au symbole :
2 
P (η) = (2iπ) η 21 + η 22 + · · · + η 2n (1.79)
2
= −4π2 |η| .

Il s'agit donc d'un opérateur elliptique d'ordre 2.


(2) L'opérateur de Cauchy-Riemann5 est déni par :
 
L = ∂ (1,0) + i∂ (0,1) , (1.80)

et correspond au symbole :
P (η) = (2iπ) (η 1 + iη 2 ) (1.81)
= (2π) (iη 1 − η 2 ) .

Il s'agit donc d'un opérateur elliptique d'ordre 1.



(3) L'opérateur des ondes déni par Lu = (2iπ)−1 ∂ (2,0) − ∂ (0,2) u corres-
pond au symbole P (η) = (2iπ) η21 − η22 et est un opérateur d'ordre 2 mais non
elliptique car son symbole principal P2 (η) = P (η) s'annule pour η = 0 mais
aussi pour η1 = η2 6= 0.
Il est possible de généraliser la démarche que nous avons suivie pour résoudre
l'EDP (1.70) à des opérateurs diérentiels linéaires plus généraux. L'existence,
l'unicité et la construction de la solution dans S 0 (Rn ) s'obtiennent de la même
manière. La question de la régularité de cette solution est plus délicate. Ce-
pendant, pour les problèmes diérentiels elliptiques, on peut faire usage du
théorème ci-dessous (voir sa démonstration dans [WIL 95], par exemple).
Théorème 6 (de régularité elliptique). Soit P (D) un opérateur diérentiel
elliptique d'ordre m, Ω un ouvert de Rn et u ∈ D0 (Rn ). Si P (D)u ∈ Hsloc (Ω)
alors u ∈ Hs+mloc
(Ω). Si de plus P (D)u ∈ C ∞ (Ω) alors u ∈ C ∞ (Ω).
Les applications de ce résultat à l'analyse numérique des problèmes dié-
rentiels elliptiques sont très importantes. Supposons que un soit une suite de
solutions approchées telles que P (D)un → 0 et un → u, mais dont on ne peut
établir la convergence qu'en un sens très faible (convergence au sens de D0 ). Par
continuité de l'opérateur P (D) dans D0 , on obtient P (D)u = 0. Si l'opérateur
P (D) est elliptique, on pourra conclure du théorème précédent que u ∈ C ∞ (Ω)
et que u est une solution au sens classique (solution forte) de P (D)u = 0.
Examinons maintenant les exemples précédents d'opérateurs diérentiels.
Exemple 8. (1) Comme le laplacien est un opérateur elliptique, toute fonction
harmonique solution de ∆u = 0 est de classe C ∞ . De plus, si une suite de
5
Cet opérateur est utilisé pour caractériser les fonctions holomorphes d'une variable com-
plexe. Si f (x + iy) = u(x, y) + iv(x, y), alors f est holomorphe si et seulement si Lf = 0.
54 Mathématiques pour les systèmes dynamiques

fonctions harmoniques converge au sens des distributions, alors la limite ne


peut être qu'une fonction harmonique.
(2) Comme l'opérateur de Cauchy-Riemann est un opérateur elliptique,
toute fonction holomorphe solution de l'équation de Cauchy-Riemman est de
classe C ∞ . Si une suite de fonctions holomorphes converge au sens des distri-
butions, alors la limite ne peut être qu'une fonction holomorphe.
2 2
(3) Les solutions de l'équation des ondes ∂∂tu2 = ∂∂zu2 sont de la forme
u(t, z) = u1 (t + z) + u2 (t − z) , où les fonctions u1 et u2 ne sont en géné-
ral que de classe C 2 . Le théorème de régularité ne s'applique pas dans ce cas
puisque l'opérateur des ondes n'est pas elliptique.

1.5. Bibliographie
[BOY 85] Boyd S., Chua L., Fading memory and the problem of approximating
nonlinear operators with Volterra series, IEEE Trans. on Circuits and
Systems, vol. 32, n 11, p. 1150-1161, 1985.

[DOE 74] Doetsch G., Introduction to the theory and application of Laplace trans-
form, Springer Verlag, 1974.
[KAW 72] Kawata T., Fourier analysis in probability theory, Academic Press, 1972.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[SCH 93] Schwartz L., Analyse - tome 4 : théorie de la mesure et applications,
Hermann, 1993.
[SCH 66] Schwartz L., Théorie des distributions, Hermann, 1966.
[WIL 95] Willem M., Analyse harmonique réelle, Hermann, 1995.
[ZAD 63] Zadeh L., Desoer C., Linear system theory, McGraw-Hill, 1963.
Chapitre 2

Calcul opérationnel de Mikusi«ski

L'eet de la condition de compatibilité (...) contribue à la préservation de


la théorie ancienne et familière, non pas en raison d'un quelconque avantage
inhérent  parce qu'elle serait par exemple, mieux fondée dans l'observation que
la nouvelle, ou qu'elle serait plus élégante  mais parce qu'elle est ancienne et
familière. P. Feyerabend, Contre la méthode, Seuil, 1979.

Pour traiter de façon simple et rapide les systèmes d'équations diéren-


tielles, Heaviside, en 1893 [HEA 93], a introduit le calcul opérationnel basé
sur la manipulation, semi-intuitive, de l'opérateur de dérivation p =d/dt. Pour
combler le manque de rigueur de cette méthode qui pouvait conduire à des
conclusions erronées, la transformation de Laplace a été utilisée comme justi-
cation théorique et base du calcul opérationel [HLA 69]. Cependant, comme
le souligne Kailath [KAI 80], la transformation de Laplace réserve quelques
skeletons-in-the-closet. Sans entrer dans les détails, on peut formuler quelques
remarques :
 le calcul de la transformée de Laplace d'une fonction demande la connais-
sance de cette fonction pour toutes les valeurs réelles de son argument ;
 certaines fonctions, comme par exemple exp(t2 ), n'admettent pas de
transformée de Laplace (remarquons au passage que, pour des raisons
purement typographiques, nous noterons indiéremment la fonction ex-
ponentielle exp(t) ou et ) ;
 on ne peut manipuler, dans une même relation, l'argument d'une fonction
et la variable complexe de Laplace ;
 cette variable complexe ne peut servir d'opérateur de dérivation que dans
certaines conditions et par analogie ;
 le calcul opérationnel qui en découle ne peut être utilisé, sauf cas parti-
culiers, que sur des équations diérentielles à coecients constants.
Le calcul opérationnel de Mikusi«ski [MIK 59], dont on peut trouver un
exposé détaillé dans [ERD 71, YOS 84] avec des présentations légèrement dif-
férentes, constitue une alternative élégante à la transformation de Laplace sans
en présenter les inconvénients. Ce calcul est basé sur une opération naturelle

Chapitre rédigé par Frédéric Rotella.


56 Mathématiques pour les systèmes dynamiques

propre aux systèmes linéaires : la convolution. Cela permet d'ores et déjà de


discerner la raison essentielle pour laquelle ce calcul, qui rejoint et consolide le
point de vue de Heaviside, constitue un outil fondamental dans la modélisation
par transfert d'un système linéaire : plutôt que de partir d'une transformation
(Laplace, Carson, Mellin ou autres) et de s'apercevoir a posteriori de propriétés
jouant un rôle similaire à celui d'une dérivation, le calcul de Mikusi«ski part
d'une propriété caractérisant une certaine classe de comportements linéaires.

2.1. L'anneau de convolution des signaux à temps continu

L'importance de l'opération de convolution (voir chapitre 1) pour traduire


le comportement linéaire d'un phénomène a été soulignée par bien des auteurs :
on pourra, sans être limitatif, consulter [DAU 88, DES 75, GOH 70, KAI 80].
Cette particularité, qui a été initialement utilisée par Poisson puis par Dirichlet
ou Volterra [LAC 93], vient essentiellement du théorème de Riesz ([RIC 01]
chapitre 2) ou de la particularisation des fonctions de Green [ZWI 98] pour
certains systèmes. Elle a même été étendue au cas des systèmes non linéaires
[SCH 89].
Considérons l'ensemble C des fonctions f = {f (t)} à valeurs réelles dénies
sur [0, ∞) et intégrables sur tout sous-intervalle borné de [0, ∞). Cet ensemble
comprend les fonctions continues par morceaux et, sauf cas particuliers que
nous mentionnerons, il n'y aura pas lieu de distinguer le cas des fonctions
continues. Les développements suivants pourraient être envisagés dans le cas des
fonctions à valeurs complexes. D'autre part, les intégrales qui seront considérées
devraient l'être, en toute généralité, au sens de Lebesgue. Cependant, pour ne
pas alourdir le texte, la présentation adoptée sera celle d'intégrales de Riemann
et les fonctions seront à valeurs réelles. En résumé, on peut considérer C comme
l'ensemble des signaux réels à temps continu.
En ce qui concerne la notation adoptée, {f (t)} désigne la fonction f alors
que f (t) désigne la valeur réelle prise par f à l'instant t. Par exemple, il y aura
lieu de distinguer le réel α de {α} qui est la fonction constante de valeur α
pour tout t. Ainsi nous emploierons les écritures équivalentes :

(∀t ≥ 0, a(t) = b(t)) ⇔ ({a(t)} = {b(t)}) ⇔ (a = b) , (2.1)

que nous remplacerons par a(t) = b(t) lorsqu'aucune confusion n'est à craindre,
car en toute rigueur cette égalité n'est valable qu'à l'instant t. La fonction
constante particulière h = {1} présentera pour nous une certaine importance,
la notation h rappelant la fonction de Heaviside.
Calcul opérationnel de Mikusi«ski 57

Lorsque l'on munit l'ensemble C des lois :


 somme : f + g = {f (t) + g(t)} ,
 produit de convolution :
Z t  Z t 
fg = f (x)g(t − x)dx = f (t − x)g(x)dx , (2.2)
0 0

on obtient l'anneau commutatif de convolution . Si l'on ajoute la multiplication


par un scalaire : αf = {αf (t)} , cela conduit à la structure d'algèbre puisque
C muni de la somme et de cette mutiplication externe est un espace vectoriel
(chapitre 5 de [RIC 01]). Cependant le calcul opérationnel de Mikusi«ski sera
essentiellement basé sur la structure d'anneau et ses propriétés.
Comme le produit de convolution est associatif, nous pouvons noter :
∀n ∈ N, n > 1, f n = f n−1 f = f f n−1 .

2.1.1. L'opérateur d'intégration


A partir de la dénition du signal h, on a :
 
tn−1
∀n ∈ N, n ≥ 1, h = n
, (2.3)
(n − 1)!
ce qui, compte tenu des propriétés de la fonction eulérienne Γ (chapitre 2 de
[RIC 01]), peut être généralisé sous la forme :
 
tα−1
∀α, Re(α) > 0, hα = . (2.4)
Γ(α)
Théorème 1. ∀α, β, Re(α) > 0, Re(β) > 0, hα hβ = hα+β .
Pour tout f de C, on a :
Z t 
hf = f (x)dx , (2.5)
0

et h apparaît ainsi comme l'opérateur d'intégration du signal {f (t)} . De façon


plus générale, pour tout α tel que Re(α) > 0, on a :
 Z t 
1
α
h f= x f (t − x)dx ,
α−1
(2.6)
Γ(α) 0
 Z t 
1
= (t − x) α−1
f (x)dx ,
Γ(α) 0

qui est l'intégrale de Riemann-Liouville d'ordre α pour f. Ainsi, hα correspond-


t-il à l'opérateur d'intégration fractionnaire d'ordre α [RIC 01].
58 Mathématiques pour les systèmes dynamiques

2.1.2. Diviseurs de zéro

Le signal nul 0 = {0} est l'élément neutre de l'anneau de convolution.


Le théorème de Titchmarsh, ci-après, montre que l'anneau de convolution est
intègre, c'est-à-dire qu'il ne possède pas de diviseurs de zéro.
Théorème 2 (de Titchmarsh). ∀f, g ∈ C, f g = 0 =⇒ f = 0 ou g = 0.
Ce résultat est une forme faible du théorème suivant (appelé également
théorème de Titchmarsh [GOH 70]).
Théorème 3. Soient f et g deux fonctions absolument intégrables sur [0, 1].
Si f g = 0 pour tout t dans (0, 1), alors il existe α dans [0, 1] tel que f et g
soient nulles presque partout respectivement sur [0, α] et [0, 1 − α].
Cela montre que l'intégrité ne peut être assurée si l'on s'intéresse à un
domaine ni.

2.2. Le corps des opérateurs

L'anneau de convolution étant intègre, on peut l'étendre sous la forme


d'un corps algébrique : le corps O des quotients de convolution ou opérateurs.
D'après le théorème de Titchmarsh, l'équation de convolution :

af = b,

où a 6= 0 et b sont dans C, admet au plus une solution, notée f = ab , qui est


le quotient de convolution de b par a. Mais, dans certains cas, par exemple
lorsque b(0) 6= 0, cette solution ne peut appartenir à C.
Par le procédé algébrique usuel (chapitre 5 de [RIC 01]), on construit le
corps des quotients de convolution de C, dans lequel l'équation de convolution
précédente a toujours une solution ab , avec b et a dans C et a 6= 0. Cet en-
semble, noté O, est composé des classes d'équivalence par rapport à la relation
d'équivalence :
b d
= ⇔ ad = bc.
a c

On peut munir cet ensemble, dont les éléments seront appelés opérateurs,
fonctions généralisées [ERD 71] ou hyperfonctions [YOS 84], des lois :
 addition : ab + dc = ad+bc
ac ;
 multiplication par un scalaire α : α ab = αb
a ;
 produit (de convolution) : ab dc = ac
bd
;
Calcul opérationnel de Mikusi«ski 59

qui lui confèrent une structure d'algèbre dont l'élement neutre est 0 = {0} b et
l'élément unité, u = bb , avec dans les deux cas b 6= 0. On peut alors poser :

 a −1 b
, (si ab 6= 0). (2.7)
b a

De plus, comme on peut écrire hf = hf, on obtient l'identication f = hf


h
qui indique que C O.
Remarque 1. On peut étendre l'équation de convolution af = b au cas où a
et b sont dans O (a = nd et b = xy , n, d, x, y dans C et ndy 6= 0). On est alors
ramené par équivalence à l'équation de convolution : nyf = dx, où ny et dx
sont dans C.

2.2.1. Multiplication par un scalaire

Jusqu'à présent la notation retenue pour la multiplication par un scalaire


laissait planer une confusion possible sur le sens de αf, qui ne devait pas être
assimilé à {α} f. Il est maintenant temps de dénir plus proprement cette
opération. L'opérateur de multiplication par un scalaire α, que nous noterons
[α] , doit réaliser l'opération f 7→ {αf (t)} . En particulier, il doit satisfaire
l'équation [α] h = {α} , ce qui donne :

{α}
[α] = .
h

Théorème 4. ∀α, β ∈ C, ∀f ∈ O :

 [α] + [β] = [α + β] ;
[α] [β] = [αβ] ; (2.8)

[α] f = {αf (t)} .

La dernière relation indique bien que [α] est l'opérateur cherché et la


deuxième, que u = [1] .
Comme toute ambiguïté est levée, lorsque aucune confusion ne sera possible
et de façon à simplier les formules, nous écrirons  la plupart du temps α,
y(0), y (k) (T ) à la place de [α] , [y(0)] , y (k) (T ) . D'autre part, comme on peut
identier α à [α], on a C ⊂ O.
60 Mathématiques pour les systèmes dynamiques

2.2.2. L'opérateur de dérivation, p


Soit p l'opérateur1 déni comme solution de l'équation de convolution :

h2 f = h,

c'est-à-dire p = hh2 . De cette équation, on déduit également ph = hh = [1] . On


peut donc écrire p = h−1 et le résultat suivant nous indique que p peut être
considéré comme l'opérateur de dérivation.
Théorème 5. Si f, continue sur [0, ∞), possède une dérivée localement inté-
grable, alors : n o
pf = f (1) (t) + [f (0)] .

Ce résultat se généralise, si f (n) est localement intégrable, sous la forme :

X
n−1
pn f = f (n) + f (i) (0)pn−i−1 ,
i=0
  
où f (n) = f (n) (t) et, en toute rigueur, f (i) (0) désigne f (i) (0) .
En présence d'une discontinuité de première espèce, le théorème précédent
doit légèrement être modié. Soit f une fonction présentant une discontinuité
de première espèce en x et soit s(x) le saut en cette discontinuité :

s(x) = lim f (x + ) − lim f (x − ε);


&0 ε&0

on a alors :
pf = f (1) + [f (0)] + s(x)phx ,
où hx représente l'échelon de Heaviside retardé de x (voir paragraphe 2.3.1).
A partir de l'opérateur hα d'intégration fractionnaire d'ordre α, déni pré-
cédemment, on peut construire l'opérateur de dérivation fractionnaire, pα ,
Re(α) > 0, comme la solution de l'équation de convolution :

hn+α f = hn ,

où n est un entier tel que Re(α) + n > 0, ce qui donne :


hn
pα = . (2.9)
hn+α
1
Habituellement, l'opérateur de dérivation est noté s, mais pour ne pas le confondre avec la
variable complexe de Laplace, nous utilisons p comme Heaviside l'avait initialement proposé.
Calcul opérationnel de Mikusi«ski 61

Cette construction rejoint celle proposée pour la dérivée fractionnaire à


partir de l'intégrale de Riemann-Liouville (chapitre 2 de [RIC 01]). Cela permet
également de montrer facilement que :

∀α, β, Re(α) > 0, Re(β) > 0, pα pβ = pα+β ,

l'extension au cas Re(α) < 0 étant fournie par :


 
−α tα−1
p =h =α
. (2.10)
Γ(α)

2.3. Fonctions d'opérateurs

Nous nous limitons ici à des fonctions d'opérateurs dépendant d'une seule
variable réelle x ∈ I ⊂ R. Une fonction d'opérateur, ou fonction opération-
nelle, f (x), est une application qui à tout x de I fait correspondre l'opé-
rateur f (x), c'est-à-dire qu'il existe deux fonctions a(x) et b(x) de C telles
que a(x)f (x) = b(x). Lorsque f (x) est elle-même dans C, on pourra noter
f (x) = {f (x, t)} . Cette notion est particulièrement importante lorsque l'on
utilise le calcul opérationnel dans le traitement des équations aux dérivées par-
tielles (paragraphe 2.5.4).
On peut dénir une notion de convergence sur les fonctions d'opérateurs,
qui bien-sûr ici ne pourra être qu'une convergence au sens faible vis-à-vis de
la convergence uniforme dans C, puisque f (x) ne peut être dénie que par
l'intermédiaire du produit de convolution. Par exemple, en considérant α réel,
nous avons déjà rencontré l'opérateur d'intégration hα , déni pour α > 0 par
(2.10) et qui a été étendu à α < 0 par :

hn+α
∀α ∈ R, n ∈ N, n + α > 0, hα = . (2.11)
hn

On peut montrer que hα est continue pour tout α au sens de la convergence


des fonctions d'opérateurs et que hn h0 = hn . Par continuité, on pose donc :

h0 = p0 = [1] . (2.12)

La notion de continuité et de convergence permet également de dénir,


lorsque x évolue sur N, la notion de suite ou de série de fonctions d'opérateurs.
Nous n'allons pas détailler ici cet aspect, mais regarder d'autres conséquences
des fonctions d'opérateurs tout aussi importantes pour le calcul opérationnel.
62 Mathématiques pour les systèmes dynamiques

2.3.1. L'opérateur de retard


Soit hx l'échelon de Heaviside retardé de x, x > 0. On a h0 = h et on peut
dénir, pout tout α dans C :

x = h
α−1
hx ,
qui lorsque Re(α) > 0, s'écrit comme le signal hα décalé de x :
( )
0 si 0 ≤ t < x,
hα = (t−x)α−1 . (2.13)
x
Γ(α) si x ≤ t.
Théorème 6. ∀α, β ∈ C, ∀x, y > 0, hα β α+β
x hy = hx+y .
D'après la dénition précédente, on peut dénir l'opérateur h0x = h−1 hx =
phx . Il vérie les propriétés suivantes :
 h00 = [1] ;
 h0x+y = h0x h0y ;
 0 −1
 hx = h0−x ;  
0 si 0 ≤ t < x
 pour f dans C, h0x f = .
f (t − x) si x ≤ t
Cette dernière propriété montre que h0x est l'opérateur de retard de x.

2.3.2. Dérivation et intégration


Soit f (x) une fonction d'opérateur et a une fonction de C telle que af (x)
soit dans C. Alors, on dénit :
 la dérivée de f (x) :
 
dn f (x) −1 ∂ n af (x, t)
= a ; (2.14)
dxn ∂xn
 l'intégrale de f (x) :
Z (Z )
β β
−1
f (x)ϕ(x)dx = a af (x, t)ϕ(x)dx , (2.15)
α α

où ϕ(x) est une fonction de [α, β] dans R absolument intégrable.


Ces opérations vérient toutes les règles usuelles de dérivation et d'intégra-
tion et sont indépendantes du choix de a. A titre d'exemple, pour tout α de C,
pour tout x ≥ 0 et en notant ()0 la dérivée par rapport à x, on a :
0
x ) = −hx
(hα α−1
.
Calcul opérationnel de Mikusi«ski 63

Or, on peut écrire que hα−1


x x . On obtient donc
= hα−1 hx = h−1 hα hx = h−1 hα
l'équation diérentielle vériée par l'opérateur hαx :
0
x ) = −phx ,
(hα α

dont la condition initiale est hα0 = hα . La solution s'écrit sous la forme :


α −px

x = h e .

Nous verrons dans le paragraphe suivant d'autres équations diérentielles


opérationnelles qui seront utiles pour la résolution d'équations aux dérivées
partielles. Auparavant, regardons une conséquence de ce résultat.
P
Théorème 7. Pour tout x ≥ 0, (1 − e−xp)−1 = n≥0 e−nxp.
En notant .c la partie entière, ce théorème permet d'écrire que, pour toute
fonction f de C, on a :
k
t
X
x
(1 − e−xp )−1 f = {f (t − nx)} . (2.16)
n=0

Comme pour les intégrales


R
usuelles,

on peut dénir les intégrales impropres
R +∞
de fonctions d'opérateurs α+∞ , −∞ et −∞ lorsque les limites ont un sens.
R∞
Théorème 8. Pour toute f dans C telle que 0
h0x f (x)dx existe, on a :
Z ∞
h0x f (x)dx = f.
0

Comme on peut écrire h0x = e−px , on obtient la relation :


Z ∞
f= e−px f (x)dx, (2.17)
0

qui permet d'écrire la forme opérationnelle d'une fonction (transformable au


sens de Laplace) en tant que transformée de Laplace. Ce résultat réalise le lien
du calcul opérationnel de Mikusi«ski avec la transformée de Laplace : on peut
ainsi utiliser directement les tables de transformées (tableau 1.1, chapitre 1) et
bénécier de tous ses avantages sans en avoir les inconvénients.

2.3.3. Equations diérentielles d'opérateurs


Considérons l'équation diérentielle :
y 0 (x) = wy(x), (2.18)
64 Mathématiques pour les systèmes dynamiques

où y(x) est une fonction d'opérateurs et w un opérateur. Si cette équation


possède une solution non identiquement nulle, w est un logarithme et la solu-
tion satisfaisant à la condition initiale y(0) = 1 est la fonction exponentielle
exp(wx). Cette fonction vérie la propriété :
exp(wx) exp(wz) = exp(w(x + z)),
et on peut donc écrire :
[exp(wx)]−1 = exp(−wx),

dont e−px est un cas particulier déjà rencontré, tout comme p qui est un
logarithme conduisant, pour x > 0, à :
  2 
√ x x
e− px
= √ exp − . (2.19)
2 πt 3 4t

Dans le cas de l'équation diérentielle avec second membre :


y 0 (x) = wy(x) + f (x), (2.20)
où f (x) est dans C, la solution opérationnelle satisfaisant à la condition initiale
y(x0 ) = y0 , s'écrit de manière habituelle :
Z x
y(x) = y0 exp(w(x − x0 )) + exp(w(x − z))f (z)dz. (2.21)
x0

Ces quelques points indiquent que les équations diérentielles de fonctions


opérationnelles peuvent être traitées comme des équations diérentielles ordi-
naires usuelles.

2.4. Processus générateur d'un signal

Chercher un processus générateur associé à une fonction donnée consiste à


écrire cette fonction à l'aide des opérateurs h ou p. Comme h = p−1 , ils peuvent
être écrits indiéremment en h, ou en p.

2.4.1. Signaux transformables au sens de Laplace


Nous avons mentionné précédemment que si un signal f admet une trans-
formée de Laplace (monolatère) F (s), alors on peut prendre directement :
f = F (p),
Calcul opérationnel de Mikusi«ski 65

et il sut d'utiliser les tables de transformées de Laplace (tableau 1.1 ou


[HLA 69, SPI 78]), pour obtenir, sans aucun calcul, le processus générateur
correspondant.

2.4.2. Fractions rationnelles en p

Toute fraction rationnelle en p, F (p), peut être décomposée en éléments


simples sous la forme :
X
n X
mi
cij
F (p) = E(p) + , (2.22)
i=0 j=1
(p − αi )j

où E(p) représente la partie entière (polynomiale) de F (p).


P
Si E(p) = rk=0 ek pk = {e(t)} = e, alors pour tout l > r, on a h−l (hl e) =
{0} , indiquant que pour tout t > 0, e(t) = 0. En ce qui concerne les autres
termes, on a : p {eαt } = {αeαt } + 1 = [α] {eαt } + 1, de sorte que l'on peut
écrire :
 1
eαt = .
p−α

De façon plus générale, on peut montrer, par exemple par récurrence, que
l'on a pour tout n entier :
 
tn−1 eαt 1
= , (2.23)
(n − 1)! (p − α)n
et on peut ainsi associer un signal à tout processus générateur qui s'écrit sous
la forme d'une fraction rationelle en p (ou h).

2.4.3. Fonctions analytiques


Lorsque le signal f est analytique, on peut l'écrire sous la forme :
 
X t i
{f (t)} = f (i) (0) , (2.24)
 i! 
i≥0
n o
et l'utilisation de hn = tn−1
(n−1)! , pour n > 0, permet de lui associer le proces-
sus générateur : X
f= f (i) (0)hi+1 . (2.25)
i≥0
66 Mathématiques pour les systèmes dynamiques

A titre d'exemple, si l'on considère exp(t2 ), on a :


exp(t2 ) = h(1 + 2h2 + 12h4 + 120h6 + · · · ).

P
Réciproquement, on peut utiliser le résultat suivant : si la série i≥0 xi z i
P
converge pour une valeur z0 de z, alors la série i≥0 xi hi dénit l'opérateur :
X  
ti−1
[x0 ] + xi . (2.26)
(i − 1)!
i≥1

2.5. Calcul opérationnel

Comme cela a été expliqué dans le chapitre précédent, le calcul opérationnel


consiste à remplacer des équations diérentielles par des équations plus simples
à résoudre,
 analyser ou manipuler. Dans cette section, nous noterons y (i) =
y (t) la i-ième dérivée de y = {y(t)} par rapport au temps.
(i)

2.5.1. Equations diérentielles ordinaires à coecients constants


Considérons l'équation diérentielle :
( )
X
n
(i)
ai y (t) = {f (t)} , (2.27)
i=0
P
que l'on peut noter ni=0 ai y (i) = f, avec an 6= 0 et les conditions initiales
y (i) (0) = yi pour i = 0, . . . , n − 1. Comme on a :

X
k−1
k = 1, . . . , n, y (k) = pk y − yi pk−i−1 ,
i=0

on peut donc écrire l'équation diérentielle sous la forme opérationnelle d'une


équation de convolution :
D(p)y = f + NCI (p),
Pn
où D(p) = i=0 ai pi et NCI (p) est un polynôme de degré inférieur à n qui
dépend des conditions initiales. La solution de cette équation s'écrit donc :
f NCI (p)
y= + . (2.28)
D(p) D(p)
Calcul opérationnel de Mikusi«ski 67

Pour obtenir l'expression analytique {y(t)} de cette solution, deux cas sont
à envisager :
 soit on connaît le processus générateur associé à f, alors on obtient le
processus générateur de y qu'il sut d'exprimer ;
 soit on part de f (t) et, par décomposition en éléments simples de D(p) :
X
r X
mi
dij X
r
D(p) = , mi = n,
i=0 j=1
(p − αi )j i=0

on obtient :
XX r m Z t
f i
τ j−1 eαi τ
= dij f (t − τ ) dτ . (2.29)
D(p) i=0 j=1 0 (j − 1)!
Exemple 1. Soit l'équation diérentielle :
∀t ≥ 0, y (2) (t) − 4y(t) = e2t , avec y(0) = 1, y (1) (0) = 1/4. (2.30)

Comme e2t = (p − 2)−1 , on peut écrire :
1 1
(p2 − 4)y = + + p,
p−2 4
1 1 p
y= 2
+ 2 ,
4 (p − 2) (p − 4)

et, d'après la forme des processus générateurs, on obtient pour (2.30) :


 
1 2t
{y(t)} = te + cosh 2t . (2.31)
4
Exemple 2. Soit l'équation diérentielle :
2
∀t ≥ 0, y (1) (t) − y(t) = (2t − 1)et , avec y(0) = 2. (2.32)

Notons au passage2
que l'on ne peut ici utiliser le formalisme de Laplace du fait
de la fonction et . L'utilisation du calcul opérationnel conduit à :
1 hn 2
o i
y= (2t − 1)et + 2
p−1
Z t  n o
2 2
= e(t−x) (2x − 1)ex dx + 2et = et + et . (2.33)
0

Exemple 3. Soit l'équation diérentielle :


∀t ≥ 0, y (2) (t) + y(t) = f (t), avec y(0) = y(T ) = 0, (2.34)
68 Mathématiques pour les systèmes dynamiques

pour laquelle on pose provisoirement y (1) (0) = α. On obtient :


f α
y= + = {sin t} f + {α sin t}
p2 + 1 p2 + 1
Z t 
= sin(t − x)f (x)dx + α sin t .
0

Pour satisfaire à la condition terminale y(T ) = 0, α doit vérier :


Z T
sin(T − x)f (x)dx + α sin T = 0.
0

Lorsque sin T 6= 0, la valeur de α est déterminée de façon unique ; par contre,


lorsque sin T = 0, la solution précédente ne résoudRT
l'équation diérentielle
(2.34), indépendamment de la valeur de α, que si 0 f (x) sin xdx = 0.

2.5.2. Equations intégrales de convolution


Considèrons les équations intégrales de première espèce :
Z t
∀t ≥ 0, h(t − x)y(x)dx = f (t), (2.35)
0

et de deuxième espèce :
Z t
∀t ≥ 0, y(t) + h(t − x)y(x)dx = f (t), (2.36)
0

qui sont des cas particuliers d'équations intégrales de Volterra. Le calcul opé-
rationnel permet une écriture sous les formes respectives ky = f (pour (2.35))
et (1 + k)y = f (pour (2.36)).
Cela conduit aux solutions : y = fk (pour (2.35)) et y = 1+k
f
(pour (2.36)),
qui peuvent être des fonctions ou des opérateurs, mais qui dans tous les cas
sont uniques.
Exemple 4. Soit l'équation intégrale :
Z t
∀t ≥ 0, sin(t − x)y(x)dx = αt + t2 , (2.37)
0

pour laquelle on utilise {sin t} = 1
p2 +1 et αt + t2 = αh2 + 2h3 . On obtient :

y = (p2 + 1)(αh2 + 2h3 ) = α + 2 + αt + t2 . (2.38)
Si α = 0, y est dans C, par contre si α 6= 0, y est un opérateur.
Calcul opérationnel de Mikusi«ski 69

2.5.3. Equations à retard


L'utilisation de l'opérateur de retard permet de traiter les équations dié-
rentielles linéaires où apparaissent des termes retardés.
Exemple 5. Considérons l'équation diérentielle (avec w > 0) :
∀t ≥ 0, y (1) (t) − y(t − w) = f (t), (2.39)
avec la condition initiale, pour 0 ≤ t ≤ w, y(t − w) = g(t). En considérant g
dénie par :  
g(t) si t ≤ w,
g=
0 si t > w,
on peut écrire :

0 si t ≤ w,
y(t − w) − g(t) =
y(t − w) si t > w,
soit {y(t − w)} − g = e−wp y. Comme d'autre part, y (1) = py − y(0), avec
y(0) = g(w), l'équation (2.39) se met sous la forme :
(p − e−wp )y = f + g + g(w),
soit :
y = (1 − e−wp h)−1 h(f + g + g(w)),
et, en utilisant : X
(1 − e−wp h)−1 = e−wpn hn ,
n≥0

on obtient la solution de (2.39) :


X
y= e−wpn hn+1 (f + g + g(w)). (2.40)
n≥0

2.5.4. Equations aux dérivées partielles


Nous ne verrons le principe du calcul opérationnel que sur l'équation des
ondes, mais un traitement analogue peut être appliqué aux autres types d'équa-
tions aux dérivées partielles (en abrégé, EDP) linéaires, comme par exemple
l'équation de la chaleur ou celle des télégraphistes. Notons que, dans ce cadre,
le calcul opérationnel de Mikusi«ski a été utilisé dans [FLI 97, FLI 99], pour
résoudre de façon élégante des problèmes de platitude. Nous ne considérons ici
que le cas où le domaine spatial du problème est borné. Dans le cas contraire
(domaine pouvant être considéré comme inni) on peut envisager, sur les mêmes
principes, de construire un calcul  doublement  opérationnel par rapport à
la variable temporelle et par rapport à la variable spatiale [ROT 96].
70 Mathématiques pour les systèmes dynamiques

Exemple 6. Soit l'équation des ondes unidimensionnelle :


yxx (x, t) = ytt (x, t), x ∈ [α, β] , (2.41)
munie des conditions initiales, y(x, 0) = ϕ(x), yt (x, 0) = φ(x) et des conditions
limites y(α) = {y(α, t)} = a, y(β) = {y(β, t)} = b. L'utilisation du calcul
opérationnel conduit à écrire que la solution y(x) = {y(x, t)} est une fonction
d'opérateur solution de l'équation diérentielle :
y 00 (x) = p2 y(x) − pϕ(x) − φ(x),
avec les conditions terminales : y(α) = a, y(β) = b. Plaçons-nous dans le cas
(i) où α = 0, β = L, a = 0, ϕ(x) = φ(x) = 0. On obtient alors l'équation
diérentielle :
y 00 (x) − p2 y(x) = 0, avec y(0) = 0, y(L) = b,
dont la solution s'écrit :
exp − e−xp
y(x) = b.
eLp − e−Lp
Comme on a la relation :
exp − e−xp X
−Lp
= e−((2k+1)L−x)p − e−((2k+1)L+x)p ,
e −e
Lp
k≥0

la solution devient :
X
y(x) = e−((2k+1)L−x)p b − e−((2k+1)L+x)p b,
k≥0

soit :
X
y(x, t) = (b(t − (2k + 1)L + x) + b(t − (2k + 1)L − x)) . (2.42)
k≥0

Cette expression traduit la superposition de deux signaux : un signal direct


et un signal rééchi. Les autres cas : (ii) b = 0, ϕ(x) = φ(x) = 0 ; (iii)
φ(x) = 0, a = b = 0 ; et (iv) ϕ(x) = 0, a = b = 0 pourraient être traités de
façon similaire et la solution générale construite par superposition des solutions
élémentaires obtenues dans chaque cas.

2.6. Systèmes et transferts

2.6.1. Opérateur de transfert


Lorsque le comportement d'un système linéaire peut être décrit par une
équation de convolution :
s = σe,
Calcul opérationnel de Mikusi«ski 71

où s et e, e 6= 0, représentent respectivement les signaux de sortie et d'entrée du


système (que nous prendrons pour le moment dans C) et où σ est l'opérateur
solution de l'équation précédente, soit σ = se . Par hypothèse, cet opérateur σ est
indépendant du couple (s, e) : ainsi, pour tout autre couple sortie-entrée (y, u),
nous aurons la relation : su = ey et σ = es = uy est l'opérateur de transfert du
système. Contrairement à l'usage, nous n'appelons pas σ fonction de transfert,
car suivant les développements précédents, cet opérateur peut très bien ne pas
être dans C. Il sut, pour s'en convaincre de penser à la multiplication scalaire
qui traduit l'eet d'un gain.
Considérons les processus générateurs des signaux d'un couple entrée-sortie
particulier non trivial (s, e) d'un système :
Ns (p) Ne (p)
s= , e= . (2.43)
Ds (p) De (p)

Notons que ceci est toujours possible puisque les entrées et sorties d'un
système, en tant que signaux, sont nécéssairement solutions d'une équation de
convolution. D'autre part, nous avons pris le parti de les exprimer à l'aide de
l'opérateur p, mais on aurait tout aussi bien pu choisir h.
On obtient alors :
Ns (p) Ne (p)
=σ , (2.44)
Ds (p) De (p)
qui conduit, en posant N (p) = Ns (p)De (p) et D(p) = Ne (p)Ds (p), à l'équation
de convolution N (p) = D(p)σ, correspondant à l'opérateur de transfert du
système :
N (p)
σ= .
D(p)

Remarquons que cette dernière expression n'est qu'une écriture. En eet,


pour un couple entrée-sortie (y, u) du système, l'écriture :
N (p) N (p)
y= u, ou bien {y(t)} = {u(t)} ,
D(p) D(p)

que l'on peut représenter par le schéma fonctionnel suivant (où les parenthèses
sont omises mais elles devraient y être en toute rigueur) :

u(t) - N (p) - y(t)


D(p)
72 Mathématiques pour les systèmes dynamiques

correspond en fait à la relation :

D(p)y = N (p)u.

Si l'on note cette relation de convolution sous la forme :


 
  y
D(p) −N (p) = 0,
u

cela relie l'opérateur de transfert d'un système à la notion de générateur d'un


système de Blomberg et Yrilen [BLO 83] ou à celle de représentation AR de
Willems [WIL 86], propre à tout système linéaire, invariant temporellement et
complet.
Nous ne nous étendrons pas sur ce point, mais en utilisant les opérations
dénies sur le corps des quotients de convolution, l'ensemble des opérateurs de
transferts scalaires est fermé pour les opérations de somme, produit et multi-
plication par un scalaire. Ces opérations correspondent aux opérations usuelles
de mise en parallèle, mise en série et multiplication par un gain sur les sys-
tèmes. Le calcul opérationnel ainsi déni conserve toute sa cohérence. On peut
alors utiliser toutes les propriétés algébriques pour la commande des systèmes
linéaires et même envisager, comme il a été proposé dans [DES 80], d'utili-
ser un sous-corps de O, le corps des opérateurs stables. De façon plus précise,
l'opérateur de transfert d'un système est déni sous la forme :
 −1
N (p) D(p)
σ= , (2.45)
∆(p) ∆(p)

où ∆(p) est un polynôme dont les zéros sont à partie réelle négative.

2.6.2. Quelques cas particuliers


(p)
A partir de l'opérateur de transfert d'un système, N
D(p) , la sortie en réponse
à une entrée e est obtenue par le produit de convolution :

N (p)
s= e,
D(p)

qui peut être traité comme dans le cas des équations diérentielles. On peut
cependant distinguer plusieurs cas particulièrement importants.
Calcul opérationnel de Mikusi«ski 73

Transmittance isochrone

La transmittance isochrone ou réponse fréquentielle est obtenue lorsque :


1 
e= = ejωt ,
p − jω
ce qui donne :
N (p) 1 X(p) [α(ω)]
s= = + , (2.46)
D(p) p − jω D(p) p − jω
où X(p) est un processus générateur issu de la décomposition en éléments
(jω)
simples de s et dont l'expression n'a pas à être précisée ici, et α(ω) = N D(jω) .
Lorsque le signal associé au processus générateur X(p)
D(p) tend vers 0 (on peut
parler de stabilité asymptotique du système) alors, lorsque t → ∞, s(t) tend
asymptotiquement vers le signal associé au processus générateur [α(ω)]
p−jω , soit :
n o
ρ(ω)ej(ωt+ϕ(ω)) ,

où ρ(ω) = |α(ω)| et ϕ(ω) = arg(α(ω)). La transmittance isochrone, obtenue en


posant p = jω dans l'opérateur de transfert permet, par les quantités ρ(ω) et
ϕ(ω), de construire des représentations fréquentielles des systèmes.

Gain statique

Pour e = h (ce qui correspond à poser ω = 0 dans le paragraphe précédent)


on obtient la réponse indicielle :
N (p) Y (p)
s= h= + [α] h, (2.47)
D(p) D(p)
où Y (p) est un processus générateur dont l'expression n'a pas à être précisée
(0) Y (p)
ici, et α = ND(0) . Lorsque le signal associé au processus générateur D(p) tend
vers 0, alors, lorsque t → ∞, s(t) tend asymptotiquement vers le signal associé
au processus générateur [α] h, soit :
 
N (0)
,
D(0)
(0)
où la quantité N
D(0) représente le gain statique du système et peut être directe-
ment obtenue par :
   
N (p) N (p)
α= = ph = (ps)p=0 .
D(p) p=0 D(p) p=0
74 Mathématiques pour les systèmes dynamiques

On vient donc de montrer le résultat suivant, bien connu : si s correspond


à un processus générateur asymptotiquement stable, alors :
s
s(∞) = lim ps = lim . (2.48)
p→0 h→∞ h

2.6.3. Systèmes multi-entrées multisorties


Pour traiter le cas des systèmes à plusieurs entrées et plusieurs sorties, on
peut considérer les signaux à valeurs sur Cn , f = [f1 , . . . , fn ]T , avec pour
i = 1, . . . , n, fi ∈ C. Pour ne pas alourdir les notations, on considèrera que la
sortie s et l'entrée e du système linéaire sont dans Cn . Par superposition et
linéarité, il existe une matrice M de On×n telle que :
s = M e,

où M = [mij ] et les mij = ndijij sont les opérateurs de transferts élémentaires dé-
nis par les n2 relations : dij si = nij ej , (i, j) ∈ {1, . . . , n}2 . Nous ne détaillerons
pas non plus cet aspect du calcul opérationnel, mais comme les numérateurs
et dénominateurs de M appartiennent à l'anneau C, on peut appliquer à M
toutes les opérations utilisables sur les matrices rationnelles [RIC 01, ROT 95].
On peut donc construire, par des opérations algébriques, des factorisations
droite et gauche de l'opérateur matriciel M :
 factorisation droite : M = Nd Dd−1 ;
 factorisation gauche : M = Dg−1 Ng ;
où Nd , Ng , Dd , Dg sont dans On×n . Ces factorisations sont irréductibles si
(Nd , Dd ) et (Ng , Dg ) sont premières entre elles.
Ces factorisations correspondent en fait aux relations de convolution :
 Dg s = Ng e, pour la factorisation gauche ;
 s = Nd z, Dd z = e, pour la factorisation droite.

2.7. Cas des signaux à temps discret

En utilisant l'opérateur de retard déni dans le cadre des signaux à temps


continu, Mikusi«ski a traité la résolution des équations de récurrence en les
transformant en équations à temps continu. Dans ce qui suit, nous allons voir
brièvement que la construction utilisée pour le temps continu peut être adaptée
lorsque le temps est discret, c'est-à-dire lorsqu'il évolue sur N et non plus sur
[0, ∞).
Calcul opérationnel de Mikusi«ski 75

2.7.1. Anneau et quotients de convolution


On considère maintenant l'ensemble D des signaux à temps discret, c'est-à-
dire des suites, a = {ak } , à valeurs réelles et dénies pour k entier. Encore une
fois, on pourrait raisonner sans restriction sur les suites complexes. Parmi ces
suites on peut distinguer les signaux particuliers :

ri = rki = (1 si k = i et 0 sinon) , (2.49)
qui forment une base de D :
X
∀a ∈ D, a= ai r i . (2.50)
i∈N

Remarque 2. Si l'on remplace formellement ri par z −i , on retrouve la notion


de transformée en z de la suite a [JUR 64], avec de légères mais importantes
diérences : c'est qu'ici, nous avons une égalité et non un isomorphisme et
qu'aucune condition de convergence n'est exigée.
Munissons
nP D de lao somme, a + b = {ak + bk } et du produit de convolution,
: nous obtenons une structure d'anneau commutatif.
k
ab = j=0 aj bk−j
Comme le théorème de Tichmarsch est également valable, ab = 0 ⇒ a = 0 ou
b = 0, on peut construire le corps des quotients de convolution ou corps des
opérateurs discrets OD . Les éléments de OD sont les solutions des équations
de convolution af = b où a 6= 0 et b sont dans D, soit f = ab .
En particulier, en posant r = r1 , on obtient :
 
b0 = 0,
ar = b = (2.51)
bk = ak−1 , pour k > 0,

c'est-à-dire que r représente l'opérateur de retard [KUƒ 79] et la notation pré-


cédente ri , pour i > 0, est compatible avec le produit de convolution : ri+1 = ri r
pour i ≥ 0. Nous verrons dans quelques lignes qu'elle l'est également pour i = 0.
P
En conséquence de cette remarque, l'écriture a = i∈N ai ri constitue la
notion de processus générateur des signaux discrets et, compte tenu de la re-
lation établie avec la transformée en z , ces processus générateurs peuvent être
obtenus, dans le cas de signaux admettant une transformée en z , en utilisant
directement les tables de transformées en z [JUR 64] et en posant z −1 = r.

2.7.2. Quelques opérateurs


La multiplication par un scalaire α conduit à l'opérateur correspondant [α]
et on a [1] = u, élément neutre de la convolution discrète. Si l'on procède à
76 Mathématiques pour les systèmes dynamiques

la convolution r0 a, on obtient bien sûr a, ce qui implique que l'on peut poser
r0 = [1].
En prenant la solution de l'équation de convolution :

r2 f = r, (2.52)

on dénit l'opérateur d'avance q = r


r2 et l'on a qr = u.
Soit b le signal de D construit à partir du signal a par b = {a1 , a2 , . . .} .
Dans ces conditions, on a :
rb = a − [a0 ],
dont on déduit que pour tout a de D, on a la relation :

qa = {ak+1 } + [a0 ]q. (2.53)

On pourrait également dénir d'autres opérateurs, comme par exemple :


 l'opérateur de sommation numérique, I :
 
Xk 
Ia = ak , (2.54)
 
j=0

que l'on peut relier à r par l'identité : Ia − rIa = a, soit I = (1 − r)−1 .


On peut montrer que I est dans D et est égal au signal constant égal à 1 ;
 l'opérateur aux diérences, δ , solution de l'équation de convolution :

I 2 δ = I, (2.55)

soit δ = I −1 = 1 − r. Cet opérateur est aussi dans D et est égal au signal


{1, −1, 0, 0, . . .}.

2.7.3. Calcul opérationnel


Le calcul opérationnel est utilisé à deux niveaux : la résolution des équations
de récurrence et la manipulation des opérateurs de transferts. Comme ce dernier
point est strictement identique à ce que nous avons vu pour le temps continu,
nous ne le développerons pas. Nous allons juste regarder rapidement un exemple
simple de traitement d'équation de récurrence.
Exemple 7. Considérons l'équation de récurrence :
k ∈ N, yk+1 − αyk = ak, avec α ∈ R, y0 = β. (2.56)
Calcul opérationnel de Mikusi«ski 77

L'utilisation du calcul opérationnel conduit à écrire cette équation sous la


forme :
(q − α)y = βq + a,
et à la solution :
y = (1 − αr)−1 (β + ar).

Comme on peut montrer que (1 − αr)−1 = αk , on obtient :
 
 0 pour k = 0
y = βα k
+ Pk .
j=0 α ak−j−1 pour k > 0
j

De même que dans le cas des signaux à temps continu, le calcul opérationnel
de Mikusi«ski constitue une base rigoureuse permettant l'emploi des propriétés
algébriques pour la commande des systèmes linéaires à temps discret [KUƒ 79,
KUƒ 91].

2.8. Bibliographie
[BLO 83] Blomberg H., Ylinen R., Algebraic theory for multivariable linear sys-
tems, Academic Press, 1983.
[DAU 88] Dautray R., Lions J.L., Analyse mathématique et calcul numérique, t.
6, Masson, 1988.
[DES 75] Desoer C.A., Vidyasagar M., Feedback systems : input-output proper-
ties, Academic Press, 1975.
[DES 80] Desoer C.A., Liu R.W., Murray J., Saeks R., Feedback system
design : the fractional representation approach to analysis and synthesis,
IEEE Trans. on Aut. Control, vol. 25, n◦ 3, p. 399-412, 1980.
[ERD 71] Erdélyi A., Calcul opérationnel et fonctions généralisées, Dunod, 1971
(trad. de Operational calculus and generalized functions, Holt, Rinehard
and Winston, 1962).
[FLI 97] Fliess M., Mounier H., Rouchon P., Rudolph, J., Systèmes linéaires
sur les opérateurs de Mikusi«ski et commande d'une poutre exible,
ESAIM Proc., vol. 2, p. 183-193, 1997.
[FLI 99] Fliess M., Mounier H., Tracking control and π -freeness of innite di-
mensional linear systems, in Dynamical systems, control, coding and com-
puter vision, Picci G., Gilliam D.S., Eds, p. 45-68, Birkhaüser, 1999.
[GOH 70] Gohberg M.G., Kren, Theory and applications of Volterra operators
in Hilbert space, American Mathematical Society, 1970.
[HEA 93] Heaviside O., Electromagnetic theory, I-III, London, 1893.
[HLA 69] Hladik J., La transformation de Laplace, Masson, 1969.
[JUR 64] Jury E.I., Theory and application of the z -transform method, John Wiley,
1964.
[KAI 80] Kailath, Linear systems, Prentice Hall, 1980.
78 Mathématiques pour les systèmes dynamiques

[KUƒ 79] Ku£era V., Discrete linear control : a polynomial approach, Wiley Inter-
sciences, 1979.
[KUƒ 91] Ku£era V., Analysis and design of discrete linear control systems, Pren-
tice Hall, 1991.
[LAC 93] Lachand-Robert T., Analyse harmonique, distributions, convolution,
Techniques de l'ingénieur, T. AF1, A142, Dunod, 1993.
[MIK 59] Mikusi«ski J., Operational calculus, Pergamon Press, 1959.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[ROT 96] Rotella F., Zambettakis I., Mikusi«ski operational calculus for distri-
buted parameter systems, IEEE-SMC Conf. CESA'96, p. 975-979, 1996.
[ROT 95] Rotella F., Borne P., Théorie et pratique du calcul matriciel, Technip,
1995.
[SCH 89] Schetzen M., The Volterra and Wiener theories of nonlinear systems,
Krieger Publisihng Company, 1989.
[SPI 78] Spiegel M.R., Formules et tables de mathématiques, Mac Graw-Hill,
1978.
[WIL 86] Willems J.C., From time series to linear systems, Automatica, part I :
vol. 22, n◦ 5, p. 560-580, 1986, part II : vol. 22, n◦ 6, p. 675-694, 1986,
part III, vol. 23, n◦ 1, p. 87-115, 1987.
[YOS 84] Yosida K., Operational calculus : a theory of hyperfunctions, Springer
Verlag, 1984.
[ZWI 98] Zwillinger D., Handbook of dierential equations, Academic Press, 1998.
Chapitre 3

Probabilités et éléments de calcul stochastique

3.1. Dénitions générales

Nous donnons dans cette section quelques éléments succincts de la théorie


des probabilités : celle-ci est fondée sur la théorie de la mesure et le lecteur se
reportera avec prot aux livres [RIC 01, SCH 93]. Cette section introductive
contient essentiellement des dénitions ; nous présenterons des illustrations de
ces diérentes notions dans la suite du chapitre.

3.1.1. Espace de probabilité


Soit un espace abstrait Ω, appelé space des épreuves. Un élément ω de Ω
est appelé une épreuve ou réalisation : ω correspond au résultat d'une expé-
rience aléatoire. L'ensemble Ω est souvent appelé l'ensemble des épreuves ou des
réalisations. L'espace Ω dépend bien entendu de l'expérience aléatoire que l'on
cherche à modéliser. Nous verrons des exemples dans la suite. Nous considérons
sur cet ensemble d'épreuves un ensemble de parties F , muni d'une structure
de tribu.
Dénition 1 (Tribu). Une tribu F est un ensemble de parties de Ω vériant
les propriétés suivantes :

1. Ω ∈ F ,
2. si A ∈ F , alors Ac ∈ F , où Ac est le complémentaire de A, Ac , Ω \ A =
{x ∈ Ω, x 6∈ A} (stabilité par passage au complémentaire),
S
3. si (An , n ∈ N) est une suite de parties de Ω, alors, n∈N An ∈ F (stabilité
par réunion dénombrable).
Un élément d'une tribu s'appelle un événement (en théorie de la mesure, de
tels éléments sont appelés ensembles mesurables).
Deux événements A et B sont dits incompatibles si A ∩ B = ∅. L'ensemble
vide ∅ est appelé l'événement impossible . A l'inverse, Ω est l'événement certain.

Chapitre rédigé par Eric Moulines, Jamal Najim et Pierre Priouret.


80 Mathématiques pour les systèmes dynamiques

Le couple (Ω, F), constitué d'un ensemble d'épreuves et d'une tribu d'événe-
ments, est un espace probabilisable. L'ensemble P(Ω) des parties de Ω est une
tribu (tribu discrète ) sur Ω qui contient n'importe quelle tribu F de Ω. De
même, l'ensemble {∅, Ω} est aussi une tribu (tribu grossière ) contenue cette
fois dans toutes les tribus dénies sur Ω.
Remarquons que l'intersection d'une famille quelconque de tribus est une
tribu et que toute classe de parties A de Ω est contenue dans la tribu discrète
P(Ω). Cela nous permet de dénir la notion suivante.

Dénition 2 (Tribu engendrée, σ(A)). La tribu engendrée par une classe


de parties A de Ω, notée σ(A) est la plus petite tribu contenant A.
La tribu engendrée σ(A) est aussi l'intersection de toutes les tribus conte-
nant A.
La notion de tribu borélienne est liée à la structure  topologique  de
l'ensemble de base : c'est la tribu engendrée par l'ensemble des ouverts de la
topologie. Nous considérerons dans ce chapitre uniquement la tribu borélienne
de Rd , en commençant par le cas le plus simple de la droite réelle R.

Dénition 3 (Tribu borélienne). La tribu borélienne ou tribu de Borel de


R est la tribu engendrée par la classe des intervalles ouverts de R. On la note
B(R). Un élément de cette tribu est appelé une partie borélienne ou un borélien.

Tout intervalle ouvert, fermé, semi-ouvert, appartient à B(R). Il en est de


même de toute réunion nie ou dénombrable d'intervalles (ouverts, fermés, ou
semi-ouverts). La tribu B(R) est aussi la tribu engendrée par l'une des quatre
classes suivantes d'ensembles :

I = {] − ∞, x], x ∈ R}, I 0 = {] − ∞, x]; x ∈ Q},


J = {] − ∞, x[, x ∈ R}, J 0 = {] − ∞, x[; x ∈ Q},

et, de façon similaire, la tribu borélienne B(Rd ) de Rd est la tribu engendrée


Q
par les rectangles ouverts di=1 ]ai , bi [.
Le théorème suivant sera d'un usage constant dans la suite.

Théorème 1 (Classe monotone). Soient C ⊂ M ⊂ P(Ω). On suppose que :


 C est stable par intersection nie,
 Ω ∈ M et pour A, B ∈ M, A ⊂ B implique que B \ A ∈ M,
 M est stable par limite croissante.
Alors, σ(C) ⊂ M.
Probabilités et calcul stochastique 81

3.1.2. Probabilité
Dénition 4 (Probabilité). On appelle probabilité sur (Ω, F ), une applica-
tion P : F → [0, 1], qui vérie les propriétés suivantes :

1. P(Ω) = 1,
2. (σ-additivité) si (An , n ∈ N) est une suite d'éléments de F deux à deux
disjoints (c'est-à-dire : Ai ∩ Aj = ∅ pour i 6= j ), alors :
! ∞
[ X
P Ai = P(Ai ). (3.1)
n∈N i=0

On vérie les propriétés suivantes, An , A et B étant des événements :

1. si A ⊂ B , alors P(A) ≤ P(B),


2. P(Ac ) = 1 − P(A),
3. P(A ∪ B) = P(A) + P(B) − P(A ∩ B),
4. si An % B, alors P(An ) % P(A),1
5. si An & A, alors P(An ) & P(A),
S P
6. P( n An ) ≤ n P(An ).
Dénition 5 (Ensemble négligeable, propriété P-p.s.). On dit qu'un en-
semble A ⊂ Ω est P-négligeable (ou plus simplement négligeable, s'il n'y a pas
d'ambiguïté sur la mesure de probabilité) s'il existe un ensemble B ∈ F tel
que A ⊂ B et P(B) = 0. Une propriété est dite P-presque sûre (en abrégé,
P-p.s.), si la propriété est vériée sur un ensemble dont le complémentaire est
P-négligeable.
Remarquons que les ensembles négligeables ne sont pas nécessairement des
éléments de la tribu F .
Dénition 6 (Espace de probabilité). Le triplet (Ω, F , P) dénit un space
de probabilité.
Dénition 7 (Tribu complète). On dira que la tribu F est c omplète si tous
les ensembles négligeables de Ω sont éléments de F .
Il est facile de construire une tribu F 0 qui contient F et d'étendre P à
F 0 de telle sorte que F 0 soit complète pour l'extension de P. Pour éviter des
complications techniques inutiles, nous supposerons désormais que toutes les
tribus que nous manipulerons sont complètes.
1 Dans tout ce chapitre, la notation % désigne la limite par valeurs inférieures, c'est-à-

dire : lim , lim ou, pour des ensembles : lim , lim . La notation & est
xn %x xn → x An %A An → A
xn ≤ x An ⊆ A
dénie similairement, avec xn ≥ x ou An ⊇ A.
82 Mathématiques pour les systèmes dynamiques

Rappelons pour conclure ce paragraphe deux résultats techniques d'usage


constant.
Dénition 8 (π−système). On appelle π−système une famille d'ensembles
stable par intersection nie.
Théorème 2 (π−système). Soient µ et ν deux probabilités sur (Ω, F ) et
soit C ⊂ F un π−système contenant Ω. On suppose que pour tout C ∈ C ,
µ(C) = ν(C). Alors µ(A) = ν(A) pour tout A ∈ σ(C).
Dénition 9 (Algèbre). Soit E un ensemble. Une famille E0 de sous-
ensembles de E est appelée algèbre si (i) E ∈ E0 , (ii) F ∈ E0 ⇒ F c ∈ E0
et (iii) F, G ∈ E0 ⇒ F ∪ G ∈ E0 .
A la diérence des tribus, nous ne supposons pour les algèbres que la stabilité
par union nie (et non innie dénombrable). Une fonction d'ensembles µ dénie
sur E0 est dite σ−additive si, pourStoute union dénombrable
S d'éléments
P Fn ∈ E0 ,
Fn ∩ Fm = ∅ si n 6= m telle que n Fn ∈ E0 , on a µ ( n Fn ) = n µ(Fn ).
Théorème 3 (d'extension de Carathéodory). Soit E0 une algèbre sur un
ensemble E et µ0 : E0 → R+ une fonction σ−additive telle que µ0 (E) < ∞.
Alors, il existe une unique mesure µ sur E , σ(E0 ) telle que µ = µ0 sur E0 .
Exemple 1. Pour illustrer ce théorème, rappelons la construction de la mesure
de Lebesgue sur l'intervalle [0, 1] (voir [RIC 01] pages 53-55). Soit C l'ensemble
des parties de [0, 1] pouvant s'écrire sous la forme d'une union nie d'intervalles
ouverts à gauche et fermés à droite :
F ∈C ⇔ F =]a1 , b1 ] ∪ · · · ∪]ar , br ].
On vérie facilement que C est une algèbre. La tribu engendrée par C , σ(C) =
B([0, 1]), est la tribu borélienne sur [0, 1]. Pour F ∈ F0 considérons :
X
λ0 (F ) = (bi − ai ).
i

On vérie que λ0 est une fonction positive et additive. On peut démontrer que
λ0 est σ−additive, c'est-à-dire que S
pour toute union dénombrable
P d'ensembles
Fi ∈ F0 disjoints 2 à 2 et tels que i Fi ∈ F0 , on a λ0 (F ) = i λ0 (Fi ) (cette
partie de la preuve n'est pas immédiate). Le théorème de Carathéodory permet
de montrer que λ0 a une extension unique λ sur B([0, 1]), appelée mesure de
Lebesgue sur [0, 1].

3.1.3. Variables aléatoires


Dénitions

Soient (Ω, F) et (E, E) deux espaces probabilisables et f une application de


Ω dans E . L'image réciproque d'une partie A de E par f est la partie de Ω
Probabilités et calcul stochastique 83

notée f −1 (A) dénie par :


f −1 (A) = {ω ∈ Ω : f (x) ∈ A} . (3.2)

Les propriétés suivantes, où A et les ensembles Ai sont des parties quel-


conques de F et I est un ensemble ni, dénombrable, ou inni non dénombrable,
se vérient immédiatement :
c
f −1 (E) = Ω, f −1 (∅) = ∅, f −1 (Ac ) = f −1 (A) , (3.3)
! !
[ [ \ \
f −1 Ai = f −1 (Ai ), f −1 Ai = f −1 (Ai ).
i∈I i∈I i∈I i∈I

Si A est une classe quelconque de parties de E , on note f −1 (A) la classe de


parties de Ω dénie par : f −1 (A) = f −1 (A) : A ∈ A . Il découle immédiate-
ment des propriétés précédentes que si E est une tribu de E , alors f −1 (E) est
une tribu de Ω.
Dénition 10 (Variable aléatoire, v.a.). Soient (Ω, F ) et (E, E) deux
espaces probabilisables et X une application de Ω dans E . On notera
R+ l'ensemble des¯ réels positifs et R = R ∪ {∞}.
On dit que X est une v.a. (variable aléatoire) à valeurs dans (E, E) si la tribu
X −1 (E) est contenue dans F , ce qui revient à dire que X −1 (A) ∈ F pour tout
ensemble A ∈ E . On dit que X est une v.a. :
 réelle lorsque E = R̄ et E = B(R̄) (la tribu borélienne de R̄) ;
 positive lorsque E = R̄+ et E = B(R̄+ ) (l'ensemble des v.a. positives sera
noté F + ) ;
 vectorielle (ou un vecteur aléatoire) lorsque E = R̄d et E = B(R̄d ) ;
 discrète lorsque le cardinal de l'ensemble E est ni ou dénombrable, la
tribu E étant choisie comme l'ensemble des parties de E (soit : E = P(E)).
Dénition 11 (Tribu engendrée par une famille de v.a.). Soit (Xi , i ∈ I)
une famille de v.a. à valeurs dans (E, E), I étant un ensemble quelconque, non
nécessairement dénombrable.On appelle tribu engendrée par (Xi , i ∈ I) la plus
petite tribu X de Ω qui soit telle que toutes les v.a. Xi soient X -mesurables.
A titre d'illustration, soit Y : Ω → (R, B(R)) une v.a. Alors σ(Y ), la tribu
engendrée par la v.a. Y, est la tribu engendrée par la famille des ensembles
Y −1 (B), où B ∈ B(R) est un ensemble borélien, soit :

σ(Y ) , Y −1 (B), B ∈ B(R) .

Une v.a. Z : Ω → R est σ(Y )−mesurable si et seulement s'il existe une


fonction borélienne f : R → R telle que Z = f (Y ) (voir, par exemple, [WIL 91]
page 36). De même, si Y1 , · · · , Yn : Ω → R sont des v.a., nous avons :

σ(Y1 , . . . , Yn ) = σ Yk−1 (Bk ), Bk ∈ B(R), k = 1, . . . , n ,
84 Mathématiques pour les systèmes dynamiques

et Z : Ω → R est σ(Y1 , · · · , Yn ) mesurable si et seulement s'il existe une fonction


borélienne f : Rn → R telle que Z = f (Y1 , · · · , Yn ).
Dénition 12 (Limites inférieure et supérieure). Soit {Xn} une suite de
v.a. de (Ω, F) → (R̄, B(R)). On appelle limite supérieure et limite inférieure
de la suite de v.a. {Xn }n≥1 les applications suivantes :
limsupn Xn (ω) , lim & sup Xm (ω) = inf sup Xm (ω), (3.4)
n m≥n n m≥n

liminf n Xn (ω) , lim % inf Xm (ω) = sup inf Xm (ω). (3.5)


n m≥n n m≥n

Notons que les applications limsupn Xn et lim inf n Xn dénies ci-dessus sont
a priori à valeurs dans R̄, même si les v.a. Xn sont à valeurs dans R.
Proposition 1. Soit {Xn}n∈N une suite de v.a. sur (Ω, F ) à valeurs dans
(R, B(R)). On a les propriétés suivantes :
(a) supn Xn et inf n Xn sont des v.a.,
(b) limsupn Xn et liminf n Xn sont des v.a.,
(c) l'ensemble {ω ∈ Ω : limsupn Xn (ω) = liminf n Xn (ω)} ∈ F .
T
Démonstration : pourS (a), on utilise le fait que {supn Xn ≤ x} = n {Xn ≤ x}
et {inf n Xn < x} = n {Xn < x}. (b) s'obtient par application répétée de (a).
Pour (c), notons Y = limsupn Xn et Z = liminf n Xn . Comme Y et Z sont des
v.a., Y − Z est une v.a., ce qui conclut la preuve.

Espérance d'une variable aléatoire

Nous rappelons succinctement dans le paragraphe suivant quelques éléments


de théorie de l'intégration. Le lecteur trouvera plus de développement dans le
livre [RIC 01], chapitre 2.
Dénition 13 (v.a. étagée). On dit qu'une v.a. X dénie sur (Ω, F ) et à
valeurs dans (R̄, B(R̄)) est étagée si elle ne prend qu'un nombre ni de valeurs
dans R. On notera eF + l'ensemble des v.a. étagées positives.
Cet ensemble eF + n'est pas un espace vectoriel, mais il est stable par addi-
tion et par multiplication par les réels positifs (eF + est un cône). Etant donnés
des nombres a1 , . . . , an de R+ et des ensembles A1 , . . . , An ∈ F , on obtient une
v.a. positive X ∈ eF + en posant :
X
n
X= a k IA , Ak ∈ F , (3.6)
k=1

où IA est la fonction indicatrice de A :



1 α ∈ A,
IA (α) = (3.7)
0 α∈6 A.
Probabilités et calcul stochastique 85

Il est clair que cette fonction ne peut prendre qu'un nombre ni de valeurs,
qui sont les sommes d'un nombre quelconque de ai . Il y a évidemment de
multiples façons d'écrire (3.6). Inversement, toute v.a. X ∈ eF + s'écrit sous la
forme (3.6) et admet même une écriture (3.6) canonique qui est unique. Soit X
l'ensemble des valeurs prises par X , et soit pour a ∈ X , Aa = X −1 ({a}). Les
ensembles Aa ∈ F constituent une partition nie de Ω et on a :
X
X= aIA . (3.8)
a∈X

Dénition 14 (Espérance d'une v.a. étagée positive). Soit P une proba-


bilité sur (Ω, F). On appelle espérance par rapport à la probabilité P de la v.a.
étagée X ∈ eF + admettant la décomposition canonique (3.8), le nombre de R+
suivant, noté E[X] : X
E[X] = aP[Aa ].
a∈X

Par exemple, l'intégrale de la v.a. constante X = a ≥ 0 vaut a. Si A ∈ F ,


l'espérance de la v.a. X = IA vaut P(A). La proposition suivante découle de
façon immédiate de la construction précédente.
Proposition 2. Soient X , Y deux éléments de eF + et deux constantes a, b ≥ 0.
Alors, on a :
∀a, b ≥ 0, aX + bY ∈ eF + ; (3.9)
∀a, b ≥ 0, E[aX + bY ] = aE[X] + bE[Y ]; (3.10)
X ≤ Y ⇒ E[X] ≤ E[Y ]. (3.11)

Les deux lemmes suivants sont à la base de la théorie de l'intégration.


Lemme 1. Soient Xn, Yn ∈ eF + deux suites croissantes telles que lim %
Xn = lim % Yn . Alors, lim % E[Xn ] = lim % E[Yn ].
Lemme 2. Toute v.a. positive X ∈ F + est limite d'une suite croissante de
fonctions étagées Xn ∈ eF + .
Démonstration : il sut de considérer la suite : Xn (ω) =
Pn2n −1 k
2n I{k/2 ≤X(ω)<(k+1)/2 } + nIAX(ω)≥n .
n n
k=0

Le lemme 2 montre qu'il existe une suite Xn ∈ eF + telle que Xn % X; la


monotonicité de l'espérance assure que E[Xn ] est une suite croissante et, donc,
que cette suite a une limite α. Le lemme 1 montre que cette limite ne dépend
pas du choix de la suite {Xn }. On a en particulier :

X
n
n2
k
α = lim % P({ω : k/2n ≤ X(ω) < (k + 1)/2n }) + nP({ω : X(ω) ≥ n}).
2n
k=0
86 Mathématiques pour les systèmes dynamiques

Dénition 15 (Espérance d'une v.a. positive). Soit X ∈ F + une v.a.


positive. On appelle espérance de X par rapport à la probabilité P le nombre
suivant de [0, ∞] : Z
E[X] = XdP = lim % E[Xn ],
n

où {Xn } est une suite croissante de v.a. étagées positives telle que limn %
Xn = X .
On montre aisément que, pour X ≥ 0 :
E[X] = sup E[Y ], (3.12)
Y ∈eF + Y ≤X

cette dernière relation (3.12) étant souvent utilisée comme dénition de l'espé-
rance. On a alors le théorème suivant.
Théorème 4.  Si (a, b) ∈ R+ , et X, Y ∈ F + , on a : E[aX + bY ] =
aE[X] + bE[Y ].
 Si X, Y ∈ F + et si X ≤ Y , on a E[X] ≤ E[Y ].
 (Convergence monotone) Soit {Xn }n∈N une suite croissante de v.a.
de F + et soit X = limn Xn . Alors, limn E[Xn ] = E[X].
 (Lemme de Fatou) Si {Xn } est une suite de v.a. de F + , alors :
E [liminf n Xn ] ≤ liminf n E[Xn ]. (3.13)
Remarque 1. Si X ∈ F + est une v.a. positive, alors :
∀X ∈ F + , E[X] < +∞ ⇒ X < +∞ P-p.s.
En eet, remarquons que P{X = +∞} = lima→∞ P{X ≥ a}. Or a 1{X≥a} ≤
X . Par suite P{X ≥ a} ≤ E[X]
a −−−→ 0, ce qui entraîne P{X = +∞} = 0.
a→∞
Exemple 2. Soit (Zk ) une suite de v.a. positives ;
P P
 alors E [ k Zk ] = E[Zk ] ≤ ∞ (application de la convergence monotone
et P
de la linéarité de l'espérance),
P
 si E[Zk ] < ∞, alors Zk est ni P-p.s. et donc Zk → 0 P-p.s.
Il nous reste à dénir l'espérance des v.a. réelles de signe quelconque. Pour
cela, on utilise le fait qu'une v.a. réelle est toujours la diérence de deux v.a.
positives, cette décomposition n'étant bien sûr pas unique. Nous utilisons dans
la suite la décomposition canonique en partie positive et partie négative, qui
sont les v.a. dénies par :
X + , X ∨ 0 et X − , (−X) ∨ 0,
où a∨b = max(a, b). On vérie aisément que X = X + −X − et |X| = X + +X − .
Cette décomposition est minimale dans le sens où, pour toute autre décompo-
sition de X de la forme X = Y − Z avec Y ∈ F + et Z ∈ F + , nous avons
Y ≥ X + et Z ≥ X − .
Probabilités et calcul stochastique 87

Dénition 16 (Espérance, v.a. intégrable). On dit que la v.a. X est inté-


grable si E [|X|] < ∞, ce qui équivaut à E[X + ] < ∞ et E[X − ] < ∞. Dans un
tel cas, on appelle espérance de X par rapport à la probabilité P le nombre de
[0, ∞[ :
E[X] = E[X + ] − E[X − ].
On note L1 l'espace des v.a. intégrables :
L1 = L1 (Ω, F, P) = {X mesurable , E [|X|] < ∞} (3.14)
Il est facile de voir que L1 est un espace vectoriel (car E|X+Y | ≤ E|X|+E|Y |
et l'espérance est monotone) et que X 7→ E[X] est une forme linéaire positive.
Par construction, si X ∈ L1 , alors |E[X]| ≤ E [|X|].
La propriété suivante découle directement du lemme de Fatou et fait partie
des résultats fondamentaux de la théorie de la mesure et de l'intégration.
Proposition 3 (Convergence dominée). Si, pour tout n ≥ 1, |Xn (ω)| ≤
Y (ω) (P-ps), si Y ∈ L1 et si Xn → XP-p.s., alors :
lim E[|Xn − X|] = 0. (3.15)
n→∞

En particulier, limn→∞ E[Xn ] = E[X].


Pour rappel, la notation P-p.s. renvoie à la dénition 5. Nous admettrons le
résultat suivant.
Théorème 5. Soit X une v.a. de (Ω, F ) dans (E, E) et P une probabilité sur
(Ω, F). La formule PX (A) , P(X −1 (A)) dénit une probabilité sur (E, E), ap-
pelée probabilité image de P par X . Cette probabilité vérie, pour toute fonction
f positive mesurable :
Z Z
f ◦ X(ω)dP(ω) = f (x)dPX (x).
Dénition 17 (Loi d'une variable aléatoire). On appelle loi de X la pro-
babilité image de P par X . C'est donc une probabilité, notée PX , sur (E, E).
La loi d'une variable aléatoire réelle est donc une probabilité sur (R, B(R)).
On dénit souvent la loi d'une variable aléatoire en spéciant une densité par
rapport à une mesure positive [SCH 93] sur (E, E). Plus précisément, soit µ
une mesure positive et soit g une fonction mesurable positive, telle que :
Z
g(x)dµ(x) = 1. (3.16)
E

Pour A ∈ E , on dénit PX comme suit :


Z
PX : E → [0, 1], PX (A) = g(x)dµ(x). (3.17)
A

On vérie alors que PX donnée par (3.17) dénit bien une probabilité sur (E, E).
Nous donnons ci-dessous quelques exemples élémentaires.
88 Mathématiques pour les systèmes dynamiques

 La mesure de Lebesgue sur [0, 1] est une probabilité, que l'on appelle
généralement loi uniforme sur [0, 1]. Plus généralement, pour a < b, on
appelle loi uniforme sur [a, b], la mesure de probabilité (b−a)−1 I[a,b] (x)dx,
où IA est l'indicatrice de l'ensemble A (voir (3.7)).
 La mesure sur R de densité pX (x) = π−1 (1 + x2 )−1 R∞ dx par rapport à la
mesure de Lebesgue est une probabilité sur R, car −∞ pX (x)dx = 1. On
remarque que le moment d'ordre 1 de cette mesure est inni. Cette loi
est appelée loi de Cauchy standard.
 La mesure de densité :
 
1 (x − µ)2
pX (x) = √ exp − ,
σ 2π 2σ 2
par rapport à la mesure de Lebesgue est une probabilité. Cette densité
est appelée laR densité gaussienne . La moyenne de cette loi est µ et sa
variance est (x − µ)2 pX (x) dx = σ 2 .
Dénition 18 (Fonction de répartition). La fonction de répartition de la
v.a. réelle X est la fonction FX : R → [0, 1], dénie par :
FX (x) = PX (] − ∞, x]) = P(X ≤ x). (3.18)
La fonction de répartition est une
T fonction croissante, continue à droite : on
remarque en eet que ] − ∞, x] = ] − ∞, xn ], pour toute suite décroissante xn ,
telle que limn→∞ xn = x. La propriété (5) de la dénition 4 implique donc que
FX (x) = limn→∞ F (xn ) et donc, plus généralement, que limh→0+ FX (x + h) =
FX (x). Un raisonnement similaire montre que la fonction de répartition admet
en chaque point une limite à gauche : limh→0− FX (x + h) = PX (] − ∞, x[) =
FX (x−). Remarquons aussi que :
lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→∞

La fonction de répartition FX caractérise la loi PX , puisque, pour tout


intervalle ]a, b] (b > a), on a :
PX (]a, b]) = FX (b) − FX (a),
et qu'une mesure borélienne sur R est déterminée de façon unique par la donnée
des mesures de tels intervalles. Il apparaît que la fonction de répartition d'une
variable aléatoire réelle caractérise la loi de celle-ci. Par conséquent, la fonction
de répartition est un  outil pratique  pour manier la loi d'une v.a. réelle.

3.1.4. Quelques inégalités utiles


L'inégalité élémentaire suivante, appelée inégalité de Markov, joue un rôle
fondamental.
Probabilités et calcul stochastique 89

Proposition 4 (Inégalité de Markov). Soit Z une v.a et g : R → [0, ∞]


une fonction borélienne croissante. Alors, pour tout c > 0 :
E[g(Z)] ≥ E[g(Z)I(Z ≥ c)] ≥ g(c)P[Z ≥ c]. (3.19)
En particulier, pour g(x) = |x|, nous avons P[|X| ≥ c] ≤ E[|X|]/c pour tout
X ∈ L1 .
Rappelons qu'une fonction c : G → R, où G est un intervalle ouvert de R,
est dite convexe si, pour tout x, y ∈ G et tout p, q , p + q = 1, on a :
c(px + qy) ≤ pc(x) + qc(y).
A titre d'exemple, les fonctions |x|, x2 , eθx sont des fonctions convexes.
Proposition 5 (Inégalité de Jensen). Soit c : G → R une fonction convexe
sur un sous-intervalle ouvert de R et soit X une variable aléatoire vériant
E [|X|] < ∞, P[X ∈ G] = 1, et E [|c(X)|] < ∞. Alors, on a :
E [c(X)] ≥ c(E[X]). (3.20)

3.1.5. Moments d'ordre p, espaces Lp

Pour p > 0, on dit que X admet un moment d'ordre p, noté E|X|p , si |X|p
admet un moment d'ordre 1. Nous notons Lp l'espace des variables aléatoires
admettant un moment d'ordre p et, pour X ∈ Lp , kXkp = (E[|X|p ])1/p . Il
est facile de voir que k · kp est positive et vérie l'inégalité triangulaire. Ce
n'est toutefois pas une norme, car la relation kXkp = 0 entraîne seulement que
X = 0 P-p.s. On dit que k · kp est une semi-norme. Comme nous le verrons, il
est possible (mais pas toujours utile ni pratique), de  quotienter  l'espace par
la relation d'équivalence X ≡ Y ⇐⇒ X = Y P-p.s. Les semi-normes Lp sont
monotones dans le sens suivant.
Proposition 6. Soit 1 ≤ p ≤ r < ∞ et Y ∈ Lr . Alors, Y ∈ Lp et kY kp ≤
kY kr .
Cette dernière inégalité découle directement de l'inégalité de Jensen appli-
quée avec c(x) = xr/p . Soit X une v.a. à valeurs réelles. La borne essentielle
de X est dénie par :
kXk∞ = sup {a; P{ω : |X(ω)| > a} > 0} .
Proposition 7. Soit p ≥ 1. Nous avons (inégalité de Minkovski) :
kX + Y kp ≤ kXkp + kY kp . (3.21)
Soient p, q ≥ 1 tels que p−1 + q −1 = 1. Nous avons (inégalité de Hölder) :
kXY k1 ≤ kXkp kY kq . (3.22)
90 Mathématiques pour les systèmes dynamiques

La proposition suivante joue un rôle clef, en particulier lorsque p = 2.


Proposition 8. Soit p ∈ [1, ∞) et soit (Xn ) une suite de Cauchy dans Lp ,
c'est-à-dire :
lim sup kXr − Xs kp = 0.
k→∞ r,s≥k

Alors, il existe une variable aléatoire X ∈ Lp telle que Xr → X dans Lp ,


c'est-à-dire : kXr − Xkp → 0. De plus, on peut extraire de Xn une sous-suite
Yk = Xnk qui converge vers X P-p.s.
Démonstration : soit kn % ∞ une suite telle que :
∀(r, s) ≥ kn , kXr − Xs kp ≤ 2−n .
Nous avons, par monotonicité des semi-normes k · kp :
 
E |Xkn+1 − Xkn | ≤ kXkn+1 − Xkn kp ≤ 2−n ,
P 
ce qui implique que E n |Xkn+1 − Xkn | < ∞. Donc, la série de terme général
Un = (Xkn+1 − Xkn ) converge absolument P-p.s. et limn→∞ Xkn existe P-p.s.
Dénissons, pour tout ω ∈ Ω :
X(ω) , lim sup Xkn (ω).
X est une v.a. (en tant que limite supérieure d'une suite de v.a.) et Xkn → X
P-p.s. Soient r et n ∈ N tels que r ≥ kn ; pour tout m ≥ n, on a :
kXr − Xkm kp ≤ 2−n ,
et l'application du lemme de Fatou (3.13) montre que :
kXr − Xkp ≤ lim inf kXr − Xkm kp ≤ 2−n ,
m

ce qui prouve que (Xr − X) ∈ Lp et donc que X ∈ Lp ; de plus, cette relation


montre que Xr → X dans Lp .
Le résultat précédent montre que Lp peut être muni d'une structure d'espace
vectoriel normé complet par passage au quotient. Deux variables aléatoires X
et Y sont égales presque sûrement si P{ω : X(ω) = Y (ω)} = 1. L'égalité
presque sûre sur (Ω, F, P) dénit une relation d'équivalence sur l'ensemble des
v.a. à valeurs dans (E, E). Si X et Y sont deux éléments de la même classe
d'équivalence et si X admet un moment d'ordre p, alors E [|X|p ] = E [|Y |p ].
Lorsque l'on choisit un élément d'une classe d'équivalence, on dit que l'on
choisit une version de X . Dans la suite, nous utiliserons la même notation X
pour la v.a., la classe d'équivalence de X (l'ensemble des v.a. égales à X P-p.s.)
et n'importe quel autre élément de la classe d'équivalence de X (ou version
de la classe de X ). On appelle Lp (Ω, F , P) l'espace des classes d'équivalence
des variables admettant un moment d'ordre p. La proposition 8 montre que
Lp (Ω, F, P) est un espace vectoriel normé complet (ou encore, un espace de
Banach), lorsqu'on le munit de la norme kXkp = (E [|X|p ]])1/p .
Probabilités et calcul stochastique 91

3.1.6. Variance, covariance


Soit X une variable aléatoire admettant un moment d'ordre 2; alors X
admet un moment d'ordre 1 (l'inégalité de Hölder (3.22) entraîne que E [|X|] =
kXk1 ≤ kXk2). On pose alors :

var(X) , E[(X − E[X])2 ) = E[X 2 ] − E2 [X], (3.23)

quantité que l'on appelle la variance de X . De même, lorsque X, Y ∈ L2 , nous


pouvons dénir :

cov(X, Y ) , E [(X − E[X])(Y − E[Y ])] , (3.24)

quantité que l'on appelle la covariance de X et de Y . Les variables aléatoires


sont dites décorrélées si le coecient de covariance cov(X, Y ) est nul. Lorsque
X = (X1 , · · · , Xd ), d ∈ N, la matrice de covariance Γ(X) (ou matrice de
variance/covariance) est dénie comme la matrice d × d :
 
Γ(X) = E (X − E [X])(X − E [X])T , soit Γ(X)i,j = cov(Xi , Xj ). (3.25)

Les éléments diagonaux sont égaux à la variance des variables Xi ; les élé-
ments hors-diagonaux sont les coecients de covariance. La matrice de cova-
riance est une matrice symétrique (Γ(X) = Γ(X)T ) et semi-dénie positive. En
eet, pour tout d-uplets (a1 , a2 , · · · , ad ), nous avons :
 !2 
X
d X
E ai (Xi − E[Xi ]) = ai aj Γ(X)i,j ≥ 0.
i=1 i,j

Notons que, pour tout vecteur a (déterministe) :

Γ(X + a) = Γ(X),

et que, pour M une matrice (déterministe) p × d :

Γ(M X) = M Γ(X)M T .

Nous munissons l'espace L2 du produit scalaire :

< X, Y >, E[XY ]. (3.26)

Comme précédemment toutefois, ce produit scalaire n'induit pas une norme,


mais une semi-norme. Dénissons L2 l'espace quotient de L2 par la relation
92 Mathématiques pour les systèmes dynamiques

d'équivalence d'égalité P-p.s. Le produit scalaire déni ci-dessus s'étend direc-


tement à l'espace quotient, car pour toutes variables X̃ (resp. Ỹ ) de la classe
de X (resp. Y ), nous avons :
< X̃, Ỹ >=< X, Y > .

On vérie aisément que L2 muni de ce produit scalaire est un espace hilber-


tien. Cette propriété a un grand nombre de conséquences. Nous l'utiliserons en
particulier pour construire l'espérance conditionnelle.

3.1.7. Indépendance, mesures produits


Soient A et B deux événements. On dit que A et B sont indépendants si :
P(A ∩ B) = P(A)P(B).

Les propriétés élémentaires des probabilités montrent que les événements A et


B c , Ac et B , et Ac et B c sont aussi indépendants. En eet :

P(Ac ∩ B) = P(Ω ∩ B) − P(A ∩ B) = P(B) − P(A)P(B) = (1 − P(A))P(B).

Les tribus A = {∅, A, Ac , Ω} et B = {∅, B, B c, Ω} sont donc indépendantes, au


sens de la dénition suivante.
Dénition 19 (Indépendance de tribus). Soit (Bi , i ∈ I) une famille de
tribus. On dit que cette famille est indépendante si, pour tout sous-ensemble J
ni de I :  
\ Y
P Bj  = P(Bj ), ∀ Bj ∈ Bj . (3.27)
j∈J j∈J

Le lemme technique qui suit donne un critère plus  pratique  pour vérier
l'indépendance de tribus.
Lemme 3. Soient G et H deux sous-tribus de F et soit I et J deux π−systèmes
tels que G , σ(I) et H , σ(J ). Alors, les tribus G et H sont indépendantes si
et seulement si I et J sont indépendantes, c'est-à-dire :
P(I ∩ J) = P(I)P(J), ∀I ∈ I, J ∈ J .

Démonstration : supposons les familles I et J indépendantes et, pour I ∈ I


donné, considérons les mesures : H → P(I ∩H) et H → P(I)P(H). Ces mesures
sont dénies (Ω, H) et coïncident sur J . Le théorème 2 montre que ces deux
mesures coïncident sur H :
P(I ∩ H) = P(I)P(H), I ∈ I, H ∈ H.
Probabilités et calcul stochastique 93

Pour H donné dans H, les mesures G → P(G ∩ H) et G → P(G)P(H) sont


dénies sur G et coïncident sur I . Par le théorème 2, elles coïncident sur G et
donc P(G ∩ H) = P(G)P(H) pour tout G ∈ G et H ∈ H.
Proposition 9. Soit (Ci , i ∈ I) une famille de π−systèmes indépendants.
Alors, les tribus (σ(Ci ), i ∈ I) sont indépendantes.
Il résulte immédiatement de la dénition 19 que, si Bi0 est une sous-tribu de
Bi , la famille (Bi0 , i ∈ I) est une famille indépendante si (Bi , i ∈ I) l'est.
Proposition 10. Si la famille (Bi , i ∈ I) est indépendante et si (Ij , j ∈ J)
est une partition de I , alors la famille (σ(Bi ), i ∈ Ij , j ∈ J) est indépendante.
De cette dénition découlent toutes les notions d'indépendance dont nous
aurons besoin dans la suite.
Dénition 20 (Indépendance). Une famille d'événements (Ai , i ∈ I) est
indépendante si la famille de tribus (σ(Ai ), i ∈ I) l'est. Une famille de v.a.
(Xi , i ∈ I) est indépendante si la famille de tribus (σ(Xi ), i ∈ I) l'est. Une
v.a. X et une tribu G sont indépendantes si les tribus σ(X) et G le sont. Enn,
(Xi , i ∈ I) et (Yj , j ∈ J) sont indépendantes si les tribus (σ(Xi ), i ∈ I) et
(σ(Yj ), j ∈ J) le sont.
Exemple 3. Soient (X1 , X2 , X3 , X4 ) quatre v.a. indépendantes. Alors, les
couples (X1 , X2 ) et (X3 , X4 ) sont indépendants, puisque les tribus σ(X1 , X2 )
et σ(X3 , X4 ) le sont. Alors Y1 , f (X1 , X2 ) et Y2 = g(X3 , X4 ) (avec f, g boré-
liennes) sont indépendantes car σ(Y1 ) ⊂ σ(X1 , X2 ) et σ(Y2 ) ⊂ σ(X3 , X4 ).
Avant d'aller plus loin, rappelons quelques résultats sur les mesures produits.
Soient (E1 , B1 , ν 1 ) et (E2 , B2 , ν 2 ) deux espaces mesurés et ν 1 , ν 2 deux mesures
σ−nies [SCH 93]. Alors :

B1 ⊗ B2 , σ(A1 × A2 , A1 ∈ B1 , A2 ∈ B2 ), (3.28)
est une tribu sur E1 × E2 appelée tribu produit de B1 et de B2 et il existe une
unique mesure, notée ν 1 ⊗ ν 2 et dénie sur B1 ⊗ B2 , telle que :
ν 1 ⊗ ν 2 (A1 × A2 ) = ν 1 (A1 )ν 2 (A2 ), A1 ∈ B1 , A2 ∈ B2 .

Soit f une fonction borélienne positive ou bornée. La formule de Fubini


[RIC 01] implique :
Z Z Z 
f d(ν 1 ⊗ ν 2 ) = f (x1 , x2 ) dν 1 (x1 ) dν 2 (x2 )
Z Z 
= f (x1 , x2 ) dν 2 (x2 ) dν 1 (x1 ),

et ces résultats s'étendent directement pour le produit de n espaces. Le résultat


suivant résulte de ces rappels et du théorème de classe monotone.
94 Mathématiques pour les systèmes dynamiques

Théorème 6. Soient (X1 , . . . , Xn ) des v.a. à valeurs dans (Ei , Ei ), i ∈


{1, . . . , n}. Il y a équivalence entre les propositions suivantes :

1. les v.a X1 , · · · , Xn sont indépendantes ;


2. pour tout Ak ∈ Ek , on a :
Y
n
P[X1 ∈ A1 , · · · , Xn ∈ An ] = P[Xk ∈ Ak ] ;
1

3. pour tout Ak ∈ Ck , avec Ck π−système tel que σ(Ck ) = Ek , on a :


Y
n
P[X1 ∈ A1 , · · · , Xn ∈ An ] = P[Xk ∈ Ak ] ;
1

4. la loi du vecteur aléatoire (X1 , . . . , Xn ), notée P(X1 ,··· ,Xn ) , est égale au
produit des lois des v.a Xk :
P(X1 ,··· ,Xn ) = PX1 ⊗ · · · ⊗ PXn ;

5. pour toutes fonctions fk boréliennes positives (resp. bornées), on a :


Y
n
E [f1 (X1 ) . . . fn (Xn )] = E [fk (Xk )]]].
1
Exemple 4. Soient X, Y deux v.a. Alors, puisque σ([a, b[, a < b ∈ R) = B(R),
il résulte du théorème précédent que X et Y sont indépendantes si et seulement
si, pour tout a, b, c, d, on a :
P(a ≤ X < b, c ≤ Y < d) = P(a ≤ X < b)P(c ≤ Y < d),

et, dans ce cas, si E [|X|] < ∞, E [|Y |] < ∞, on a E[XY ] = E[X]E[Y ], résultat
que l'on utilise sans cesse en probabilité.

3.1.8. Fonction caractéristique, transformée de Fourier


Dans tout ce paragraphe, X désigne une variable aléatoire à valeurs dans
Rd . On note PX sa loi. L'application ΦX : Rd → C donnée par :
Z
ΦX (λ) = E[exp(i(λ, X))] = exp(i(λ, x))PX (dx),
Rd

où (u, v) désigne le produit scalaire usuel, s'appelle la fonction caractéristique


de X . La fonction caractéristique est la transformée de Fourier de la loi PX .
Donnons quelques propriétés élémentaires de la fonction caractéristique :
Probabilités et calcul stochastique 95

 ΦX (0) = 1 et |ΦX (λ)| ≤ 1 ;


 la fonction caractéristique est continue sur Rd (cette propriété est une
conséquence immédiate de la continuité de l'application λ 7→ exp(i(λ, X)
et du théorème de convergence dominée 3) ;
 lorsque la loi PX admet une densité g par rapport à la mesure de Lebesgue,
alors ΦX est la transformée de g (au sens usuel). Le théorème de Rieman-
Lebesgue implique que ΦX (λ) tend vers 0 lorsque λ → ∞.
Comme son nom l'indique, la fonction caractéristique  caractérise  la loi,
dans le sens suivant.
Théorème 7. Deux variables aléatoires à valeurs dans Rd ont même loi si et
seulement si ΦX = ΦY .
Corollaire 1. Les n variables aléatoires X = (X1 , · · · , Xn ) sont indépendantes
si et seulement si :
Y
n
∀λ1 , · · · , λn , ΦX (λ1 , · · · , λn ) = ΦXi (λi ).
i=1

3.1.9. Variables aléatoires gaussiennes

Dénition 21 (v.a. gaussienne standard). Une variable X est gaussienne


standard (ou standardisée) si la loi de X admet la densité (par rapport à la
mesure de Lebesgue) :
 2
1 x
f (x) = √ exp − . (3.29)
2π 2

Une variable aléatoire X est gaussienne de moyenne m et de variance σ2 , s'il


existe une variable gaussienne standard Z telle que X = m + σZ .
Lorsque σ > 0, X admet une densité par rapport à la mesure de Lebesgue
sur R, densité donnée par :
 
1 (x − m)2
fm,σ2 (x) = √ exp − , N (m, σ 2 ). (3.30)
2πσ 2σ 2

On note donc cette densité N (m, σ 2 ). Par abus de langage, nous appellerons
variable gaussienne de variance nulle une constante X = m P-p.s. Un calcul
élémentaire montre que, pour tout u ∈ R :
Z ∞  
1 x2 u2
√ exp(− ) exp(ux) dx = exp ,
−∞ 2π 2 2
96 Mathématiques pour les systèmes dynamiques

et donc, par prolongement analytique, la fonction caractéristique d'une variable


gaussienne standard est donnée par :
ΦX (u) = exp(−u2 /2). (3.31)
Notons que, si X est une variable aléatoire de fonction caractéristique ΦX (u),
la fonction caractéristique de la variable aléatoire Y = a + bX est donnée par :
ΦY (u) = exp(iua)φX (bu),

et par conséquent, la fonction caractéristique de la loi normale de moyenne m


et de variance σ 2 est donnée par :
ΦX (λ) = exp(iλm − λ2 σ 2 /2). (3.32)
On en déduit la proposition suivante.
Proposition 11. Soient d v.a. gaussiennes indépendantes {Xi , 1 ≤ i ≤ d}, de
moyenne mi et de variance σ 2i et soient ai ∈ R, i ∈ {1, · · · , d}. Alors la v.a.
Pd
Y = a1 X1 + · · · + ad Xd est gaussienne, de moyenne i=1 ai mi et de variance
Pd
i=1 ai σ i .
2 2

Démonstration : en utilisant le théorème 6, la fonction caractéristique de Y est


donnée par :
" #
Y
d X
d X
d
φY (λ) = φXk (ak λ) = exp iλ ak m k − a2k σ 2k λ2 /2 , (3.33)
k=1 k=1 k=1

et on conclut en utilisant la proposition 7.


Dénition 22 (Vecteur gaussien). Un vecteur aléatoire X = (X1 , . . . , Xd )
est dit gaussien si, pour tout vecteur a = (a1 , . . . , ad ) ∈ Rd , aX T = a1 X1 +
· · · + ad Xd est une v.a. gaussienne.
Cette dénition implique en particulier que chaque composante Xk est une
v.a. gaussienne. A l'inverse, le fait que toutes les variables Xk soient gaussiennes
ne sut pas pour assurer que le vecteur X est gaussien.
Par construction, la famille de lois gaussiennes est stable par transformation
linéaire. Plus précisément, on a le lemme suivant.
Lemme 4. Soit X un vecteur gaussien à valeurs dans Rd de moyenne m =
[m1 , . . . , md ]T et de matrice de covariance K = (Ki,j )i∈{1,...,r}, j∈{1,...,d} . Pour
tout b = [b1 , . . . , br ]T ∈ Rd et toute (r × d)−matrice M = (mi,j ), le vecteur
aléatoire Y = b + M (X − m) est un vecteur gaussien à valeurs dans Rr , de
moyenne b et de matrice de covariance M KM T .
En eet, pour tout vecteur a = [a1 , . . . , ar ]T ∈ Rr , (a, Y ) = (a, b) +
(M ∗ a, (X − m)) (où M ∗ est la matrice adjointe de M ) est une v.a. gaussienne.
Probabilités et calcul stochastique 97

Théorème 8. Soit X = [X1 , . . . , Xd ]T un vecteur aléatoire de moyenne m =


[m1 , . . . , md ]T et de matrice de covariance K = [Ki,j ]i∈{1,...,r}, j∈{1,...,d}. Le
vecteur X est gaussien si et seulement si sa fonction caractéristique s'écrit :
 
Xd
1 X d
φX (λ1 , . . . , λd ) = exp i λ i mi − λi λj Ki,j  . (3.34)
i=1
2 i,j=1

Ce théorème montre que la loi d'une v.a. gaussienne est entièrement déter-
minée par la donnée de sa moyenne et de sa matrice de covariance.
Lorsque la matrice de covariance K est inversible, la loi d'un vecteur aléa-
toire gaussien de moyenne m et de covariance K a une densité par rapport à
la mesure de Lebesgue sur Rd et cette densité est donnée par :
 
1 1
p(x; m, K) = √ d exp − (x − m)T K −1 (x − m) .
2π (det(K))1/2 2

La loi d'un vecteur gaussien étant entièrement spéciée par la donnée de sa


moyenne et de sa matrice de covariance, les notions d'indépendance et de dé-
corrélation sont confondues (propriété qui n'est pas vériée de façon générale),
ce qui s'exprime comme suit.
Théorème 9 (Décorrélation). Soit Y = [Y1T , . . . , YnT ]T un vecteur gaussien
((d1 + · · · + dn ) × 1). Les vecteurs Yi (di × 1, i ∈ {1, · · · , n}) sont indépen-
dants si et seulement si, pour tous vecteurs ai (di × 1, i ∈ {1, · · · , n}), on a
cov[aTi Yi , aTj Yj ] = 0, pour tous i 6= j ∈ {1, . . . , n}.

3.2. Théorèmes limites

Les théorèmes limites sont au c÷ur même de la théorie des probabilités.


Nous ne donnons ici que quelques dénitions et énoncés essentiels, en nous
limitant aux notions que nous utiliserons dans la suite. Le lecteur se reportera
à [RES 98] ou [WIL 91] pour plus de détails. Introduisons tout d'abord les
diérents modes de convergence.
Soit (Xn , n ∈ N) une famille de v.a. dénies sur un espace de probabilité
P 1/2
(Ω, F, P) et à valeurs dans (Rd , B(Rd)). On note |x| = 2
la norme
d
x
k=1 k
euclidienne. Soit nalement X une v.a. dénie sur (Ω, F , P) et à valeurs dans
(Rd , B(Rd )).
Dénition 23 (Convergence p.s.). La suite. Xn converge presque sûrement
vers X (on note : Xn →p.s. X ) si :
n o
P ω : lim Xn (ω) = X(ω) = 1.
n→∞
98 Mathématiques pour les systèmes dynamiques

De façon équivalente, Xn →p.s. X si et seulement si :


 
[ 
lim P {|Xk − X| ≥ δ} =0 pour tout δ > 0.
n→∞  
k≥n
Dénition 24 (Convergence dans Lr ). Soient Xn et X des v.a. appartenant
à Lr . La suite Xn converge dans Lr vers X (on note : Xn →Lr X ) si :
lim E [|Xn − X|r ] = 0.
n→∞
Dénition 25 (Convergence en probabilité). On dit que la suite de v.a.
Xn converge en probabilité vers X (on note Xn →P X ) si :
lim P{|Xn − X| ≥ δ} = 0pour tout δ > 0.
n→∞
Dénition 26 (Convergence en loi). On dit que la suite de v.a. Xn à valeurs
dans Rd converge en loi (ou en distribution) vers X (on note Xn →d X ) si
l'une des trois conditions équivalentes est satisfaite :
1. pour toute fonction f continue bornée Rd → R :
lim E [f (Xn )] = E [f (X)] ;
n→∞

2. pour tout λ , [λ1 , . . . , λd ] :


lim E [exp (i λ · Xn )] = E [exp (i λ · X)] ;
n→∞

3. pour tout pavé A = [a1 , b1 ] × · · · × [ad , bd ] tel que P(X ∈ ∂A) = 0 (où ∂A
désigne la frontière de A) :
lim P(Xn ∈ A) = P(X ∈ A).
n→∞

Le théorème suivant hiérarchise les diérents modes de convergence.


Théorème 10. 1. Si Xn →p.s. X , alors Xn →P X .
2. Si Xn →Lr X , alors Xn →P X .
3. Si Xn →P X , alors Xn →d X .
4. Si Xn →P X , alors on peut extraire une sous-suite (Xnk , k ∈ N), telle
que Xnk →p.s. X .
Les théorèmes suivants sont à la base des statistiques.
Théorème 11 (Loi forte des grands nombres). Soit (Xn , n ∈ N) une suite
de v.a. indépendantes et identiquement distribuées (i.i.d.)2 telles que E [|X1 |] <
∞. Alors :
1X
n
Xi →p.s. E[X1 ].
n i=1
2 c'est-à-dire ayant la même loi (dénition 17).
Probabilités et calcul stochastique 99

P
Ce théorème montre que la moyenne empirique n−1 ni=1 Xi d'une suite de
v.a. i.i.d. intégrables converge P-p.s. vers la moyenne théorique (espérance) de
ces variables.
Théorème 12 (Théorème de la limite centrale). Soit (Xn , n ∈ N) une
suite réelle de v.a. i.i.d. appartenant à L2 et telles que E[Xi ] = µ et E[(Xi −
µ)2 ] = σ 2 < ∞. Alors :

1 X
n
√ (Xi − µ) →d N (0, σ 2 ).
n i=1

Ce
Pthéorème permet d'évaluer la  vitesse  à laquelle la moyenne empirique
n−1
n
1 X i converge vers la moyenne E[X1 ] = µ. Ceci permet en particulier de
déterminer, en statistique, des intervalles de conance.

3.3. Espérance conditionnelle

3.3.1. Construction élémentaire


Dénition 27 (Probabilité et espérance conditionnelles). Soit (Ω, F , P)
un espace de probabilité. Soit B un événement tel que P(B) > 0. Pour A ∈ F ,
la probabilité conditionnelle de A sachant B est dénie par la quantité :
P(A ∩ B)
P(A|B) = , (3.35)
P(B)

et, pour une v.a. X ∈ L1 (intégrable), l' espérance conditionnelle de X sachant


B est dénie par : Z
1
E[X|B] = XdP. (3.36)
P(B) B

On remarque que la probabilité conditionnelle P(A|B) est l'espérance condi-


tionnelle de la fonction indicatrice d'ensemble IA . Il sut donc de considérer
l'espérance conditionnelle. L'espérance conditionnelle E[X|B] représente l'es-
pérance de la variable aléatoire X sachant que l'événement B est réalisé.
Exemple 5. Soit X une variable aléatoire à valeurs dans l'ensemble des entiers
naturels N. La loi de X est spéciée par la donnée des probabilités
P pi = P(X =
i), pour i ∈ N. La moyenne de X est donnée par P E[X] = i∈N ipi . Considérons
l'événement B = {X ≥ i0 }. Nous avons P(B) = i≥i0 pi que nous supposerons
non nul. L'espérance conditionnelle de X sachant B est donnée par :
P
ipi
E[X|B] = P 0
i≥i
,
i≥i0 pi
100 Mathématiques pour les systèmes dynamiques

qui correspond à la moyenne de X conditionnellement au fait que l'événement


B est réalisé.
Considérons maintenant la tribu B = {∅, Ω, B, B c } qui est la plus petite
tribu contenant B et supposons que X est intégrable. On appelle espérance
conditionnelle de X ∈ L1 sachant la tribu B la v.a. Y dénie par :
Y = E[X|B] = E[X|B]IB + E[X|B c ]IB c ,
qui est donc égale à l'espérance conditionnelle de X sachant B ou de X sachant
B c , suivant le résultat de l'expérience courante.
De façon générale, soit (Bk , k ≥ 0) une partition de Ω, telle que pour tout
k ≥ 0, Bk ∈ F et P(Bk ) > 0 et soit B la tribu engendrée par ces événements.
On appelle espérance conditionnelle de X sachant B la variable aléatoire :
X
Y = E[X|Bk ]IBk . (3.37)
k≥0

On remarque
R que Rla variable aléatoire Y est B -mesurable et que, pour tout
B ∈ B, B Y dP = B XdP . On a donc la caractérisation suivante.
Proposition 12. La variable aléatoire Y dénie par (3.37) est l'unique variable
aléatoire B -mesurable telle que :
Z Z
Y dP = XdP pour tout B ∈ B. (3.38)
B B

3.3.2. Généralisation
Nous avons construit précédemment l'espérance conditionnelle par rapport
à des événements de probabilité strictement positive. Notre objectif est main-
tenant conditionner par rapport aux valeurs prises par une v.a. Y , c'est-à-dire
de conditionner par rapport à des événements du type {Y = y} qui peuvent
être de probabilité nulle. Nous allons pour cela utiliser la caractérisation qui
nous est donnée par la proposition 12.
L'espace L2 , L2 (Ω, F, P), muni du produit scalaire < X, Y >, E[XY ],
est un espace hilbertien. Dans les espaces hilbertiens, il est possible de dénir
la projection d'un  vecteur  (ici, une variable aléatoire X ∈ L2 (Ω, F , P)) sur
les sous-espaces vectoriels fermés. Par sous-espace vectoriel fermé de L2 , nous
entendons un sous-espace vectoriel H tel que toute suite convergente d'éléments
de H a une limite dans H. Soit B une sous-tribu de F et dénissons :

HB , Z ∈ L2 (Ω, F, P), Z a un représentant B -mesurable .
HB est un sous-espace vectoriel fermé (pour preuve, HB est isomorphe à
L2 (Ω, B, P) et on applique la proposition 8). On a le résultat suivant.
Probabilités et calcul stochastique 101

Théorème 13. Soient (Ω, F, P) un espace de probabilité, B ⊂ F une sous-tribu


de F et X une v.a., X ∈ L2 (Ω, F , P). Il existe une unique (à une équivalence
près) variable aléatoire Y ∈ HB telle que :
   
E (X − Y )2 = inf E (X − Z)2 .
Z∈HB

Cette variable vérie, pour toute v.a. Z B -mesurable, E[XZ] = E[Y Z].
On note E[X|B] cette variable aléatoire (en gardant à l'esprit qu'elle est
dénie à une équivalence près : E[X|B] est une  version  de l'espérance condi-
tionnelle). Si Y est une v.a., alors l'espérance de X par rapport à Y , notée
E[X|Y ], est simplement l'espérance de X par rapport à la tribu engendrée par
Y.
La dénition précédente s'applique aux v.a X de L2 (Ω, F , P) : elle s'étend
aux v.a. positives et/ou intégrables, grâce au lemme suivant.
Lemme 5 (élémentaire d'unicité). Soient X et Y deux v.a. B -mesurables
toutes deux positives ou toutes deux intégrables, vériant :
Z Z
∀B ∈ B, XdP ≥ Y dP (respectivement =).
B B

Alors, X ≥ Y P-p.s. (respectivement X = Y P-p.s.).


Démonstration S : pour a < b, dénissons Fa,b , {X ≤ a < b ≤ Y } ∈ B . Puisque
{X < Y } = a,b∈Q Fa,b , il sut de prouver que ∀a, b ∈ Q, P(Fa,b ) = 0. Mais,
si P(Fa,b ) > 0, nous avons :
Z Z
XdP ≤ aP(Fa,b ) < bP(Fa,b ) ≤ Y dP,
Fa,b Fa,b

et nous aboutissons à une contradiction.


Théorème 14. Soit X une v.a. intégrable (respectivement positive). Il existe
une v.a. Y intégrable (respectivement positive) B -mesurable, telle que :
Z Z
∀B ∈ B, XdP = Y dP.
B B

Cette variable est unique à une équivalence près.


Démonstration : l'unicité découle du lemme 5. Montrons l'existence. On sup-
pose tout d'abord que X ≥ 0. Pour n ∈ N, dénissons Xn = min(X, n). On a
Xn ∈ L2 (Ω, F, P) et il existe donc une v.a. Yn ≥ 0, B -mesurable telle que :
Z Z
∀B ∈ B, Xn dP = Yn dP.
B B
102 Mathématiques pour les systèmes dynamiques

Par application de 5, Yn est P-p.s. une suite positive et croissante. En eet,


pour tout B ∈ B :
Z Z Z Z
Yn+1 dP = Xn+1 dP ≥ Xn dP = Yn dP.
B B B B

Dénissons Y = lim % Yn . Y est B -mesurable et, par application du théorème


de convergence monotone, pour tout B ∈ B , nous avons :
Z Z Z Z
Y dP = lim % Yn dP = lim % Xn dP = XdP.
B B B B

Notons que si X est intégrable, alors Y l'est aussi (prendre B = Ω). Pour
étendre le résultat au cas intégrable, nous allons prouver que, pour X, Y deux
v.a. positives intégrables, et pour a, b ∈ R, nous avons (linéarité de l'espérance
conditionnelle) :
E[aX + bY |F ] = aE[X|F ] + bE[Y |F ].

Il sut en eet de remarquer que, pour tout B ∈ B :


Z Z Z Z
E[aX + bY |F ]dP = (aX + bY )dP = a XdP + b Y dP
B
Z B
Z B
Z
=a E[X|B]dP + b E[Y |B]dP = (aE[X|B] + bE[Y |B])dP,
B B B

et on conclut en utilisant le lemme 5. Pour X ∈ L1 (Ω, F , P), nous posons


X = X + − X − et concluons en utilisant l'existence et la linéarité de l'espérance
conditionnelle pour les v.a. positives.
Proposition 13. 1. Soient X, Y ≥ 0 et a, b ≥ 0 (ou X, Y intégrables et
a, b ∈ R). Alors, E[aX + bY |B] = aE[X|B] + bE[Y |B].
2. Soient X, Y ≥ 0 (ou X, Y intégrables). Alors l'inégalité X ≤ Y P-p.s.
implique E[X|B] ≤ E[Y |B] P-p.s.
3. Soit X ≥ 0. Alors Y = E[X|B] vérie, pour toute v.a. Z positive B -
mesurable, E[XZ] = E[Y Z].
4. Soit X intégrable. Alors Y = E[X|B] vérie, pour toute v.a. Z bornée
B -mesurable, E[XZ] = E[Y Z].
Ces propriétés découlent de la dénition de l'espérance conditionnelle. La
proposition 14 rassemble quelques propriétés essentielles de cette espérance.
Proposition 14. Soit X ∈ L1 (Ω, F , P).
1. Soit G la tribu grossière : G = {Ω, ∅}. Alors, E[X|G] = E[X].
2. Soit X ≥ 0 (ou X intégrable) et soient G ⊂ B deux sous-tribus de F .
Alors, E[E[X|B]|G] = E[X|G].
Probabilités et calcul stochastique 103

3. Soit X indépendant de B. Alors E[X|B] = E[X].


4. Soient X ≥ 0 B -mesurable et Y une v.a. positive. Alors E[XY |B] =
XE[Y |B]. Ce résultat reste vrai si X est B -mesurable et Y et XY appar-
tiennent à L1 (Ω, F, P).

Démonstration : les fonctions mesurables par rapport à la tribu grossière


sont les fonctions constantes. Donc, G étant la tribu grossière,
R E[X|G] = c.
Par
R dénition de l'espérance conditionnelle, nous avons Ω E[X|G]dP = c =
Ω XdP = E[X], ce qui prouve la relation (1). Prouvons maintenant (2) dans
le cas où X ≥ 0 (le cas X intégrable se traitant de manière similaire).
Soit Z une v.a. G -mesurable bornée. Notons que Z est aussi B -mesurable.
Par dénition de l'espérance conditionnelle, on a : E [ E[ E[X|B]|G ]Z ] =
E [ E[X|B]Z ] = E [XZ] = E [ E[X|G]Z ] . Donc, pour toute v.a. Z B -mesurable
bornée, E [ E[ E[X|B]|G ]Z ] = E [ E[X|G]Z ], ce qui prouve la relation (2).
Soit maintenant X une v.a. indépendante de B . Alors, pour toute v.a. Z B -
mesurable bornée, on a : E [ E[X|B]Z ] = E [XZ] = E [X] E [Z] = E [ E[X]Z ] ,
ce qui prouve la relation (3). Considérons nalement la relation (4) dans le cas
où X et Y sont des v.a. positives (l'autre cas se traitant de manière similaire).
Notons que E[Y |B]X est B -mesurable. Pour Z v.a. bornée B -mesurable, on a :
E [ E[XY |B]Z ] = E{Y XZ} = E [ E[Y |B]XZ ] , ce qui prouve la relation (4).
Enn, citons quelques propriétés importantes de l'espérance conditionnelle.
Proposition 15. 1. (Convergence monotone conditionnelle) Soit
(Xn )n≥0 une suite de v.a., 0 ≤ Xn % X ; alors E[Xn |G] % E[X|G].

2. (Lemme de Fatou conditionnel) Soit (Xn )n≥0 une suite de v.a. po-
sitives ; alors E[lim inf Xn |G] ≤ lim inf E[Xn |G].
3. (Inégalité de Jensen conditionnelle) Soit c : R → R convexe telle
que E [|c(X)|] < ∞. Alors, E[c(X)|G] ≤ c(E[X|G]).
4. (Convergence dominée conditionnelle) Soit (Xn )n≥0 une suite de
v.a. telle que |Xn | ≤ V P-p.s., avec E[V ] < ∞ et Xn → X P-p.s. Alors,
E[Xn |G] → E[X|G] P-p.s.

5. (Contraction des normes) Pour p ≥ 1, kE[X|G]kp ≤ kXkp, en dé-


nissant kY kp , (E [|Y |p ])1/p .
6. Soient X une v.a. indépendante de la tribu B, Y une v.a. B -mesurable et
f (X, Y ) une fonction intégrable. Alors, on a : E[f (X, Y )|B] = φ(Y ), où φ
est la fonction déterministe dénie par φ(y) = E[f (X, y)]. En particulier,
E[f (X)|B] = E[f (X)] et E[f (Y )|B] = f (Y ).
104 Mathématiques pour les systèmes dynamiques

3.4. Processus aléatoires

3.4.1. Premières dénitions


Soient (Ω, F, P) un espace de probabilité et T un ensemble d'indices.
Dénition 28 (Processus aléatoire). On appelle processus aléatoire à va-
leurs (E, B) une famille (Xt , t ∈ T ) de v.a. à valeurs (E, B) indexées par
t ∈ T.
Dans la suite de ce chapitre, nous prendrons presque toujours T = R+ et, en
quelques occasions, T = N. Dans le premier cas, on parlera de processus à temps
continu et, dans l'autre cas, de processus à temps discret. Quant à (E, B), ce
sera en général (R, B(R)) (processus réel) ou (Rd , B(Rd )) (processus vectoriel).
Notons qu'en fait un processus est une application X : Ω × T → E, telle que,
pour tout t ∈ T, X(t, ·) soit une v.a. L'application t 7→ X(t, ω) s'appelle la
trajectoire associée à la réalisation ω. Pour les processus dénis sur T = R ou
R+ , il est intéressant d'étendre les notions fonctionnelles de continuité et de
limite à droite et à gauche, comme suit.
Dénition 29 (Processus à trajectoires continues). Soit T = R+ . On
dit que le processus X est à trajectoires continues (respectivement, continue
à droite, à gauche) P-p.s. si, pour tout ω 6∈ N , P(N ) = 0, t 7→ X(t, ω) est
continue sur T (respectivement, continue à droite, à gauche).

3.4.2. Répartitions nies


Soit (Xt , t ∈ T ) un processus. On note I l'ensemble des parties nies
ordonnées de T : si I ∈ I , I = {t1 < t2 < · · · < tn }. On note |I| le cardinal de
I et PI la loi du vecteur aléatoire (Xt1 , Xt2 , · · · , Xtn ). PI est une probabilité
sur (E |I| , E ⊗|I| ) caractérisée par :

PI (A1 × A2 × · · · × An ) = P(Xt1 ∈ A1 , Xt2 ∈ A2 , · · · , Xtn ∈ An ), Ak ∈ E.


(3.39)
Dénition 30 (Répartition nie). (PI , I ∈ I) est appelée la famille des
répartitions nies du processus X .
Soient J ⊂ I et ΠI,J la projection canonique de E |I| sur E |J| , ou encore :

ΠI,J ((tk , k ∈ I)) = (tk , k ∈ J). (3.40)

L'équation (3.39) implique que :

PI ◦ Π−1
I,J = PJ , (3.41)
Probabilités et calcul stochastique 105

c'est-à-dire que, pour tout ensemble A ∈ E ⊗|J| , PJ (A) = PI (Π−1 I,J (A)). Réci-
proquement, si l'on se donne une famille de probabilité (ν I , I ∈ I), la question
se pose de savoir si ce sont les répartitions nies d'un processus. Il est clair
que, pour cela, elles doivent a minima vérier les conditions de compatibilité
(3.41). En fait, cette condition est aussi susante. Nous introduisons à cette
n l'espace canonique. On pose :

Ω = E T , Xt (ω) = ωt , F = σ(Xt , t ∈ T ), (3.42)


FI = σ(Xt , t ∈ I), I ∈ I.

Soit ΠI la projection canonique de T sur I, ΠI (xt , t ∈ T ) = (x


 t , t ∈ I). On
dénit une probabilité PI sur (Ω, FI ) par PI (A) = ν I Π−1
I (A) . La condition
(3.41) implique que si J ⊂ I , on a FJ ⊂ FI et PI |FJ = PJ . Le problème est
de prolonger les probabilités PI sur (Ω, FI ) en une probabilité sur (Ω, F ) où
F = σ(FI , I ∈ I). Notons que ce prolongement est nécessairement unique
(voir le théorème 2). On dispose à ce sujet du théorème suivant.
Théorème 15 (de Kolmogorov). En temps discret (T = N), on suppose
que (E, E) est un espace mesurable quelconque et, en continu (T = R+ ), que
(E, E) est un espace polonais3 muni de sa tribu borélienne. Soit (ν I , I ∈ I) une
famille de probabilités vériant (3.41). Alors, il existe une probabilité unique P
sur (Ω, F) dénie par (3.42) telle que le processus (Xt , t ∈ T ) soit un processus
de répartitions nies (ν I , I ∈ I).
On appellera ce processus le processus canonique de répartitions nies
(ν I , I ∈ I) et la probabilité P ainsi construite, la loi du processus X . Cette loi
est donc entièrement déterminée par la donnée des répartitions nies.
Dénition 31 (Processus équivalents). Deux processus Xt et Yt sont dits
équivalents s'ils ont même loi (ou de façon équivalente, mêmes répartitions
nies).
Exemple 6 (Suite de v.a. indépendantes). Soit (ν n , n ∈ N) une suite de
probabilités sur (E, E). Pour I = {n1 < n2 < · · · < np ) on pose :

ν I = ν n1 ⊗ · · · ⊗ ν np . (3.43)

Il est clair que l'on dénit ainsi une famille (ν I , I ∈ I) compatible (c'est-à-dire
vériant la condition (3.41)). Donc, si Ω = E N , Xn (ω) = ω n et F = σ(Xn , n ∈
N), il existe une unique probabilité P sur (Ω, F ) telle que (Xn , n ∈ N) soit une
suite de v.a. indépendantes de loi ν n .

3 Espace métrique complet séparable.


106 Mathématiques pour les systèmes dynamiques

3.4.3. Processus gaussien

Dénition 32 (Processus gaussien). Un processus réel X = (Xt , t ∈ R) est


gaussien si, pour tout t1 < t2 < · · · < tn , (Xt1 , Xt2 , · · · , Xtn ) est un vecteur
gaussien.
Soit X un processus gaussien réel. Posons :

m(t) = E[X(t)] et Γ(s, t) = E[(Xs − m(s))(Xt − m(t))]. (3.44)

Par dénition, pour tout u = [u1 , . . . , un ]T ∈ Rn et tout t1 < . . . < tn , Yn =


P
i=1 ui Xti est une v.a. gaussienne et :
n

X
n X
n
E[Yn ] = ui E[Xti ], var(Yn ) = uj uk Γ(tj , tk ),
i=1 j,k=1

et donc :
 
 Xn X
n 
E[exp(iYn )] = exp i uk m(tk ) − 1/2 uj uk Γ(tj , tk ) .
 
k=1 j,k=1

La loi N (m, Γ) du processus X est entièrement déterminée par la donnée de


m(t) (la moyenne) et Γ(s, t), que l'on appelle la fonction de covariance (ou
auto-covariance ). Remarquons que :

Γ(s, t) = Γ(t, s). (3.45)

Puisque var(Yn ) > 0, on a aussi :


X
n
∀uk , ∀tk , uj uk Γ(tj , tk ) ≥ 0. (3.46)
j,k=1

Réciproquement, donnons-nous une fonction réelle m(t) et une fonction Γ(s, t)


vériant (3.45) et (3.46). A chaque n-uplet ordonné I = {t1 < · · · < tn },
on associe la probabilité ν I , Nn (mI , KI ), où mI est le vecteur (m × 1),
mI , (m(t1 ), · · · , m(tn )) et KI est la matrice (semi-dénie) positive (KI )j,k =
Γ(tj , tk ) (1 ≤ j, k ≤ n). La famille (ν I , I ∈ I) ainsi dénie est compatible et
l'on a établi le résultat qui suit.
Théorème 16. Soient m(t) et Γ(s, t) vériant (3.45), (3.46). Il existe un
processus gaussien réel (Xt , t ∈ R), unique à une équivalence près, tel que :

m(t) = E[Xt ], Γ(s, t) = E[(Xs − m(s))(Xt − m(t))].


Probabilités et calcul stochastique 107

3.5. Le mouvement brownien

3.5.1. Dénition

Pour modéliser le mouvement d'un grain de pollen dans un liquide, le bota-


niste écossais Brown (vers 1820) a introduit un processus aléatoire Xt à valeurs
dans R2 ayant des trajectoires  irrégulières , caractérisé de la façon suivante :
(i) les accroissements Xt2 − Xt1 , · · · , Xtn − Xtn−1 sont indépendants (le pro-
cessus n'a pas de  mémoire ), (ii) pour tout h ∈ R et tout 0 ≤ s < t, les v.a.
Xt+h − Xs+h et Xt − Xs ont les mêmes lois, (iii) les trajectoires sont continues.
Un tel processus est appelé un mouvement brownien. Au début du XXe siècle,
Louis Bachelier (1900) a observé qu'un tel processus à valeurs dans R per-
mettait de modéliser le cours d'un actif, après une transformation élémentaire.
Albert Einstein (1905), Norbert Wiener (1923) et Paul Levy (1925) ont été les
premiers à développer une théorie mathématique du mouvement brownien. Ses
utilisations sont multiples et touchent aujourd'hui l'ensemble des domaines des
sciences de l'ingénieur, de l'économétrie et de la nance.
On traitera dans la suite le mouvement brownien d-dimensionnel et, tout
d'abord, le cas d = 1. Observons tout d'abord que pour un tel processus nous
avons, pour 0 ≤ t < s :

2
X
n

Xt − Xs = Xs+2−n i(t−s) − Xs+2−n (i−1)(t−s) , (3.47)
i=1

et l'accroissement Xt − Xs est donc la somme d'un grand nombre de v.a indé-


pendantes de même loi (stationnarité des incréments) et de variance tendant
vers 0 lorsque n → ∞. Le théorème 12 montre que Xt − Xs suit une loi gaus-
sienne, c'est pourquoi on introduit la dénition suivante.

Dénition 33 (Mouvement brownien). Un processus réel (Xt , t ∈ R+ ) est


un mouvement brownien issu de 0 si :

1. pour tous t1 < · · · < tn , les v.a. Xt2 − Xt1 , · · · , Xtn − Xtn−1 sont indé-
pendantes ;

2. X0 = 0 et, pour t ≥ s ≥ 0, Xt −Xs est distribué suivant une loi gaussienne


Nd (0, (t − s)) (moyenne nulle, variance (t − s)) ;

3. Xt est P-p.s. à trajectoires continues.


108 Mathématiques pour les systèmes dynamiques

Supposons qu'un tel objet existe. Alors, pour tout t1 < · · · < tn :

Xt1 = Xt1 ,
Xt2 = Xt1 + (Xt2 − Xt1 ),
..
.
Xtn = Xt1 + (Xt2 − Xt1 ) + · · · + (Xtn − Xtn−1 ),

et donc le vecteur (Xt1 , · · · , Xtn ) est gaussien, c'est-à-dire que X est un pro-
cessus gaussien. On a alors m(t) = E[Xt ] = 0 et, pour 0 ≤ s < t :

Γ(s, t) = E[Xs Xt ] = E[Xs (Xs + (Xt − Xs ))] = E[Xs2 ] = s,

d'où Γ(s, t) = min(t, s). On notera dans la suite s ∧ t , min(t, s). Notons que
la fonction s ∧ t vérie (3.45) et (3.46) puisque, posant t0 = 0 :
 
X
n X
n X
j∧k X
n X
n
u j u k tj ∧ t k = uj uk (tl − tl−1 ) = (tl − tl−1 )  u2l  ≥ 0.
j,k=1 j,k=1 l=0 l=0 j=l
(3.48)
Ceci nous assure l'existence d'un processus gaussien réel (Xt , t ≥ 0) tel que
E[Xt ] = 0 et E[Xs Xt ] = s ∧ t. Pour 0 < s < t, la v.a. Xt − Xs est distribuée
suivant une loi gaussienne de moyenne nulle et de variance t − s. Pour t1 <
t2 < t3 < t4 , E [(Xt2 − Xt1 )(Xt4 − Xt3 )] = 0. Vu les propriétés des vecteurs
gaussiens, un tel processus vérie les conditions (1) et (2) de la dénition 33.
Dénition 34 (Modication d'un processus). Un processus (Yt , t ∈ R+ )
est une modication du processus (Xt , t ∈ R+ ) si P[Xt = Yt ] = 1, ∀t ∈ R+ .
Il est clair que la condition précédente implique que les deux processus ont
même loi. On s'intéresse tout particulièrement aux modications continues X ,
c'est-à-dire à l'existence de processus Y qui soient des modications du proces-
sus X et dont les trajectoires soient presque sûrement continues. Kolmogorov
a donné un critère simple permettant de montrer qu'un processus admet une
modication continue (voir [REY 91] pour la démonstration).
Théorème 17 (de Kolmogorov). Soit X = (Xt , t ∈ R+ ) un processus à
valeurs dans (Rd , B(Rd)). Supposons que pour tout s, t :

E [|Xt − Xs |α ] ≤ C|t − s|1+β ,

avec α, β > 0. Alors X admet une modication continue.


Soit X = (Xt , t ∈ R+ ) un processus gaussien réel centré de covariance
Γ(s, t) = s ∧ t. Pour 0 ≤ s < t l'accroissement (Xt − Xs ) est distribué suivant
une loi gaussienne de moyenne nulle et de variance (t−s) et donc l'accroissement
Probabilités et calcul stochastique 109


renormalisé (Xt − Xs )/ t − s est distribué suivant une loi gaussienne centrée
de variance unité. Ceci implique que :
" 4 #
 4
 2 Xt − Xs
E |Xt − Xs | = (t − s) E √ = 3(t − s)2 , (3.49)
t−s

car E[U 4 ] = 3 si U est une gaussienne centrée réduite. En appliquant le théo-


rème 17, on voit que le processus X admet une version continue. Ceci montre
l'existence du mouvement brownien réel, processus vériant la dénition 33.
On a établi au passage le résultat suivant.
Proposition 16. Soit X = (Xt , t ∈ R+ ) un processus réel à trajectoires
continues. Alors X est un mouvement brownien si et seulement si X est un
processus gaussien réel centré de covariance Γ(s, t) = s ∧ t.
Cette proposition, conséquence élémentaire de la discussion précédente, peut
être très utile, comme l'illustre la proposition suivante.
Proposition 17. Soit (Bt , t ∈ R+ ) un mouvement brownien issu de 0. Posons
Xt = Bt+s − Bs (pour s ≥ 0), Yt = cBt/c2 (c 6= 0) et Zt = tB1/t , t > 0, Z0 = 0.
Alors, Xt , Yt et Zt sont des mouvements browniens réels issus de 0.
Démonstration : pour Xt et Yt la vérication est immédiate. Quant à Zt c'est
un processus gaussien centré et sa fonction de covariance est donnée par :
E[Zt Zs ] = tsE[B1/s B1/t ] = ts(1/s ∧ 1/t) = s ∧ t.

Evidemment, Zt est continue sur ]0, ∞[. Il reste à montrer la continuité en 0 :


" #  
0 = E lim sup |Bt | = lim & E sup |Bs |
t&0 t&0 0<s≤t
  " #
= lim & E sup |Zs | = E lim sup |Zt | ,
t&0 0<s≤t t&0

d'où |Zt | → 0 P-p.s. quand t & 0.


Remarquons qu'en prenant c = −1, la proposition précédente montre que le
processus (−Bt , t ≥ 0) est un mouvement brownien standard : c'est la symétrie
du mouvement brownien.

3.5.2. Propriétés des trajectoires du mouvement brownien


L'étude des propriétés des trajectoires du mouvement brownien est l'objet
d'une vaste littérature. Le lecteur intéressé se reportera au livre [REY 91]. Si-
gnalons les propriétés suivantes, assez grossières mais essentielles. Soit {Bt }t≥0
110 Mathématiques pour les systèmes dynamiques

un mouvement brownien réel issu de 0. Nous avons :


|Bt |
lim = 0, P-p.s., (3.50)
t→∞ t
Bt Bt
lim sup √ = +∞, P-p.s., lim inf √ = −∞, P-p.s. (3.51)
t→∞ t t→∞ t
La relation précédente implique en particulier que lim supt→∞ Bt = +∞ P-p.s.
et lim inf t→∞ Bt = −∞ et donc que le mouvement brownien  passe par tous
les points  de R et ceci, une innité de fois.
Soit π , {0 ≤ t0 < · · · < tn = t} un partage de [0, t] et soit |π| = sup |ti+1 −
ti | le pas de π . Soit f : R+ → R et :
X
n−1
V1 (π, t, f ) = |f (ti+1 ) − f (ti )|, (3.52)
i=0
X
n−1
V2 (π, t, f ) = (f (ti+1 ) − f (ti ))2 . (3.53)
i=0

On appelle V1 (t, f ) , supπ V1 (π, t, f ) la variation totale de f , le suprémum


étant évalué sur l'ensemble des partages de [0, t]. De même, on appelle V2 (t, f ) ,
supπ V2 (π, t, f ) la variation quadratique de f .
Dénition 35 (Variation nie). f est à variations nies si, pour tout t > 0,
la variation totale V1 (t, f ) est nie.
Notons que, si la fonction f est localement lipshitzienne (c'est-à-dire, si pour
tout u, v ∈ [0, t], |f (u) − f (v)| ≤ K(t, f )|u − v|), alors f est à variations nies.
La variation quadratique de la fonction de f vérie :
X
V2 (π, t, f ) ≤ K 2 (t, f )|π| |ti+1 − ti | ≤ tK 2 (t, f )|π|,
i

et donc, lim|π|→0 V2 (π, t, f ) = 0 pour une fonction localement lipshitzienne. De


façon générale, supposons que la fonction f est continue et à variations nies. f
étant continue, f est uniformément continue sur tout ensemble compact, donc :
lim sup |f (u) − f (v)| = 0.
δ→0 |u−v|≤δ,|u|≤t,|v|≤t

On peut majorer la variation quadratique par :


X X
(f (ti+1 ) − f (ti ))2 ≤ sup |f (ti+1 ) − f (ti )| |f (ti+1 ) − f (ti )|. (3.54)
i

ce qui montre que limδ→0 supπ,|π|≤δ V2 (t, π, f ) = 0. Remarquons nalement


qu'une fonction continue n'est pas nécessairement à variations nies et qu'il
existe des fonctions continues f dont la variation quadratique vérie :
lim sup V2 (t, π, f ) = 0,
δ→0 π,|π|≤δ
Probabilités et calcul stochastique 111

et qui ne sont pas à variations nies (on pourra considérer par exemple la
fonction f (s) = s sin(1/s)).
Nous allons montrer dans la suite que, presque sûrement, la variation qua-
dratique des trajectoires du mouvement brownien ne tend pas vers 0, d'où l'on
déduira que, comme le mouvement brownien est à trajectoires continues, le
mouvement brownien n'est pas à variations nies.
Proposition 18. Soit (Bt , t ∈ R+ ) un mouvement brownien réel. Alors :
V2 (π, t, B) → t, dans L2 (Ω, F , P).
|π|→0

Pn−1
Démonstration : posons ρπ , i=0 (Bti+1 − Bti )2 . On a E[ρπ ] = t et :

  X X
n−1
E (ρπ − t)2 ) = var(ρπ ) = var[(Bti+1 -Bti )2 ] = 3 (ti+1 -ti )2 ≤ 3|π|t → 0.
i=0

De toute suite Xn convergeant vers t dans L2 , on peut extraire une sous-suite


convergeant vers t P-p.s. On peut donc choisir une suite πn de partage de
l'intervalle [0, t] telle que ρπn → t P-p.s. Pour une telle suite, la relation (3.54)
montre que V1 (πn , t, B) → ∞ P-p.s. et, donc, que le mouvement brownien n'est
à variations nies sur aucun intervalle.

3.6. Filtrations, processus adaptés

Soit (Xn , n ∈ N) un processus réel. Posons Fn0 = σ(X0 , · · · , Xn ). Il est


facile de voir que A ∈ Fn0 si et seulement s'il existe une fonction f telle
que A = {ω | f (X0 (ω), · · · , Xn (ω)) = 1}, c'est-à-dire que Fn0 est constituée
des événements dont on sait s'ils ont eu lieu ou non en connaissant les va-
leurs prises par les variables X0 , · · · , Xn . On appellera Fn0 la tribu des évé-
nements antérieurs à n. En général, à l'instant n, on connaît non seulement
les valeurs prises par X0 , · · · , Xn , mais aussi les valeurs prises par d'autres
processus, par exemple, Y0 , · · · , Yn , Z0 , · · · , Zn . Dans une telle situation, on
pourra avoir intérêt à considérer que la tribu des événements antérieurs à n est
σ(X0 , Y0 , Z0 , · · · , Xn , Yn , Z) , tribu plus  grosse  que Fn0 . C'est pourquoi on
tribu plus  grosse  que Fn0 . C'est pourquoi on introduit (on suppose toujours
T = N ou T = R+ ),
Dénition 36 (Espace de probabilité ltré). Soit (Ω, F , P) un espace de
probabilité. Une famille croissante (Ft , t ∈ T ) de sous-tribus de F s'appelle une
ltration et (Ω, Ft , F, P) un espace de probabilité ltré.
Dénition 37 (Processus adapté). On appelle processus adapté à valeurs
dans (E, E), un terme X = (Ω, Ft , F , (Xt )t∈T , P), où (Ω, Ft , F , P) est un espace
112 Mathématiques pour les systèmes dynamiques

de probabilité ltré et où, pour tout t ∈ T, Xt est une v.a. à valeurs dans (E, E),
Ft -mesurable.
Soit (Bt , t ∈ R+ ) un mouvement brownien réel issu de 0. Posons Ft0 =
σ(Bs , s ≤ t). On voit que la propriété (1) de la dénition 33 peut s'énoncer de
la façon suivante : pour tout 0 ≤ s < t, Bt − Bs est indépendante de Fs0 . Ceci
conduit à la dénition d'un F -mouvement brownien.
Dénition 38 (F−mouvement brownien). Un processus réel adapté X =
(Ω, Ft , F, (Bt )t∈T , P) est un F -mouvement brownien issu de 0 si :

1. pour tout 0 ≤ s < t, la v.a. Bt − Bs est indépendante de Fs ;


2. B0 = 0 et pour tout 0 ≤ s < t, l'incrément Bt − Bs est distribué suivant
une loi gaussienne centrée et de variance (t − s) ;
3. t → Bt est à trajectoires continues P-p.s.
Soit
R t X un processus adapté. On a souvent à considérer des v.a. de la forme
ξ = 0 f (Xs )ds. Pour que ξ soit une v.a. (c'est-à-dire, que l'on sache dénir
cette intégrale), le processus (s, ω) → X(s, ω) doit être mesurable sur le produit
T × Ω muni des ltrations appropriées. Pour que ξ soit Ft -mesurable, ce qui
est une contrainte plus forte, on est amené à renforcer cette hypothèse, ce qui
conduit à la dénition suivante.
Dénition 39 (Processus adapté progressif). Un processus adapté :
X = (Ω, Ft , F , (Xt )t∈R+ , P),

à valeurs dans (Rd , B(Rd )) est progressif ou progressivement mesurable si, pour
tout t ≥ 0, (s, ω) → X(s, ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans
(Rd , B(Rd )).
On vérie facilement que tout processus continu (respectivement continu
à droite ou continu à gauche) est progressivement mesurable. On dénit une
tribu sur R+ × Ω en posant :

P = {A ∈ R+ × Ω, le processus IA (t, ω) est progressif}. (3.55)


Alors, un processus X à valeurs dans Rd est progressivement mesurable si et
seulement si l'application (t, ω) 7→ X(t, ω) est P -mesurable. On appelle P la
tribu des ensembles progressifs.

3.6.1. Temps d'arrêt


Considérons un mouvement brownien réel (Bt , t ∈ R+ ) et pour a ∈ R, soit
τ (ω) = inf{t ≥ 0, Xt (ω) = a}. On sait déjà que P(τ < ∞) = 1. Donc τ est une
Probabilités et calcul stochastique 113

v.a. à valeurs dans R+ mais elle a une propriété supplémentaire, celle d'être en
quelque sorte adaptée à Bt , au sens suivant : si l'on connaît (Bs , s ≤ t), on
sait si {τ ≤ t} a eu lieu ou non. Ce type de v.a. sera appelé un temps d'arrêt.
Soit un espace de probabilité ltré (Ω, Ft , F , P). On suppose que T = N ou
R+ , T̄ = N̄ ou R̄+ (avec N̄ = N ∪ {+∞}, R̄+ = R+ ∪ {+∞}) et on pose :
F∞ = σ(Xt , t ∈ T ). (3.56)
Dénition 40 (Temps d'arrêt). On appelle temps d'arrêt toute v.a. τ à
valeurs T̄ telle que {τ ≤ t} ∈ Ft pour tout t ∈ T.
Dénition 41 (Tribu des événements antérieurs au temps d'arrêt).
Soit τ un temps d'arrêt. La tribu des événements antérieurs à τ est la tribu :
Fτ , {A ∈ F∞ , ∀t ∈ T, A ∩ {τ ≤ t} ∈ Ft }. (3.57)
On vérie immédiatement que (3.57) dénit une tribu, que τ = t (c'est-à-
dire constant) est un temps d'arrêt et qu'alors Fτ = Ft .
Proposition 19. 1. Si τ est un temps d'arrêt, τ est Fτ mesurable.
2. Si σ et τ ont des temps d'arrêt avec τ ≤ σ , alors Fσ ⊂ Fτ .
3. Si σ et τ sont des temps d'arrêt, alors σ ∧ τ est un temps d'arrêt.
Considérons tout d'abord le cas T = N. On remarque alors que τ est un
temps d'arrêt si et seulement si, pour tout n ∈ N, {τ = n} ∈ Fn et que
Fτ = {A ∈ F∞ , ∀n, A ∩ {τ = n} ∈ Fn }. Soient X = (Ω, Fn , F , Xn , P) un
processus adapté à valeurs dans (E, B) et X∞ une v.a. F∞ -mesurable. On
dénit une nouvelle v.a. Xτ en posant :
Xτ = Xn sur {τ = n}, n ∈ N̄. (3.58)
Alors, Xτ est Fτ -mesurable puisque :
{Xτ ∈ A} ∩ {τ = n} = {Xn ∈ A} ∩ {τ = n} ∈ Fn .
L'exemple-type de temps d'arrêt est alors, pour A ∈ E :
τ A (ω) = inf{n ≥ 0, Xn (ω) ∈ A}, (3.59)
où l'on convient que inf ∅ = +∞. En eet τ A est un temps d'arrêt car :
{τ A = n} = {X0 6∈ A, · · · , Xn−1 6∈ A, Xn ∈ A} ∈ Fn .
τ A s'appelle le temps d'atteinte de A et on voit que Xτ A représente, sur {τ A <
∞}, la valeur du processus lorsqu'il entre dans l'ensemble A.
Considérons maintenant le cas T = R+ . Il y a maintenant quelques
S pro-
blèmes techniques car on ne peut plus décomposer l'espace Ω = t∈R̄+ {τ =
t}. Soit X = (Ω, Ft , F, (Xt )t∈R+ , P) un processus adapté à valeurs dans
(Rd , B(Rd )) et soit X∞ une v.a. F∞ mesurable. On pose :
Xτ (ω) = Xτ (ω) (ω). (3.60)
114 Mathématiques pour les systèmes dynamiques

Proposition 20. Si X est progressif, alors Xτ est Fτ −mesurable.


Démonstration : il s'agit de montrer que, pour tout t et tout A ∈ B(Rd ), on a :
{Xτ ∈ A} ∩ {τ ≤ t} ∈ Ft . Soit Ωt , {τ ≤ t} et considérons :

(Ωt , Ft ) → ([0, t] × Ω, B([0, t]) ⊗ Ft ) → (Rd , B(Rd )),


ω 7→ (τ (ω), ω) 7→ Xτ (ω) (ω).

L'application composée ω 7→ Xτ (ω) (ω) est mesurable, ce qui signie que :


{ω ∈ Ωt , Xτ (ω) (ω) ∈ A} = {τ ≤ t, Xτ ∈ A} ∈ Ft .

Pour A ∈ B(Rd ), posons (avec la convention inf ∅ = ∞) :


τ A (ω) = inf{t ≥ 0, Xt (ω) ∈ A}, (3.61)
ce qui conclut la preuve.
Proposition 21. Si X est à trajectoires continues et si A est fermé, alors τ A
est un temps d'arrêt.
T S
Démonstration : on a en eet {τ A ≤ t} = n s<t,s∈Q+ {d(Xs , A) < 1/n}, où
d(x, A) est la distance de x à l'ensemble A, d(x, A) , inf y∈A d(x, y)}.
Si A est ouvert et même si X est à trajectoires continues, τ A n'est pas un
temps d'arrêt de la ltration Ft0 = σ(Xs , s ≤ t). En eet, soit (Xt , t ∈ R+ )
un processus à trajectoires continues et soit A un ensemble ouvert, il existe
des trajectoires ω1 et ω2 telles que Xs (ω 1 ) = Xs (ω 2 ) pour tout s ≤ t avec
Xs (ω1 ) ∈ A pour tout s ∈]t, t + ] et Xs (ω 2 ) 6∈ A pour s ∈]t, t + ]. Il ne sut
donc pas de considérer (Xs , s ≤ t) pour décider si {τ A ≤ t} ou non : on doit
connaître (Xs , s ≤ t + ), pour  > 0, arbitrairement petit. C'est pourquoi on
introduit :
Ft+ = ∩>0 Ft+ . (3.62)
Proposition 22. Si X est un processus à trajectoires continues à droite et si
A est ouvert, alors τ A est un temps d'arrêt de Ft+ .
T S
Démonstration : ∀ > 0, {τ A ≤ t} = n s<t+1/n,s∈Q {Xs ∈ A}.
Tout ceci montre l'intérêt de ce que l'on appelle une ltration standard. Une
ltration (Ft , t ∈ R+ ) est dite standard si toutes les tribus Ft contiennent les
négligeables de F∞ et si, pour tout t ≥ 0, Ft = Ft+ . Si (Bt , t ≥ 0) est un
mouvement brownien réel issu de 0 et si l'on pose :
Ft0 = σ(Bs , s ≤ t), N = {A ∈ F∞
0
, A négligeable},

on peut montrer que Ft = σ(Ft0 , N ) est une ltration standard.


Proposition 23. Supposons la ltration Ft standard. Alors, pour tout A ∈
B(Rd ), τ A est un temps d'arrêt.
Probabilités et calcul stochastique 115

3.7. Martingales

T désignera dans la suite indiéremment R+ ou N.


Dénition 42 (Martingale, surmartingale, sous-martingale). Soit X =
(Ω, Ft , F, (Xt )t∈R+ , P) un processus adapté tel que pour tout t, Xt est intégrable.

1. Xt est une martingale si pour tout s ≤ t, E[Xt |Fs ] = Xs , P-p.s.


2. Xt est une surmartingale si pour tout s ≤ t, E[Xt |Fs ] ≤ Xs , P-p.s.
3. Xt est une sous-martingale si pour tout s ≤ t, E[Xt |Fs ] ≥ Xs , P-p.s.
Notons que ces notions gardent un sens si l'on remplace  Xt intégrable 
par  Xt mesurable positif  : on parle alors de martingale positive, de surmar-
tingale positive et de sous-martingale positive. Si Xt est une martingale (res-
pectivement, une sous-, une sur-, martingale) alors E[Xt ] est constante (respec-
tivement, décroissante, croissante). Si Xt et Yt sont des surmartingales, Xt ∧ Yt
aussi. Il résulte immédiatement de l'inégalité de Jensen conditionnelle (propo-
sition 1) que si Xt est une martingale (respectivement, une sous-martingale) et
si f est une fonction convexe telle que f (Xt ) soit intégrable (respectivement,
une fonction convexe croissante), alors f (Xn ) est une sous-martingale. Ceci
implique en particulier que si Xt est une martingale et que |Xt |p est intégrable,
p ≥ 1, |Xt |p est une sous-martingale.
Exemple 7 (Martingale canonique). Soit ξ une v.a. intégrable (ξ ∈ L1 ) et
(Ft )t≥0 une ltration. Alors, Mt , E[ξ|Ft ] est une martingale, dite canonique.
En eet, pour 0 ≤ s ≤ t et en remarquant que Fs ⊂ Ft :
E[Mt |Fs ] = E[ E[ξ|Ft ] | Fs ] = E[ξ|Fs ] = Ms .
Exemple 8 (Somme de v.a. indépendantes). Soit (X
Pn , n ∈ N) une suite
de v.a. indépendantes intégrables. Posons : S0 = 0, Sn = ni=1 Xi , F0 = {∅, Ω}
et Fn = σ(X1 , X2 , · · · , Xn ). Nous avons :
E[Sn |Fn−1 ] = E[Sn−1 |Fn−1 ] + E[Xn |Fn−1 ] (3.63)
= Sn−1 + E[Xn ]. (3.64)
En eet, (3.63) est une conséquence élémentaire de la linéarité de l'espérance
conditionnelle. Sn−1 étant Fn−1 mesurable, on a E[Sn−1 |Fn−1 ] = Sn−1 P-p.s. ;
Xn est indépendant de Fn−1 , ce qui implique E[Xn |Fn−1 ] = E[Xn ] P-p.s. et
(3.64). On voit donc que si, pour tout i, on a E[Xi ] = 0, alors Sn est une
martingale. Si E[Xi ] ≥ 0 (respectivement, E[Xi ] ≤ 0), alors Sn est une sous-
martingale (respectivement, une surmartingale).
Exemple 9 (Produit de v.a. indépendantes). Soit X1 , X2 , · · · une suite
de variables aléatoires
Qn positives indépendantes, avec E[Xk ] = 1 ∀k ∈ N. Posons
M0 = 0, Mn = i=1 Xi , F0 = {∅, Ω}, Fn = σ(X1 , X2 , · · · , Xn ). Alors on a :
E[Mn |Fn−1 ] = E[Mn−1 Xn |Fn−1 ] = Mn−1 E[Xn |Fn−1 ],
116 Mathématiques pour les systèmes dynamiques

et Mn est une martingale (car E[Xn |Fn−1 ] = E[Xn ] = 1).


Exemple 10 (Mouvement brownien). Le mouvement brownien B = {Bt}
dans R est une martingale par rapport σ(Bs , s ≤ t). En eet, pour t ≥ s :
E[Bt |Fs ] = E[Bs + (Bt − Bs )|Fs ] = Bs .

Nous avons utilisé ici la relation E[Bt − Bs |Fs ] = E[Bs − Bt ] = 0, car Bt − Bs


est centrée et indépendante de Ft .
Exemple 11 (Transformation quadratique du mouvement brownien).
Posons Mt = Bt2 − t ; Mt est une martingale par rapport à la ltration naturelle
du mouvement brownien Bt . En eet, pour t ≥ s :
E[Bt2 |Fs ] = E[(Bs + Bt − Bs )2 |Fs ]
= E[(Bt − Bs )2 ] + 2Bs E[(Bt − Bs )|Fs ] + Bs2 = t + Bs2 − s.
Exemple 12 (Martingale exponentielle). Posons Mt = exp(λBt −
(λ2 /2)t). Mt est une martingale (dite exponentielle) par rapport à σ(Bs , s ≤ t).
Remarquons tout d'abord que, si ξ est une variable gaussienne centrée réduite
(moyenne nulle, variance unité), alors :
E[exp(λξ)] = exp(λ2 /2). (3.65)
Pour s < t, nous avons, d'après les propriétés de l'espérance conditionnelle :
E[exp(λBt − λ2 t/2)] = exp(λBs − λ2 t/2)E[exp(λ(Bt − Bs )|Fs ],
= exp(λBs − λ2 t/2)E[exp(λ(Bt − Bs ))],

car Bs est Fs -mesurable et (Bt − Bs ) est indépendant de Fs . On conclut en


utilisant la relation (3.65).
En théorie des martingales, il y a trois types de résultats : les théorèmes
d'arrêt, les inégalités maximales et les théorèmes de convergence. Ces résultats
sont tout d'abord établis pour T = N, qui contient les idées intéressantes, puis
étendus au cas T = R+ , qui pose des dicultés principalement techniques.
Pour le cas discret, on pourra consulter le livre [WIL 91] et, pour le cas général,
[REY 91]. Ici, nous nous contenterons de quelques démonstrations dans le cas
discret an de familiariser le lecteur avec ces objets et techniques.

3.7.1. Théorèmes d'arrêt


Proposition 24. Soient (Xt , t ∈ T ) une sous-martingale continue à droite et
τ un temps d'arrêt. Alors Xtτ = Xt∧τ est une sous-martingale (par rapport à
la même ltration).
Probabilités et calcul stochastique 117

Remarque 2. Dans le cas T = N, l'hypothèse de continuité est superue. En


eet, puisque |Xn∧τ | ≤ |X1 | + · · · + |Xn |, Xn∧τ est intégrable et on a :
E[Xn+1
τ
−Xnτ |Fn ] = E[(Xn+1 −Xn )I{τ ≥n+1} |Fn ) = I{τ ≥n+1} E[Xn+1 −Xn |Fn ] ≥ 0,

puisque {τ ≥ n + 1} = {τ ≤ n}c ∈ Fn .
Corollaire 2. Soient (Xt , t ∈ T ) une sous-martingale continue à droite P-p.s.
et τ un temps d'arrêt borné. Alors, E[Xτ ] ≥ E[X0 ].
Théorème 18. Soient (Xt , t ∈ T ) une sous-martingale continue à droite
P-p.s. et σ ≤ τ deux temps d'arrêt bornés. Alors, on a :

E[Xτ |Fσ ] ≥ Xσ P-p.s.

Démonstration : on suppose que T = N. Soient σ ≤ τ ≤ m et A ∈ Fσ . Alors,


puisque A ∩ {σ = k} ∈ Fk et en appliquant la proposition 24 :
Z m Z
X m Z
X Z
Xτ dP = Xτ ∧m dP ≥ Xτ ∧k dP = Xσ dP
A k=0 A∩{σ=k} k=0 A∩{σ=k} A

Les résultats énoncés ci-dessus restent vrais pour les surmartingales (res-
pectivement, les martingales), en changeant ≤ par ≥ (respectivement, par =).

3.7.2. Inégalités maximales


Proposition 25. 1. Pour (Xt , t ∈ T ) une surmartingale positive continue
à droite P-p.s., on a :
P[sup Xt > a] ≤ a−1 E[X0 ]. (3.66)
t∈T

2. Pour (Xt , t ∈ T ) une sous-martingale positive continue à droite P-p.s. :


P[sup Xs > a] ≤ a−1 E[Xt ]. (3.67)
s≤t

Démonstration : on suppose T = N. Soit τ a = inf{k ≥ 0, Xk > a}. τ a est un


temps d'arrêt. On a {maxk≤n Xk > a} = {τ a ≤ n} et, sur {τ a ≤ n}, Xτ a > a.
Donc, puisque Xn ≥ 0 :
aI{τ a ≤n} ≤ Xτ a I{τ a ≤n} ≤ Xn∧τ a . (3.68)
(1) Si Xn est une surmartingale, on déduit de (3.68) et du corollaire 2 que
aP(τ a ≤ n) ≤ E[Xn∧τ a ] ≤ E[X0 ]. (3.66) s'obtient en remarquant que {τ a ≤
n} % {sup Xn > a} par application du théorème de convergence monotone.
118 Mathématiques pour les systèmes dynamiques

(2) Si Xn est une sous-martingale, alors on a d'après (3.68) :


n Z
X
aP(τ a ≤ n) ≤ E[Xτ a I{τ a ≤n} ] = Xk dP
k=0 {τ a =k}
n Z
X Z
≤ Xn dP = Xn dP ≤ E[Xn ].
k=0 τ a =k τ a ≤n

On peut obtenir des inégalités maximales pour les moments, comme suit.
Théorème 19 (de Doob). Soit (Xt , t ∈ T ) une martingale (respectivement,
une sous-martingale positive) continue à droite, telle que supt E [|Xt |p ] < ∞,
p > 1, alors :
p
k sup |Xt |kp ≤ sup kXt kp . (3.69)
t p−1 t

3.7.3. Théorèmes de convergence


Théorème 20. Soit (Xt , t ∈ T ) une sous-martingale continue à droite P-p.s.
telle que supt∈T E [|Xt |] < ∞. Alors, Xt converge P-p.s. lorsque t → ∞ vers
une v.a. X∞ et E [|X∞ |] ≤ supt∈T E [|Xt |].
Démonstration : notons d'abord que la dernière armation résulte directement
du lemme de Fatou (3.13).
 On va établir la convergence dans le cadre suivant :
T = N et supn E Xn2 < ∞, c'est-à-dire pour des martingales
  discrètes bornées
dans L2 . Puisque Xn2 est une sous-martingale, on a E Xn2 % A < ∞. Notons
que E[Xn Xn+k ] = E[ Xn E[Xn+k |Fn ] ] = E[Xn2 ], ce qui implique :
 
E (Xn+k − Mn )2 = E[Xn+k
2
] − E[Xn2 ] ≤ A − E[Xn2 ]. (3.70)
On en déduit que Xn est une suite de Cauchy dans L2 et converge donc dans L2
et, a fortiori, dans L1 . En appliquant la proposition 25 (2) à la sous-martingale
(|Xn+k − Xn |, k ≥ 0), on a :

P( sup |Xn+k − Xn | > ) ≤ −1 E [|Xm+n − Xn |] ,


k≤m

d'où, en prenant la limite en m :


P(sup |Xn+k − Xn | > ) ≤ −1 sup E [|Xk+n − Xn |] .
k≥0 m≥0

La suite Xn converge dans L1 , donc limn→∞ P(supk≥0 |Xn+k − Xn | > ) = 0,


ce qui implique que supk≥0 |Xn+k − Xn | converge vers 0 P-p.s. et que Xn est
P-p.s. une suite de Cauchy, ce qui établit la convergence de Xn P-p.s.
Probabilités et calcul stochastique 119

Exemple 13 (Loi forte des grands nombres). Soient (Yn , n ∈ N) des


variables indépendantes et identiquement
Pn distribuées, telles que E Yn2 = σ2 <
∞ et E [Yn ] = 0. Posons : Xn = k=1 k Yk . Nous avons :
−1


!1/2
  X
E [|Xn |] ≤ (E Xn )1/2 = σ
2
k −2 ,
k=1

et donc supn E [|Xn |] < ∞. Xn est une martingale. L'application directe du


résultat
P∞précédent  montre que Xn converge P-p.s. vers une v.a. X∞ et E[X∞ ] ≤
2

σ 2
k=1 k
−2
. Cette propriété permet d'établir directement la loi forte
P des
grands nombres, par application du lemme 6 suivant
P [WIL 91]. En eet, Yi /i
converge P-p.s. et le lemme montre que n−1 ni=1 Yi converge.
Lemme 6 (de Kronecker). Soit (bn ) une suite de réels strictement positifs,
avec bn % ∞. Soit (xn ) une suite réelle et sn = x1 + x2 + · · · + xn . Alors :
X   
xn sn
converge ⇒ →0 .
bn bn

Enn, on a le résultat suivant, particulièrement agréable à utiliser car il n'y


a pas d'hypothèses à vérier.
Théorème 21. Soit (Xt , t ∈ T ) une surmartingale positive continue à droite
P-p.s. Alors, Xt converge P-p.s. vers X∞ ∈ [0, ∞] et E[X∞ ] ≤ E[X0 ].

3.8. Calcul stochastique

Soit B = (Ω, Ft , F, Bt , P) un mouvement brownien réel issu


R
de 0. Pour un
processus adapté φs , on aimerait pouvoir donner un sens à 0t φs dBs . Mais on
a vu que, P-p.s., Bt (ω) n'est pas à variations bornées. Nous ne pouvons donc
pas dénir cette intégrale trajectoire par trajectoire, comme la limite de :
X
φ(s, ω)(Bti+1 (ω) − Bti (ω)),

lorsque 0 = t0 < t1 < · · · < tn = t forment un partage de [0, t] et sup |ti+1 −


ti | → 0. K. Itô a proposé la méthode globale de construction qui suit.

3.8.1. Construction de l'intégrale stochastique

Comme d'habitude, certains processus  simples  peuvent être traités.


120 Mathématiques pour les systèmes dynamiques

Dénition 43 (Processus étagé). Un processus étagé est de la forme :


X
n
φt = Ui I[ti ,ti+1 [ (t), (3.71)
i=1

où 0 ≤ t1 < · · · < tn < ∞ et où les Ui sont des v.a. Fti −mesurables bornées.
On note E l'ensemble des fonctions étagées. Pour φ ∈ E , on pose :
Z t X
n
φs dBs = Ui (Bti+1 ∧t − Bti ∧t ). (3.72)
0 i=1
Rt Rt
Proposition 26. Soient φ ∈ E, Mt = 0
φs dBS et At = 0
φ2s ds. Alors, Mt et
Mt2 − At sont des martingales.
Démonstration : on utilise le lemme 7, dont la preuve est laissée en exercice.
Lemme 7. Soient X = (Ω, Ft , F , Xt , P) un processus intégrable et 0 ≤ t0 <
· · · < tn < tn+1 = ∞. Si, pour tout i et tous (s, t) vériant ti ≤ s < t ≤ ti+1 ,
on a E[Xt − Xs |Fs ] = 0, alors Xt est une martingale.
En appliquant ce lemme pour ti ≤ s < t ≤ ti+1 , nous avons :

1. Mt − Ms = Ui (Bt − Bs ) avec Ui , Fs −mesurable et :


E[Mt − Ms |Fs ] = Ui E[Bt − Bs |Fs ] = 0 P-p.s.,

et, par conséquent, Mt est une martingale ;


2. par dénition, At − As = Ui2 (t − s) et, d'autre part :
Mt2 −Ms2 = (Mt −Ms )2 +2Ms (Mt −Ms ) = Ui2 (Bt −Bs )2 +2Ms (Mt −Ms ).

Mt étant une martingale, E[Ms (Mt − Ms )] = E[Ms E[Mt − Ms |Fs ]] = 0 et :



E[Mt2 − At − (Ms2 − As )|Fs ] = Ui2 E[(Bt − Bs )2 |Fs ] − (t − s) = 0.

Notons que la proposition 26 implique que, pour tout φ ∈ E :


Z t 
E φs dBs = 0, 0 ≤ t ≤ ∞, (3.73)
0
"Z 2 # Z 
t t
E φs dBs =E φ2s ds , 0 ≤ t ≤ ∞. (3.74)
0 0

C'est cette dernière égalité remarquable (valable pour t = ∞) qui permet la


construction de l'intégrale stochastique. Rappelons que φ est progressif si et
seuelement φ est P -mesurable. On note :
 Z ∞  
2 +
L (P, R ) = φ progressif, E φ2s ds <∞ , (3.75)
0
Probabilités et calcul stochastique 121

et L2 (P, R+ ) les classes d'équivalence de L2 (P, R+ ) pour la relation : [φ ∼ ψ]


⇔ [φ = ψ (P ⊗ λ) -p.s.], où λ est la mesure de Lebesgue. Par conséquent :

L2 (P, R+ ) = L2 (Ω × R+ , P, P ⊗ λ). (3.76)


R
On munit donc L2 (P, R+ ) de la norme kφk2L2 (P,R+ ) = E 0∞ φ2s ds.
Lemme 8. L'ensemble des processus étagés E est dense dans L2 (P, R+ ).
Démonstration : soient f dénie sur R+ de carré intégrable sur R+ et :
(
0 si t ≤ 1/n, ou t ≥ n + 1/n,
Pn f (t) = R i/n
n (i−1)/n f (s)ds si i/n ≤ t < (i + 1)/n, ∀i ∈ {1, · · · , (n2 − 1)}.

L'inégalité de Cauchy-Schwartz montre que :


Z Z !2 Z
(i+1)/n i/n i/n
2 −1
(Pn f (t)) dt = n n f (s)ds ≤ f 2 (s)ds,
i/n (i−1)/n (i−1)/n

et donc que l'application Pn : L2 (R+ ) → L2 (R+ ) est linéaire contractante :


R∞ 1/2
kPn f k2 ≤ kf k2 , où kf k2 = 0 f 2 (s)ds pour f ∈ L2 (R+ ). Pour toute
fonction f ∈ L (R ) continue à support compact, on montre facilement que :
2 +

lim kf − Pn f k2 = 0. (3.77)
n→∞

Les fonctions continues à support compact étant denses dans l'ensemble des
fonctions de carré intégrable et l'application Pn étant contractante, (3.77) est
en fait vériée pour toute fonction f ∈ L2 (R+ ).
Soit maintenant φ ∈ L2 (P, R+ ). Dénissons :

(Pn φ)(t, ω) = (Pn φ(., ω))(t).

Par construction, Pn φ est un processus étagé : Pn φ ∈ E . Notons :


Z +∞
Un (ω) = ((Pn φ)(t, ω) − φ(t, ω))2 dt.
0

L'équation (3.77) montre que Un (ω) → 0 P-p.s. et :

Un (ω) ≤ 2(kPn φ(., ω)k2 + kf (., ω)k22 ) ≤ 4kφ(., ω)k22 ,


 
et E kφ(., ω)k22 < ∞ par hypothèse. Le théorème 3 montre que :
Z ∞ 
2
E (Pn φ(t, ω) − φ(t, ω)) dt ] → 0,
0
122 Mathématiques pour les systèmes dynamiques

et on voit donc que l'application :


Z ∞
I : E → L2 (Ω, F , P), φ 7→ φs dBs ,
0

est une isométrie. Elle se prolonge de façon unique en une isométrie de


L2 (P, R+ ) dans L2 (Ω, F, P). Vu son importance, rappelons la construction
de ce prolongement. Soit φ ∈ L2 (P, R+ ). Il existe φn ∈ E telles que
kφ − φn kL2 (P,R+ ) → 0. I(φn ) est une suite de Cauchy de L2 puisque :
kI(φn ) − I(φm )k2 = kφn − φm kL2 (P,R+ ) .
Soit X = lim I(φ) dans L2 . Cette v.a. ne dépend pas du choix de la suite φn
convergeant vers φ car, si ψ n converge vers φ dans L2 (P, R+ ), alors :
kI(φn ) − I(ψ n )k2 = kφn − ψ n kL2 (P,R+ ) → 0,

et X = lim I(ψ n ) dans L2 . X , I(φ) conduit à la proposition suivante.


Proposition 27 (Intégrale stochastique). Il existe une application linéaire
unique I : L2 (P, R+ ) → L2 (Ω, F , P) telle que :
h R 2 i

1. E[I(φ)2 ] = E 0 φ2s ds ;
2. si φ = U I[s,t[ où U est Fs -mesurable bornée, alors E[I(φ)] = 0 et :
I(φ) = U (Bt − Bs ).
R∞
I est appelée intégrale stochastique de φ et notée I(φ) = 0 φs dBs .
En remarquant que φψ = 1/4[(φ + ψ)2 − (φ − ψ)2 ], on obtient :
Z ∞ 
2 +
∀φ, ψ ∈ L (P, R ), E[I(φ)I(ψ)] = E φs ψ s ds . (3.78)
0

3.8.2. Continuité de l'intégrale stochastique


On dénit :
 Z t  
2 2
L (P) , φ progressif, ∀t > 0 E φs ds < ∞ ,
0

et L2 (P) les classes de L2 (P) pour la relation d'équivalence φ ∼ ψ si φ = ψ


P ⊗ λ P-p.s. Évidemment, si φ ∈ L2 (P) alors φI[0,t] ∈ L2 (P, R+ ) pour tout
t > 0 et on peut donc dénir :
Z t Z ∞
Xt = φs dBs = I[0,t] (s)φs dBs . (3.79)
0 0
Probabilités et calcul stochastique 123

Il est important de remarquer que, pour chaque t, Xt est une classe de L2 ,


c'est-à-dire que Xt n'est dénie qu'à une équivalence près. Il se pose donc le
problème de choisir harmonieusement un représentant de cette classe. C'est
l'objectif du théorème qui suit.
Théorème 22. Soit φR ∈ L2(P). Il existe une martingale continue Mt telle
que, pour tout t, Mt = 0t φs dBs P-p.s.
R 
Démonstration : on choisit φn ∈ E telle que E 0n (φs − φns )2 ds ≤ 2−n , ce qui
implique, pour tout t ≤ n :
Z t 
2
E (φns − φn+1
s ) ds ≤ 21−n . (3.80)
0
R
On pose Mtn = 0 φs dBs qui est, par construction, une martingale continue.
t

En appliquant l'inégalité de Doob, on a alors :


 2  
E sup |Msn+1 − Msn | ≤E sup |Msn+1 − Msn |2
s≤t s≤t
Z 
  t
≤ 4E |Mtn+1 − Mtn |2 = 4E (φn+1
s − φ n 2
s ) ds ≤ 23−n .
0
P 
Ceci implique que, pour tout t, on a : E n sups≤t |Msn+1 − Msn | < ∞. On
en déduit que, pour tout t ≥ 0, Msn converge uniformément sur [0, t] P-p.s.
Il existe donc un processus continu
Rt
Mt tel que Mtn converge P-p.s. vers Mt
R
lorsque n → ∞ et, vu que Mt → 0 φs dBs dans L2 , on a Mt = 0t φs dBs P-p.s.
n

Enn, puisque Mtn → Mt dans L2 , Mt est une martingale.


Rt
Dorénavant, pour φ ∈ L2 (P), 0 φs dBs désigne la version continue de l'inté-
grale stochastique. Le lemme 8 et la proposition 26 conduisent à la proposition
suivante.
R R
Proposition 28. Soient φ, ψ ∈ L2 (P), Mt = 0t φs dBs , Nt = 0t ψs dBs .
Alors : Z t
Xt = M t Nt − φs ψ s ds,
0
est une martingale. Si τ est un temps d'arrêt borné :
Z τ 
E[Mτ Nτ ] = E φs ψ s ds .
0
Exemple 14. Pour illustrer la construction ci-dessus, nous allons démontrer
que tout mouvement brownien (Bt , t ∈ R+ ) issu de 0 (B0 = 0) vérie :
Z t
1 2 1
Bs dBs = B − t. (3.81)
0 2 t 2
124 Mathématiques pour les systèmes dynamiques

Nous allons tout d'abord chercher à déterminer un processus élémentaire dont


la limite soit précisément le processus Bs . L'idée naturelle consiste bien entendu
à  discrétiser  le processus, c'est-à-dire à découper l'intervalle [0, t] suivant
une grille régulière et à approcher Bs par un processus constant sur tous les
(n)
intervalles de cette grille. Posons tk =Ptk = k2−n pour 0 ≤ k ≤ 2n t, et tk = t
pour k > 2 t. En dénissant φn (s) = k≥0 Btk 1[tk ,tk+1 [ (s), on voit que :
n

Z  " #
t XZ tk+1
1X
2 2
E (φn (s) − Bs ) ds = E (Btk − Bt ) dt = (tk+1 −tk ) → 0,
0 tk 2
k k

et donc, que la suite de processus φn converge dans L2 (P) vers B . Par dénition
de l'intégrale stochastique, nous avons :
Z t X
Bs dBs = lim Btk (Btk+1 − Btk ).
0 n→∞
k

Notons que : Bt2j+1 − Bt2j = (Btj+1 − Btj )2 + 2Btj (Btj+1 − Btj ) et donc, que :
X 1 2 1X
Btk (Btk+1 − Btk ) = B − (Btk+1 − Btk )2 .
2 t 2
k k
P
On conclut en montrant que k (Btk+1 − Btk )2 → t dans L2 . Remarquons
que, par dénition, les variables {Btk+1 − Btk } sont des variables gaussiennes
indépendantes de moyenne nulle et de variance 2−n . Par suite :
 !2 
X  
E (Btk+1 − Btk )2 − E (Btk+1 − Btk )2 =
k
" #
X h  2 i
2 2
E E (Btk+1 − Btk ) − E (Btk+1 − Btk ) ≤ 2−n+1 .
k

Ce calcul explicite est assez fastidieux et on imagine mal comment il pourrait


s'étendre à des situations plus compliquées. Nous verrons dans la suite des
techniques de calcul systématiques (formule d'Itô) permettant d'évaluer plus
facilement les intégrales stochastiques.

3.8.3. Martingales locales


Dénition 44 (Martingales locales). Un processus (Xt , t ∈ R+ ) est une
martingale locale s'il existe une suite croissante de temps d'arrêt τ n % ∞ telle
que Ztn = Xτ n ∧t − X0 soit une martingale.
Probabilités et calcul stochastique 125

Remarque 3. Supposons de plus que Xt soit continue et que X0 = 0. Posons :


σ n = inf{t ≥ 0, |Xt | ≥ n}.
Il est clair que σ n % ∞ (une fonction continue est bornée sur tout intervalle
[0, T ], T < ∞) et que Xt∧σn ≤ n. Xt∧τ n ∧σn est donc une martingale bornée et
σ n ∧ τ n % ∞. Ainsi, dans ce cas, on peut toujours choisir la suite τ n de telle
sorte que la suite Mtτ n soit bornée.
On note M0c,loc l'ensemble des martingales locales continues nulles en 0.
Proposition 29. Si X ∈ M0c,loc est à variations nies, alors X = 0 P-p.s.
Démonstration : rappelons que Vt = supπ sumπ={t1 <···<tp } |Xti+1 − Xti |. Consi-
dérons : τ n = inf{t ≥ 0, |Xt | + |Vt | ≥ n}. Alors Xtn ≤ n et Vtn ≤ n. Par
suite, si 0 = t0 < t1 < · · · < tp = t est un partage de [0, t] dont le pas est
|π| = sup |ti+1 − ti | → 0, nous avons :
" #
X hX i
E[(Xtn )2 ] =E ((Xtni+1 )2 − (Xtni )2 ) =E (Xtni+1 − Xtni )2
i
 X 
≤ E sup |Xtni+1 − Xtni | |Xtni+1 − Xtni | ≤ n E[sup |Xtni+1 − Xtni |] → 0,
|π|→0

où la dernière inégalité est une conséquence du théorème 3 de convergence


dominée (sup |Yti+1 − Yti | →|π|→0 0 car Yt est continue et Yt est borné). Par
conséquent, Xtn = 0 presque sûrement. Il en va de même pour Xt .
On pose :
 Z t 
0
L (P) = φ progressif, ∀t ≥ 0, φ2s ds < ∞ P-p.s. , (3.82)
0

et on note L0 (P) les classes d'équivalence de L0 (P) pour la relation d'équiva-


lence : [φ ∼ ψ] ⇔ [φ = ψ (P ⊗ λ) -p.s.]. Soit :
 Z t 
2
τ p = inf t, φs ds ≥ p .
0

Notons que φs I[0,τ p [ (s) ∈ L (P) (φs I[0,τ p [ (s) est progressif et borné) et posons :
2

Z t
Mtp = φs I[0,τ p [ (s)dBs . (3.83)
0

On vérie immédiatement que, si {t < τ p }, Mtp = Mtp+1 P-p.s. On peut donc


dénir sans ambiguïté :
Mt = Mtp si t < τ p .
Par construction, Mt est un processus continu (les processus Mtp étant continus
pour tout p, en tant qu'intégrales stochastiques de processus de L2 (P)). On a
donc établi le théorème qui suit.
126 Mathématiques pour les systèmes dynamiques

Théorème 23. Il existe une application linéaire J : L0R


(P) → M0c,loc telle que,

pour tout φ ∈ L0 (P) et tout temps d'arrêt τ vériant E φ2s ds < ∞, on ait :
τ
0
Z t
[J(φ)]t∧τ = φs I[0,τ [ (s)dBs , P-p.s. (3.84)
0

R
Évidemment, on notera encore [J(φ)]t = 0t φs dBs . On prendra toutefois
R
garde à ce que 0t φs dBs n'est plus nécessairement une v.a. intégrable. Nous
concluons la discussion précédente par un résultat de localisation.
Proposition
Rt
30. Soit φ ∈ L0 (P) et A ∈ F0 . Supposons que φ ≡ 0 sur A.
Alors, 0 φs dBs = 0 P-p.s. sur A.
Démonstration : supposons que φ ∈ L2 (P). Alors :
" Z 2 # " "Z 2 ##
t t
E IA φs dBs = E IA E φs dBs |F0
0 0
 Z t   Z t 
2 2
= IA E φs ds|F0 = E IA φs ds = 0,
0 0
RT
et donc 0 φs dBs = 0 P-p.s. sur A. Si φ ∈ L0 (P), on se ramène au cas précédent
R
en introduisant les temps d'arrêt τ p = inf{t, 0t φ2s ds ≥ p}.

3.8.4. Mouvement brownien d-dimensionnel.


Un mouvement brownien d-dimensionnel issu de 0 est un processus à va-
leurs dans (Rd , B(Rd ))), les composantes de ce vecteur étant des mouvements
browniens réels issus de 0 et indépendants. On note Bt = (Bt1 , · · · , Btd ). Il ré-
sulte immédiatement de la dénition des mouvements browniens réels et des
propriétés des vecteurs gaussiens que, pour 0 < s < t, Bt − Bs est un vecteur
gaussien centré, de matrice de covariance (t − s)Id , où Id est la matrice identité
d × d. De plus, (Bt − Bs ) est indépendant de σ(Bs , s ≤ t), ce qui conduit à la
dénition suivante.
Dénition 45 (Mouvement brownien d-dim.). Un processus (Bt , t ≥ 0)
à valeurs Rd est un mouvement brownien d-dimensionnel issu de 0 si :

1. Bt − Bs est indépendant de Fs ;
2. B0 = 0 et Bt − Bs suit une loi gaussienne Nd (0, (t − s)Id );
3. Bt est presque sûrement à trajectoires continues.
Lemme 9. Soit Bt = (Bt1 , · · · , Btd ) un mouvement brownien à valeurs Rd issu
de 0. Alors, pour tout i 6= j , Bti Btj est une martingale.
Probabilités et calcul stochastique 127

Démonstration : soit s < t. Alors :

Bti Btj = (Bsi + Bti − Bsi )(Bsj + Btj − Bsj )


= Bsi Bsj + (Bti − Bsi )Bsj + Bsi (Btj − Bsj ) + (Bti − Bsi )(Btj − Bsj ),

d'où l'on déduit : E[Bti Btj |Fs ] = Bsi Bsj .


Nous allons maintenant étendre au cas vectoriel la dénition des dié-
rentes classes de processus introduites dans le cas scalaire. On note |x| =
P 1/2 Pd
d
i=1 x2i la norme euclidienne d'un vecteur de Rd et < x, y >= i=1 xi yi
le produit scalaire. On dénit :
 Z t  
L2d (P) = φ progressif à valeurs dans R , ∀t > 0, E
d 2
|φs | ds < ∞ ,
0
(3.85)
 Z t 
0 2
Ld (P) = φ progressif à valeurs dans R , ∀t > 0,
d
|φs | ds < ∞ , (3.86)
0

et L2d (P) et L0d (P) les classes d'équivalence correspondantes. Evidemment, si


φ = (φ1 , · · · , φd ) ∈ L2d (P) (respectivement L0d (P)), chaque composante φi ∈
L2 (P) (respectivement L0 (P)). On pose donc, pour chaque φ ∈ L0d (P) :
Z t d Z
X t
Mt = < φs , dBs >= φks dBsk . (3.87)
0 k=1 0

Mt est une martingale locale vectorielle et, si φ ∈ L2d (P), Mt est une martingale
de carré intégrable.
R R
Proposition 31. Soient φ, ψ ∈ L0 (P), Mt = 0t φs dBsi , Nt = 0t ψs dBsj , i 6= j .
Alors Mt Nt ∈ M0c,loc . Si φ, ψ ∈ L2 (P), Mt Nt est une martingale continue.
Démonstration : on se ramène au cas où φ, ψ sont des processus étagés et on
conclut en appliquant le lemme 9.
La proposition précédente montre de plus que, pour φ ∈ L2d ( P) :
"Z 2 # "Z 2 # Z 
t X
d t t
E < φs , dBs > = E φks dBsk =E |φs |2 ds .
0 k=1 0 0

3.9. Espaces gaussiens

Dénition 46 (Espace gaussien). Un espace gaussien (centré) est un sous-


espace fermé de L2 (Ω, F, P) constitué de v.a. gaussiennes centrées.
128 Mathématiques pour les systèmes dynamiques

Proposition 32. Soit X = (Xt , t ∈ T ) un processus aléatoire gaussien. Le


sous-espace vectoriel de L2 (Ω, F , P) engendré par les variables (Xt , t ∈ T ) est
un espace gaussien, noté H(X).
La démonstration découle immédiatement du lemme suivant.
Lemme 10. Soit (Xn , n ∈ N) une suite de v.a. réelles gaussiennes centrées. Si
Xn converge vers X dans L2 (Ω, F , P), alors X est une v.a. gaussienne centrée.
Démonstration : puisque Xn converge vers X dans L2 , alors σ 2n = E[Xn2 ] →
σ 2 = E[X 2 ]. Par conséquent, φXn (t) = exp(−σ 2n t2 /2) → exp(−σ 2 t2 /2) et Xn
converge en loi vers une loi gaussienne centrée de variance σ 2 . Comme Xn
converge vers X dans L2 , X a pour distribution N1 (0, σ2 ).
Soit (Bt , t ∈ R+ ) un mouvement brownien à valeurs dans Rd issu de 0. On
note H(B) l'espace gaussien engendré par les variables (Bti , 1 ≤ i ≤ d, t ≥ 0)
et on pose :  Z 

L2d = f borélienne, |f (t)|2 dt < ∞ . (3.88)
0
R
Proposition 33. L'application Φ : L2d → H(B), f 7→ 0∞ < f (t), dBt > est
un isomorphisme.
Démonstration : pour toute fonction f ∈ L2d , il existe une suite de fonctions
P
de la forme : fn (t) = ki=1 ank I[tnk ,tnk+1 [ (t), telle que kfn − f k2 → 0. On a
Φ(fn ) ∈ H(B) et il sut d'appliquer le lemme 10 pour avoir Φ(f ) ∈ H(B).
Réciproquement, soit X ∈ H(B). On a X = lim Xn dans 2
R ∞ L (Ω, F , P), où Xn est
une combinaison linéaire des Bt . Du fait que Bt = 0 I[0,t[ (s)dBsi , Xn admet
i i

la représentation Xn = Φ(fn ), où fn est une fonction étagée appartenant à L2d .


De ce fait, et parce que fn et fm sont déterministes, on a :
Z +∞  Z +∞
 2
 2
E |Xn − Xm | =E (fn (t) − fm (t)) dt = (fn (t) − fm (t))2 dt,
0 0

soit encore :

kfn − fm kL2 (R+ ) = kΦ(fn ) − Φ(fm )kL2 (Ω,F ,P) .

La convergence de Xn − φ(fn ) entraîne que la suite fn est une suite de Cauchy


et, donc, qu'elle converge vers f dans L2d . Par identication de la limite, il vient
Rt
X = 0 < f (t), dBt >, ce qui termine la preuve.

3.10. Processus d'Itô

Dénition 47 (Processus d'Itô). Soit B = (Ω, Ft , F , Bt , P) un mouvement


brownien à valeurs Rd issu de 0. On appelle processus d'Itô d-dimensionnel
Probabilités et calcul stochastique 129

tout processus X de la forme :


Z t Z t
Xt = X0 + < φs , dBs > + αs ds, (3.89)
0 0

où X0 est FR0 -mesurable, φ ∈ L0d (P) et αs est un processus progressif tel que,
pour tout t, 0t |αs |ds < ∞ P-p.s.
Nous utiliserons de façon équivalente la notation diérentielle :
X
d
dXt =< φt , dBt > +αt dt = φkt dBtk + αt dt. (3.90)
k=1
Remarque 4. La décomposition (3.89) est unique. En eet, si l'on considère
une seconde décomposition :
Z t Z t
Xt = X0 + < ψ s , dBs > + β s ds,
0 0

alors, en vertu de la proposition 30, on a :


Z t Z t Z t Z t
< φs , dBs > − < ψ s , dBs >= β s ds − αs ds = 0.
0 0 0 0
Exemple 15.  Le processus Xt = |Bt |2 , où Bt est un mouvement brow-
nien d-dimensionnel issu de 0 est un processus d'Itô. En eet, en utilisant
les résultats obtenus pour l'exemple 14, nous avons :
X
d d Z
X t
2
|Bt | = 2(Btk )2 = Bsk dBsk + dt. (3.91)
k=1 k=1 0

Par suite, |Bt |2 est un processus d'Itô avec :


φs = (φ1s , · · · , φds ) = (Bs1 , · · · , Bsd ), αs = d.
 Le processus Xt = Bt1 Bt2 , où Bt = (Bt1 , Bt2 ) est un mouvement brownien
dans R2 , est un processus d'Itô. Remarquons en eet que :
1 
Xt = (Bt1 + Bt2 )2 − (Bt1 − Bt2 )2 .
4
D'autre part, √12 (Bt1 + Bt2 ) et √12 (Bt1 − Bt2 ) sont deux mouvements brow-
niens réels indépendants (on remarque en eet que : E[(Bt1 + Bt2 )(Bs1 −
Bs2 )] = t ∧ s − t ∧ s = 0). Par conséquent, en utilisant (3.91), nous avons :
Z t
(Bt1 + Bt2 ) = (Bs1 + Bs2 )(dBs1 + dBs2 ),
0
Z t
(Bt1 − Bt2 ) = (Bs1 − Bs2 )(dBs1 − dBs2 ),
0
130 Mathématiques pour les systèmes dynamiques

et donc : Z t 
1
Xt = Bs2 dBs1 + Bs1 dBs2 .
2 0

Soit Ut un processus adapté à trajectoires continues et Xt un processus d'Itô


donné par (3.90). On dénit la notation intégrale :
Z t d Z
X t Z t
Us dXs = φks Us dBsk + αs Us ds. (3.92)
0 k=1 0 0
Rt Rt
Dénition
R
48 (Crochet).R Soient Xt = X0 + 0
α ds et
< φs , dBs > +
0 s
β s ds, deux processus d'Itô. On dénit le crochet
t t
Yt = Y0 + 0 < ψ s , dBs > + 0
de X et Y par :
d Z
X t
≺ X, Y t = φks ψ ks ds.
k=0 0

Soient Bti et Btj , 1 ≤ i, j ≤ d les composantes d'un mouvement brownien


d-dimensionnel. Notons que Bti est un processus d'Itô, avec φis = ei le i-ième
vecteur coordonnée et αis = 0. Par conséquent :
≺ B i , B j t = δ i,j t, (3.93)
où δ i,j est le symbole de Kronecker. On note simplement : ≺ X t ,≺ X, X t .
On voit facilement que l'application (X, Y ) 7→≺ X, Y t est bilinéaire. De plus,
dès que X (ou Y ) est à variations nies, ≺ X, Y t = 0. On peut montrer que :
 si X, Y sont des martingales locales, ≺ X, Y t est l'unique processus à
variations nies tel que Xt Yt − ≺ X, Y t soit une martingale locale ;
 P
si 0 = t0 < t1 < · · · < tn = t est un partage de [0, t] de pas |π|, alors
i=1 (Xti+1 − Xti )(Yti+1 − Yti ) converge en probabilité vers ≺ X, Y t
n

lorsque le pas |π| du partage tend vers 0.


Théorème 24 (Formule d'Itô). Soit Xt = (Xt1 , · · · , Xtd ) un processus d'Itô
d-dimensionnel et soit f ∈ C 2 (Rd ). Alors, f (Xt ) est un processus d'Itô et :
d Z
X d Z
t
∂f 1 X t ∂2f
f (Xt )−f (X0 ) = (Xs )dXsk + (Xs )d ≺ X j , X k s .
0 ∂xk 2 0 ∂xj ∂xk
k=1 j,k=1
(3.94)
Démonstration : commençons par quelques remarques permettant de simplier
la preuve. On peut en eet supposer que :

1. |X0 | ≤ M (en utilisant la proposition 30) ;


2. pour tout t ≥ 0, |Xt | ≤ M (en introduisant un temps d'arrêt τ p =
inf{t, |Xt | ≥ p} et en travaillant sur le processus arrêté) ;
Probabilités et calcul stochastique 131

3. la fonction f est deux fois continûment diérentiable à support compact


(f ∈ Ck2 ), car |Xt | ≤ M ;
4. f (x1 , · · · , xn ) = P (x1 , · · · , xn ) où P est un polynôme : en eet, pour
toute fonction f ∈ C 2 , il existe une suite de polynômes convergeant vers f
uniformément et dont les dérivées d'ordre 1 et 2 convergent uniformément
vers les dérivées correspondantes de f .

Il sut donc de montrer (3.94) pour f (x1 , x2 ) = x1 x2 , grâce au lemme 11.


Lemme 11. Soient X et Y deux processus d'Itô, alors :
Z t Z t
Xt Yt − X0 Y0 = Xs dYs + Ys dXs + ≺ X, Y t , (3.95)
0 0

et, en particulier :
Z t
Xt2 − X02 = 2 Xs dXs + ≺ X t . (3.96)
0

Démonstration : on remarque que (3.96) implique (3.95), en écrivant :


1 
Xt Yt = (Xt + Yt )2 − (Xt − Yt )2 ,
4
et il sut donc de montrer (3.96). On a Xt = X0 + Mt + Vt , avec :
Z t Z t
Mt = < φs , dBs >, At , |φs |2 ds,
0 0
Z t Z t
Vt = αs ds, |V |t , |αs |ds.
0 0

On peut supposer que X0 = 0 et |Mt | + At + |V |t ≤ K . Notons que Mt2 − At


est une martingale. Soit π un partage générique de l'intervalle [0, t], π = {0 =
t0 < t1 < t2 < · · · < tn = t}, de pas |π| = sup |ti+1 − ti |. On a (x2 − x1 )2 =
x22 − x21 − 2x1 (x2 − x1 ), d'où :
X X
(∆X(ti ))2 = Xt2 − X02 − 2 X(ti )∆X(ti ).
P
Le
P terme (∆X(ti ))2 tend vers At (lemme 13) ci-dessous et le terme
X(ti )∆X(ti ) tend vers ≺ X t (lemme 12), d'où le résultat.
Établissons maintenant les résultats techniques qui viennent d'être évoqués.
Lemme 12. Soit Kt un processus adapté continu borné, alors :
X Z t
Kti ∆X(ti ) → Ks dXs dans L2 , où ∆X(ti ) = X(ti+1 ) − X(ti ).
|π|→0 0
132 Mathématiques pour les systèmes dynamiques

P
Démonstration : en notant Ktπ = i Kti I[ti ,ti+1 [ (t), nous avons :
X Z t
Kti ∆X(ti ) = Ksπ dXs .
0

Les processus Ksπ , αs et Ks étant continus et bornés, nous avons :


Z t Z t
Ksπ αs ds → Ks αs ds P-p.s. et dans L2 .
0 |π|→0 0

Par ailleurs :
"Z 2 # Z 
t t
2 2
E (Ksπ − Ks ) < φs , dBs > =E (Ksπ − Ks ) |φs | ds ,
0 0

et, comme ci-dessus, le second terme tend vers 0 lorsque |π| → 0.


Lemme 13.
X Z t
(∆X(ti ))2 → At = |φs |2 ds dans L2 . (3.97)
|π|→0 0

Démonstration : par dénition, Xt = X0 + Mt + Vt . Donc :


X X X X
(∆Xti )2 = (∆Mti )2 + 2 ∆Mti ∆Vti + (∆Vti )2 .

Les deux derniers termes de cette somme tendent vers 0 dans L2 . En eet, le
processus t 7→ Vt étant continu :
X X Z t
2
(∆Vti ) ≤ sup |∆Vti | |∆Vti | ≤ sup |∆Vti | |αs | ds → 0.
0 |π|→0

De même, la continuité de M implique :


X X Z t

∆Vti ∆Mti ≤ sup |∆Mti | |∆Vti | ≤ sup |∆Mti | |αs |ds → 0.
0 |π|→0

Ces variables
P étant bornées, elles convergent aussi dans
P L . Il reste à montrer
2

que : (∆M (ti )) → At dans L . Comme At = ∆A(ti ), on doit montrer


2 2
|π|→0
que δ π → 0, où :
 X 2  X 2
2
δπ = E [(∆M (ti )) − ∆A(ti )] = (∆M (ti ))2 − At . (3.98)
2

Remarquons que t 7→ Mt2 −At est une martingale par construction, impliquant :
hX i
δπ , E [(∆M (ti ))2 − ∆A(ti )]2 ,
Probabilités et calcul stochastique 133

 
et, en utilisant les relations (a+ b)2 ≤ 2a2 + 2b2 et E (∆M (ti ))2 = E [∆A(ti )] :
hX i hX i
δ π ≤ 2E (∆M (ti ))4 + 2E (∆A(ti ))2
hX i hX i
≤ 2K 2 E (∆M (ti ))2 + 2KE ∆A(ti )
hX i hX i
≤ 2K 2 E ∆A(ti ) + 2KE ∆A(ti ) ≤ 2(K 2 + K)E[At ],

et donc δ π ≤ K̄ (At étant borné). On en déduit :


X 2 
2
E (∆M (ti )) ≤ 2K̄. (3.99)

Par suite, en utilisant l'inégalité de Cauchy-Schwartz :


h X i h X i
δ π ≤ 2E sup(∆M (ti ))2 (∆M (ti ))2 + 2E sup ∆A(ti ) ∆A(ti )
 X 2 
 4
 2
≤ 2E sup(∆M (ti )) E (∆M (ti )) + 2KE [sup ∆A(ti )] .

Mt et At étant continues et bornées, on a :


 
E sup(∆M (ti ))4 →|π|→0 0 et E [sup ∆A(ti )] →|π|→0 0,

et l'on conclut en appliquant (3.99).


En notation diérentielle, la formule d'Itô (3.94) s'écrit, avec Yt = f (Xt ) :
X
d
∂f 1 X ∂2f
d
dYt = (Xt ) + (Xt )d ≺ X j , X k t . (3.100)
∂xk 2 ∂xj ∂xk
k=1 j,k=1
Rt
Exemple 16 (Carré du brownien). Considérons l'intégrale It = 0
Bs dBs .
Nous avons déjà montré par un calcul direct (voir exemple 14) que It = Bt2 /2 +
t/2. Posons Xt = Bt et g(x) = x2 /2. Notons que It = g(Xt ). En appliquant la
formule d'Itô (sous sa forme diérentielle (3.100)), nous obtenons :
∂g 1 ∂2g 1
dYt = dBt + 2
d ≺ B t = Bt dBt + dt,
∂x 2 ∂x 2
ce que l'on peut écrire de façon plus suggestive en notation diérentielle :
 
1 2 1
d B = Bt dBt + dt.
2 t 2

On voit apparaître ici la diérence entre le calcul diérentiel usuel et le calcul


diérentiel stochastique.
134 Mathématiques pour les systèmes dynamiques

Exemple 17 (Martingale exponentielle). Soit φs ∈ L0d (P) et posons :


Z t Z t 
1 2
Zt = exp < φs , dBs > − |φs | ds .
0 2 0

On a donc : Zt = f (Xt ), avec f (x) = ex et Xt déni par :


Z t Z t
1
Xt = < φs , dBs > − |φs |2 ds.
0 2 0

Une application directe de la formule d'Itô (3.94) montre que :


1
dZt = f 0 (Xt )dXt + f 00 (Xt )d ≺ X t
2
1 1
= Zt < φt , dBt > − Zt |φt |2 dt + Zt |φt |2 dt = Zt < φt , dBt >,
2 2
ce que l'on peut écrire, de façon équivalente :
Z t
Zt = 1 + Zs < φs , dBs > .
0

Enh particulier,
 R est une martingale locale. Si de plus, pour tout t ∈ [0, T ],
(Zt )i
E exp 2 0 |φs | ds < ∞, alors on peut montrer (théorème de Novikov) que
1 t 2

(Zt ) est une martingale sur [0, T ].

3.11. Equations diérentielles stochastiques (EDS)

Dans toute cette section, B = (Ω, Ft , F , Bt , P) désigne un mouvement brow-


nien à valeurs dans Rd issu de 0.

3.11.1. Introduction
L'évolution de nombreux systèmes physiques est décrite par une équation
diérentielle ordinaire (EDO, voir chapitre 5) de la forme :
dx(t) = b(x(t))dt, (3.101)
mais, dans certaines circonstances, ces systèmes physiques sont perturbés par
un bruit aléatoire. Une façon de prendre en compte ces perturbations consiste
à rajouter à (3.101) un terme perturbateur de la forme σdBt , où σ caractérise
la  puissance  du bruit. Ceci conduit à une équation d'évolution de la forme :
dx(t) = b(x(t))dt + σdBt . (3.102)
Probabilités et calcul stochastique 135

La puissance du bruit peut elle-même dépendre de l'état à l'instant t :


dx(t) = b(x(t))dt + σ(x(t))dBt . (3.103)
Cependant, le mouvement brownien n'étant pas diérentiable, il faut prendre
garde que cette équation n'est pas dénie au sens du calcul diérentiel clas-
sique : il faut donner un sens à (3.103). Au vu de la discussion précédente, il
est naturel de dénir x(t) comme la solution de :
Z t Z t
x(t) = x(0) + b(x(s))ds + σ(x(s))dBs . (3.104)
0 0

Une équation de la forme (3.103) ou (3.104) s'appelle une équation diéren-


tielle stochastique (en abrégé, EDS ). Ce sont ces équations que nous étudierons
dans la suite de ce chapitre. Comme nous traitons les EDS vectorielles, nous
aurons besoin de quelques notations et dénitions complémentaires. On munit
Rm × Rd (espace des matrices réelles m × d) de la norme euclidienne :
 1/2
X
|M | =  m2i,j  , M = (mi,j ) ∈ Rm × Rd .
i,j

Si Rσs est un processus progressif à Rvaleurs dans Rm × Rd et tel que, pour tout
t, 0 |σ s |2 ds < ∞ P-p.s., on dénit 0 σ s dBs composante par composante par :
t t

Z t  d Z
X t
s dBs , i ∈ {1, · · · , m}.
σ i,j j
σ s dBs =
0 i j=1 0

C'est un processus à valeurs (R , B(Rm )). Notons que l'on a encore :


m
" Z 2 # Z t 
t
E σ s dBs = E |σ s |2 ds . (3.105)
0 0
Dénition 49 (Solution d'une EDS). On considère un champ de matrices
(t, x) 7→ σ(t, x) et un champ de vecteurs (t, x) 7→ b(t, x) que l'on suppose
B(R+ ) × B(Rd )−mesurable. On appelle solution de l'EDS :
dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 = η ∈ Rm , η F0 -mesurable, (3.106)
tout processus Xt à valeurs dans R tel que, pour tout t : m
Z t Z t
2
|σ(s, Xs )| ds < ∞, |b(s, Xs )|ds < ∞ P-p.s.,
0 0
et vériant :
Z t Z t
Xt = η + b(s, Xs )ds + σ(s, Xs )dBs P-p.s. (3.107)
0 0

Il nous reste maintenant à trouver des conditions réalistes sous lesquelles


des EDS de la forme (3.106) admettent des solutions au sens de (3.107).
136 Mathématiques pour les systèmes dynamiques

3.11.2. Solution des EDS : cas lipshitzien


Théorème 25. Supposons que, pour tous x, y ∈ Rd et tout t ≤ T, on ait :
|b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ A(T )|x − y|, (3.108)
|b(t, x)| + |σ(t, x)| ≤ A(T )(1 + |x|). (3.109)
Alors, pour tout η ∈ L2 (F0 ), l'équation (3.106) a une solution unique L2m (P).
Cette solution a une version presque sûrement continue en t, qu'on notera Xtη .
Démonstration : on xe T > 0 et on note :
( "Z # )
T
H= φ progressif à valeurs Rm , E |φs |2 ds < ∞ . (3.110)
0

H = L2 (Ω × [0, T ], P, P ⊗ λ), H est donc un espace de Banach pour la norme


 hR i1/2
T
kφkH = E 0 |φs |2 ds . On pose, pour φ ∈ H :
Z t Z t
(U φ)t = η + b(s, φs )ds + σ(s, φs )dBs . (3.111)
0 0
 
En utilisant (3.109), on montre que sup0≤t≤T E |U (φ)t |2 < ∞ :
Z 2 Z Z
 t   t  T  
E σ(s, φs )dBs = E |σ(s, φs )|2 ds ]A2 (T ) (1 + E |φs |2 )ds < ∞.
0 0 0

Nous avons de même :


 2 
Z T Z T
 

E  b(s, φs )ds  ≤ A(T )2 (1 + E |φs |2 )ds < ∞,
0 0

et donc φ 7→ U φ dénit une application de H → H . On a alors, pour φ, ψ ∈ H ,


pour t ≤ T et sous la condition (3.108) :
h i
E |(U φ)t − (U ψ)t |2
Z t  Z t 
2 2
≤ 2t E |b(s, φs ) − b(s, ψs )| ds + 2E |σ(s, φs ) − σ(s, φs )| ds
0 0
Z t  
≤ K(T ) E |φs − ψ s |2 ds.
0

On dénit, pour φ ∈ H :
"Z #
T
−ct 2
kφkc = E e |φs | ds . (3.112)
0
Probabilités et calcul stochastique 137

k.kc est évidemment une norme équivalente à k.k et on a, pour φ, ψ ∈ H :


Z T
 
k(U φ) − (U ψ)k2c = E |U φt − U ψ t |2 e−ct dt,
0
Z Z
T t  
≤ K(T ) E |φs − ψ s |2 e−cs e−c(t−s) ds dt,
0 0
Z T e−cs Z
  T
≤ K(T ) E |φs − ψ s |2 e−c(t−s) dt
0
|s {z }
≤ 1c

K(T )
≤ kφ − ψk2c .
c
En choisissant c assez grand, on a K(T )/c < 1. U : H → H est alors une
application contractante et on conclut grâce au théorème du point xe.
Lemme 14 (Point xe). Soit B un espace de Banach, U : B → B une
application contractante, c'est-à-dire telle que kU (x) − U (y)k ≤ ρkx − yk avec
ρ < 1. Alors il existe un unique x tel que U (x) = x.
Il faut noter que Xtη , la solution continue de (3.106) de donnée initiale η,
n'est pas une solution  trajectoire par trajectoire , mais une solution globale.
Nous avons toutefois le résultat suivant, conséquence de (3.111).
Corollaire 3. Sous les hypothèses du théorème 25, Xtη = Xtη P-p.s. sur η = η0 .
0

Exemple 18 (EDS linéaires). Nous développerons au paragraphe 3.11.5 une


théorie générale des EDS linéaires. Nous présentons ici le cas simple suivant :
b(s, x) = b1 x + b0 , σ(s, x) = σ 0 + σ 1 x,
dXt = (b1 Xt + b0 )dt + (σ 0 + σ 1 Xt )dBt , X0 = η ∈ L2 (F0 ).
On vérie aisément que b(s, x) et σ(s, x) satisfont les hypothèses du théorème 25
pour tout T . Cette EDS admet donc une solution  globale  sur tout intervalle
[0, T ], T > 0 et pour tout choix des constantes bi et σ i . Le choix particulier
b0 = 0 et σ 0 = 0 correspond à l' équation de Langevin (1908), utilisée pour
modéliser la  vélocité  d'une particule brownienne. En notation diérentielle,
cette équation est de la forme :
dXt = bXt + σdBt
et peut être donc interprétée comme la perturbation de l'équation diérentielle
linéaire ẋ = bx intervenant, par exemple, dans les équations du mouvement
en mécanique classique. Sa solution, pour une condition initiale η, est donnée
par : Z t
Xt = ebt η + e(t−s)b σdBs .
0
On se reportera au théorème 28 pour la démonstration.
138 Mathématiques pour les systèmes dynamiques

Exemple 19 (Mouvement brownien géométrique). On considère l'équa-


tion diérentielle stochastique suivante sur R (γ et ρ ∈ R) :
Z t Z t
Xt = η + γ Xs ds + σ Xs dBs . (3.113)
0 0

Les hypothèses du théorème 25 sont vériées (b(t, x) = γx, σ(t, x) = σx) et


l'EDS (3.113) a une solution. Considérons tout d'abord le cas où γ = 0 :
dXt = σXt dBt , X0 = η. (3.114)
2
Nous avons déjà démontré (voir l'exemple 17) que Zt = exp(λBt − λ2 t) vérie :
dZt = λZt dBt , Z0 = 1. L'unicité des solutions des EDS montre que (3.114) a
pour solution :
λ2
Xt = η exp(σBt − t). (3.115)
2
Considérons maintenant le cas σ = 0 :
dXt = γXt dt, X0 = η.
Il s'agit ici d'une équation diérentielle ordinaire (seule la condition initiale
est aléatoire). Cette équation admet comme solution explicite :
Xt = η eγt . (3.116)
Cherchons maintenant la solution de (3.113) dans le cas général. Le procédé
que nous allons utiliser est assez général. Remarquons que les deux solutions
particulières que nous avons trouvées sont de la forme Xt = f (t, Bt ), où
(t, x) 7→ f (t, x) est une fonction C ∞ → R2 . Supposons maintenant que les
solutions de l'équation (3.113) sont de cette forme et cherchons alors à identi-
er la fonction f . On note :

fi (t, x) = f (x1 , x2 ) (x1 ,x2 )=(t,x) , i = 1, 2,
∂xi
∂2
fij (t, x) = f (x1 , x2 ) ((x1 ,x2 )=(t,x) , i, j = 1, 2.
∂xi ∂xj
La formule d'Itô montre que :
Z t Z t
1
Xt = η + (f1 (s, Bs ) + f22 (s, Bs ))ds + f2 (s, Bs )dBs . (3.117)
0 2 0

En identiant les termes de ce développement avec (3.113), nous aboutissons


au système d'équations :
1
γf (t, x) = f1 (t, x) + f22 (t, x), (3.118)
2
σf (t, x) = f2 (t, x). (3.119)
Probabilités et calcul stochastique 139

En dérivant l'équation (3.119) par rapport à x, on a : σ 2 f (t, x) = f22 (t, x) et


le système (3.118)-(3.119) peut se réécrire de façon plus simple :
(c − σ 2 /2)f (t, x) = f1 (t, x), σf (t, x) = f2 (t, x).
Nous allons chercher à résoudre ce système sous la forme f (t, x) = g(t)h(x).
Les équations précédentes se réécrivent alors :
(c − σ 2 /2)g(t) = g 0 (t), σh(x) = h0 (x).
Ces deux équations diérentielles admettent des solutions explicites :
g(t) = g(0) exp((c − σ 2 /2)t), h(x) = h(0) exp(σx).
La solution de (3.113) est donc donnée par :
Xt = f (t, Bt ) = η exp[(c − σ 2 /2)t + σBt ].
Ce processus est appelé le mouvement brownien géométrique. Il est utilisé en
mathématique nancière pour modéliser le prix d'un actif risqué (risky asset).
De façon intuitive, dXt /Xt = cdt + σdBt est le retour relatif (relative return)
de l'actif risqué sur une période élémentaire dt. Ce retour relatif est fonction
d'une tendance cdt perturbée par un terme de bruit σdBt . c > 0 est appelé le
taux d'intérêt (mean rate of return), et σ la volatilité.
Il est possible de généraliser ce modèle et de considérer le processus :
Z t Z t
Xt = η + c(s)Xs ds + σ(s)Xs dBs , t ∈ [0, T ].
0 0

On montre, par des arguments similaires, que la solution de cette EDS est :
Z t Z t 
2
Xt = η exp (c(s) − 1/2σ (s)]ds + σ(s)dBs , t ∈ [0, T ].
0 0

3.11.3. Dépendance en fonction des conditions initiales


Nous commençons par deux résultats techniques.
Lemme 15. 1. Soit (bt ) un processus à valeurs dans Rm . On a, pour p ≥ 1 :
 Z p  Z t 
s
E sup
bu du ≤t E
p−1
|bu | du .
p
(3.120)
s≤t 0 0

2. Soit (σt ) un processus progressif à valeurs Rm × Rd . On a, pour p ≥ 2 :


 Z p  Z t 
s
E sup σ u dBu ≤ Kp (t)E |σ u |p du . (3.121)
s≤t 0 0
140 Mathématiques pour les systèmes dynamiques

Démonstration : (1) on a, en appliquant l'inégalité de Jensen :


 Z p  "Z p # Z t 
s t
E sup bu du ≤E |bu | du ≤ tp−1 E |bu |p du .
s≤t 0 0 0

(2) En travaillant composante


Rt
par composante, on peut se ramener au cas
d = 1. On pose Mt = 0 σ s dBs . On peut supposer que Mt est bornée (en
introduisant un temps d'arrêt). Mt est une martingale
 et l'inégalité maximale de
Doob (théorème 19) montre que : E sups≤t |Ms |p ≤ cp E [|Mt |p ] . Appliquons
maintenant la formule d'Itô à la fonction f (x) = |x|p :
Z Z
t
p(p − 1) t
|Mt |p = f 0 (Ms )σ s dBs + |Ms |p−2 sign(Ms )σ 2 (s) ds.
0 2 0
Ceci implique :
 Z t 
E [|Mt | ] ≤ Ap E sup |Ms |
p p−2
σ 2s ds ,
s≤t 0
   p−2 " Z p #! p2
p t 2 2
≤ Ap E sup |Ms |p
E σ s ds (Hölder)
s≤t 0
 Z t  p2
p−2
≤ Āp (t) (E [|Mt | ]) p p
E |σ s | ds
p
,
0
p−2
d'où le résultat, en divisant par (E [|Mt | ]) p . p

Lemme 16 (de Gronwall). Si f ≥ 0 est intégrable sur [0, T ], alors on a :


 Z 
t  
∀t ∈ [0, T ], f (t) ≤ a + b f (s) ds ⇒ f (t) ≤ aebt .
0

Démonstration : on a, par substitutions successives :


Z t Z t Z s
f (t) ≤ a + b f (s) ds ≤ a + bat + b ds f (u) du
0 0 0
X
n Z X
n Z
(bt)k (t − v)n t
(bt)k tn t
≤a +b f (u)n+1
dv ≤ a + bn+1 f (u) dv,
0
k! 0 n! 0
k! n! 0
n R
d'où le résultat, du fait que : bn+1 tn! 0t f (u) dv −−−−→ 0.
n→∞
Proposition 34. Sous les hypothèses du théorème 25, on a, pour p ≥ 2 :
 
E sup |Xsη − η| p
≤ C1 (p, t)(1 + E[|η|p ]), ∀η ∈ Lp , (3.122)
s≤t
 
0
E sup |Xsη − Xsη |p ≤ C2 (p, t)E [|η − η 0 |p ] , ∀η, η 0 ∈ Lp . (3.123)
s≤t

La première inégalité entraîne que si η ∈ Lp , il en va de même pour Xtη .


Probabilités et calcul stochastique 141

0
Démonstration : posons X = X η et X 0 = X η :
Z Z
 s s
|Xs − η|p ≤ 2p−1 | σ u (Xu ) dBu |p + | bu (Xu ) du|p .
0 0

En appliquant le lemme 15, nous avons donc :


   Z t  Z t 
E sup |Xs − η| p
≤ C1 E |σ s (Xs )| ds + E
p
|bs (Xs )| ds ,
p
s≤t 0 0

et, en utilisant l'équation (3.109), il vient :


  Z t
E sup |Xs − η|p ≤ C2 (1 + E [|Xs |p ]) ds, (3.124)
s≤t 0
E [|Xt |p ] = E [|η + Xt − η|p ] ≤ C3 (E [|η|p ] + E [|Xt − η|p ])
Z t
≤ C4 (1 + E [|η|p ]) + C5 E [|Xs |p ] ds,
0

d'où, en appliquant le lemme de Gronwall : E [|Xt |] ≤ C6 (1 + E [|η|p ]), que l'on


reporte dans (3.124). La première inégalité (3.122) est ainsi démontrée. Pour
(3.123), on utilise (a+ b + c)p ≤ 3p−1 (ap + bp + cp ). Soit 4b = b(s, Xs )− b(s, Xs0 )
et soit 4σ = σ(s, Xs ) − σ(s, Xs0 ). Alors, en appliquant le lemme 15 :
    Z s 
E sup |Xs − Xs0 |p ≤3 p−1 0 p
E [|η − η | ] + E sup | 4b ds| p
s≤t s≤t 0
 Z s 
+E sup | 4σ dBs | p
s≤t 0
 Z t  Z t 
≤ C1 E [|η − η 0 |p ] + E |4b|p ds + E |4σ|p ds ,
0 0
Z t
≤ C2 E [|η − η 0 |p ] + C3 E [|Xs − Xs0 |p ] ds,
0
Z t  
0 p 0 p
≤ C2 E [|η − η | ] + C3 E sup |Xu − Xu | ds.
0 u≤s
 
Vu (3.123), f (t) = E sups≤t |Xs − Xs0 |p est nie et, en lui appliquant le lemme
de Gronwall, on obtient : E sups≤t |Xs − Xs0 |p ≤ C ∗ E [η − η0 |p ] . La seconde
inégalité, (3.123), est ainsi démontrée.
Si l'on applique la proposition 34 à η = x et η0 = x0 , on obtient pour p ≥ 2 :
 
0
E sup |Xsx − Xsx |p ≤ C(p, t)|x − x0 |p . (3.125)
s≤t

Le théorème de Kolmogorov (théorème 17) admet la généralisation suivante.


142 Mathématiques pour les systèmes dynamiques

Théorème 26 (de Kolmogorov généralisé). Soit (Ztx , t ≥ 0, x ∈ Rm ) une


famille de v.a. continues en t pour tout x, vériant pour tous x, y ∈ Rm :
 
E sup |Zs − Zs | ≤ a(t, q)|x − y|m+ , q > 1,  > 0.
x y q
s≤t

Alors, il existe un processus Z(t, x) continu en (t, x) tel que, pour tout x,
Z(t, x) = Ztx P-p.s.
Ce théorème et (3.125) impliquent qu'il existe un processus Xt (x) continu en
(t, x) et solution, pour tout x, de (3.106) avec η = x comme condition initiale.
C'est cette solution que nous choisirons dorénavant.
Proposition 35. Pour tout η ∈ L2 (F0 ), on a Xtη = Xt (η) P-p.s. pour tout t
(on pourra se reporter à la page 137 pour la dénition précise de Xtη ).
Démonstration : si η est étagée, ceci résulte directement du corollaire 3. Si
η ∈ L2 (F0 ), on choisit η étagée telle que η n → η dans L2 et P-p.s. ; alors,
d'après la proposition 34, Xtηn → Xtη dans L2 et, d'après la continuité en x,
on a Xt (η n ) → Xt (η), donc Xtη = Xt (η) P-p.s. La continuité en t montre que
cette égalité est vraie P-p.s. pour tout t.

3.11.4. Caractère markovien des solutions


On sait que, pour s xé, (Bt+s − Bs , t ≥ 0) est encore un mouvement brow-
nien issu de 0. On peut donc considérer, pour t ≥ s, la solution de l'équation
diérentielle stochastique :
Z t Z t
Xt = η + b(u, Xu )du + σ(u, Xu )dBu . (3.126)
s s

Notons que si η = x, cette solution ne dépend que de σ(Bu − Bs , s < u ≤ t).


Théorème 27. Pour s ≥ 0 et b, σ des fonctions vériant (3.108)-(3.109), il
existe Xt (x, s) processus continu en (t, x) et σ(Bu − Bs , s < u ≤ t)-mesurable,
tels que pour tout η ∈ L2 (F0 ), Yt = Xt (η, s) soit l'unique solution de :
Z t Z t
Yt = η + b(u, Yu )du + σ(u, Yu )dBu , t ≥ s. (3.127)
s s
Proposition 36. s ≤ t ≤ t + h ⇒ Xt+h (η, s) = Xt+h (Xt (η, s), t) P-p.s.
Cette proposition montre que, pour prédire Xt+h (η, s) connaissant Xu (η, s)
pour u ≤ t, il sut de connaître Xt (η, s). Autrement dit, le processus aux
instants postérieurs à t ne dépend du processus aux instants antérieurs à t
que par la valeur du processus à l'instant t. Cette propriété remarquable est la
propriété de Markov.
Probabilités et calcul stochastique 143

Démonstration : soit ξ u = Xu (η, s). On a, pour u ≥ t :


Z u Z u
ξu = η + b(v, ξ v ) dv + σ(v, ξ v ) dBv
s s
Z t Z t Z u Z v
=η+ b(v, ξ v ) dv + σ(v, ξ v ) dBv + b(v, ξ v ) dv + σ(v, ξ v ) dBv ,
s
Z u s
Z u t t

= Xt (η, s) + b(v, ξ v ) dv + σ(v, ξ v ) dBv ,


t t

et l'unicité des solutions implique que ξ u = Xu (Xt (η, s), t), u ≥ t.

3.11.5. Equations diérentielles stochastiques linéaires


Nous étudions dans cette partie les EDS linéaires, dénies par :
dXt = (F (t)Xt + f (t)) dt + G(t) dBt , X0 = η, (3.128)
où t 7→ F (t) et t 7→ G(t) sont des fonctions continues à valeurs dans Rd×d ,
t 7→ f (t) est une fonction continue à valeurs dans Rd , Bt est un brownien
d-dimensionnel et η est F 0 -mesurable.
On vérie facilement que les hypothèses du théorème 25 sont satisfaites. Il y
a donc existence et unicité de la solution. Intéressons-nous d'abord à la solution
de l'équation déterministe matricielle associée, qui est linéaire non autonome4 :
Φ̇(t) = F (t)Φ(t). (3.129)
Pour toute condition initiale (t0 , Φ0 ), elle admet une solution unique non singu-
lière Φ(t; t0 , Φ0 ) dénie sur tout intervalle [t0 , t0 + T ]. Les solutions de (3.129)
sur [t0 , t0 + T ] forment un espace vectoriel. Dans le cas autonome F (t) = F ,
elles sont données par : Φ(t; t0 , Φ0 ) = Φ0 eF (t−t0 ) .
Considérons maintenant la solution Φ(t) , bΦ(t; 0, Id ) de (3.129) pour la
condition initiale t0 = 0 et Φ0 = Id . Cherchons une solution de (3.128) sous la
forme Xt = Φ(t)Ct , où Ct est un processus d'Itô. On doit avoir :
dXt = Φ̇(t)Ct dt + Φ(t) dCt
= F (t)Xt dt + f (t) dt + G(t) dBt .

En identiant ces représentations et puisque Φ̇(t)Ct = Ft Ct , nous obtenons :


Φ(t) dCt = f (t) dt + G(t) dBt ,
dCt = Φ−1 (t)f (t) dt + Φ−1 (t)G(t) dBt ,
4
Le lecteur se référera au chapitre 5 pour les notions relatives aux EDO déterministes et
à leur stabilité.
144 Mathématiques pour les systèmes dynamiques

et, nalement :
 Z t Z t 
Xt = Φ(t) η + Φ−1 (s)f (s) ds + Φ−1 (s)G(s) dBs . (3.130)
0 0

On vérie a posteriori, grâce à la formule d'Itô, que (3.130) satisfait (3.128).


De même qu'en dimension 1, on dit qu'un processus (Xt , t ≥ 0) à va-
leurs dans Rd est gaussien si, pour tout 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , le vecteur
(Xt1 , · · · , Xtn ) est gaussien. Ceci implique que, pour tout uk ∈ Rd :

X
n
Yn = uTk Xtk , (3.131)
k=1

est une v.a. gaussienne. Posons alors :

m(t) = E[Xt ], K(s, t) = Γ(Xs , Xt ) = E[(Xs − m(s))(Xt − m(t))T ]. (3.132)

On a évidemment K(s, t) = K T (t, s) et la v.a. Y n vérie :


X
n X
m
E[Y n ] = uTk m(tk ), var(Y n ) = uTj K(tj , tk )uk .
k=1 j,k=1

On a donc :
" !#  
X
n X
n
1 X
n
E exp i uTk Xtk = E i uTk m(tk ) − uTj K(tj , tk )uk  ,
2
k=1 k=1 j,k=1
(3.133)
ce qui montre que la loi du processus (Xt , t ≥ 0) est entièrement déterminée
par la donnée de la moyenne t 7→ m(t) et de la fonction de covariance (s, t) 7→
K(s, t).
Proposition 37. Si η suit une loi gaussienne, le processus Xt déni par
(3.130) est gaussien.
Démonstration
R t −1
: considérons l'espace H(B) (voir section 3.9). Les composantes
de Φ(t) 0 Φ (s)G(s) dBs sont dans H(B). De plus, elles sont indépendantes
Rt
de F0 . Comme η est F0 -mesurable gaussienne et Φ(t) 0 Φ−1 (s)f (s) ds est dé-
terministe, ceci implique que Xt est un processus gaussien.
On considère le processus Xt déni par (3.130). Calculons la moyenne m(t)
et la fonction de covariance K(s, t), dénis par (3.134). On a :
 Z t 
−1
m(t) = Φ(t) m(0) + Φ (s)f (s) ds , (3.134)
0
Probabilités et calcul stochastique 145

et si l'on pose V (t) = K(t, t), il vient :


 Z s 
−1 −T
K(s, t) = Φ(s) V (0) + Φ (u)G(u)G(u) Φ T
(u) du Φ(u), s ≤ t,
0
(3.135)
Z tZ s
V (t) = Φ(t)V (0)Φ(t)T + Φ(t) Φ−1 (u)G(u)G(u)T Φ−T (u) du Φ(t)T .
0 0
(3.136)
On en déduit facilement des systèmes d'équations diérentielles vériées par
les fonctions t 7→ m(t), t 7→ V (t) et t 7→ K(s, t) :
ṁ(t) = F (t)m(t) + f (t), m(0) = E[η], (3.137)
V̇ (t) = F (t)V (t) + V (t)F (t) + G(t)G (t), V (0) = E[ηη ],
T T
(3.138)
T

∂K
(s, t) = K(s, t)F T (t), t > s, K(s, s) = V (s), K(s, t) = K T (t, s). (3.139)
∂t
Ces équations n'admettent en général pas de solution explicite. Si l'on suppose
maintenant que l'équation linéaire est à coecients constants :
F (t) ≡ F, G(t) ≡ G, f ≡ 0, (3.140)
on a alors Φ(t) = etF et :
Z t
Xt = etF η + e(t−s)F GdBs , (3.141)
0
 Z t 
V (t) = etF V (0) + e−sF GGT (e−sF )T ds et F, (3.142)
0
V̇ (t) = F V (t) + V (t)F T + GGT , V (0) = E[ηη T ]. (3.143)

Supposons de plus que F est une matrice de Hurwitz : alors il existe M < ∞
et λ > 0 tels que |etF | ≤ M e−λt pour tout t > 0. On cherche à savoir sous quelle
condition le processus Xt est stationnaire, c'est-à-dire que pour tout h > 0 et
tout 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn :
(Xt1 +h , · · · , Xtn +h ) et (Xt1 , · · · , Xtn ) ont même loi.
On doit alors avoir V (t) = V (0) = V et V̇ (t) = 0 pour tout t. La condition
(3.144) implique l'équation de Liapounov suivante :
F V + V F T = −GGT , (3.144)
qui, dans ce cas, a une solution unique dénie positive (voir pages 214 ou
335). On conclut que la solution de condition initiale η qui a pour distribu-
tion Nd (0, V ) est stationnaire.
R∞
Il est possible d'expliciter cette solution puisque
(3.142) montre que : V = 0 esF GGT esF ds. On a donc établi le théorème
T

qui suit.
146 Mathématiques pour les systèmes dynamiques

Théorème 28 (de Langevin).


1. L'équation : dXt = F Xt dt + GdBt , X0 = η a pour solution :
Z t
tF
Xt = e η + e(t−s)F GdBs . (3.145)
0

2. Si la matrice F est de Hurwitz et si η est RF0 -mesurable et distribuée sui-


vant une loi gaussienne Nd (0, V ), où V = 0∞ esF GGT esF ds est l'unique
T

solution de l'équation de Liapounov (3.144), alors le processus (Xt ) est


gaussien centré de covariance K(s, t) = V e(t−s)F .
Exemple 20 (Modèle de Vasicek). Considérons l'équation diérentielle :
dXt = c[µ − Xt ]dt + σdBt .

où c, µ et σ sont des constantes positives. Cette équation est utilisée pour mo-
déliser un processus qui uctue autour d'une moyenne µ. Lorsque Xt s'écarte
de µ, le terme de dérive (µ − Xt )dt  rappelle  le processus Xt vers sa valeur
moyenne. L'intensité de cette force de rappel est ajustée par la constante c. Le
troisième paramètre σ mesure l'ordre de grandeur des uctuations autour de la
moyenne µ. Ce processus est un cas particulier d'EDS linéaire homogène. La
solution est donnée explicitement par (3.145) :
Z t
Xt = ηe−ct + µ(1 − e−ct ) + σe−ct ecs dBs .
0

Si η est une variable gaussienne F0 -mesurable, alors Xt est un processus


gaussien. Lorsque µ = 0, le processus Xt est appelé processus de Ornstein-
Uhlenbeck. On calcule aisément sa moyenne et sa variance :
E[Xt ] = E[η 0 ]e−ct + µ(1 − e−ct ),
σ2
var(Xt ) = (1 − e−2ct ).
2c
Lorsque t → ∞, la v.a. Xt converge en loi vers une v.a. gaussienne
N (µ, σ 2 /(2c)).

3.12. Bibliographie
[BIL 95] Billingsley P., Probability and measure, 3e édition, John Wiley and Sons,
1995.
[BIL 99] Billingsley P., Convergence of probability measure, Wiley series in Pro-
bability and Statistics, 2e édition, 1999.
[DUR 91] Durett R., Probability : theory and examples, Brookscole, 1991.
Probabilités et calcul stochastique 147

[DUR 96] Durret R., Pinsky M., Stochastic calculus : a practical introduction,
Probability and Stochastic Series, CRC, 1996.
[FEL 68] Feller W., An introduction to probability theory and its application, John
Wiley & Sons, 1968.
[HOR 91] Horn R., Johnson C., Topics in matrix analysis, Cambridge University
Press, 1991.
[KAR 97] Karatzas I., Shreve S., Brownian motion and stochastic calculus, Gra-
duate texts in mathematics, Springer-Verlag, 2e édition, 1997.
[OKS 98] Oksendal B., Stochastic dierential equations, Universitext, Springer,
1998.
[RES 98] Resnick S., Probability path, Springer-Verlag, 1998.
[REV 97] Revuz D., Probabilité, Herman, Paris, 1997.
[REY 91] Revuz D., Yor M., Continuous martingales and Brownian motion, Sprin-
ger, 1991.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[SCH 93] Schwartz L., Analyse - tome 4 : théorie de la mesure et applications,
Hermann, 1993.
[WIL 91] Williams D., Probability with martingales, Cambridge Mathematical Text-
books, 1991.
'(8;,Ê0( 3$57,(

6\VWqPHVG\QDPLTXHV
Chapitre 4

Outils de géométrie diérentielle

Ce chapitre est consacré à l'étude des concepts et outils de base de la géo-


métrie diérentielle, introduits en théorie de l'automatique non linéaire depuis
les années 1970 (voir par exemple [ISI 89, NIJ 90]). La géométrie diérentielle
repose sur l'étude des variétés diérentielles. Dans son principe, une variété
diérentielle V de dimension n est un espace dans lequel chaque point peut
être repéré par n réels au moyen d'un système de coordonnées locales, système
qui n'est en général pas valable sur toute la variété.

4.1. Notion de variété diérentielle

La surface de la terre est en bonne approximation une sphère S 2 , surface


de l'espace R3 : S 2 = {(x, y, z) ∈ R3 tels que x2 + y 2 + z 2 = r2 }. On re-
présente naturellement la terre par un ensemble de cartes qui dénissent un
atlas géographique. Chaque carte peut alors être vue comme un homéomor-
phisme (c'est-à-dire une bijection bicontinue) d'une certaine région de la terre
sur une partie de R2 . Nous pouvons généraliser ces notions : si V est un espace
topologique de dimension n, on introduit les dénitions suivantes.
Dénition 1 (Carte locale). On appelle carte locale sur V , tout homéomor-
phisme u déni par : u : U ⊂ V → Ω ∈ Rn , où U est un ouvert de V , appelé
domaine de la carte locale. Les composantes ui de u constituent ce que l'on
appelle un système de coordonnées locales, c'est-à-dire un moyen de lire dans
les cartes. Cette carte locale est notée (U, u).
Dénition 2 (Atlas). On appelle atlas sur V , toute famille (Ui , ui , Ωi )i∈I ,
telle que V = ∪i∈I Ui . L'atlas est de dimension n si les ui (Ui ∩ Uj ) sont des
ouverts de Rn .
Si Ui ∩ Uj 6= ∅, alors se pose le problème des changements de cartes et du
recollement de celles-ci (voir gure 4.1).
Dénition 3. Si Ui ∩ Uj 6= ∅, on appelle changements de cartes les homéo-
morphismes uji : ui (Ui ∩ Uj ) → uj (Ui ∩ Uj ), uji = uj ◦ (ui )−1 .
Il est clair (voir sur la gure 4.1) que uij = (uji )−1 .

Chapitre rédigé par Brigitte d'Andréa-Novel.


152 Mathématiques pour les systèmes dynamiques

U j

U
i

V u
u
j

u

ji

Ω i
j

Figure 4.1. Atlas et changements de cartes.

Ces changements de cartes sont des applications entre des ouverts de Rn :


on peut donc parler de leur diérentielle. On dira qu'un atlas est de classe C r
si les changements de cartes sont des diéomorphismes de classe C r .
Dénition 4 (Variété diérentielle). Une variété diérentielle V de di-
mension n et de classe C r , notée V (n, r), est la donnée d'un atlas de dimension
n et de classe C r .
Exemple 1. Rn est trivialement une variété diérentielle de dimension n et
de classe C ∞ . Il n'y a dans ce cas qu'une carte, qui est globale et donnée par
les coordonnées habituelles de Rn .
y
N

p x
0 1
qN qS

Figure 4.2. Le cercle et les projections stéréographiques


Exemple 2. Le cercle unité S 1 d'équation x2 + y 2 = 1 est une variété dié-
rentielle de dimension 1 et de classe C . Soient N le pôle nord et S le pôle

sud (voir la gure 4.2). On peut considérer comme cartes les deux projections
Géométrie Diérentielle 153

stéréographiques : PN dénie sur S 1 − {N } et PS sur S 1 − {S}, respectivement


par PN (p) = qN et PS (p) = qS . L'intersection des domaines des deux cartes
est S 1 − {N, S} et le changement de cartes est donné par :
PS ◦ PN−1 : R ? → R? ,
qN 7→ qS = q1N .
(4.1)

On peut généraliser cette construction à la sphère S n−1 :


S n−1 = {(x1 , · · · , xn ) ∈ Rn tels que x21 + · · · + x2n = 1}.
Exemple 3. Le cylindre de révolution p
dans R3 d'équation x2 + y 2 = 1 (gure
4.3) et le tore T 2 = S 1 × S 1 d'équation ( x2 + y 2 − r)2 + z 2 = ρ2 , ρ < r (gure
4.4) sont des variétés diérentielles de dimension 2 et de classe C ∞ .
z

Figure 4.3. Le cylindre de révolution dans R3

Figure 4.4. Le tore dans R3


La notion de coordonnées locales permet de parler d'application diéren-
tiable entre deux variétés, comme précisé dans la dénition suivante.
Dénition 5. Soit V1 (n, k) et V2 (m, k) deux variétés de classe C k . Une appli-
cation f : V1 → V2 . est de classe C r (r ≤ k) si, pour tout x dans V1 , il existe
une carte locale (U1 , u1 ) telle que x ∈ U1 , une carte locale (U2 , u2 ) telle que
f (x) ∈ U2 , ces deux cartes étant telles que u2 ◦ f ◦ (u1 )−1 soit de classe C r .
154 Mathématiques pour les systèmes dynamiques

Montrons que cette dénition est indépendante du choix des cartes. Soient
deux autres cartes : en x, (Û1 , û1 ) et en f (x), (Û2 , û2 ). On a :
û2 ◦ f ◦ (û1 )−1 = û2 ◦ (u2 )−1 ◦ u2 ◦ f ◦ (u1 )−1 ◦ u1 ◦ (û1 )−1 .

Or, u1 ◦ (û1 )−1 et û2 ◦ (u2 )−1 sont de classe C r , donc û2 ◦ f ◦ (û1 )−1 aussi.

4.2. Espace tangent

Dans la suite de ce chapitre, nous supposerons que les variétés sont de classe
C ∞ . On notera Fx l'ensemble des fonctions numériques de classe C ∞ dénies
sur un voisinage de x inclus dans V . On notera Cx l'ensemble des courbes
paramétrées de classe C ∞ passant par x. On rappelle que σ ∈ Cx est une
application C ∞ d'un intervalle I ⊂ R dans V , telle que σ(t0 ) = x, où t0 désigne
la variable initiale, en général le temps (et c'est ce qui sera considéré dans la
suite). Soit alors une courbe paramétrée σ ∈ Cx , on introduit la notion de
vecteur tangent comme suit.
Dénition 6 (Vecteur tangent). On appelle vecteur tangent à la courbe
paramétrée σ au point x, une application notée Xx :
d
Xx : Fx → R telle que Xx f = (f ◦ σ)(t) |t0 . (4.2)
dt
Xx f est donc la dérivée de f dans la direction de la courbe σ en t = t0 .
Proposition 1. Xx satisfait les propriétés suivantes :
i) Xx est une application linéaire de Fx dans R ;
ii) Xx (f.g) = (Xx f ).g(x) + f (x).(Xx g), ∀ f, g ∈ Fx .
La preuve est immédiate et résulte des propriétés de l'opérateur de dériva-
tion dt
d
. On peut montrer de manière tout aussi simple le théorème suivant.
Théorème 1. L'ensemble des applications Xx de Fx dans R est un espace
vectoriel pour les lois :
i) (Xx + Yx )f = (Xx f ) + (Yx f ), ∀f ∈ Fx ;
ii) (λXx )f = λ(Xx f ), ∀λ ∈ R.
Remarque 1. Ceci justie l'emploi du terme de  vecteur  tangent.
Explicitons à présent Xx f en coordonnées locales. Soit (U, u1 , u2 , · · · , un )
un système de coordonnées locales et x un point de U . Soit σ une courbe
paramétrée de Cx et f un élément de Fx . On a le schéma de la gure 4.5. Plus
précisément, on peut écrire :
d d X ∂(f ◦ u−1 )
n
d(ui ◦ σ)
(f ◦ σ)(t) = ((f ◦ u−1 ) ◦ (u ◦ σ))(t) = (u ◦ σ(t)) (t).
dt dt i=1
∂ui dt
Géométrie Diérentielle1 155

u−1 f
Rn - U - R
¾
u
6
σ

I⊂R

Figure 4.5. Coordonnées locales omises par abus de notation

On commet le plus souvent l'abus de notation suivant, consistant à  ou-


blier  les cartes :
∂(f ◦ u−1 ) ∂f
= , σ j (t) = uj ◦ σ(t),
∂ui ∂ui
ce qui permet d'écrire :
d X ∂f n
dσ i
(f ◦ σ)(t) |t0 = (x) (t0 ).
dt i=1
∂ui dt

Avec ces notations, soit σ ui la courbe de V dénie en termes de coordonnées


locales par :  i
σ ui (t) = ui (x) + t,
σ jui (t) = uj (x) si i 6= j.
 
Notons que les ui sont des éléments de Fx . On constate que ∂
∂ui est un
x
vecteur tangent à σ ui au point x, pour tout i. En eet :
nX ∂f  
d dσ kui ∂f ∂
(f ◦ σ ui )(t) |t0 = |x (t0 ) = (x) = f.
dt ∂uk dt ∂ui ∂ui x
k=1

De même, on a le théorème fondamental qui suit.


Théorème 2. L'espace vectoriel des vecteurs tangents au point x à la variété
V a pour base :      
∂ ∂ ∂
, ,··· . (4.3)
∂u1 x ∂u2 x ∂un x

Démonstration : soit σ une courbe telle que σ(t0 ) = x et soit Xx un vecteur


tangent au point x à σ. Alors :
 
Xn j X n j
 
d ∂f dσ dσ ∂
Xx f = (f ◦ σ)(t) |tO = ( )(x)( )(t0 ) =  ( )(t0 )  f,
dt j=1
∂u j dt j=1
dt ∂u j x
156 Mathématiques pour les systèmes dynamiques

 
et, donc, la famille des ∂
∂ui , i = 1, · · · , n est génératrice.
x
P  
Soit nj=1 αj ∂
∂uj une combinaison linéaire nulle et soit σ la courbe
x
dénie par :
σ j (t) = uj (x) + αj t , j = 1, · · · , n.
P  
On montre facilement que le vecteur nj=1 αj ∂u∂ j est tangent à σ en x. On
x
a alors :
 
X n   Xn
 ∂  ∂ui
αj ui = αj (x) = αi = 0 ∀i = 1, · · · , n.
j=1
∂u j x j=1
∂u j

 
La famille des ∂
∂ui , i = 1, · · · , n est libre et constitue donc une base.
x
Nous sommes en mesure à présent de dénir l'espace tangent en x.
Dénition 7 (Espace tangent). L'ensemble des vecteurs tangents en x à la
variété diérentielle V , noté Tx V , se nomme l'espace tangent en x à V . Les
P
nombres αj sont appelés les composantes du vecteur nj=1 αj ∂u∂ j relative-
x
ment au système de coordonnées locales (u1 , · · · , un ).
Remarque 2. Tx V peut donc être vu comme l'espace des dérivations, c'est un
espace vectoriel isomorphe à Rn .
Dénition 8 (Fibré tangent). L'union disjointe des espaces tangents consti-
tue ce que l'on appelle le bré tangent de V :

T V = ∪x∈V Tx V. (4.4)

On peut montrer que T V a une structure de variété diérentielle de classe


C r−1 et de dimension 2n [SPI 79].
Remarque 3. On peut se faire une image simple du bré tangent. Considérons
un point de la sphère S 2 . Les vecteurs tangents à toutes les courbes paramétrées
passant par x engendrent le plan R2 . En chaque point on reconstruit l'espace
vectoriel R2 et la réunion disjointe de ces  vectorialisés , ∪x∈V {x} × R2 , est
le bré tangent de la sphère. Chaque {x} × R2 constitue une bre.

4.3. Champ de vecteurs et crochet de Lie

Nous sommes en mesure à présent d'introduire la notion importante de


champ de vecteurs sur une variété.
Géométrie Diérentielle 157

Dénition 9. Soit X une application X : V → T V qui, à x ∈ V , associe un


vecteur Xx de Tx V . Pour toute fonction f ∈ C ∞(V ), notons X.f : V → R la
fonction qui à x ∈ V associe Xx f . On dira que X est un champ de vecteurs
diérentiable, si pour tout f ∈ C ∞ (V ), X.f ∈ C ∞ (V ).
L'ensemble Ξ(V ) des champs de vecteurs sur V possède une structure de
C ∞ (V )-module [RIC 01] pour les lois dénies par :

(X + Y )x = Xx + Yx , ∀X, Y ∈ Ξ(V ),

(f X)x = f (x)Xx , ∀X ∈ Ξ(V ) ∀f ∈ C ∞ (V ).

En termes de coordonnées locales (U, u1 , · · · , un ), on peut écrire :


X
n  

X= Xi , (4.5)
i=1
∂ui

où les Xi sont des fonctions dénies sur U et sont appelées les composantes de
X relativement à (U, u1 , · · · , un ). X est de classe C r si ses composantes sont de
classe C r .
Remarque 4. Cette formulation (4.5) du champ de vecteurs X à l'aide de ses
composantes dans la base des dérivées directionnelles du premier ordre fait de
X un opérateur de dérivation du premier ordre.
Introduisons à présent un nouveau champ de vecteurs, obtenu par le crochet
de Lie de deux champs de vecteurs.
Proposition 2. Soient X et Y deux éléments de Ξ(V ). Il existe un unique
champ de vecteurs Z tel que :
∀f ∈ C ∞ (V ), Zf = X(Y f ) − Y (Xf ). (4.6)
Dénition 10 (Crochet de Lie). Le champ de vecteurs Z déni par (4.6)
est appelé crochet de Lie des champs de vecteurs X et Y . Il est noté [X, Y ].
En utilisant (4.5) et la proposition 2, on obtient aisément l'expression en
coordonnées locales du crochet [X, Y ], comme l'indique la proposition suivante.
Pn   P  
Proposition 3. Si X = i=1 Xi et Y = ni=1 Yi ∂u∂ i et si l'on note

∂ui
Z le crochet Z = [X, Y ], alors les composantes Zj de Z sont données par :
n 
X 
∂Yj ∂Xj
Zj = Xk − Yk . (4.7)
∂uk ∂uk
k=1

On peut aussi montrer facilement les propriétés suivantes du crochet de Lie.


Proposition 4. Soient X , Y et Z trois champs de vecteurs. Les égalités sui-
vantes sont satisfaites :
158 Mathématiques pour les systèmes dynamiques

i) (antisymétrie du crochet de Lie) [X, X] = 0 et [X, Y ] = −[Y, X],


ii) [X + Y, Z] = [X, Z] + [Y, Z],
iii) (identité de Jacobi) [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0.
Remarque 5 (Algèbre de Lie). Ξ(V ) muni du crochet de Lie comme  mul-
tiplication interne  est une algèbre de Lie, c'est-à-dire une algèbre antisymé-
trique vériant l'identité de Jacobi. [X, Y ] est aussi appelé le commutant des
deux champs de vecteurs X et Y .
Dénition 11 (Crochet itéré). Les crochets de Lie itérés sont dénis et
notés comme suit :

ad0X Y = Y, adiX Y = [X, adi−1


X Y ].

Introduisons à présent deux notions importantes, dérivées de celle de champ


de vecteurs : la notion de ot et celle de courbe intégrale.
Dénition 12 (Flot). On appelle ot associé au champ de vecteurs X , l'ap-
plication :
ϕt : V → V,
(4.8)
x 7→ ϕt (x) = Φ(t, x),

où Φ : R × V → V satisfait :

Φ(0, x) = x,
∂Φ
∂t (t, x) = X(Φ(t, x)).

Remarque 6. En fait, ϕt (x) = Φ(t, x) est le point de V atteint par le système


au bout du temps t, en partant de x à l'instant initial t = 0.
On a ainsi les relations :

ϕ0 = Id,
(4.9)
ϕt+s = ϕt ◦ ϕs .

Dénition 13 (Courbe intégrale). Les courbes intégrales du champ de vec-


teurs X sur V sont les solutions de l'équation diérentielle :

ẋ = X(x),

c'est-à-dire les applications ψ : I → R, où I ⊂ R est un intervalle non vide,


telles que :

(t) = X(ψ(t)) ∀t ∈ I.
dt
Géométrie Diérentielle 159

x Xx vecteur tangent en x
courbe integrale du
champ de vecteurs X

Figure 4.6. Courbes intégrales et vecteurs tangents d'un champ sur le cylindre

4.4. Espace cotangent, 1-formes diérentielles et distributions

Par dualité avec les notions d'espace tangent et de champ de vecteurs, on


introduit à présent les notions d'espace cotangent et de 1-forme diérentielle.
Dénition 14 (Espace, bré cotangent). On appelle espace cotangent en
x à V l'espace noté Tx∗ V , dual de l'espace tangent en x à V , Tx V . On pose
T ∗ V = ∪x∈V Tx∗ V , T ∗ V est le bré cotangent à la variété V .
Dénition 15 (Covecteur, 1-forme). Un covecteur en x à V est un élément
de l'espace cotangent Tx∗ V : c'est aussi la donnée d'une 1-forme diérentielle,
ou forme diérentielle de degré 1. Pour toute fonction h sur V , la diérentielle
de h en x, notée (dh)x est une 1-forme diérentielle dénie par :
< (dh)x , Xx >= Xx h , avec Xx ∈ Tx V. (4.10)

On introduit de même la base duale de l'espace tangent.


Proposition 5. Les diérentielles (du1 )x , · · · , (dun )x forment
 une base de
Tx V , la base duale de Tx V , c'est-à-dire la base duale de ∂u1 , · · · , ∂u∂ n .
∗ ∂
x x
Démonstration : soit (U, u1 , · · · , un ) un système de coordonnées locales et un
point x de U . On a :
     
∂ ∂ ∂ui
< (dui )x , >= ui = = δ ij ,
∂uj x ∂uj x ∂uj x

où δ ij désigne le symbole de Kronecker, ce qui termine la preuve.


Par conséquent, toute 1-forme diérentielle s'écrit de manière unique sous
la forme : n X
ω= ω i (u1 , · · · , un )dui , (4.11)
i=1

où les ω i sont des fonctions dénies sur U et sont appelées les composantes de
ω relativement au système de coordonnées locales.
160 Mathématiques pour les systèmes dynamiques

ω sera dite de classe C r si ses composantes sont de classe C r . Si h est une


fonction C ∞ sur V, on a :
   
∂ ∂h
< (dh)x , >= (x). (4.12)
∂ui x ∂ui

On retrouve donc la formule, bien connue, de la diérentielle exacte de h :


Xn
∂h
dh = dui . (4.13)
i=1
∂ui
Remarque 7. Pour plus de détails sur ces notions de formes diérentielles,
on pourra consulter [CAR 82].
Dénition 16 (Dérivée de Lie). Soit X un élément de Ξ(V ), h un élément
de F (V ). On appelle dérivée de Lie de h par rapport au champ X , la fonction
notée LX h : V → R et dénie par :
X
n
∂h
x 7→ LX h(x) =< (dh)x , Xx >= Xi (x)
(x). (4.14)
i=1
∂ui
Proposition 6. Si ψ : I → V est une courbe intégrale de X et si h est une
fonction C 1 sur V on a :
d
LX h(ψ(t)) = h(ψ(t)). (4.15)
dt
La dérivation de Lie apparaît donc comme la dérivation le long des courbes
intégrales du champ de vecteurs.
Démonstration :
d dψ
(h ◦ ψ)(t) = d(h ◦ ψ)(t).1 = dh(ψ(t)) = dh(ψ(t)) X(ψ(t))
dt dt
= < (dh)ψ(t) , Xψ(t) >= LX h(ψ(t)).
Dénition 17 (Intégrale première). On dit que h est une intégrale première
de X si LX h = 0, c'est-à-dire si h est constante le long des courbes intégrales
de X .
Introduisons à présent la notion de distribution de champs de vecteurs sur
une variété diérentielle V de dimension n.
Dénition 18 (Distribution). Un moyen simple de dénir une distribution
∆ de champs de vecteurs sur V , est de dire que ∆ est une application qui as-
signe de manière régulière à tout x de V un sous-espace ∆(x) de l'espace tangent
Tx V , engendré par un ensemble ni de champs de vecteurs {τ i , i = 1, · · · , m},
ce que l'on note ∆(x) = span{τ i (x) , i = 1, · · · , m}.
La dimension de ∆ au point x est la dimension dans Tx V du sous-espace
vectoriel engendré par l'application ∆ prise au point x.
La distribution ∆ sera dite non singulière sur un ouvert U de V si sa di-
mension est constante pour tout x dans U .
Géométrie Diérentielle 161

Dénition 19 (Involutivité). La distribution ∆ sera dite involutive si elle


est stable par le crochet de Lie, c'est-à-dire si, pour tous champs de vecteurs X
et Y dans ∆, le crochet [X, Y ] est encore un élément de ∆.
Une autre propriété intéressante d'une distribution est celle d'intégrabilité.
Dénition 20 (Intégrabilité). La distribution ∆ engendrée par les champs
de vecteurs {τ i , i = 1, · · · , m} est intégrable, s'il existe n − m fonctions αj
qui soient des intégrales premières des τ i , c'est-à-dire telles que :

Lτ i αj (x) = 0, i = 1, · · · , m et j = 1, · · · , n − m.

L'intégrabilité signie, entre autres, que le noyau de ∆ est engendré par les
covecteurs de degré 1 ou 1-formes diérentielles : dαj , j = 1, · · · , n − m qui
sont des diérentielles exactes (voir la dénition 16).
Le théorème suivant relie les concepts d'involutivité et d'intégrabilité. On
pourra consulter [ISI 89] pour une preuve.
Théorème 3 (de Frobenius). Une distribution ∆ est intégrable si et seule-
ment si elle est involutive.

4.5. Application à l'étude de la commandabilité

Nous allons à présent illustrer l'utilisation de ces notions et, en particu-


lier, celle du crochet de Lie pour l'étude de la commandabilité des systèmes
dynamiques non linéaires commandés de la forme :

X
m
ẋ = f (x) + gi (x)ui , (4.16)
i=1

où l'état x appartient à une variété V de dimension n, u de taille m ≤ n désigne


le vecteur des commandes, f est le champ de vecteurs décrivant la dynamique
autonome du système et gi , i = 1, · · · , m sont les champs de commande.
Avant d'introduire le concept de commandabilité, nous allons considérer
l'exemple suivant, qui met en évidence les diérentes directions dans lesquelles
peut évoluer un système non linéaire.
Exemple 4. Soit le système suivant, dans Rn :
ẋ = g1 (x)u1 + g2 (x)u2 , (4.17)

où u1 et u2 sont deux commandes scalaires. Remarquons que le champ de la


dynamique autonome (u1 = u2 ≡ 0) est nul. Appliquons au système (4.17) la
162 Mathématiques pour les systèmes dynamiques

suite de commandes en boucle ouverte suivante :


u1 = 1, u2 = 0 pour t ∈ [0, T [,
u1 = 0, u2 = 1 pour t ∈ [T, 2T [,
u1 = −1, u2 = 0 pour t ∈ [2T, 3T [,
u1 = 0, u2 = −1 pour t ∈ [3T, 4T [.

Si le système (4.17) était linéaire (c'est-à-dire si g1 et g2 étaient constants),


on aurait clairement :
x(4T ; x0 ) = x0 ,
autrement dit, l'état du système au temps 4T en partant de x0 à l'instant initial
serait égal à x0 . Or, dans le cas de champs de commande non linéaires, un
développement limité permet d'écrire (voir par exemple [NIJ 90]) :
x(4T ; x0 ) = x0 + T 2 [g1 , g2 ](x0 ) + o(T 3 ),

[g1 , g2 ](x0 ) désignant le crochet des champs de commande en x0 et o() étant


la notation classique d'un terme négligeable devant  :
lim −1 o() = 0.
→0

Ce petit exemple met donc en évidence le fait qu'un système non linéaire
peut évoluer selon les directions des champs de commande, mais aussi dans les
directions données par les crochets de Lie de ces champs. On comprend donc
que l' opérateur crochet de Lie  joue un rôle important dans l'étude de la
commandabilité des systèmes non linéaires. Donnons à présent les dénitions
de commandabilité.
Dénition 21 (Commandabilité locale). Le système (4.16) est localement
commandable en x0 si, pour tout voisinage U de x0 , l'espace accessible AU (x0 )
est aussi un voisinage de x0 :
AU (x0 ) = {y ∈ V / ∃ T ∈ R+ , ∃ u sur [0, T ] /
y = ϕT (x0 ) et ϕt (x0 ) ∈ U , ∀ t ∈ [0, T ]},
P
où ϕt désigne le ot du champ de vecteurs f + m i=1 gi ui .
Dénition 22 (Commandabilité faible). Le système (4.16) est localement
faiblement commandable en x0 si, pour tout voisinage U de x0 , l'espace acces-
sible AU (x0 ) contient un ouvert de V , ouvert qui ne contient pas nécessairement
x0 .
Remarque 8. Un système localement commandable est localement faiblement
commandable mais la réciproque est fausse, comme le montrera l'exemple 5.
Enonçons à présent le théorème suivant, qui donne un critère algébrique de
commandabilité locale faible (voir [ISI 89, NIJ 90] pour une preuve).
Géométrie Diérentielle 163

Théorème 4. Dans le cas où les champs de vecteurs sont analytiques, le sys-


tème (4.16) est localement faiblement commandable en x0 si et seulement si le
rang de l' idéal de Lie I(g1 , · · · , gm )(x0 ) engendré par les champs de commande
est égal à n. I est vu comme idéal de l'algèbre de Lie A(f, g1 , · · · , gm )(x0 ) en-
gendrée par le champ f de la dynamique autonome et les champs de commande
gi , i = 1, · · · , m.
Dans le cas de champs de vecteurs seulement C ∞ , cette condition de rang est
susante mais pas nécessaire.
Remarque 9.
 L'idéal de Lie I(g1 , · · · , gm )(x0 ) s'obtient en considérant les champs de
commande, les crochets de ces champs avec le champ f , les crochets de
tous ces champs obtenus entre eux, à nouveau recrochetés par f , etc.
 Le rang de I(x0 ) est inférieur ou égal à n puisque les éléments de I(x0 )
appartiennent à Tx0 V , espace vectoriel tangent à V en x0 , de dimension
n.
 L'élément de l'algèbre de Lie A(f, g1 , · · · , gm )(x0 ) qui ne soit pas élé-
ment de I(x0 ) est précisément le champ f de la dynamique autonome du
système.
Prouver qu'un système non linéaire ane en la commande de la forme (4.16)
est localement faiblement commandable s'avère assez simple, puisque l'on est
ramené à vérier un critère algébrique donné par le théorème 4. Par contre,
tester la commandabilité locale au sens de la dénition 21 est plus complexe.
Une condition susante existe par exemple dans [SUS 87].
Les conditions de commandabilité et commandabilité faible sont confondues
pour les systèmes linéaires, mais aussi pour les systèmes non linéaires dont le
champ f de la dynamique autonome est nul (comme dans le cas de (4.17)). Cela
provient essentiellement du fait que ces systèmes sont symétriques par rapport
à la commande, c'est-à-dire ẋ(x, −u) = −ẋ(x, u).
Pour clore ce chapitre, nous allons considérer trois exemples.
- Le premier illustre le fait qu'un système non linéaire peut être faible-
ment localement commandable sans être localement commandable (voir
remarque 8).
- Le second, pouvant décrire les équations en rotation d'un corps rigide, met
en évidence qu'un système non linéaire peut être faiblement commandable
alors que son linéarisé tangent (système approximé au premier ordre) n'est
pas commandable et donc, en particulier, qu'il ne vérie pas le critère de
Kalman de commandabilité des systèmes linéaires [AND 00].
- Enn, le troisième montre que le critère du rang de l'idéal de Lie donné
par le théorème (4) appliqué à un système linéaire, n'est autre précisément
que le critère de commandabilité de Kalman.
164 Mathématiques pour les systèmes dynamiques

Exemple 5. On considère, sur R2 , le système non linéaire suivant :


     
ẋ1 x22 0
= + u. (4.18)
ẋ2 0 1

Si l'on applique le théorème 4, on vérie aisément que ce système est localement


faiblement commandable en tout point x, l'idéal I(x) étant de rang 2, engendré
par les champs de vecteurs :
   
0 2
g= et [[f, g], g] = .
1 0
 
−2x2
Notons pour l'exercice que [f, g] = .
0
Par contre, (4.18) n'est pas commandable, puisque le sous-espace atteignable
depuis l'état (x1,0 , x2,0 )T est le demi-plan {(x1 , x2 ) / x1 ≥ x1,0 }, qui ne consti-
tue pas un voisinage de x0 .
Exemple 6. On considère sur R3 les équations d'Euler d'un corps rigide en
rotation, qui peuvent représenter de manière simpliée l'évolution d'un satel-
lite :      
ẋ1 a1 x2 x3 b1
 ẋ2  =  a2 x1 x3  +  b2  u, (4.19)
ẋ3 a3 x1 x2 0
où u est une commande scalaire, les ai , i = 1, · · · , 3 et b1 , b2 sont des constantes
non nulles qui dépendent des moments d'inertie principaux du corps rigide. On
pourra supposer sans restriction :
a1 b22 6= a2 b21 . (4.20)
En appliquant une nouvelle fois le théorème 4 on vérie que (4.19) est loca-
lement faiblement commandable en tout point x, l'idéal I(x) étant de rang 3,
engendré par les champs de vecteurs :
     
b1 0 2a1 a3 b1 b22
g =  b2  , g1 = [[f, g], g] =  0  et [[f, g1 ], g] =  2a2 a3 b21 b2  ,
0 2a3 b1 b2 0

qui constituent trois champs de vecteurs indépendants compte tenu de l'hypo-


thèse (4.20).
Par contre, le linéarisé tangent du système au point d'équilibre (x, u) = (0, 0)
s'écrit :
   
0 0 0 b1
ẋ = Ax + Bu , avec A =  0 0 0  et B =  b2  .
0 0 0 0
Géométrie Diérentielle 165

Ce système linéaire est clairement non commandable d'après le critère de Kal-


man, puisque le rang de la matrice de commandabilité [B; AB; A2 B] vaut 1.
Exemple 7. Soit le système dynamique linéaire sur Rn en représentation
d'état :
ẋ = Ax + Bu, (4.21)
où le vecteur de commande est de dimension m ≤ n. On notera Bi , i = 1, · · · , m
les colonnes de la matrice B . Appliquons le théorème 4 à (4.21). Le champ f
et les champs de commande gi s'écrivent ici :
f = Ax , gi = Bi , i = 1, · · · , m.

On a clairement les égalités suivantes :


[f, gi ] = [Ax, Bi ] = −ABi ,

[f, [f, gi ]] = [Ax, −ABi ] = A2 Bi ,


adnf Bi = (−1)n An Bi .
Or, d'après le théorème de Cayley-Hamilton, on sait que An est combinaison
linéaire des Ai , i = 1, · · · , n − 1. Par conséquent, le système linéaire est com-
mandable si et seulement si le rang de [B; AB; · · · ; An−1 B] est égal à n, ce
qui constitue bien le critère de commandabilité de Kalman pour les systèmes
linéaires.

4.6. Bibliographie
[AND 00] d'Andréa-Novel B., Cohen de Lara M., Cours d'automatique. Com-
mande linéaire des systèmes dynamiques, Presses de l'École des Mines, 2000.
[CAR 82] Cartan H., Cours de calcul diérentiel, Hermann Paris, Collection Mé-
thodes, 1982.
[ISI 89] Isidori A., Nonlinear control systems, Springer-Verlag, Second Edition,
1989.
[NIJ 90] Nijmeijer H., Van der Schaft A.J., Nonlinear dynamical control sys-
tems, Springer-Verlag, 1990.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[SPI 79] Spivak M., A comprehensive introduction to dierential geometry, Second
Edition, vol. 1, Publish or Perish, Inc. Houston, Texas, 1979.
[SUS 87] Sussmann H.J., A general theorem on local controllability, SIAM Journal
of Control and Optimization, vol. 25, n◦ 1, p. 158-194, janvier 1987.
Chapitre 5

Equations diérentielles ordinaires

5.1. Introduction

Le calcul innitésimal (diérentiel) a tout naturellement conduit les scienti-


ques à énoncer certaines lois de la physique en termes de relations entre, d'une
part, des variables dépendantes d'une autre variable indépendante (en général
le temps) et, d'autre part, leurs dérivées : il s'agit là d'équations diérentielles
ordinaires (en abrégé, EDO ). L'un des précurseurs dans ce domaine fut Isaac
Newton (1642-1727) qui, dans son mémoire de 1687 intitulé Philosophiae na-
turalis principiae mathematica (les lois mathématiques de la physique) écrit :
 Data aequatione quotcunque uentes quantitae involvente uxiones invenire
et vice versa  (en langage moderne, il parle d'équations diérentielles). Dès
lors, de nombreux modèles de la physique ont étés énoncés par l'intermédiaire
d'EDO (dont, au XVIIe siècle, les équations d'Euler-Lagrange pour les systèmes
mécaniques). Nous donnerons tout d'abord quelques exemples issus de divers
domaines des sciences pour l'ingénieur.

5.1.1. Biologie

Une boîte de Petri contient des bactéries qui se développent sur un substrat
nutritif. En notant x le nombre de bactéries, un modèle simplié, dit modèle
logistique, est donné par :
dx
= ax(xmax − x), (5.1)
dt

où a est une constante strictement positive et xmax est le nombre maximal


de bactéries pouvant survivre dans la boîte de dimension donnée. En eet,
lorsqu'il y a peu de bactéries : ẋ ∼ ax (croissance exponentielle) et, lorsque x
est proche de xmax , la croissance est fortement ralentie puisque ẋ ∼ 0. Un autre
exemple célèbre, le modèle proie-prédateur de Volterra-Lotka, sera évoqué dans
le paragraphe 5.4.1.

Chapitre rédigé par Wilfrid Perruquetti.


168 Mathématiques pour les systèmes dynamiques

5.1.2. Chimie
Les diérents bilans (de matière, thermodynamique) peuvent, sous leur
forme simpliée, s'exprimer par des EDO. On considère par exemple une cuve
alimentée en produits chimiques A et B de concentrations respectives cA et cB
par l'intermédiaire de deux pompes de débits volumiques respectifs u1 et u2 .
Dans cette cuve, un mélangeur homogénéise les deux produits, qui réagissent
selon la réaction :
k1
nA A + nB B  nC C,
k2
où nA , nB et nC sont les coecients stochiométriques de chacun des compo-
sants. Le mélange est sous-tiré par un orice de section s à la base de cette
cuve de section S = 1 m2 . Le bilan de matière conduit, en utilisant la relation
de Bernouilli, à :
dh p
S = u1 + u2 − 2sgh,
dt
où h est la hauteur du mélange dans la cuve et g, l'accélération de la pesanteur
(9.81 ms−2 ). Les lois de la cinétique donnent la relation (sous l'hypothèse d'une
cinétique de second ordre) :
vcin = −k1 cA cB + k2 c2C .
Ainsi, les conservations de chacun des composants donnent :
d(hcA ) p
= u1 cA0 − 2sghcA − nA vcin h,
dt
d(hcB ) p
= u2 cB0 − 2sghcB − nB vcin h,
dt
d(hcC ) p
= − 2sghcC + nC vcin h,
dt
avec cA0 = cA (entrant) et cB0 = cB (entrant) . En notant x = (h, hcA , hcB , hcC )T
le vecteur d'état, on obtient le modèle :
 √ √

 ẋ1 = u1 + u2 −q 2sg x1 ,

 (−k1 x2 x3 +k2 x24 )

 ẋ2 = u1 cA0 −
2sg
x1 x2 − nA ,
q x1
(5.2)
2sg (−k1 x2 x3 +k2 x24 )

 ẋ3 = u2 cB0 − x1 x3 − nB ,

 q x1
 2
 ẋ4 = − 2sg x4 + nC (−k1 x2 x3 +k2 x4 ) .
x1 x1

5.1.3. Electricité
On considère un système électrique constitué d'une résistance R, d'une in-
ductance L et d'une capacité C montées en triangle. On note respectivement
Equations diérentielles ordinaires 169

iX et vX le courant et la tension dans la branche comportant l'élément X . On


suppose que les éléments L et C sont parfaitement linéaires et que l'élément
résistif R obéit à la loi d'Ohm généralisée (vR = f (iR )). Les lois de Kircho
permettent d'obtenir :

L didtL = vL = vC − f (iL ),
(5.3)
C dvdtC = iC = −iL.

Si dans cette EDO, dite équation de Liénard, on considère le cas particulier


où f (x) = (x3 − 2µx), on abouti à l'équation de Van der Pol.

5.1.4. Electronique

Figure 5.1. Montage PI avec amplicateurs opérationnels

Le montage  PI  (proportionnel-plus-intégral) de la gure 5.1 a pour mo-


dèle, sous des hypothèses simplicatrices de linéarité :

dus due R4 R3 R1 C R6
Ti = k(ue + Ti ), Ti = , k= .
dt dt R5 R2 R4 R1 C

5.1.5. Electrotechnique

Pour un moteur pas à pas ayant au rotor n dents de polarité Nord et autant
de polarité Sud, les diérents bilans électromagnétiques (dans le repère dq , dit
170 Mathématiques pour les systèmes dynamiques

de Park) donnent :
did
Ld = vd − Rid + nLq ωiq ,
dt
diq
Lq = vq − Riq − nLd ωid − nmir ω,
dt
Cem = n(Ld − Lq )id iq + nmir iq + Kd sin(nθ),

où m et ir sont l'inductance et le courant ctif du rotor, générant le ux


(constant) mir dû à l'aimantation permanente ; id , iq , vd , vq sont les courants
et tensions du stator [COR 99]. Le bilan mécanique s'écrit :

= ω,
dt

J = Cem − Ccharge .
dt

5.1.6. Mécanique
Si un système mécanique est constitué de n éléments reliés entre eux par des
liaisons parfaites (sans frottement), on aura la position du système qui dépen-
dra de n paramètres indépendants (coordonnées généralisées notées q1 , . . . , qn ).
Pour écrire les équations d'Euler-Lagrange, il faut déterminer le lagrangien (dif-
férence entre l'énergie cinétique et l'énergie potentielle) :
L = Ec − Ep , (5.4)
le travail élémentaire de chaque force interne et externe Di , ainsi que le travail
des forces de frottement :
∂D
− dqi ,
∂ q̇i
donnant lieu à l'énergie dissipée D. On obtient alors le système d'équations
d'Euler-Lagrange :
d ∂L ∂L ∂D
( )− + = Di . (5.5)
dt ∂ q̇i ∂qi ∂ q̇i

Notons que l'énergie cinétique Ec = 12 q̇ T M (q)q̇ , où M (q) est une matrice


n × n symétrique dénie positive (voir dénition 34), dépend des qi et de leurs
dérivées q̇i , alors que l'energie potentielle Ep ne dépend que des qi . Pour un
2
pendule pesant d'angle θ avec la verticale, on a L = 12 ml2 θ̇ − mgl(1 − cos(θ)).
Si l'on néglige les frottements, ceci conduit à :
g
θ̈ = − sin(θ). (5.6)
l
Equations diérentielles ordinaires 171

Si de plus on tient compte d'un frottement sec, on peut voir apparaître une
discontinuité sur θ̈ (qui peut ne pas être dénie à vitesse nulle). Aussi, pour ce
type de modèle, on est amené à préciser la notion de solution et à donner des
conditions susantes d'existence et/ou d'unicité de solution : ceci sera l'objet
de la section 5.3, qui développera plus particulièrement les EDO du premier
ordre. Les EDO sous forme implicite seront abordées à la section 5.2. Au-delà
des conditions d'existence, il est important pour l'automaticien de pouvoir ca-
ractériser les comportements asymptotiques de ces solutions (la section 5.4
concernera les points d'équilibre, attracteurs étranges, etc. ; la section 5.5 trai-
tera du cas particulier des systèmes linéaires) et de disposer d'outils d'analyse
permettant de les localiser et de caractériser l'évolution temporelle des solu-
tions vers ces ensembles (sections 5.6, 5.7 et 5.8). Enn, de nombreux systèmes
physiques font intervenir, dans la description de leurs dynamiques au moyen
des EDO, des paramètres dont les variations peuvent conduire à des modica-
tions qualitatives des solutions (bifurcations et, parfois,  catastrophes ) : ceci
fera l'objet de la section 5.9.

5.2. Equations diérentielles ordinaires sous forme implicite

5.2.1. Dénitions
Une EDO sous forme implicite est une relation :
 
dy dk y
F t, y, , . . . , k = 0, y ∈ Rm , (5.7)
dt dt
où la fonction F est dénie sur un ouvert de R × Rm(k+1) à valeur dans Rm .
L'ordre de l'EDO est l'entier k correspondant à la dérivée d'ordre le plus élevé
apparaissant dans (5.7). Notons que (5.1), (5.2) et (5.6) sont des EDO d'ordres
respectifs 1, 1 et 2. Le théorème de la fonction implicite garantit que ce système
(5.7) de m équations peut se mettre (localement) sous forme explicite :
 
dk y dy dk−1 y
= G t, y, , . . . , , (5.8)
dtk dt dtk−1
à condition que :
det (JF ) 6= 0,
où JF est la matrice jacobienne de F c'est-à-dire la matrice constituée des
éléments aij =  ∂F i 
d k xj
, (i, j) ∈ {1, . . . , m}2 .

dtk

En particulier, soit F est une fonction de classe C 1 par rapport à chacune


de ses variables, telle que F (t, x, z) = 0 admette p racines en la variable z .
172 Mathématiques pour les systèmes dynamiques



∂z (t0 ,x0 ) ) 6= 0, alors il existera p solutions locales dites régulières,
Si det( ∂F

solutions de F (t, x, ẋ) = 0, x(t0 ) = x0 . Par contre, si det( ∂F
∂z (t0 ,x0 ) ) = 0, alors
on ne peut rien armer sans faire une étude approfondie et toute solution
sera dite singulière. Par exemple y : t 7→ t2 /4, est une solution singulière
.
de l'équation ẏ 2 − tẏ + y = 0 au voisinage de (y, y) = (0, 0). Par ailleurs,
y : t 7→ sin(arcsinh(t)) est une solution régulière de (1 + t2 )ẏ 2 + (−1 + y 2 ) = 0
au voisinage de (0, 0).

5.2.2. Quelques équations particulières


Equations de Lagrange et de Clairaut

Une EDO de la forme :


   
dx dx
x + tf +g = 0, (5.9)
dt dt
est dite de Lagrange. Lorsque f = Id, elle sera dite de Clairaut. De façon à
résoudre ce type d'équations, on cherche une représentation paramétrée des
solutions : pour cela, on pose dxdt = m et x = x(m), t = t(m), ce qui ramène la
résolution de (5.9) à celle de :
dt
(m + f (m)) + f 0 (m)t = −g 0 (m),
dm
qui est linéaire du premier ordre en t.
Exemple 1. La résolution de l'équation x + 2tẋ + ẋ3 =√ 0 se ramène à celle de
8
3
1 −3( m) +8C1
dt
3m dm + 2t = −3m2 , qui a pour solution t (m) = 8 √ 2 . Les solutions
( 3 m)
paramétrées de la première équation sont donc :
√ 8
1 √ 1 −3 ( 3 m) + 8C1
x(m) = − m3 − 2 3 mC1 , t (m) = √ 2 .
4 8 ( 3 m)

Equation de Bernouilli

Une EDO de la forme :


dx
+ f (t)x + g(t)xr = 0, (5.10)
dt
est dite de Bernouilli. Les cas r = 0 ou r = 1 sont triviaux. Dans le cas général,
on utilise le changement de variable y = x1−r , conduisant à la résolution de
Equations diérentielles ordinaires 173

l'EDO :
1 dy
+ f (t)y + g(t) = 0,
1 − r dt
qui est linéaire du premier ordre en y .
Exemple 2. La résolution de l'équation dx dt + sin(t)x + sin(t)x = 0, en posant
4

y = x , se ramène à celle de
−3
 − 3 dt + sin(t)y + sin(t) = 0, qui admet pour
1 dy

solution y (t) = −e3 cos t + C1 e−3 cos t .

Equation de Riccati

Certaines équations ne sont pas intégrables (c'est-à-dire que l'on ne peut


exprimer les solutions de façon explicite avec des fonctions de l'analyse). Par
exemple l'équation de Riccati :
dx
+ f (t)x + g(t)x2 + h(t) = 0,
dt
n'est pas intégrable si f, g, h (fonctions continues) ne satisfont pas certaines
relations particulières.

5.3. Equations diérentielles du premier ordre

Notons que, lorsque la variable y de l'équation implicite (5.7) appartient


à un ensemble plus général qu'un produit cartésien d'ouvert de R, alors en
 k−1
T
posant x = y, dy d y
dt , . . . , dtk−1 , l'équation explicite (5.8) peut se mettre sous
la forme :
dx
= f (t, x), t ∈ I, x ∈ X . (5.11)
dt
Dans cette équation : t ∈ I ⊂ R représente la variable temporelle, X est l'espace
d'état 1 . En pratique, l'espace d'état peut être borné : il reète les caractéris-
tiques physiques du système (bornitude des performances). De façon générale,
l'espace d'état est une variété diérentiable. Lorsque le vecteur x s'exprime à
l'aide d'une variable et de ses dérivées successives, X est aussi appelé espace de
phase. Cependant, certains auteurs ([ARN 88] p. 11) emploient indiéremment
les deux dénominations. Le vecteur x ∈ X correspondant est le vecteur d'état de
(5.11) (ou de phase par abus de langage). En pratique, il est construit à partir
des variables dont l'évolution régit celle du processus physique. x(t) est l'état
instantané à l'instant t. f : I × X → T X (espace tangent ), (t, x) 7→ f (t, x),
représente le champ de vecteurs. An de simplier la suite de l'exposé, on se
placera dans le cas où I × X est un ouvert de Rn+1 et T X est Rn .
1 Vocabulaire de l'automatique.
174 Mathématiques pour les systèmes dynamiques

5.3.1. Notion de solution


Lorsqu'on parle de solution, il faut préciser le problème associé : ici, pour les
EDO, il existe le problème aux conditions limites ou frontières2 et le problème
aux conditions initiales, (dit de Cauchy, en abrégé PC) :

 existe-t-il une fonction φ : I ⊂ R → X ⊂ Rn , t 7→ φ(t),
(PC) :
satisfaisant (5.11) avec la condition initiale suivante : φ(t0 ) = x0 ? 

On cherche une fonction du temps φ : t 7→ φ(t), qui soit susamment


régulière et dont la dérivée soit égale à presque tout instant3 à la valeur du
champ à cet instant et en ce point x = φ(t). Si f (u, φ(u)) est mesurable4 , alors
on peut exprimer φ(t) sous la forme :
Z t
φ(t) = φ(t0 ) + f (v, φ(v))dv, (5.13)
t0

l'intégration étant prise au sens de Lebesgue [RIC 01] et ce, même si t 7→ f (t, .)
n'est pas continue en t (cas intéressant en automatique, car pour ẋ = g(t, x, u)
un retour u = u(t) discontinu peut être envisagé). Ainsi, on cherchera des
fonctions au moins absolument continues5 par rapport au temps.

Solutions, portrait de phase

Dénition 1. On appelle solution de (5.11) passant par x0 à t0 , toute fonction


φ absolument continue dénie sur un intervalle non vide I(t0 , x0 ) ⊂ I ⊂ R
contenant t0 :
φ : I(t0 , x0 ) ⊂ I ⊂ R → X ⊂ Rn ,
t 7→ φ(t; t0 , x0 ),
notée plus simplement φ(t), satisfaisant (5.13) pour tout t ∈ I(t0 , x0 ) (ou, de
façon équivalente : φ̇ = f (t, φ(t)) presque partout sur I(t0 , x0 )) et telle que
φ(t0 ) = x0 .
2 Enoncé similaire au problème de Cauchy, mais pour lequel la condition initiale est rem-

placée par la donnée de n valeurs φσ(i) (ti ) aux instants ti donnés, i ∈ N = {1, . . . , n},
σ : N → N.
3 C'est-à-dire pour tous les temps t ∈ T \ M, M étant un ensemble de mesure nulle, avec

la notation ensembliste T \ M = {x ∈ T : x ∈ / M}.


4 Cette condition est vériée si, pour x xé, t 7→ f (t, x) est mesurable et pour t xé,

x 7→ f (t, x) est continue [RIC 01].


5
φ : [α, β] 7→ Rn est absolument P continue si ∀εP > 0, ∃δ(ε) > 0 :
∀ {]αi , β i [}i∈{1..n} , ]αi , β i [⊂ [α, β], n
i=1 (β i − αi ) ≤ δ(ε) ⇒
n
i=1 kφ(β i ) − φ(αi )k ≤ ε.
φ est absolument continue si et seulement s'il existe une fonction (Lebesgue intégrable) qui
soit presque partout égale à la dérivée de φ.
Equations diérentielles ordinaires 175

Exemple 3. En séparant ses variables, l'équation du modèle logistique (5.1)


devient :
dx
= dt,
ax(xmax − x)
qui permet de construire la solution au PC (5.1), x(0) = x0 :

φ : R → R,
x0 xmax
t 7→ φ(t; 0, x0 ) = . (5.14)
x0 + e−axmax t (xmax − x0 )
Dénition 2. La solution de (5.11) peut être représentée dans deux espaces :
 soit dans l'espace d'état étendu I × X ou espace du mouvement, dans ce
cas, on parle de mouvement ou de trajectoire,
 soit dans l'espace d'état X , dans ce cas, on parle d' orbite.
On appelle portrait de phase l'ensemble de toutes les orbites munies de leurs
sens de parcours temporel.
Bien souvent, par commodité on ne représente que les ensembles de points
d'accumulation vers lesquels les orbites convergent pour des temps très grands
(positifs ou négatifs). Par exemple, pour le système :
 
dx 1 − x21 − x22 −1
= x, t ∈ R, x ∈ R2 , (5.15)
dt 1 1 − x21 − x22

les éléments importants du portrait de phase sont l'origine et le cercle unité


C1 : si la condition initiale est diérente de l'origine, les orbites convergent vers
C1 ; sinon, l'état reste gé à l'origine (voir gure 5.2).

Figure 5.2. Cercle unité : simulation de (5.15)


176 Mathématiques pour les systèmes dynamiques

Existence

Le problème de Cauchy (PC) n'a pas forcément de solution et, parfois, peut
en avoir plusieurs. En eet, le système :
dx 1
= |x| 2 , x ∈ R, (5.16)
dt
x(0) = 0,
admet une innité de solutions dénies par :
ε ∈ R+ , φε : R → R,


 0 si t0 − ε ≤ t ≤ t0 + ε,
(t−t0 −ε)2
t 7→ φε (t) = 4 si t0 + ε ≤ t, (5.17)

 2
− (t−t04+ε) si t ≤ t0 − ε.

Figure 5.3. Innité de solutions au PC (5.16)

Ainsi, il se pose le problème de donner des conditions assurant l'existence


d'une ou de plusieurs solutions au problème de Cauchy.
Selon la régularité de la fonction f on distingue les cinq cas A, B, C, D, E
qui suivent.
Cas A) Si la fonction f est continue en x et éventuellement discontinue en t
(mais mesurable), alors il y a existence de solutions absolument continues.
Théorème 1 (de Carathéodory, 1918). [FIL 88] Supposons que :
A1) f soit dénie pour presque tout t sur un tonneau :
T = {(t, x) ∈ I × X : |t − t0 | ≤ a, kx − x0 k ≤ b} , (5.18)
Equations diérentielles ordinaires 177

A2) f soit mesurable en t pour tout x xé, continue en x pour t xé et telle
que, sur T , on ait kf (t, x)k ≤ m(t), où m est une fonction positive Lebesgue-
intégrable sur |t − t0 | ≤ a.
Alors, il existe au moins une solution (absolument continue) au problème de
Cauchy dénie sur au moins un intervalle [t0 − α, t0 + α], α ≤ a.
On peut même montrer l'existence de deux solutions, l'une dite supérieure
et l'autre, inférieure, telles que tout autre solution soit comprise entre ces deux
solutions [FIL 88, LAK 69].
Cas B) Si la fonction f est continue en (t, x), alors il y a existence de solutions
de classe C 1 .
Théorème 2 (de Peano, v.1886). [COD 55] Supposons que :
B1) f soit dénie pour tout t sur un tonneau T déni par (5.18),
B2) f soit continue sur T déni par (5.18).
Alors il existe au moins une solution au problème de Cauchy de classe C 1 dénie
sur au moins un intervalle [t0 − α, t0 + α], α = min(a, maxT kfb (t,x)k ).

Figure 5.4. Approximation d'Euler

La preuve est basée sur les approximations d'Euler. Ce sont les lignes poly-
gonales (voir la gure 5.4) dénies par :

 φ0 = x0 ,
φ (t) = φn (ti−1 ) + f (ti−1 , φn (ti−1 ))(t − ti−1 ), ti−1 < t ≤ ti ,
 n
ti = t0 + ni α, i = {0, . . . , n},

dont on montre qu'elles constituent une famille équicontinue de fonctions dé-


nies sur [t0 − α, t0 + α], convergente, dont on peut extraire une sous-suite φ0n
uniformément convergente vers une fonction continue φ (lemme d'Ascoli-Arzela
178 Mathématiques pour les systèmes dynamiques

[RIC 01]) qui vérie :


Z t
φ(t) = lim φ0n (t) = x0 + lim f (v, φ0n (v))dv
n→+∞ t0 n→+∞
Z t
dφ0n
+ lim (v) − f (v, φ0n (v))dv.
n→+∞ t0 dt

dφ0n
φ est donc solution de (5.13) puisque limn→+∞ dt (v) − f (v, φ0n (v)) = 0.

Prolongement de solution, unicité, solution globale

p Evidement, pour l'exemple (5.16), il y a existence de solution (f : x 7→


|x| est continue) mais pas unicité. Pour garantir l'unicité, il faut donc que la
fonction f soit  plus que continue  : par exemple il sut qu'elle soit localement
lipschitzienne en la seconde variable x, comme suit.
Dénition 3. f est dite localement lipschitzienne sur X si :

∀x0 ∈ X , ∃δ > 0 et k(t) intégrable :


∀(x, y) ∈ Bδ (x0 ) ⇒ kf (t, x) − f (t, y)k ≤ k(t) kx − yk .

f est dite globalement lipschitzienne sur X si :

∃k(t) intégrable : ∀(x, y) ∈ X 2 ,


kf (t, x) − f (t, y)k ≤ k(t) kx − yk .

Ces propriétés sont dites uniformes si k ne dépend pas de t.


Proposition 1. Toute fonction C 1 (I × X ) dont la norme de la jacobienne est
bornée par une fonction intégrable, est localement lipschitzienne. De plus, si X
est compact (fermé, borné), elle est globalement lipschitzienne.
Sous l'hypothèse f localement lipschitzienne en x, il se peut qu'une solution
φ dénie sur I1 puisse être prolongée sur un intervalle I2 ⊃ I1 , dénissant ainsi
une fonction φe dénie sur I2 ⊃ I1 et telle que φ e | I1 = φ. Aussi, an de ne pas
alourdir les notations, I(t0 , x0 ) =]α(t0 , x0 ), ω(t0 , x0 )[ désignera par la suite le
plus grand intervalle sur lequel on peut dénir une solution passant à t0 par x0
et qui ne puisse être prolongée : la solution sera dite maximale.
Cas C) Si la fonction f est localement lipschitzienne en x et éventuellement
discontinue en t (mais mesurable), alors il y a existence et unicité de solution
(maximale) absolument continue.
Théorème 3. Si, dans le théorème 1, l'hypothèse de continuité dans A2) est
remplacée par  f localement lipschitzienne sur kx − x0 k ≤ b , alors il existe
Equations diérentielles ordinaires 179

une unique solution (absolument continue) au problème de Cauchy dénie sur


I(t0 , x0 ) ⊃ {t ∈ I : |t − t0 | ≤ α}.
De même, si f est continue en (t, x) et localement lipschitzienne en x, alors il
existe une unique solution au problème de Cauchy de classe C 1 .
Les preuves de ces résultats sont basées sur les approximations de Picard-
Lindelöf :


 φ0 = x0 , Rt
φn+1 (t) = x0 + t0 f (v, φn (v))dv,

 t ∈ [t0 − α, t0 + α], α = min(a, b
maxT kf (t,x)k ),

dont on montre qu'elles convergent uniformément vers une solution. L'unicité


de la solution se démontre ensuite par contradiction.
Cas D) Si la fonction f est bornée en norme par une fonction ane, c'est-
à-dire que ∀(t, x) ∈ (I × X ) : kf (t, x)k ≤ c1 kxk + c2 (éventuellement presque
partout), alors en utilisant le lemme de Gronwall [RIC 01], on peut conclure
que toute solution au PC est dénie sur I .
Cas E) Si le système possède une propriété de  dissipativité  et si
f est
localement lipschitzienne, alors le PC admet une solution maximale unique
dénie pour tout t ≥ t0 (I = R, X = Rn ).
La propriété de dissipativité peut être exprimée sous la forme :  il existe
α ≥ 0, β ≥ 0, v ∈ Rn tels que pour tout t ∈ R et tout x ∈ Rn : < x −
v, f (t, x) >≤ α − β kxk2  ou bien, à l'aide de fonctions de Liapounov6 (voir
paragraphe 5.7.2), sous la forme  il existe V et W : Rn 7→ R+ continues, dénies
positives sur un compact A (c'est-à-dire : V (x) = 0 ⇔ x ∈ A), telles que pour
tout t ∈ R et tout x ∈ Rn \A 7 : < ∂V ∂x , f (t, x) >≤ −W (x).

Dépendance des conditions initiales

Théorème 4. Sous les hypothèses du théorème 3, la solution au problème de


Cauchy t 7→ φ(t; t0 , x0 ) dénie sur I(t0 , x0 ) est continue par rapport à chacun
de ses arguments.
En particulier, si t est susamment proche de t0 , alors φ(t; t0 , x0 ) est proche
de x0 . Cette proximité peut être étudiée pour des instants très grands : c'est
la question de la stabilité (voir paragraphe 5.4.2).
6 Alexander Mikhaïlovich Liapounov, mathématicien et physicien russe. Après des études

à l'université de Saint-Pétersbourg (où il est élève de P.L. Tchebychev), il est assistant puis
professeur à l'université de Kharkov. En 1902, il est nommé professeur à l'université de Saint-
Pétersbourg.
7 On notera A\B la diérence ensembliste de A et B : A\B = {x ∈ A : x ∈ / B}.
180 Mathématiques pour les systèmes dynamiques

5.3.2. Classication
Dénition 4. L'équation (5.11) est dite autonome si la variable temporelle
n'apparaît pas explicitement dans l'EDO :
dx
= g(x), t ∈ I, x ∈ X.
dt
Dans le cas contraire, elle est dite non autonome.
Si l'on connaît les solutions d'une EDO autonome passant à un instant
t donné par un point x donné, alors on obtient toutes les solutions passant
par ce même point à d'autres instants par simple translation temporelle des
premières. Donc, une EDO autonome ne peut servir qu'à modéliser des phéno-
mènes physiques indépendants du temps initial (chute d'un corps, etc.). Notons
au passage que la longueur de I(t0 , x0 ) ne dépend pas de l'instant initial.
Dénition 5. On dit qu'un champ de vecteurs non linéaire non autonome
f (t, x) est T −périodique s'il existe un réel T > 0 tel que pour tout t et pour
tout x : f (t + T, x) = f (t, x).
Dans ce cas, si l'on connaît les solutions pour un intervalle de longueur T ,
on aura toutes les autres par translation temporelle.

Cas linéaire autonome

Lorsque (5.11) est de la forme :


dx
= Ax + b,
dt
on dit qu'il s'agit d'une EDO linéaire autonome. Il existe alors une solution
unique au PC (puisque Ax + b est globalement uniformément lipschitzienne)
de la forme : Z 
t
x(t) = eA(t−t0 ) x0 + eAt e−Av dv b,
t0
P
ou encore x(t) = ri=1 eλi t pi (t) + c, avec λi les valeurs propres de A et pi (t) des
vecteurs de polynômes de degrés plus petits que l'ordre de multiplicité de la
valeur propre correspondante λi . La section 5.5 donne des résultats plus précis
lorsque b = 0.
Ce type de modèle caractérise des phénomènes pour lesquels :

1. l'instant initial n'a pas d'inuence sur l'évolution temporelle du vecteur


état (EDO autonome) ;
Equations diérentielles ordinaires 181

2. si b = 0 (respectivement, b 6= 0), alors une combinaison linéaire (respec-


tivement, convexe) d'évolutions est encore une évolution possible : ceci
traduit la linéarité du système.

Pour de tels systèmes, on peut noter que, au bout d'un temps inni, les
diérentes variables dénissant le vecteur x :

1. soit convergent vers un vecteur (le vecteur x évoluant vers un vecteur xe
dit  point d'équilibre ),
2. soit divergent (la norme de x devient inniment grande),
3. soit ont un comportement oscillatoire : lorsqu'on observe leurs évolu-
tions les unes en fonction des autres, elles évoluent sur une courbe fermée
(comme le cercle) : c'est ce qu'on appelle un cycle fermé (exemples : cycle
économique, population cyclique, masse attachée à un ressort, etc.).

Enn, si A et b dépendent du temps, le système est dit linéaire non autonome


(ou non stationnaire ) : en plus des comportements précités on retrouve la dé-
pendance des solutions à l'instant initial . Notons que lorsque A(t) est une fonc-
tion T −périodique continue sur R, on peut étudier formellement les solutions
grace à la théorie de Floquet [HAH 67] : il existe alors une transformation bijec-
tive P (t) T −périodique et continue, z(t) = P (t)x(t), telle que ż = M z + c(t),
avec M une matrice constante vériant M = Ṗ (t) + P (t)A(t)P (t)−1 et
c(t) = P (t)b(t).

Cas non linéaire autonome

Lorsque (5.11) est de la forme :


dx
= g(x), (5.19)
dt
on dit qu'il s'agit d'une EDO non linéaire autonome. On ne peut lui donner de
solution explicite, sauf dans des cas très particuliers. Outre les comportements
précités dans le cas linéaire autonome, on peut mentionner :

1. cycles limites : il s'agit de courbes fermées de X vers ou à partir desquelles


les trajectoires du système se dirigent ;
2. phénomène de chaos : ces comportements, régis par des EDO (déter-
ministes), sont en apparence aléatoires. Une des caractéristiques est la
sensibilité aux conditions initiales : deux conditions initiales très proches
donneront naissance à deux évolutions complètement diérentes (voir sec-
tion 5.9) ;
182 Mathématiques pour les systèmes dynamiques

3. attracteur étrange : il s'agit en général d'un ensemble de dimension non


entière, ce qui traduit une certaine  rugosité  de l'objet. Par exemple,
une surface est de dimension 2, un volume est de dimension 3, alors
qu'un ocon de neige ayant une innité de ramications est de dimension
non entière comprise entre 2 et 3. Lorsque les trajectoires se dirigent
vers (respectivement s'éloignent de) cet ensemble, il est dit  attracteur
(respectivement répulseur) étrange . Souvent la présence d'attracteurs
ou répulseurs étranges est un signe du chaos, cependant dans certains cas
le phénomène chaotique n'est que transitoire et disparaît au bout d'un
temps susamment long (voir paragraphe 5.9.3).

5.3.3. Notion de ot

Dans cette partie, on suppose l'existence et l'unicité de la solution (maxi-


male) au PC associé à (5.19), que l'on notera φ(t; t0 , x0 ). Si le champ est com-
plet, c'est-à-dire I(x0 ) = R, et si l'on connaît une solution pour un couple
(t0 , x0 ), alors on aura toutes les autres (pour x0 xé) par translation tempo-
relle. Considérons l'application qui, à toute condition initiale, associe sa solution
maximale à l'instant t :

Φtg : X → X ,
x0 7→ φ(t; 0, x0 ).

Dénition 6. Si le champ de vecteurs g de l'EDO (5.19) permet de générer une


solution maximale unique pour tout (t0 , x0 ) de R × X , dénie sur I(x0 ) = R
(respectivement sur [α, ∞[, sur [α, ω] avec α et ω nis), alors l'application
génératrice Φtg est appelée un ot (respectivement un semi-ot, un ot local).
D'après les hypothèses, Φtg est bijective, donc on a au moins un ot local.
La justication du choix de la notation Φtg devient évidente lorsqu'on calcule le
ot d'une EDO linéaire autonome homogène : ẋ = Ax, Φtg = eAt . Dans le cas
où g est de classe C k (respectivement C ∞ , analytique), le ot associé Φtg est un
diéomorphisme local de classe C k (respectivement C ∞ , analytique) pour tout
instant t où il est déni. En particulier, si le ot Φtg est déni pour tout t ∈ R,
alors il dénit un groupe à un paramètre de diéomorphismes locaux de classe
C k (respectivement C ∞ , analytique) (voir [ARN 88] p. 55 à 63) :

Φtg : x0 7→ Φtg (x0 ) est de classe C ∞ , (5.20)


Φtg ◦ Φsg = Φt+s
g , (5.21)
Φ0g = Id. (5.22)
Equations diérentielles ordinaires 183

On en déduit, ∀t ∈ R, ∀x0 ∈ X :
Φtg (x0 ) = Φ−t
−g (x0 ), (5.23)
Φtg ◦ Φ−tg = Φt−t
g = Id, (5.24)
t −1 −t
(Φg ) = Φg = Φt−g . (5.25)

La dualité caractérisée par (5.25) est importante puisque, si l'on connaît


le portrait de phase du système dynamique (5.19) pour les temps positifs,
son dual pour les temps négatifs s'obtient tout simplement en renversant
le sens de parcours des orbites : cette propriété est utilisée dans la mé-
thode du renversement des trajectoires (en anglais, trajectory reversing me-
thod ) permettant, en dimension deux (et parfois trois), de déterminer pré-
cisément la plupart des portraits de phase en alliant l'étude qualitative du
champ de vecteurs non linéaire à des simulations (pour plus de détails, voir
[CHI 88, CHI 89, GEN 84, GEN 85, PER 94]).
Le crochet de Lie (ou commutateur, voir chapitre 4) déni par :
 
∂g2 ∂g1
[g1 , g2 ] = g1 − g2 ,
∂x ∂x
permet de calculer la condition de commutativité de deux ots Φtg1 et Φsg2 .
Théorème 5. Soient g1 et g2 des champs de vecteurs C ∞ complets, dénis sur
X (par exemple Rn ). Alors :
∀t, ∀s, Φtg1 ◦ Φsg2 = Φsg2 ◦ Φtg1 ⇔ [g1 , g2 ] = 0.
Démonstration : soient x0 ∈ Rn et t, s > 0 donnés. Pour un champ de vecteurs
analytique X , on a ΦtX (y) = y + tX(y) + R(t, y), où R(t, y) représente un reste
s'annulant pour t → 0. On obtient donc :
∂g1
Φtg1 ◦ Φsg2 (x0 ) = x0 + (sg2 (x0 ) + tg1 (x0 )) + st g2 (x0 ) + R1 (t, s, x0 ),
∂x
∂g2
Φsg2 ◦ Φtg1 (x0 ) = x0 + (sg2 (x0 ) + tg1 (x0 )) + st g1 (x0 ) + R2 (t, s, x0 ),
∂x
et donc :
Φtg1 ◦ Φsg2 (x0 ) − Φsg2 ◦ Φtg1 (x0 ) = st[g2 , g1 ](x0 ) + R3 (t, s, x0 ).
Prenons t = s, alors l'implication est immédiate. Pour la réciproque, [g1 , g2 ] =
Φ−t ◦Φs ◦Φt (x0 )−Φsg1 (x0 )
0 ⇒ ∀x0 ∈ Rn : limt→0 ( g2 g1 g2t ) = 0. Soit la trajectoire x(t) =
g2 ◦ Φg1 ◦ Φg2 (x0 ), alors ẋ(t) = 0, donc Φg2 ◦ Φg1 ◦ Φg2 = Φg1 .
Φ−t s t −t s t s

En automatique, la non-commutativité des champs a une application très


importante puisqu'elle permet de caractériser l'atteignabilité (version locale de
la commandabilité) d'un système commandé du type ẋ = g1 (x) + g2 (x)u (voir
chapitre 4 et [ISI 89]).
184 Mathématiques pour les systèmes dynamiques

5.3.4. Comparaison de solutions, inégalités diérentielles


Dans cette partie, les inégalités vectorielles seront à comprendre composante
à composante et D est un opérateur de dérivation (dit de Dini ) : Dx(t) =
(Dx1 (t), . . . , Dxn (t)), où les dérivées Dxi (t) sont toutes dénies par l'une des
quatre limites suivantes :
xi (t + θ) − xi (t) xi (t + θ) − xi (t)
D+ xi (t) = lim inf , D+ xi (t) = lim sup ,
θ→0+ θ θ→0+ θ
D− xi (t) et D− xi (t) dénies de façon similaire pour les limites par valeurs
inférieures (θ → 0− ).
Soit S ⊂ I un ensemble de mesure nulle. On considère les relations dié-
rentielles suivantes :
Dx(t) ≤ f (t, x), t ∈ I\S, x ∈ X , (5.26)
dz
= f (t, z), t ∈ I\S, z ∈ X . (5.27)
dt

On se pose le problème de savoir sous quelles conditions les solutions de


(5.27) majorent celles de (5.26). Dans ce cas, (5.27) constituera un système
majorant de (5.26), dont l'utilisation est intéressante pour l'analyse des com-
portements des solutions d'une EDO (voir paragraphe 5.7.8). La contribution de
Waºewski [WAZ 50] (précédée de [KAM 32] et complétée par celle de Lakshmi-
kantham et Leela [LAK 69]) est certainement l'une des plus importantes puis-
qu'elle donne des conditions nécessaires et susantes pour que les solutions du
problème de Cauchy associé à (5.26) avec x0 donné à t0 , soient majorées par
la solution supérieure de (5.27) démarrant de z0 ≥ x0 à l'instant t0 .
Dénition 7. La fonction f : I × X → X ⊂ Rn , (t, x) 7→ f (t, x) est quasi
monotone non-décroissante en x si :
∀t ∈ I, ∀(x, x0 ) ∈ X 2 , ∀i ∈ {1, . . . , n},
[(xi = x0i ) et (x ≤ x0 )] ⇒ fi (t, x) ≤ fi (t, x0 ). (5.28)
Théorème 6. Supposons que :
1) f (t, x) vérie les hypothèses A1-A2 du théorème 1 d'existence de solution,
2) f (t, x) est quasi monotone non-décroissante en x presque partout en t
(∀t ∈ I\S ).
Alors, pour tout x0 ∈ X , les solutions du problème de Cauchy associé à (5.27)
vérient :
x(t) ≤ zsup (t), (5.29)
pour tout instant où les quantités x(t) et zsup (t) ont un sens, avec zsup (t) la
solution supérieure de (5.26) démarrant de z0 ∈ X , avec x0 ≤ z0 .
Equations diérentielles ordinaires 185

5.4. Quelques caractérisations de comportements

Sauf mention explicite, l'EDO considérée est (5.11), pour rappel :


dx
= f (t, x), t ∈ I, x ∈ X.
dt

5.4.1. Ensembles remarquables


Points d'équilibre

Pour certaines conditions initiales, le système reste  gelé , c'est-à-dire que


l'état n'évolue plus : on parlera alors de points d'équilibre.
Dénition 8. xe ∈ X est un point d'équilibre pour le système (5.19) si les
solutions φ(t; 0, xe ) de (5.19) sont dénies sur [0, +∞[ et vérient :
φ(t; 0, xe ) = xe , ∀t ∈ [0, +∞[.
Exemple 4. La solution au problème de Cauchy (5.1), x(0) = x0 , est donnée
par (5.14). Il est facile de vérier que x = 0 et x = xmax sont des points
d'équilibre.
On peut donner une dénition similaire pour (5.11) en tenant compte du fait
que les solutions dépendent alors de l'instant initial. Ainsi, un point peut n'être
d'équilibre que pour certains instants initiaux. Si xe est un point d'équilibre,
alors pour que le système reste en ce point il faut que la vitesse soit nulle,
c'est-à-dire que g(xe ) = 0. Cependant, cette condition seule n'est √pas susante
comme le montre l'étude de (5.16) : on a bien xe = 0 solution de x = 0, mais
il existe une innité de solutions qui quittent ce point (voir paragraphe 5.3.1).
Théorème 7. [GRU 87] xe est un point d'équilibre pour le système (5.19) si
et seulement si :

1. (5.19) admet une unique solution dénie sur [t0 , +∞[ au problème de
Cauchy,
2. g(xe ) = 0.
Par la suite, on considèrera que le point d'équilibre est l'origine : en eet,
l'étude de (5.19) au voisinage d'un point d'équilibre xe se ramène, par le chan-
gement de coordonnées y = x − xe , à l'étude de ẏ = g(y + xe ), ayant pour
équilibre (y = 0).
Exemple 5. Le système de Volterra-Lotka est un modèle simple de lutte de
deux espèces. En 1917, donc pendant la guerre, le biologiste Umberto d'Ancona
constata une augmentation du nombre de sélaciens (requins) dans la partie nord
186 Mathématiques pour les systèmes dynamiques

de la mer Adriatique. An d'expliquer ce phénomène, il t appel à son beau-


père, le mathématicien Vito Volterra, qui expliqua ce phénomène de la façon
suivante. Soit un volume d'eau inni (mer Adriatique par exemple), peuplé par
deux espèces : l'une, carnivore (C : sélaciens), dévorant l'autre, herbivore (H :
crevettes). Notons x et y les nombres respectifs d'individus des espèces (H) et
(C). Si l'espèce (H ) peuplait seule la mer, elle se développerait de façon ex-
ponentielle8 et la vitesse de croissance de l'espèce (H) serait : dx
dt = αx, avec
α > 0. Par contre, l'espèce (C) ne peut assurer seule son développement, ni
même sa survie, donc sa vitesse de variation serait : dy dt = −βy , avec β > 0.
Lorsque les deux espèces cohabitent, les carnivores (C) dévorent les herbivores
(H). En faisant l'hypothèse qu'à chaque rencontre d'un carnivore avec un her-
bivore, ce dernier est dévoré et que le nombre de rencontres est proportionnel
au produit des densités volumiques des deux espèces (donc, aussi à xy ), on peut
conclure que l'évolution des deux espèces est régie par le système diérentiel :

dt = αx − γxy
dx
(herbivores),
(5.30)
dt = −βy + δxy
dy
(carnivores),

avec α, β, γ, δ des réels positifs. Dans ce cas, les variables d'état s'introduisent
de façon naturelle : x, y . On peut a priori supposer que l'espace d'état est le
quart de plan R2+ . Le théorème 3 permet de garantir l'existence et l'unicité
des solutions et le théorème 7, l'existence de deux équilibres : (0, 0) et ( βδ , αγ ).
En séparant les variables selon : x(α−γy)dx dy
= y(−β+δx) , on peut montrer que
H(x, y) = [α ln(y) − γy] + [β ln(x) − δx] est une fonction constante le long
des solutions de (5.30). On montre ainsi que, pour toute condition initiale
strictement incluse dans le quart de plan strictement positif, les orbites du
système sont fermées. De plus les solutions sont dénies sur R : on obtient un
ot dont le portrait de phase est représenté sur la gure 5.5 (simulation pour
α = β = γ = δ = 1).
Les orbites sont centrées autour du point d'équilibre ( βδ , αγ ). Avant la guerre,
l'activité de la pêche était plus importante (on tient compte des prélèvements
de la pêche  −qx x  et  −qy y  dans (5.30), avec qx , qy positifs) : c'est-à-dire
que le couple de paramètres (α, −β) est remplacé par (α − qx , −β − qy ), donc
le point d'equilibre ( βδ , αγ ) est remplacé par ( β+q
δ , γ ). Ce qui explique un
y α−qx

déplacement du cycle vers le haut pendant la guerre, donc une augmentation


du nombre de célaciens.
Dénition 9. On classe les points d'équilibre xe de (5.19) en deux catégories :
1. les points hyperboliques (ou non dégénérés) : ce sont ceux pour lesquels
8
On fait ici l'hypothèse que son développement n'est limité ni par l'espace ni par la
quantité de nourriture.
Equations diérentielles ordinaires 187

Figure 5.5. Cycles pour l'équation de Volterra (5.30)

la jacobienne9 correspondante Jg (xe ) ne comporte aucune valeur propre


à partie réelle nulle (Jg (xe ) est aussi dite hyperbolique) ;
2. les points non hyperboliques (ou dégénérés) : ce sont ceux pour lesquels
la jacobienne Jg (xe ) possède au moins une valeur propre à partie réelle
nulle (Jg (xe ) est dite dégénérée).
Comme nous le verrons dans le paragraphe 5.6.2, cette distinction est im-
portante puisque, pour tout point hyperbolique, on peut connaître localement
le comportement des solutions, alors que ce n'est pas forcément le cas pour les
points non hyperboliques.

Orbites : périodiques, fermées, homocliniques et hétérocliniques

L'étude des systèmes non linéaires met en évidence des orbites particulières :
1. les orbites fermées qui sont une extension des points xes puisque, si on
laisse évoluer un système à partir d'une condition initiale appartenant à
cette orbite, alors il continuera à évoluer sur cette orbite ;

9 Si g est un champ de vecteur sur Rn , alors sa jacobienne au point x est la matrice
∂gi
∂xj
(x) .
188 Mathématiques pour les systèmes dynamiques

2. les orbites homocliniques et hétérocliniques qui relient des points d'équi-


libre.
Les dénitions suivantes sont inspirées de [ROU 73] (tome 1, pages 87-88,
tome 2, page 8), [HAL 91] (pages 113-117) et de [GUC 83].
Dénition 10. La solution φ(t; t0 , x0 ) est T -périodique (périodique de période
T ), si I(t0 , x0 ) = R et s'il existe un réel positif λ, tel que pour tout réel t on
ait φ(t + λ; t0 , x0 ) = φ(t; t0 , x0 ). Le plus petit réel positif λ noté T s'appelle
la période de la solution. Dans ce cas, l'orbite correspondante est une orbite
périodique de période T (ou orbite T -périodique).
Dénition 11. γ est une orbite fermée si γ est une orbite et une courbe de
Jordan, c'est-à-dire homéomorphe10 à un cercle.
Toute orbite correspondant à une solution T -périodique non triviale (non
identique à un point d'équilibre) est une orbite fermée. La réciproque est vraie
dans le cas de systèmes autonomes.
Exemple 6. Si l'on reprend l'équation de Van der Pol, c'est-à-dire l'équation
(5.3) avec f (x) = (x3 − 2µx), alors en posant iL = −x2 , vC = x1 , L = C = 1,
(5.3) devient :
dx1
= x2 ,
dt
dx2
= 2µx2 − x32 − x1 . (5.31)
dt
Ainsi, pour µ > 0, on peut montrer ([HIR 74] p. 211-227) l'existence d'une
orbite périodique γ représentée sur la gure suivante.
Dénition 12. Une orbite homoclinique est une orbite qui relie un point
d'équilibre à lui-même. Si une orbite relie deux points d'équilibre distincts, elle
est dite hétéroclinique.

Ensembles limites

Des notions plus précises ont étés introduites pour cerner les informations
pertinentes et rémanentes après dissipation d'un éventuel transitoire. C'est le
rôle des ensembles limites. Rappelons que I(t0 , x0 ) =]α(t0 , x0 ), ω(t0 , x0 )[ est
l'intervalle de dénition de la solution maximale associée à (t0 , x0 ).
Dénition 13. L' ensemble ω-limite par rapport à une condition initiale
(t0 , x0 ), noté Ωf (t0 , x0 ), est déni par :
Ωf (t0 , x0 ) = {y ∈ X : il existe une suite {ti } dans I(t0 , x0 ) :
lim ti = ω(t0 , x0 ) et lim φ(ti ; t0 , x0 ) = y}.
i →+∞ i →+∞

10
Un homéomorphisme est un morphisme continu. Ainsi, une courbe de Jordan est une
courbe obtenue par transformation continue à partir du cercle.
Equations diérentielles ordinaires 189

Figure 5.6. Orbite fermée périodique pour l'oscillateur de Van der Pol (5.31)

Figure 5.7. (a) orbite homoclinique, (b) orbite hétéroclinique

L' ensemble α-limite par rapport à une condition initiale (t0 , x0 ), noté
Af (t0 , x0 ), est déni par :

Af (t0 , x0 ) = {y ∈ X : il existe une suite {ti } dans I(t0 , x0 ) :


lim ti = α(t0 , x0 ) et lim φ(ti ; t0 , x0 ) = y}.
i →+∞ i →+∞

Ces notions Ωf (t0 , x0 ) et Af (t0 , x0 ) ont tout d'abord été introduites par
G.D. Birkho ([BIR 27] p. 197, 198). Lorsque ω = +∞ (respectivement,
α = −∞), l'ensemble ω -limite (respectivement, α-limite) est aussi appelé
l'ensemble limite positif (respectivement, négatif ), parfois noté Λ+ f (t0 , x0 ) (res-
pectivement, Λ−f (t 0 , x0 )) (voir par exemple [BHA 70] p. 19). Pour un champ de
vecteurs non linéaire autonome g associé à (5.19) et générant un ot global, on
190 Mathématiques pour les systèmes dynamiques

a la relation suivante :

Λ− − + +
−g (t0 , x0 ) = Λ−g (x0 ) = Λg (x0 ) = Λg (t0 , x0 ).

Cette propriété permet de relier les notions d'attracteur et de répulseur. De


plus, on peut noter que les ensembles ω ou α-limite sont, dans ce cas, indépen-
dants de l'instant initial. L'ensemble ω-limite par rapport à la condition initiale
x0 est déni par :

Ωg (x0 ) = {x ∈ Ω : ∃{ti }i∈N ⊂ I(x0 ) : lim ti = ω(x0 ) et lim Φtgi (x0 ) = x}.
i→∞ i→∞
(5.32)
Dans le cas général (5.11), on a le résultat qui suit.
Théorème 8. Si, pour x0 ∈ X et t0 ∈ I donnés, il existe une solution au
problème de Cauchy et si l'orbite issue de x0 à t0 (ni) est contenue dans un
ensemble compact de X , alors Ωf (t0 , x0 ) et Af (t0 , x0 ) sont des sous-ensembles
compacts, non vides, connexes de X .

Ensembles non-errants

La notion de point non-errant, plus ne que celle d'ensemble limite, fut
également introduite par G.D. Birkho [BIR 27] pour décrire les comporte-
ments asymptotique plus complexes (attracteur étrange par exemple). Elle
concerne principalement les systèmes autonomes régis par (5.19) pour lesquels
I(x0 ) =]α(x0 ), +∞[ contient l'instant initial.
Dénition 14. Un point x ∈ X est dit non-errant pour le système (5.19) si,
pour tout voisinage V(x) de ce point et tout T > 0, il existe un temps t > T tel
que : φ(t; 0, x) ∩ V(x) 6= ∅. L'ensemble constitué de tels points est dit ensemble
non-errant.

Figure 5.8. Point non errant


Equations diérentielles ordinaires 191

5.4.2. Propriétés

Dans cette partie, on considère le système (5.11) en supposant qu'il y a au


moins une solution au problème de Cauchy.

Invariance

Les systèmes physiques ont souvent tendance, dans certaines congurations,


à satisfaire un principe de moindre eort :  j'y suis, j'y reste  (équilibres,
orbites périodiques, etc.). Cette propriété d'invariance peut être étendue pour
des ensembles géométriques plus complexes, comme suit.
Dénition 15. Soit J ⊂ I . Un ensemble non vide compact A ⊂ X est dit
J −invariant si : ∀t0 ∈ J , ∀x0 ∈ A, ∀t ∈ I(t0 , x0 ) : φ(t; t0 , x0 ) ∈ A.

Figure 5.9. Invariance de A

Pour un champ de vecteurs non linéaire autonome g associé à (5.19), on


obtient le résultat suivant.
Lemme 1. [BHA 70] Soit (5.19), alors Ωg (x0 ) déni en (5.32) est un sous-
ensemble fermé de Ω. Si de plus φ(t; x0 ) est bornée alors Ωg (x0 ) est non vide,
compact, connexe et invariant.
Démonstration : (fermé) soit x ∈ Ωg (x0 ), alors ∃{xn }n∈N ⊂ Ωg (x0 ) : ∀ε >
0, ∃N1 > 0 tels que ∀n > N1 , ρ(x, xn ) < ε2 . De plus, xn ⊂ Ωg (x0 ), donc
∃{tni }i∈N ⊂ I(x0 ) : ∀ε > 0, ∃N2 > 0 tels que limi→∞ tni = ω(x0 ) et ∀n >
tn
N2 , ρ(xn , Φg i (x0 )) < 2ε . Si l'on prend tn = tnn : limn→∞ tn = ω(x0 ), alors
∀n > N = max(N1 , N2 ) : ρ(x, Φtgn (x0 )) ≤ ρ(x, xn ) + ρ(xn , Φtgn (x0 )) < ε, donc
x ∈ Ωg (x0 ) et Ωg (x0 ) est donc fermé.
192 Mathématiques pour les systèmes dynamiques

Supposons que φ(t; x0 ) soit bornée. Alors C = Φtg (x0 ) est compact et
on prend une suite d'instants {ti }i∈N : limi→∞ ti = ω(x0 ). On a donc une
suite de points Φtgi (x0 ) ∈ C, d'où, d'après le théorème de Bolzano-Weierstrass
0
[RIC 01], on peut extraire une sous-suite convergente vers x : limi Φtgi (x0 ) = x.
0
Or Φtgi (x0 ) ∈ Φtgi (x0 ), donc x ∈ Ωg (x0 ). De plus, Ωg (x0 ) est fermé borné,
donc compact. Montrons qu'il est connexe : si Ωg (x0 ) n'est pas connexe,
∃(A, A0 ) disjoints fermés : Ωg (x0 ) = A ∪ A0 (donc A, A0 compacts). Soit
x ∈ A : ∃{ti }i∈N ⊂ I(x0 ), limi→∞ ti = ω(x0 ) et limi→∞ Φtgi (x0 ) = x. Soit
t0
x0 ∈ A0 : ∃{t0i }i∈N ⊂ I(x0 ), limi→∞ t0i = ω(x0 ) et limi→∞ Φgi (x0 ) = x0 . Mais
alors, pour tout i, [ti , t0i ] est (compact) connexe et, Φtg (x0 ) étant continue, on
0 00
a Φ[tg i ,ti ] (x0 ) connexe : d'après [SCH 95] (p. 256), ∃t00i ∈ [ti , t0i ] : Φtgi (x0 ) ∈
/ A (ni
00
à A0 ) mais limi→∞ t00i = ω(x0 ) et limi→∞ Φtgi (x0 ) ∈ Ωg (x0 ). Enn, il est inva-
riant : x ∈ Ωg (x0 ), ∃{ti }i∈N ⊂ I(x0 ), limi→∞ ti = ω(x0 ) et limi→∞ Φtgi (x0 ) = x,
donc limi→∞ Φt+t g
i
(x0 ) = Φtg (x) : Φtg (x) ∈ Ωg (x0 ).

Stabilité au sens de Liapounov

Les ensembles remarquables (équilibres, orbites périodiques, etc.) peuvent


caractériser des congurations à énergie minimale pour un système physique.
Ces systèmes peuvent avoir tendance à rechercher une de ces congurations
plutôt qu'une autre : c'est ce que les concepts de stabilité traduisent d'une
certaine façon. Par exemple, le pendule pesant (5.6) possède. deux équilibres
en position verticale
.
: l'un au-dessus de l'horizontale, θ = π, θ = 0, l'autre en
dessous θ = 0, θ = 0. Il est bien connu que la masse a naturellement tendance à
se positionner vers le bas plutôt que vers le haut. La position d'équilibre basse
est stable, l'autre instable.
D'un autre point de vue, les solutions maximales x(t; t0 , x0 ) d'une EDO sont
continues par rapport aux trois variables t, t0 , x0 (sous certaines conditions, voir
paragraphe 5.3.1). Donc, si l'on prend deux solutions x(t; t0 , x01 ) et x(t; t0 , x02 )
avec x01 et x02 proches, la continuité implique que ces deux solutions sont
proches sur un certain intervalle de temps [t0 , t], sans aucune indication sur la
taille de cet intervalle. On peut souhaiter obtenir une proximité de ces deux
solutions sur un intervalle de temps assez grand : c'est ce que pose de façon
plus générale le problème de la stabilité au sens de Liapounov pour une solu-
tion particulière (équilibre, orbite périodique, ensemble ou bien une trajectoire
donnée).
Par la suite, A est un ensemble non vide compact (par exemple, un point
d'équilibre) de X muni d'une distance d. ρ(x, A) = inf y∈A d(x, y) est une dis-
tance du point x à l'ensemble A [RIC 01]. Enn, I(t0 , x0 ) =]α(t0 , x0 ), +∞[.
Equations diérentielles ordinaires 193

Dénition 16. A est stable au sens de Liapounov par rapport à J ⊂ I pour


(5.11) si :

∀t0 ∈ J , ∀ε > 0, ∃δ(t0 , ε) > 0 tel que :


∀x0 ∈ X : ρ(x0 , A) ≤ δ(t0 , ε) ⇒ ρ(φ(t; t0 , x0 ), A) ≤ ε, ∀t ≥ t0 .

Lorsque J = I = R, A est dit stable au sens de Liapounov. Lorsque δ(t0 , ε) =


δ(ε) est indépendant de t0 la propriété de stabilité est dite uniforme.
Dans le cas particulier des systèmes non linéaires autonomes (5.19), cela
revient à dire que, pour tout voisinage de A, il existe un voisinage de A (inclus
dans le premier) positivement invariant (voir [BHA 70] p. 58).
Ces dénitions peuvent s'exprimer en termes topologiques plus généraux :
par exemple, un point d'équilibre xe est stable au sens de Liapounov pour
(5.19) si, pour tout voisinage V(xe ) de xe , il existe un voisinage W(xe ) de xe
tel que : x0 ∈ W(xe ) ⇒ φ(t; t0 , x0 ) ∈ V(xe ), ∀t ≥ t0 .
De façon générale, pour (5.11), cette dénition s'exprime par :  pour tout
t0 ∈ J et pour tout voisinage V(A) de A, il existe un voisinage W(t0 , V) de
A tel que toute trajectoire issue de ce voisinage W(t0 , V) à l'instant t0 évolue
dans le premier voisinage V(A) sans en sortir (voir gure 5.10). Cependant,
si l'on se xe t0 , pour chaque voisinage V(A), il est utile de connaître le plus
grand de ces voisinages W(t0 , V) que l'on notera Ds (t0 , V, A) : ceci correspond
à la notion de domaine de stabilité (l'intersection des Ds (t0 , V, A)).

Figure 5.10. Stabilité d'un ensemble A, de domaine de stabilité Ds (A)

Dénition 17. Pour (5.11), Ds (t0 , A) est le domaine de stabilité au sens de


Liapounov par rapport à t0 de A si :
194 Mathématiques pour les systèmes dynamiques

1. ∀ε > 0, Ds (t0 , ε, A) ⊂ X est un voisinage de A ;


2. pour ε > 0, x0 ∈ Ds (t0 , ε, A) si et seulement si : ρ(φ(t; t0 , x0 ), A) ≤
ε, ∀t ≥ t0 ;
3. Ds (t0 , A) = ∪ε>0 Ds (t0 , ε, A).
Ds (J , A) est le domaine de stabilité au sens de Liapounov par rapport à J
de A si :
1. ∀t0 ∈ J , Ds (t0 , A) existe ;
2. Ds (J , A) = ∪t0 ∈J Ds (t0 , A).
Ds (A) est le domaine de stabilité au sens de Liapounov de A si : Ds (A) =
Ds (J = R, A).
Dénition 18. Pour (5.11), Dsu (J , A) est le domaine de stabilité uniforme
au sens de Liapounov par rapport à J de A si :

1. Dsu (J , A) est un voisinage de A ;


2. x0 ∈ Dsu (J , A) si et seulement si : ∀t0 ∈ J , ∀ε > 0, ρ(φ(t; t0 , x0 ), A) ≤
ε, ∀t ≥ t0 .

Dsu (A) est le domaine de stabilité uniforme au sens de Liapounov de A si :


Dsu (A) = Dsu (J = R, A).
Dénition 19. Symbolisons schématiquement par (κ) l'un des quatre quali-
catifs suivants : stable au sens de Liapounov par rapport à J , stable au sens de
Liapounov, uniformément stable au sens de Liapounov par rapport à J , uni-
formément stable au sens de Liapounov. Si D(κ) (J , A) = X (l'espace d'état),
alors A est globalement (κ), dans le cas contraire A est localement (κ).
Remarque 1. Les dénitions de stabilité 16 peuvent être remplacées par :
l'ensemble A est (κ) si le domaine D(κ) est non vide.
Remarque 2. Ces dénitions peuvent, ici encore, être énoncées en termes de
voisinages. La construction précédente nous conduit à procéder comme suit :
si, pour chaque V(A), on construit l'union des Ds (t0 , V(A), A) (qui sont les
équivalents des Ds (t0 , ε, A)), alors on obtient le domaine de stabilité au sens
de Liapounov par rapport à t0 de A noté : Ds (t0 , A) = ∪V(A) Ds (t0 , ε, A). Si
l'on fait varier t0 dans l'intervalle J , on obtient le domaine de stabilité de A
au sens de Liapounov par rapport à J , noté Ds (J , A).

Attractivité

La propriété d'attractivité d'un ensemble traduit le rapprochement asymp-


totique des solutions vers cet ensemble.
Equations diérentielles ordinaires 195

Dénition 20. A est attractif par rapport à J ⊂ I pour (5.11) si :

∀t0 ∈ J , ∃δ(t0 ) > 0, ∀x0 ∈ X : ρ(x0 , A) ≤ δ(t0 ) ⇒ lim ρ(φ(t; t0 , x0 ), A) = 0,


t→∞

c'est-à-dire :
∀ε > 0, ∃T (t0 , x0 , ε) > 0 : ∀t ≥ t0 + T (t0 , x0 , ε), ρ(φ(t; t0 , x0 ), A) ≤ ε.

Lorsque J = I = R, A sera dit attractif. Lorsque δ(t0 ) = δ est indépen-


dant de t0 et T (t0 , ε, x0 ) = T (ε) est indépendant de t0 et x0 alors la propriété
d'attractivité sera dite uniforme.

Figure 5.11. Attractivité d'un ensemble A, de domaine d'attraction Da (A)

Cette notion peut être formulée en termes de voisinages. Par exemple, pour
tout t0 ∈ J et tout V(A) voisinage de A, il existe W(t0 , V) un voisinage de A tel
que, pour toute trajectoire issue de ce voisinage W(t0 , V) à l'instant t0 , il existe
un temps T (t0 , x0 , V) > 0 tel que la trajectoire évolue dans W(t0 , V) sans en
sortir à partir de l'instant t0 + T (t0 , x0 , V) (voir gure 5.11). Cependant, pour
t0 et V(A) un voisinage de A donnés, il est utile de connaître le plus grand de
ces voisinages W(t0 , V) que l'on notera Da (t0 , V, A) : ceci conduit à la notion
de domaine d'attractivité, intersection des Da (t0 , V, A) (sur les V ).
Dénition 21. Pour (5.11), Da (t0 , A) est le domaine d'attractivité de A par
rapport à t0 pour (5.11) si :

1. Da (t0 , A) ⊂ X est un voisinage de A ;


2. pour ε > 0, x0 ∈ Da (t0 , ε, A) si et seulement si : ∃T (t0 , ε) > 0 tel que
∀t ≥ t0 + T (t0 , ε), ρ(φ(t; t0 , x0 ), A) ≤ ε.
196 Mathématiques pour les systèmes dynamiques

Da (J , A) est le domaine d'attractivité de A par rapport à J si :

1. ∀t0 ∈ J , Da (t0 , A) existe ;


2. Da (J , A) = ∪t0 ∈J Da (t0 , A).

Da (A) est le domaine d'attractivité de A si : Da (A) = Da (J = R, A).


Dénition 22. Pour (5.11), Dau (J , A) est le domaine d'attractivité uniforme
de A par rapport à J pour (5.11) si :

1. Dau (J , A) est un voisinage de A ;


2. pour ε > 0, x0 ∈ Dau (J , A) si et seulement si : ∃T (ε) > 0, ∀t0 ∈ J ,, tel
que l'on ait ρ(φ(t; t0 , x0 ), A) ≤ ε, ∀t ≥ t0 + T (ε).

Dau (A) est le domaine d'attractivité uniforme de A si : Dau (A) = Dau (J =


R, A).
Dénition 23. Symbolisons schématiquement par (κ) l'un des quatre quali-
catifs suivants : attractif par rapport à J , attractif, uniformément attractif
par rapport à J , uniformément attractif. Si D(κ) (J , A) = X (l'espace d'état),
alors A est globalement (κ) ; dans le cas contraire, A est localement (κ).
Remarque 3. Les dénitions d'attractivité 20 peuvent être remplacées par :
l'ensemble A est (κ) si le domaine D(κ) est non vide.

Stabilité asymptotique

La propriété d'attractivité d'un ensemble traduit la convergence des so-


lutions vers cet ensemble au bout d'un temps inni et ce, indépendamment
d'éventuelles excursions pendant le régime transitoire. La stabilité, elle, tra-
duit la proximité de solutions tout au long de l'évolution, mais sans garantir
la convergence. Ces deux propriétés sont donc distinctes et complémentaires.
Leur combinaison correspond à la notion de stabilité asymptotique.
Dénition 24. A est asymptotiquement stable par rapport à J ⊂ I s'il
est stable au sens de Liapounov par rapport à J et attractif par rapport à J .
Lorsque J = I = R, A sera dit asymptotiquement stable. Si les propriétés de
stabilité et d'attractivité sont uniformes, alors la propriété de stabilité asympto-
tique résultante est dite uniforme. Les divers domaines de stabilité asymptotique
associés aux propriétés ci-dessus sont dénis comme étant les intersections des
domaines de stabilité et d'attractivité.
Il est important de noter qu'en non-linéaire, un ensemble peut être attractif
sans être stable, et vice versa. L'exemple suivant illustre cette indépendance
des deux propriétés.
Equations diérentielles ordinaires 197

Exemple 7. Soit l'EDO :


!
dx  p  y x
= x 1 − x2 + y 2 − 1− p ,
dt 2 x2 + y 2
!
dy  p  x x
= y 1 − x2 + y 2 + 1− p .
dt 2 x2 + y 2

L'origine (0, 0) est un équilibre instable (pour le monter, on pourra utiliser les
résultats du paragraphe 5.7.7) et l'équilibre (1, 0) est attractif mais instable : le
portrait de phase est donné gure 5.12.

Figure 5.12. Equilibre (1, 0) attractif et instable

Exemple 8. La solution au problème de Cauchy (5.1) x(0) = x0 est don-


née par (5.14). Il est donc facile de vérier que l'équilibre x = 0 n'est
pas attractif (limt→∞ φ(t; 0, x0 ) = limt→∞ x0 +e−axxmax
0 xmax
t (x
max −x0 )
= xmax )
et que l'équilibre x = xmax est asymptotiquement stable. En eet, il
est attractif (limt→∞ φ(t; 0, x0 ) = xmax ) et stable puisque φ(t; 0, x0 ) −
(xmax −x0 )e−axmax t
xmax = xxmax −axmax t , donc pour ε > 0, si |x0 − xmax | <
0 +(x max −x0 )e

ε, |φ(t; 0, x0 ) − xmax | < xmax x0(x max −x0 )
+(xmax −x0 ) < ε.
Pour cet exemple, nous avons pu étudier la stabilité asymptotique à par-
tir de l'expression analytique des solutions. Cependant, pour une EDO (5.11)
dont en général on ne peut exprimer les solutions de façon explicite, il est im-
portant de disposer de critères permettant d'étudier la question de la stabilité
sans avoir à calculer les solutions : ce sont les résultats des paragraphes 5.5
(première méthode de Liapounov) et 5.7.3, 5.7.4, 5.7.5, 5.7.7 (seconde méthode
de Liapounov) qui le permettent.
198 Mathématiques pour les systèmes dynamiques

Stabilité exponentielle

Le concept de stabilité exponentielle contient une information supplémen-


taire : la rapidité de la convergence vers l'ensemble A.
Dénition 25. A est exponentiellement stable par rapport à J ⊂ I si :
∀t0 ∈ J , ∃δ(t0 ) > 0, ∃α(δ) > 0, ∃β(δ) ≥ 1 tels que ∀x0 ∈ X , ρ(x0 , A) ≤ δ(t0 )
implique :
ρ(φ(t; t0 , x0 ), A) ≤ βρ(x0 , A) exp(−α(t − t0 )), ∀t ≥ t0 . (5.33)
Lorsque J = I = R, A est dit exponentiellement stable. Lorsque δ(t0 ) = δ
est indépendant de t0 et α(δ) = α, β(δ) = β sont indépendants de δ, alors la
propriété de stabilité est dite uniforme. α est alors appelé le taux de convergence
exponentielle.
De même que pour les précédentes notions, on peut dénir les domaines
de stabilité exponentielle correspondants. La dénition des ces domaines tient
compte de la paire (α, β) retenue : par exemple, Deu (A, α, β) est le plus grand
voisinage de A dans lequel la majoration (5.33) est vériée.

Stabilité pratique

En pratique, A étant un compact à atteindre (cible) et étant donnés un


instant initial t0 ∈ J , un instant nal Tf > 0 et un  temps de réponse 
Ts > 0, il est intéressant de savoir si, pour toute condition initiale dans un
domaine Dini ⊂ X , les solutions :
1. sont au moins dénies sur [t0 , t0 + Tf ],
2. restent dans un domaine admissible Dadm ⊂ X pendant cet intervalle de
temps,
3. rejoignent A à partir de l'instant t0 + Ts et y restent pour t ∈ [t0 + Ts, t0 +
Tf ].

C'est ce que traduit la notion de stabilité pratique avec temps d'établisse-


ment [GRU 73a, GRU 73b, LAS 61, PER 95b, WEI 67b, WEI 67a].
Dénition 26. Un ensemble compact A est stable pratiquement avec temps
d'établissement par rapport à {J , Ts , Tf , Dini , Dadm } si : ∀x0 ∈ Di , ∀t0 ∈ T0 ,
toute solution φ(t; t0 , x0 ) est dénie sur [t0 , t0 + Tf ] (c'est-à-dire [t0 , t0 + Tf ] ⊂
I(t0 , x0 )) et vérie :
φ(t; t0 , x0 ) ∈ Dadm , ∀t ∈ [t0 , t0 + Tf ],
φ(t; t0 , x0 ) ∈ A, ∀t ∈ [t0 + Ts , t0 + Tf ]. (5.34)
La propriété est globale si Dini = X (l'espace d'état).
Equations diérentielles ordinaires 199

Figure 5.13. Stabilité pratique

Estimation des domaines

La plupart du temps, les domaines dénis ci-dessus ne peuvent être calculés


de façon exacte : ceci nécessiterait de résoudre formellement l'EDO. Il est donc
intéressant d'en connaître un sous-ensemble, qui en constitue une estimation.
Dénition 27. [PER 94] Le domaine D est une estimation du domaine Dsa
(respectivement Ds , Dsu , Da , Dau , Dse ,Dseu ) de l'ensemble A si :
D ⊂ Dsa (respectivement Ds , Dsu , Da , Dau , Dse , Dseu ),
A ⊂ D.

5.5. Cas linéaire autonome

5.5.1. Calcul des solutions


Considérons le modèle linéaire autonome suivant :
ẋ = Ax, x ∈ Rn . (5.35)
Les solutions au problème de Cauchy associé à (5.35), x(t0 ) = x0 , sont connues
explicitement :
x(t) = exp(A(t − t0 ))x0 . (5.36)
De même, pour le modèle linéaire non-homogène :
ẋ = Ax + b(t), x ∈ Rn , (5.37)
200 Mathématiques pour les systèmes dynamiques

les solutions sont :


 Z t 
x(t) = exp(A(t − t0 )) x0 + exp(−A(v − t0 ))b(v)dv , (5.38)
t0

avec, dans le cas particulier où b est constant :


Z t 
x(t) = exp(A(t − t0 ))x0 + exp A(t − v)dv b, (5.39)
t0

qui lorsque A est non singulière devient :


x(t) = exp(A(t − t0 ))x0 + (exp A(t − t0 ) − Id) A−1 b. (5.40)

Ainsi, le comportement des solutions de (5.35) et de (5.37) est entière-


ment conditionné par les  contractions  et  dilatations 11 de l'exponentielle
exp(At). Rappelons (voir [RIC 01] chapitre 3) que :

X X
n−1
(At)i
exp(At) = = αi (t)Ai , (5.41)
i=0
i! i=0

puisque, d'après le théorème de Cayley-Hamilton, An est une combinaison li-


néaire des Ai , 0 ≤ i ≤ (n − 1). Il existe plusieurs méthodes pour calculer
l'exponentielle, rappelées ci-dessous.

1. En exprimant A sous forme de Jordan :


A = P JP −1 , J = diag(J(λi )),
 
λi 1 0 0
 
 0 ... ... 0 
J(λi ) = 
 . .
,
 .. .. ... 1  
0 ··· 0 λi

d'où exp(At) = P exp(Jt)P −1 avec exp(Jt) = diag(exp(J(λi )t)) et :


 
t2 t(k−1)
1 t 2! (k−1)!
 
 .. .. t2 

exp(J(λi )t) = exp(λi t)  0 . . 
2! .
 .. .. .. 
 . . . t 
0 ··· 0 1
11 Contractions dans les directions propres associées aux valeurs propres de A à parties

réelles négatives et dilatations dans les directions associées aux valeurs propres de A à parties
réelles positives.
Equations diérentielles ordinaires 201

2. En utilisant la décomposition de Dunford de A = N + D, avec N


nilpotente (N n = 0) et D diagonalisable dans C, puisque exp(At) =
P∞ ((N +D)t)i P
i=0 i! et (N + D)i = ik=0 Cki N i−k Dk . Le calcul de l'exponen-
tielle s'en trouve simplié puisque N n = 0 : c'est une méthode similaire
à celle du point 1, qui dans certains cas s'avère plus rapide.
3. En utilisant la méthode des matrices constituantes, la matrice f (A) pou-
vant s'exprimer sous la forme :

X i −1
r nX
f (A) = f (j) (λi )Zij ,
i=1 j=0

où r est le nombre de λi (valeurs propres de A distinctes) et ni leur mul-


tiplicité. Ainsi, f (A) s'écrit comme une combinaison linéaire de matrices
Zij indépendantes de la fonction f (qui ne dépend que de A) ; les coef-
cients de cette combinaison dépendent, eux, de la fonction f . Aussi, on
détermine les Zij à l'aide de fonctions-test simples (par exemple x 7→ xk ).

Pour (5.37), dans le cas particulier de b constant :

ẋ = Ax + b, (5.42)

les points d'équilibre vérient Ax + b = 0. Si A est régulière, alors il n'en existe


qu'un donné par xe = −A−1 b. Si A est singulière, alors deux cas se présentent :
 il y a une innité de points d'équilibre si rang(A, b) = rang(b), c'est-à-dire
si b ∈ image(A) ou encore, si ∃c ∈ Rn : b = Ac. Ils sont alors dénis par :
xe = c + u0 , où u0 ∈ ker(A) (u0 est n'importe quel vecteur propre de A
associé à la valeur propre nulle) ;
 il n'y a aucun équilibre si b ∈
/ image(A).

5.5.2. Conditions de stabilité

Théorème 9. Soient A ∈ Mn (R), de spectre σ(A) = {λi ∈ C, i = 1, . . . , r ≤


n : det(λi Id − A) = 0 et λi 6= λj pour i 6= j}, et Eλi (i = 1, . . . , r) les espaces
propres généralisés associés aux valeurs propres λi . Soit b constant vériant
b ∈ image(A) et xe : Axe + b = 0.

1. Si ∃λi ∈ σ(A) : Re(λi ) > 0, alors limt→+∞ kexp(At)k = +∞ et xe est


instable pour (5.42).
2. Si ∃λi ∈ σ(A) : Re(λi ) = 0 et dim Eλi > 1, alors limt→+∞ kexp(At)k =
+∞ et xe est instable pour (5.42).
202 Mathématiques pour les systèmes dynamiques

3. Si Re(λi ) < 0, i = 1, . . . , (r − 1) et Re(λr ) = 0, avec dim Eλr = 1, alors


kexp(At)k < +∞ et xe est stable mais non attractif pour (5.42).
4. Si ∀λi ∈ σ(A) : Re(λi ) < 0, alors limt→+∞ kexp(At)k = 0 et xe est
exponentiellement (donc asymptotiquement) stable pour (5.42).
Remarque 4. Puisqu'il n'y a pas de confusion possible car le ou les équilibres
de (5.42) ont tous les mêmes propriétés de stabilité, on parle aussi de la  sta-
bilité du système (5.42) , ou encore,  de la matrice A .
 
−1 0
Exemple 9. L'équilibre xe = 0 de (5.35) est instable pour A =
   0 1
0 1 0 0
(cas 1), instable pour A = (cas 2), stable pour A = (cas 3)
0 0 0 0
 
−1 1
et exponentiellement stable pour A = (cas 4). Remarquons que,
0 −1
dans les deuxième et troisième cas, A présente deux valeurs propres nulles. La
distinction se fait sur la dimension des espaces propres généralisés : un espace
Eλ=0 , dim Eλ=0 = 2 dans le deuxième cas, deux espaces Eλi =0 , dim Eλi =0 = 1
dans le troisième.
On en déduit la condition suivante nécessaire et susante pour que l'origine
soit asymptotiquement stable pour un système linéaire autonome.
Corollaire 1. xe est asymptotiquement stable pour (5.42) ⇔ ∀λi ∈ σ(A) :
Re(λi ) < 0. Dans ce cas, xe = −A−1 b et la stabilité est également exponentielle.
Corollaire
Pn−1
2. Si le polynôme caractéristique de A est de la forme π A (x) =
x + i=0 ai xi , alors une condition nécessaire de stabilité de xe pour (5.42)
n

est que les ai soient tous positifs.


Notons qu'une condition nécessaire et susante de stabilité asymptotique
est que πA (x) soit de Hurwitz, ou encore que les ai satisfassent le critère de
Routh (voir [BDR 93, HAH 67]).
D'autres conditions nécessaires et susantes sont disponibles dans le cas
linéaire autonome : certaines sont basées sur les équations de Liapounov (théo-
rème 21), d'autres ne concernent que des formes particulières de la matrice
A : si A = (aij ) avec aij ≥ 0 pour tout i 6= j, alors A est asymptotiquement
stable si et seulement si les mineurs principaux de −A (c'est-à-dire
 les n dé-
−a11 −a12
terminants emboîtés des matrices (−a11 ) , det , ..., det(−A))
−a21 −a22
sont tous positifs (critère de Kotelianskii).

5.5.3. Discrétisation d'une équation d'état linéaire autonome


La discrétisation peut intervenir an d'intégrer numériquement une équa-
tion diérentielle ou bien an d'obtenir un modèle en vue d'une analyse ou
Equations diérentielles ordinaires 203

d'une synthèse de commande discrète. Pour une équation linéaire autonome


(5.35), la solution est (5.36) et la récurrence liant deux états successifs ( dis-
tant  d'une période constante T ) est donc :
xn+1 = A xn ,
A = exp(AT ).
Pour une équation linéaire autonome non-homogène (5.42) dont on suppose
que A est non singulière, la solution pour b constant (égal à bn ) entre deux
instants d'échantillonnage est (5.40). La récurrence liant deux états successifs
( distants  d'une période constante T ) est donc, dans ce cas :
xn+1 = A xn + B bn ,
A = exp(AT ),
B = (A − Id)A−1 ,
bn =b(nT ).
RT P
Pour le cas où A est singulière, on a : B = 0 eA(T −θ) dθ = ∞
i=0 (i+1)! A .
T i+1 i

5.6. Etude de comportements : résultats locaux

Dans cette section, on s'intéresse au système non linéaire autonome (5.19),


pour lequel on suppose l'existence et l'unicité d'une solution au problème de
Cauchy avec I(x0 ) = I = R.

5.6.1. Stabilité structurelle


On sait que le réel ne se laisse pas réduire à un modèle mathématique : toute
modélisation laisse apparaître des imprécisions. C'est pourquoi il est naturel de
rechercher des classes de fonctions p(x) pour lesquelles les solutions de (5.19)
et celles de :
dx
= gp (x, p(x)), x ∈ X , (5.43)
dt
se ressemblent. Pour étudier cette propriété, dite de stabilité structurelle, il
a été introduit la notion de distance au sens C 1 , permettant de caractériser
la proximité de deux champs de vecteurs, ainsi que la notion d'équivalence
topologique permettant de caractériser la  ressemblance  des solutions. Cette
propriété de stabilité structurelle intéresse l'automaticien car elle caractérise
une forme de robustesse.
Les dénitions suivantes sont inspirées de [ARN 80] (p. 91-140), [GUC 83] (p.
38-42), [HIR 74] p. 305-318), [REI 82] (p. 93-101).
204 Mathématiques pour les systèmes dynamiques

Distance de Whitney

Dénition 28. Pour deux champs de vecteurs g1 et g2 de classe C 1 (X ), on dénit


la distance au sens C sur S ⊂ X séparant g1 et g2 , par :
1

  j  
∂ g1i (x) ∂ j g2i (x)
ρ1S (g1 ; g2 ) = max sup ∂xj − : i = 1, ..., n : j = 0, 1 .
x∈S ∂xj

Pour un champ de vecteurs g de classe C 1 (X ), on dénit un ε−voisinage de g au sens


C 1 sur S ⊂ X comme étant l'ensemble des champs de vecteurs g 0 de classe C 1 (X )
vériant ρ1S (g 0 ; g) ≤ ε.

Équivalence

Dénition 29. La fonction h établit une correspondance dans S ⊂ X entre les


solutions de (5.19) et de (5.43) si : ∀x0 ∈ S , on a h[Φtgp (x0 )] = Φtg [h(x0 )] aux
instants t ∈ R pour lesquels Φtgp (x0 ) et Φtg [h(x0 )] sont dans S .
Cette relation signie que la fonction h envoie les orbites du système perturbé
(5.43) sur celles du système non perturbé (5.19).
Dénition 30. Les systèmes (5.19) et (5.43) sont topologiquement (respectivement
diérentiablement, linéairement) équivalents dans S s'il existe h continue (respecti-
vement diérentiable, linéaire) d'inverse continue (respectivement diérentiable, li-
néaire) qui établit une correspondance dans S entre les solutions de (5.19) et celles
de (5.43).
On sait que :

[h linéaire] ⇒ [h diérentiable] ⇒ [h continue],

ainsi la notion d'équivalence topologique est-elle la plus  faible  :

[équivalence linéaire] ⇒ [équiv. diérentielle] ⇒ [équiv. topologique].

Stabilité structurelle

Dénition 31. Le système (5.19) est structurellement stable dans S s'il existe un
ε−voisinage de g au sens C 1 sur S ⊂ X , tel que, pour tout champ gp de ce voisinage,
les systèmes (5.43) associés à gp et (5.19) sont topologiquement équivalents.

Stabilité structurelle en dimension deux

Il existe, comme nous allons le voir, un lien entre la stabilité structurelle et les
ensembles non errants.
Equations diérentielles ordinaires 205

Dans le plan, les ensembles non errants qui peuvent exister sont : les points d'équi-
libre, les orbites fermées, les orbites homocliniques ou hétérocliniques. Par contre, sur
le tore (C1 × C1 , C1 étant le cercle unité), cela n'est plus le cas ; il sut de remarquer
que pour le système :  dθ
= a,
dt
dψ (θ, ψ) ∈ C1 × C1 , (5.44)
dt
= b,
lorsque ab est irrationnel on obtient des orbites non périodiques denses dans le tore :
le tore est donc à lui seul un ensemble non-errant. De plus, lorsque ab est rationnel,
on obtient des orbites périodiques. Or, tout irrationnel pouvant être approché par
un rationnel avec une précision arbitraire, on en conclut que le système (5.44) est
structurellement instable pour toutes les valeurs de a et de b. En évitant cette patho-
logie (voir point 3 du théorème suivant), on obtient une caractérisation des systèmes
structurellement stables sur une variété de dimension deux.
Théorème 10 (de Peixoto). Soit g un champ de vecteurs de classe C r (X ), où X
est une variété de dimension 2. Le système (5.19) est structurellement stable si et
seulement si :

1. le nombre d'éléments critiques (points d'équilibre et orbites fermées) est ni et


chacun d'eux est de type hyperbolique ;
2. il n'y a pas d'orbite reliant les points-selles12 ;
3. l'ensemble des points non-errants est réduit aux éléments critiques seuls.

De plus, si la variété X est orientable, alors l'ensemble des champs de vecteurs de


classe C r (X ) structurellement stables est dense dans l'ensemble des champs de vec-
teurs de classe C r (X ).
Ceci signie que tout champ peut être approché, de façon aussi précise que l'on
veut (au sens C r (X )), par un champ structurellement stable.

5.6.2. Du modèle linéaire au modèle non linéaire

Cette section a pour but d'établir les relations liant les comportements locaux
d'une EDO non linéaire autonome (5.19) à ceux de l'EDO linéaire autonome suivante :
dx
= Ax, x ∈ X, (5.45)
dt
sous l'hypothèse :

 X = Rn et
(H) ∀x0 condition initiale, (5.19) a une et une seule

solution maximale dénie sur I(x0 ) = I = R.
12 En dimension deux, un point-selle est un point d'équilibre instable dont la jacobienne

possède une valeur propre à partie réelle strictement négative et l'autre à partie réelle stric-
tement positive.
206 Mathématiques pour les systèmes dynamiques

Les méthodes d'étude locales sont basées sur un résultat fondamental de stabilité
structurelle (voir paragraphe 5.6.2) qui permet de ramener l'étude locale de (5.19) à
celle d'un système du type (5.45). Cette étude locale se fait au voisinage d'éléments
dits  critiques  : points d'équilibres, orbites fermées.

Théorème de stabilité structurelle et conséquences

En étudiant (5.45), on partitionne le spectre de A (noté σ(A)) en trois parties :



 σs (A) = {λ ∈ σ(A) : Re(λ) < 0},
σ c (A) = {λ ∈ σ(A) : Re(λ) = 0},

σ i (A) = {λ ∈ σ(A) : Re(λ) > 0},

où les indices s, c, i sont les abréviations respectives pour  stable ,  centre  et


 instable . Ainsi les vecteurs propres généralisés associés aux trois parties du spectre
de A permettent de dénir les sous-espaces propres généralisés, notés Es (A), Ec (A),
Ei (A), de dimensions respectives ns , nc , ni avec :

ns + nc + ni = n,
Es (A) ⊕ Ec (A) ⊕ Ei (A) = Rn .

On peut noter qu'une partition similaire est possible si X est une variété de di-
mension n, puisqu'alors X est localement diéomorphe à Rn . Lorsque σ c (A) = ∅, A
est hyperbolique, conformément à la dénition 9. De même, (5.45) est asymptotique-
ment stable si et seulement si σ(A) = σ s (A), σc (A) = σi (A) = ∅ ; dans ce cas, A est
dite asymptotiquement stable ou hurwitzienne.
Théorème 11 (Première méthode de Liapounov). Soit xe un équilibre de
(5.19), auquel est associé le linéarisé (5.45).
1. σi (A) = σ c (A) = ∅ ⇒ xe est asymptotiquement stable pour (5.19),
2. σi (A) 6= ∅ ⇒ xe est instable pour (5.19).
Ainsi, si l'origine est asymptotiquement stable pour le linéarisé, alors elle est
localement asymptotiquement stable pour le système non linéaire.
Corollaire 3. Sous l'hypothèse (H) et si A est hyperbolique, alors (5.45) est struc-
turellement stable.
Dans ce cas, on dit aussi que A est structurellement stable et on a : [A est
hyperbolique] ⇔ [A est structurellement stable]. Notons que l'hypothèse (H) est fon-
damentale, comme le montre l'exemple (5.16). Une conséquence immédiate est la
suivante ([REI 82] p. 99).
Théorème 12. Sous l'hypothèse (H), si (5.19) possède un point d'équilibre hyperbo-
lique xe , alors il existe un voisinage V(xe ) de xe tel que (5.19) soit structurellement
stable dans V(xe ).
Equations diérentielles ordinaires 207

Structure locale des solutions au voisinage d'un point d'équilibre

Pour les points d'équilibre hyperboliques, les résultats suivants permettent


d'éclaircir le comportement local des solutions de (5.19).
Théorème 13 (de Hartman-Grobman, 1964). Si la jacobienne Jg (xe ) = A au
point d'équilibre xe n'a pas de valeur propre purement imaginaire ou nulle (σ c (A) = ∅),
alors il existe un homéomorphisme h déni dans un voisinage V(xe ) de xe , envoyant
localement les orbites du ot linéaire de (5.45) vers celles du ot non linéaire Φtg de
(5.19). De plus, h préserve le sens de parcours des orbites et peut être choisi de façon
à préserver la paramétrisation du temps.
A partir du voisinage V(xe ) où h est déni, on construit les variétés locales stable
et instable :
Wloc s (xe ) = {x ∈ V(xe ) : lim Φtg (x) = xe et Φtg (x) ∈ V(xe ), ∀t > 0},
t→+∞

Wloc i (xe ) = {x ∈ V(xe ) : lim Φtg (x) = xe et Φtg (x) ∈ V(xe ), ∀t > 0},
t→−∞

à partir desquelles on dénit les variétés stable et instable (relatives à xe ) :


Ws (xe ) = ∪t≥0 Φtg (Wloc s (xe )),
Wi (xe ) = ∪t≤0 Φtg (Wloc i (xe )).

Ces notions de variétés stable et instable exhibent donc des solutions de (5.19) qui
sont respectivement  contractantes  et  dilatantes . Les variétés Ws (xe ), Wi (xe )
sont les images par h des sous-espaces correspondants sur le linéarisé : Ws (xe ) =
h[Es (Jg (xe ))], Wi (xe ) = h[Ei (Jg (xe ))].
Théorème 14 (de la variété stable). Si (5.19) a un point d'équilibre hyperbolique
xe , alors il existe Ws (xe ) et Wi (xe ) :
1. de dimension ns et ni identiques à celles des espaces Es (Jg (xe )) et Ei (Jg (xe ))
du système linéarisé (5.45) (avec A = Jg (xe )),
2. tangentes à Es (Jg (xe )) et à Ei (Jg (xe )) en xe ,
3. invariantes par le ot Φtg .
De plus, Ws (xe ) et Wi (xe ) sont des variétés aussi régulières que g (de même classe r
que g ∈ C r (Rn )).
Dans le cas, dit critique, de points non hyperboliques (dégénérés), il a été montré
le résultat suivant (voir [GUC 83] p. 127).
Théorème 15 (de la variété centre, Kalley 1967). Soit g un champ de vecteurs
de classe C r (Rn ), admettant un point d'équilibre dégénéré xe . Soit A = Jg (xe ). Alors,
il existe :
1. Ws (xe ) et Wi (xe ) des variétés invariantes dites respectivement stable et instable
de classe C r , tangentes à Es (Jg (xe )) et à Ei (Jg (xe )) en xe ;
2. Wc (xe ) une variété centre de classe C (r−1) tangente à Ec (Jg (xe )) en xe .
Les variétés Ws (xe ), Wi (xe ) et Wc (xe ) sont toutes invariantes par le ot Φtg et
de même dimension que les sous-espaces correspondants du système linéarisé (5.45)
(Es (Jg (xe )), Ei (Jg (xe )) et Ec (Jg (xe ))). Les variétés stable Ws (xe ) et instable Wi (xe )
sont uniques, alors que Wc (xe ) ne l'est pas forcément.
208 Mathématiques pour les systèmes dynamiques

Cependant, de façon pratique, il est délicat d'obtenir ces variétés, même de façon
numérique : souvent, le seul recours pour la détermination d'une variété centre est de
faire un développement en série de Taylor de Wc (xe ) au voisinage du point dégénéré
xe : cette méthode est connue depuis longtemps puisque A.M. Liapounov l'a utilisée
en 1892 pour étudier les  cas critiques  [LIA 92].
Pour des raisons de simplication, on eectue un changement de coordonnées sur
le système initial (5.19) pour se ramener au cas où le point d'équilibre est l'origine.
On va regarder ce qui se passe dans le cas le plus intéressant en pratique, c'est-à-dire
Wi (0) vide. Le théorème de la variété centre nous dit que le système initial (5.19) est
topologiquement équivalent à :
 dxc
dt
= Ac xc + g1 (x),
dxs
dt
= As xs + g2 (x),
avec Ac de dimension nc correspondant à Ec (Jg (0)) et qui a donc toutes ses valeurs
propres à partie réelle nulle. As est de dimension ns correspondant à Es (Jg (0)), donc
asymptotiquement stable. On peut exprimer Wc (0) sous la forme d'une hypersurface :
Wc (0) = {(xc , xs ) ∈ Rnc × Rns : xs = k(xc )}.
De plus, on sait que Wc (0) contient 0 (donc k(0) = 0) et, en ce point, est tangent à
Ec (Jg (0)) (donc Jk (0) = 0). On a :
dxs dxc
xs = k(xc ) ⇒ = Jk (xc ) ,
dt dt
donc :
As xs + g2 (xc , k(xc )) = Jk (xc ) (Ac xc + g1 (xc , k(xc ))) , (5.46)
k(0) = 0, Jk (0) = 0. (5.47)
On étudie la projection du champ de vecteurs de xs = k(xc ) sur Ec (Jg (0)) :
dxc
= Ac xc + g1 (xc , k(xc )), (5.48)
dt
en tenant compte de (5.46) et de (5.47). Ce qui nous conduit au théorème suivant
(voir [GUC 83] p. 131).
Théorème 16 (de Henry et Carr, 1981). Si :
1. Wi (0) est vide,
2. l'équilibre xec = 0 de (5.48) est localement asymptotiquement stable (respecti-
vement instable),
alors l'équilibre xe de (5.19) est asymptotiquement stable (respectivement instable).
La résolution de (5.48) étant en général impossible, le théorème suivant [GUC 83]
permet d'étudier la stabilité locale de l'équilibre xec = 0 par approximation de k.
Théorème 17 (de Henry et Carr, 1981). S'il existe ψ : Rnc → Rns avec ψ(0) = 0
et Jψ (0) = 0, telle que, lorsque x → 0 :
Jψ (xc )[Ac xc + g1 (xc , ψ(xc ))] − As ψ(xc ) − g2 (xc , ψ(xc )) = o(xr ), r > 1, (5.49)
alors h(xc ) = ψ(xc ) + o(x ), lorsque x → 0.
r
Equations diérentielles ordinaires 209

Cette technique permet, dans beaucoup de cas, de conclure sur la stabilité asymp-
totique d'un équilibre dégénéré.
Exemple 10. Soit le système diérentiel (x, y) ∈ R2 :
dx
= −x2 + xy, (5.50)
dt
dy
= −y + x2 .
dt
On a :  
−2x + y x
Jg (x, y) = ,
2x −1
et le système présente deux points d'équilibre :
   
0 0 0
ze1 = , dégénéré, Jg (ze1 ) = ,
0 0 −1
   
1 −1 1
ze2 = , instable, Jg (ze2 ) = .
1 2 −1
Pour l'origine, les valeurs propres associées à la jacobienne sont 0 et −1 (on a Ac =
0, As = −1). On cherche alors la variété centre associée à ce point d'équilibre par son
développement à l'ordre 3 : k(x) = ax2 + bx3 + o(x3 ), puisque k(0) = Jk (0) = 0. Ce
développement doit vérier (5.49), donc :
[2ax + 3bx2 + o(x2 )][−x2 + (ax3 + bx4 + o(x4 ))] = [(1 − a)x2 − bx3 + o(x3 )],
et, en égalant les termes de même degré, on obtient a = 1, b = 2, soit : k(x) =
x2 + 2x3 + o(x3 ). Donc (5.48) devient ẋ = −x2 + x3 + o(x3 ) et le théorème 16 permet
de conclure à l'instabilité l'origine. Remarquons que le même résultat peut être obtenu
plus intuitivement et sans trop de calcul, en notant que la seconde ligne (en y ) de
(5.50) converge beaucoup plus vite (exponentiellement) que la première (en x) : on
peut donc considérer qu'après un transitoire, dy dt
= 0 = −y + x2 , soit y = x2 : on
retrouve la variété centre k(x) = x + o(x ). Ceci est justié par le théorème 33.
2 2

Exemple 11. Soit le système diérentiel :


dx
= xy,
dt
dy
= −y − x2 ,
dt
avec (x, y) ∈ R2 . L'origine est le seul point d'équilibre. Les valeurs propres associées à
la jacobienne sont 0 et −1. Un développement à l'ordre 3 de k(x) est −x2 + o(x3 ). Le
théorème 16 nous permet de conclure que l'origine est asymptotiquement stable (mais
non exponentiellement stable).
Remarque 5. Il existe une façon rapide de traiter ces deux exemples : au voisinage
de l'origine, y converge exponentiellement, donc  inniment plus rapidement  que
x ne le ferait. On en déduit que dydt
s'annule  inniment  plus vite que dx dt
soit, pour
l'exemple 10, y = x , qui reporté dans dx
2
dt
= −x 2
+ y donne bien l'équation approchée
dx
dt
= −x2 + x3 . De même, l'exemple 11 conduit, quand t → ∞, à avoir y → −x2 ,
donc dt = −x .
dx 3
210 Mathématiques pour les systèmes dynamiques

Structure locale des solutions au voisinage d'une orbite fermée

Pour étudier la structure locale d'une orbite fermée, on introduit la notion de


section de Poincaré13 qui permet de dénir une application dite de Poincaré. Cette
dernière ramène alors l'étude locale d'une orbite fermée, pour un système dynamique
continu, à l'étude locale d'un point xe pour un système dynamique discret14 . Cet
outil théorique n'est utilisable de façon pratique qu'à l'aide d'algorithmes numériques.
Nous allons dénir rapidement ce procédé en nous inspirant des ouvrages [HIR 74]
(p. 243, 281-285) et [GUC 83] (p. 23-27).
Supposons que le système dynamique (5.19) possède une orbite fermée γ (voir
dénition 11) et soit xγ un point de cette orbite.
Dénition 32. Sγ est une section locale de Poincaré en xγ de (5.19) si :
1. Sγ est un ouvert d'une sous-variété V de X de dimension (n − 1) contenant xγ ,
2. T V(xγ ) l'espace tangent à V en xγ et g(xγ ) ∈ Rn sont en somme directe :
Rn = T V(xγ ) ⊕ g(xγ )R.

Figure 5.14. Section de Poincaré

Cette dernière condition exprime la transversalité (non tangence) de Sγ et du


champ de vecteurs g(x) de (5.19) en xγ . Soit Sγ une section locale de Poincaré en xγ
de (5.19) : puisque xγ ∈ γ , on a ΦTg (xγ ) = xγ , en notant Tγ la période de γ . Si on
considère un point x0 susamment proche de xγ , il existe un instant T (x0 ) proche
de Tγ au bout duquel ΦTg (x0 ) (x0 ) ∈ Sγ . Considérons maintenant V(xγ ) un voisinage
13 Henri Poincaré (1854-1912), mathématicien et physicien français. Entré premier à l'Ecole

Polytechnique en 1873, ingénieur au corps des Mines en 1877, il enseigne à la faculté des
sciences de Caen puis à la Sorbonne en 1881.
14
Les résultats que nous venons de voir concernant les points d'équilibre pour une EDO
(5.19) peuvent être transposés aux points xes pour une équation de récurrence du type
xk+1 = g(xk ).
Equations diérentielles ordinaires 211

de xγ et construisons l'application dite de Poincaré ou du premier retour :

P : V(xγ ) ∩ Sγ → Sγ ,
x0 7→ P (x0 ) = ΦTg (x0 ) (x0 ).

Cette construction est justiée puisque sous certaines conditions (par exemple g de
classe C 1 (Rn )) il existe V(xγ ) et une application unique T : V(xγ ) → R, x0 7→ T (x0 ),
tels que ∀x0 ∈ V(xγ ) : ΦTg (x0 ) (x0 ) ∈ Sγ et T (xγ ) = Tγ . Notons que P ne dépend ni de
xγ , ni de Sγ . P engendre un système dynamique discret et possède un point xe xγ
(P (xγ ) = xγ ). Ainsi, cette application ramène l'étude des solutions au voisinage d'une
orbite fermée d'un système dynamique continu déni sur une variété X de dimension
n, à l'étude des solutions au voisinage d'un point xe d'un système dynamique discret
déni sur une variété de dimension n − 1 : xk+1 = P (xk ) = P k (x0). Le comportement
local des solutions du système dynamique discret au voisinage du point xe xγ permet
de déduire le comportement des solutions du système dynamique continu (5.19) au
voisinage de γ .
Notons qu'il existe une grande similitude entre l'étude du comportement local
des solutions d'un système dynamique discret au voisinage du point xe et celui
des solutions du système dynamique continu au voisinage du point d'équilibre. En
particulier, pour étudier le système discret xk+1 = Axk , on partitionne σ(A) en
trois parties σs (A) = {λ ∈ σ(A) : |λ| < 1}, σ c (A) = {λ ∈ σ(A) : |λ| = 1},
σ i (A) = {λ ∈ σ(A) : |λ| > 1}. On obtient alors des résultats similaires à ceux
développés précédemment, permettant d'en déduire la structure locale du ot au
voisinage d'une orbite fermée γ .
Cependant, l'application P ne peut être obtenue de façon explicite que si les solu-
tions de (5.19) peuvent être explicitées : ceci limite l'intérêt pratique de l'application
P qui bien souvent doit être évaluée numériquement.

Exemple 12. En utilisant les coordonnées polaires (x1 = r cos(θ), x2 = r sin(θ)), le


modèle (5.15) se met sous la forme :

dr
= r(1 − r 2 ),
dt
θ̇ = 1.

Les solutions sont r(t) = √r2 (1−er−2t


0
)+e−2t
, θ(t) = θ0 + t et une étude directe montre
0
que toute solution initialisée dans le plan privé de l'origine converge vers une solution
périodique x1 (t) = cos(t + φ), x2 (t) = sin(t + φ). Au lieu de cette analyse directe,
utilisons la section de Poincaré x2 = 0, au voisinage du point (1, 0). On se ramène
xk
à l'étude de xk+1
1 = √ k2 1
(x1 ) (1−e−4π )+e−4π
qui a pour linéarisé y1k+1 = e−4π y1k . On en
conclut que l'orbite périodique est localement asymptotiquement stable.
212 Mathématiques pour les systèmes dynamiques

5.7. Stabilité : seconde méthode de Liapounov et résultats globaux

Les premiers travaux sur la stabilité ne retenaient des EDO que leur approximation
linéaire du premier ordre [Routh 1877, Thomson 1879, Joukovsky 1882]. Il fallut
attendre encore quelques années pour que Poincaré et Liapounov justient et étendent
les propriétés locales déduites du modèle linéarisé. L'un des résultats principaux est la
première méthode de Liapounov (voir théorème 11). Cependant elle ne donne aucun
renseignement quantitatif sur le domaine de stabilité asymptotique. Cette lacune fut
contournée, avec la seconde méthode de Liapounov (dite aussi méthode directe), par
l'introduction des  fonctions de Liapounov . D'une part, ces fonctions sont analogues
à des distances entre l'état du système le long de sa trajectoire et l'ensemble d'équilibre
étudié (point d'équilibre, trajectoire, etc.). D'autre part, ces fonctions ont une relation
directe avec la physique des systèmes, puisque très souvent elles correspondent à
l'expression de l'énergie totale qui, si le système est dissipatif, décroît au cours du
temps an que le système rejoigne une conguration à énergie minimale (s'il n'y a
pas d'apport d'énergie).
Par exemple, le pendule pesant dont un modèle est donné par :
δ g
θ̈ = − θ̇ − sin(θ), (5.51)
ml2 l
(l, m, g, δ positifs), présente deux équilibres (voir paragraphes 5.4.1 et 5.4.2). Seule la
position basse est stable : elle correspond à une conguration à énergie minimale. En
eet, l'énergie totale du système est :
1 2 2
V (θ, θ̇) = ml θ̇ + mgl(1 − cos(θ)), (5.52)
2
(notons que V (θ = 0, θ̇ = 0) = 0 et que V (θ, θ̇) > 0 pour (θ, θ̇) 6= (0, 0). Ceci conduit
à:
dV δ g 2
= ml2 (− 2 θ̇ − sin(θ))θ̇ + mgl sin(θ)θ̇ = −δ θ̇ ≤ 0, (5.53)
dt ml l
ce qui montre que l'énergie du système décroît au cours du temps : le système tend
bien à rejoindre une conguration à énergie minimale.
Ces fonctions de Liapounov trouvent leur utilité dans le problème de l'estimation
du domaine de stabilité asymptotique d'un ensemble A. Ce problème revient à trouver
une fonction de Liapounov V (x) s'annulant sur A et dont la dérivée le long des
solutions est négative à l'intérieur d'un certain voisinage de A (voir gure 5.15). On
peut donc l'aborder de deux façons :
 soit on se donne une fonction de Liapounov s'annulant sur A et on cherche dans
quel domaine elle décroît,
 soit on se donne une expression de la dérivée et on cherche alors la fonction de
Liapounov correspondante.
La première approche est parfois utilisée conjointement avec le principe d'inva-
riance de J.P. La Salle (voir paragraphe 5.7.5), alors que la seconde correspond plus
à l'état d'esprit des méthodes de V.I. Zubov (voir paragraphe 5.7.4). Dans tout les
cas, l'idée remarquable est que l'équation du mouvement de l'état x(t) n'a pas à être
résolue pour caractériser l'évolution de V (x) : la connaissance du modèle de l'EDO
(donc de la vitesse ẋ) doit sure.
Equations diérentielles ordinaires 213

Figure 5.15. Seconde méthode de Liapounov

5.7.1. Fonctions de comparaison


Les résultats de cette section sont tirés de [HAH 63, HAH 67, KHA 96].
Dénition 33. Une fonction α : R+ → R+ est dite de classe K (ou K−fonction)
si elle est continue, strictement croissante et si α(0) = 0 ; de classe K∞ (ou
K∞ −fonction) si c'est une K−fonction et si limr→∞ α(r) = ∞. Une fonction
β : R+ × R+ → R+ , (t, r) 7→ β(t, r) est dite de classe KL (ou KL−fonction) si β(., r)
est une K−fonction, si β(t, .) est strictement décroissante et si limt→∞ β(t, r) = 0.
Exemple 13. Pour a, b, c strictement positifs, r 7→ 1+br ar
et r 7→ arctan(r) sont des
K−fonctions ; r 7→ arcsinh(r) et r 7→ r sont des K∞ −fonctions ; r 7→ (ctr+1)
a ar b
et
r 7→ e br sont des KL−fonctions.
−at

Lemme 2. [KHA 96] Soient α1 , α2 des K−fonctions, α3 , α4 des K∞ −fonctions et β


une KL−fonction. On a les propriétés de composition :

1. 1 , α1 ◦ α2 sont des K−fonctions ;


α−1
2. 3 , α3 ◦ α4 sont des K∞ −fonctions ;
α−1
3. α1 (β(., α2 (.))) est une KL−fonction ;
4. Pour β une KL−fonction donnée, il existe α5 et α6 deux K∞ −fonctions telles
que β(t, r) ≤ α5 (exp(−t)α6 (r)), ∀(t, r) ∈ R+ × R+ .
Ces fonctions permettent de comparer les solutions d'une inégalité diérentielle
scalaire (voir paragraphe 5.3.4), en particulier comme suit.
Lemme 3. Soit l'inégalité diérentielle :
ẋ ≤ −α(x), x ∈ R+ , (5.54)
avec α une K∞ −fonction localement lipschitzienne. Alors, la solution z(t) = z(t, z0 )
de ż = −α(z), z ∈ R+ , z(0) = z0 ∈ R+ est unique. Dès lors que x0 ≤ z0 , z(t, z0 ) est
une KL−fonction majorant toute solution de (5.54), x(0) = x0 ∈ R+ , soit :
x0 ≤ z0 ⇒ x(t, x0 ) ≤ z(t, z0 ), ∀t.
214 Mathématiques pour les systèmes dynamiques

5.7.2. Fonctions de Liapounov

Dénition 34. Soit O un ouvert de Rn et A ⊂ O. Une fonction continue V :O⊂


Rn 7→ R+ sera dite dénie positive par rapport à A si : V (O) ⊂ R+ et V (x) = 0 ⇔
x ∈ A. Elle est dénie positive dans le cas A = {0}.15
V : O ⊂ Rn 7→ R+ est dite fonction de Liapounov pour A si elle est continue, si elle
est dénie positive par rapport à un A et si elle possède une dérivée classique ou au
sens de Dini.16
Une fonction de Liapounov est dite propre si l'image réciproque d'un compact est un
compact.
Lemme 4. Soit C un compact. Si V : C ⊂ Rn → R est de classe C 0 , alors Vα,β =
{x ∈ C : α ≤ V (x) ≤ β} est compact.
Démonstration : Vα,β est l'image réciproque d'un fermé par une fonction continue ;
c'est donc un fermé inclus dans un borné.
Dénition 35. Une fonction de Liapounov est dite radialement non bornée (ou non
bornée en rayon) si limkxk→+∞ V (x) = +∞.
Par exemple, pour le pendule pesant (5.51), la fonction dénie par (5.52) est une
fonction de Liapounov radialement non bornée pour l'origine.
Lemme 5. Une fonction de Liapounov radialement non bornée est propre.
Il est concevable d'en conclure que, si V décroît le long des trajectoires, alors
V rejoindra un minimum correspondant à ce que l'état rejoigne A : c'est ce que
traduisent les résultats de la partie suivante.

5.7.3. Théorèmes associés à la seconde méthode de Liapounov

Théorème 18. Soit l'EDO (5.19) et O un ouvert de Rn contenant


l'origine. S'il
existe V : O → R+ de classe C telle que V (x) = 0 ⇔ x = 0 et dV
1 = Lg V (x) =
dt (5.19)
∂V
∂x
g(x) soit dénie négative sur O, alors, l'origine est asymptotiquement stable pour
(5.19). Si O = Rn , alors l'origine de (5.19) est globalement asymptotiquement stable.
Démonstration : soit o ⊂ O un ouvert de l'origine et C un compact tel que o ⊂ C ⊂ O.
Alors, C ∩ (O\o) est compact et, V étant continue, elle y atteint un minimum εmin :
Vεmin ⊂ o, Vε = {x ∈ O : V (x) ≤ ε}. De plus, dV (x(t)) dt
≤ 0, donc si x0 ∈ Vε , alors
φtf (x0 ) ∈ Vε . L'origine est donc stable. Sur Vεmin ⊂ O compact, V (t) est décroissante,
minorée par 0, donc elle admet une limite l ≤ εmin , lorsque t → ∞. Si l > 0 et pour un
15 Lorsque {0} $ A, V est aussi dite semi-dénie positive. Ces dénitions sont compatibles

avec celle d'une matrice carrée dénie positive (page 335), c'est-à-dire dont les valeurs propres
λi sont réelles strictement positives, ou semi-dénie positive lorsque λi ≥ 0.
16 Certains auteurs nomment fonction candidate une telle fonction, celle-ci ne devenant une

fonction de Liapounov que lorsque des conditions permettant de conclure à la stabilité de


l'ensemble A  conditions (5.55), (5.56) par exemple  sont vériées. La dénition adoptée
ici est également classique et conduit à des énoncés plus simples.
Equations diérentielles ordinaires 215

quelconque ε, εmin ≥ ε > 0, Vε+l est compact et donc, V̇ étant continue, elle admet
sur Vε+l un maximum noté −m. Soit x0 ∈ Vε+l , φtf (x0 ) ∈ Vε+l , il vient :
Z ∞
lim V (φtf (x0 )) = l = V (x0 ) + V̇ (t)dt ≤ V (x0 ) − m lim (t) < 0.
t→∞ 0 t→∞

Cette contradiction prouve que l = 0, d'où la stabilité asymptotique.


Exemple 14. Considérons le système :
 
dx x21 + x22 − 1 1
= x, t ∈ R, x ∈ R2 .
dt −1 x21 + x22 − 1

En prenant V (x) = 12 (x21 + x22 ), on obtient V̇ = (x21 + x22 − 1)(x21 + x22 ). On en conclut
que l'origine est localement asymptotiquement stable.
Théorème 19. Soient l'EDO (5.19), E un voisinage de A et V une fonction de
Liapounov pour A continûment diérentiable. On introduit les conditions suivantes :

dV ∂V
(C1) = Lg V (x) = g(x) ≤ 0, ∀x ∈ E, (5.55)
dt (5.19) ∂x
∂V
(C2) g(x) = 0 ⇔ x ∈ A. (5.56)
∂x
1. Si (C1) est vraie pour un voisinage E de A, alors A est localement stable.
2. Si V est radialement non bornée et si (C1) est vraie pour E = X l'espace d'état,
alors A est globalement stable.
3. Si (C1) et (C2) sont vraies dans un voisinage E de A, alors A est localement
asymptotiquement stable et une estimation de son domaine de stabilité asymp-
totique est le plus grand Vc = {x ∈ X : V (x) < c} inclus dans E .
4. Si V est radialement non bornée et si (C1) et (C2) sont vraies pour E = X
l'espace d'état, alors A est globalement asymptotiquement stable.
Exemple 15. Si l'on considère (5.15) et A = {x ∈ R2 : (x21 + x22 ) ≤ 1} (le disque
unité), alors en prenant V (x) = x21 + x22 − 1 pour x ∈ R2 \A et V (x) = 0 pour x ∈ A,
on obtient V̇ = (1 − x21 + x22 )(x21 + x22 ) si x ∈ R2 \A et V̇ = 0 si x ∈ A. On en conclut
que A est globalement asymptotiquement stable.
D'après le paragraphe 5.7.1, on peut reformuler ce résultat à l'aide de fonctions
de comparaison, comme suit.
Théorème 20. Soient l'EDO (5.19), E un voisinage de A, V une fonction continû-
ment diérentiable et α1 , α2 , α3 trois fonctions telles que, ∀x ∈ E :
α1 (ρ(x, A)) ≤ V (x) ≤ α2 (ρ(x, A)),

dV
= Lg V (x) ≤ −α3 (ρ(x, A)),
dt (5.19)
avec ρ(x, A) = inf (kx − yk).
y∈A

1. Si, sur un voisinage E de A, α1 , α2 sont des K−fonctions et α3 : R+ 7→ R+ est


continue, strictement croissante, alors A est localement stable.
216 Mathématiques pour les systèmes dynamiques

2. Si α1 est une K∞ −fonction, α2 une K−fonction et α3 : R+ 7→ R+ est continue


et strictement croissante sur E = X (l'espace d'état), alors A est globalement
stable.
3. Si, sur un voisinage E de A, α1 , α2 et α3 sont des K−fonctions, alors A est
localement asymptotiquement stable. Une estimation de son domaine de stabilité
asymptotique est donnée par le plus grand Vc = {x ∈ X : V (x) < c} inclus
dans E .
4. Si, sur E = X (l'espace d'état), α1 est une K∞ −fonction, α2 et α3 sont des
K−fonctions, alors A est globalement asymptotiquement stable.
5. S'il existe c > 0 et ki > 0 (i ∈ {1, 2, 3}) tels que αi (r) = ki rc , alors l'origine est
localement exponentiellement stable. Une estimation de son domaine de stabilité
exponentielle est le plus grand Vc = {x ∈ X : V (x) < c} inclus dans E . Si de
plus E = X , alors l'origine est globalement exponentiellement stable.
Démonstration (pour le seul point 1) : il existe un voisinage de A sur lequel V
est continûment diérentiable, à valeur dans R+ , V (x) = 0 ⇔ x ∈ A et tel que
dV
dt (5.19) 2 (V (x)) ≤ 0 (lemme 2). Le théorème 19 permet de conclure. Les
≤ −α3 (α−1
autres points se démontrent de façon similaire.
Pour un système linéaire (5.45), on en déduit le résultat suivant.
Théorème 21. L'origine est globalement asymptotiquement stable pour ẋ = Ax ∈
Rn si et seulement s'il existe P une matrice symétrique dénie positive, solution de
l'équation de Liapounov :
P A + AT P = −Q, (5.57)
où Q est une matrice symétrique dénie positive quelconque. Dans ce cas, V = xT P x
est une fonction de Liapounov radialement non bornée pour laquelle les conditions
(C1) et (C2) sont vraies pour E = Rn l'espace d'état et A = {0} (l'origine).
Théorème 22. Soit le système non linéaire (5.19) tel que g(0) = 0, sa jacobienne
étant notée A = Jg (0). S'il existe une matrice symétrique dénie positive P solution
de (5.57) pour une matrice Q symétrique dénie positive donnée, alors l'origine de
(5.19) est localement asymptotiquement stable.
Démonstration : soit V = xT P x. Puisque g(x) = Ax+o(kxk), on en déduit ∂V ∂x
g(x) =
−xT Qx + o(kxk2 ). Pour ε < λmin (Q) donné, on peut trouver une boule de centre 0
telle que o(kxk2 ) ≤ ε kxk2 . Sur cette boule, ∂V
∂x
g(x) ≤ (ε − λmin (Q)) kxk2 ≤ 0. Le
théorème 18 permet alors de conclure.
En ce qui concerne les systèmes non linéaires non autonomes régis par (5.11), on
a le résultat suivant (à comparer avec le théorème 20).
Théorème 23. Supposons que l'origine soit un équilibre de (5.11). Soient O un
ouvert de Rn contenant l'origine, V : [t0 , ∞[×O → R+ de classe C 1 et W1 , W2 , W3
trois fonctions continues telles que pour tout (t, x) ∈ [t0 , ∞[×O :
W1 (x) ≤ V (t, x) ≤ W2 (x),

dV ∂V ∂V
= f (t, x) + ≤ −W3 (x).
dt (5.19)∂x ∂t
Equations diérentielles ordinaires 217

1. Si, sur un voisinage E de A, W1 , W2 sont dénies positives et W3 est positive,


alors A est localement stable.
2. Si, sur E = X (l'espace d'état), W1 est une fonction dénie positive radialement
non bornée, W2 est dénie positive et W3 est positive, alors A est globalement
stable.
3. Si, sur un voisinage E de A, W1 , W2 et W3 sont des fonctions dénies positives,
alors A est localement asymptotiquement stable. Si de plus il existe c > 0 et
ki > 0 (i ∈ {1, 2, 3}) tels que :

W1 (x) ≥ k1 kxkc , W2 (x) ≤ k2 kxkc , W3 (x) ≥ k3 kxkc , (5.58)


alors l'origine est localement exponentiellement stable. Une estimation de son
domaine de stabilité exponentielle est le plus grand Vc = {x ∈ X : V (x) < c}
inclus dans E .
4. Si, sur E = X (l'espace d'état), W1 est une fonction dénie positive radialement
non bornée, W2 et W3 sont des fonctions dénies positives, alors A est globa-
lement asymptotiquement stable. Si de plus il existe c > 0 et ki > 0 vériant
(5.58), alors l'origine est globalement exponentiellement stable.

5.7.4. Théorèmes de Zubov et Gruji¢


Dans les années soixante, les travaux de V.I. Zubov [ZUB 61] (voir [HAH 63,
HAH 67]) mirent en évidence des conditions nécessaires et susantes pour qu'un cer-
tain domaine D soit le domaine de stabilité asymptotique (DSA) d'un point d'équilibre
de (5.19). Dans un premier temps on rappellera succinctement ces résultats puis ceux
de L.T. Gruji¢, enn on les comparera. Bien entendu, ces résultats peuvent s'étendre
à l'évaluation du domaine de stabilité asymptotique d'un ensemble A compact.
Théorème 24 (de Zubov, 1957). Soit l'EDO (5.19), admettant l'origine x = 0
pour équilibre. Pour qu'un domaine D inclus dans X (l'espace d'état) et contenant un
voisinage de l'origine soit son domaine de stabilité asymptotique Dsa (0), il faut et il
sut qu'il existe deux fonctions Ψ(x) et V (x) vériant les propriétés suivantes :

1. Ψ est continue et dénie positive sur X , V est continue et dénie positive sur
D, limkxk→0 V (x) = 0, limkxk→0 Ψ(x) = 0 et :

dV
= Lg V (x) = −Ψ(x)(1 − V (x)), (5.59)
dt

2. si y ∈ ∂D et y 6= 0, ou si kyk → +∞, alors : limx→y V (x) = 1.


Il est important de noter que si l'on pose W (x) = − ln(1 − V (x)), alors (5.59)
devient :
dW
= Lg W (x) = −Ψ(x), (5.60)
dt
et, dans ce cas, la frontière du DSA Dsa (0) est déterminée par la famille de courbes
dénies par W (x) = +∞. Cette méthode peut aussi permettre de déterminer un
218 Mathématiques pour les systèmes dynamiques

ensemble asymptotiquement stable et le DSA associé (voir l'exemple 16 qui suit et


[ZUB 61] p. 49). Il est à noter que l'on peut aussi utiliser ces résultats pour déterminer
les ensembles invariants de systèmes dynamiques plus généraux (voir [HAH 63] p. 75-
78, [ZUB 61]).On peut, pour des cas simples et un choix astucieux de Ψ(x), déterminer
de façon exacte le DSA d'un point d'équilibre (voir l'exemple 17).
Exemple 16. Pour le système (5.15), on choisit Ψ(x) = 2(x21 + x22 ). On peut alors
montrer, par une forme adaptée du théorème 24, que le cercle unité C1 est un attrac-
teur globalement asymptotiquement stable.
Exemple 17. ([HAH 63] p. 79) Soit le système déni par :
 
dx −1 + 2x1 x2 0
= x.
dt 0 −1
2
Pour Ψ(x) = 2(x21 + x22 ), (5.60) peut être résolue et on trouve : W (x) = x22 + (1−xx11 x2 ) .
Ainsi la frontière du DSA de l'origine est déterminée par la famille de courbes dénies
par W (x) = +∞, soit x1 x2 = 1.
Les dicultés majeures de cette méthode résident, d'une part, dans la résolution
de l'équation aux dérivées partielles (5.59) et, d'autre part, dans le choix de Ψ(x). La
première est souvent irrémédiable. La seconde peut être contournée par des résultats
de Gruji¢ [GRU 91a, GRU 91b], donnant des conditions nécessaires et susantes pour
qu'un domaine D soit le DSA de l'origine (Dsa (0)). La démonstration de ce résultat
met en évidence une construction originale et directe, sous forme d'algorithme, d'une
fonction candidate à Liapounov. Pour cela on introduit la famille P(r, g) de toutes
les fonctions Ψ(x) : Rn 7→ R vériant les propriétés suivantes :
P1 : Ψ(x) est diérentiable et dénie positive sur BF r = {x ∈ Rn : |x| ≤ r}.
P2 : il existe m(r, g) > 0 garantissant une solution W (x) de l'équation aux dérivées
partielles (5.61)-(5.62) dénie sur BF m(r,g) = {x ∈ Rn : |x| ≤ m(r, g)}, avec (5.61)
prise le long des trajectoires de (5.19) :
dW (x)
= Lg W (x) = −Ψ(x), (5.61)
dt
W (0) = 0. (5.62)
Théorème 25 (de Gruji¢, 1990). Pour qu'un domaine D soit le DSA de l'origine
(Dsa (0)) relativement à (5.19) avec X = Rn , il faut et il sut que :

1. D soit un voisinage connexe ouvert de l'origine ;


2. g(x) = 0 pour x ∈ D si et seulement si x = 0 ;
3. pour un r > 0 arbitraire tel que BF r ⊂ D et pour une fonction arbitraire
Ψloc ∈ P(r, g), les équations (5.61) (5.62) avec (5.61) déterminée le long des
trajectoires du système (5.19) et Ψ dénie comme :
(
Ψ(x) =  si x ∈ BF r ,
Ψloc (x),
|x|
r
Ψloc x |x| , si x ∈ (Rn − Br ),
r

admettent une unique solution W (x) vériant les propriétés suivantes :


Equations diérentielles ordinaires 219

P3 : W (x) est dénie positive sur D et diérentiable sur (D − Fr(Br )),


P4 : si Fr(D) 6= ∅ alors : limx→Fr(D) W (x) = +∞.
x∈D
Remarque 6. La grande diérence avec les résultats précédents est que, dans la
méthode de Zubov, si une fonction Ψ(x) ne donne pas de résultat, on doit en essayer
une autre. Par contre, avec le théorème 25, si une fonction Ψloc ne convient pas,
aucune autre ne conviendra. Ceci est vrai d'un point de vue mathématique, par contre
la résolution de (5.61)-(5.62) sera peut être facilitée, d'un point de vue calculatoire,
par un choix particulier de Ψloc . Le problème théorique de la stabilité est donc ramené
au traitement mathématique de (5.61)-(5.62), indépendamment du choix de Ψloc .

5.7.5. Principe d'invariance La Salle


Pour un pendule pesant amorti (5.51), nous avons vu (paragraphe 5.7) que la
fonction (5.52) avait pour dérivée (5.53), permettant seulement de conclure que l'ori-
gine est globalement stable (théorème 19). Cependant, nous savons que la position
basse est aussi attractive : le pendule tend à rejoindre cette position sous l'eet d'une
dissipation d'énergie par frottement. Pour le prouver mathématiquement, il nous faut
soit une nouvelle fonction de Liapounov, soit un résultat plus précis que le théorème
19 : c'est le principe d'invariance de La Salle qui nous permettra (sans changer de
fonction de Liapounov) d'aboutir au résultat. Avant de donner ce résultat, examinons
de plus près l'exemple du pendule pesant amorti. En posant x = (x1 , x2 )T = (θ, θ̇)T ,
(5.51) devient : 
ẋ1 = x2 ,
ẋ2 = − mlδ 2 x2 − g
l
sin(x1 ),
et (5.52) donne dV dt
= −δx22 . Or, nous savons que V décroît sauf lorsque x2 reste
identiquement nulle (car V̇ ≡ 0). Mais, dans ce cas, ẋ2 (t) reste identiquement nulle,
ce qui implique que sin(x1 ) aussi. Ainsi V (t) ne peut rejoindre sa valeur de repos
(lorsque V̇ ≡ 0) que si le pendule est au repos en position basse x = 0 (si l'on
démarre d'une position dans l'ensemble C = {x : V (x) ≤ 2mgl} qui est positivement
invariant et qui contient le segment {x2 = 0, |x1 | < π}). Ce raisonnement, qui consiste
à ne retenir, parmi les états annulant V̇ , que ceux qui sont invariants, est formalisé
dans le théorème suivant.
Théorème 26 (Principe d'invariance de La Salle). Soit l'EDO (5.19), C ⊂ Rn
un ensemble compact positivement invariant et V : C ⊂ Rn → R (non nécessairement
dénie positive) de classe C 1 telle que ∀x ∈ C : V̇ (x) ≤ 0 (négative mais non néces-
sairement dénie). Alors toute solution initialisée dans C converge asymptotiquement
vers I le plus grand ensemble invariant inclus dans {x ∈ Ω : V̇ (x) = 0}.
Démonstration : soit x0 ∈ C. Il faut montrer que Ωg (x0 ) ⊂ I (I ⊂ {x ∈ C :
V̇ (x) = 0} ⊂ C). C étant invariant, Ωg (x0 ) ⊂ C (car ∀t : Φtg (x) ∈ C). V̇ (x) ≤ 0
sur C donc V décroissante minorée (V étant continue et C compact elle admet un
maximum et un minimum voir [RIC 01] chapitre 1) donc convergente vers une li-
mite l : limt→∞ V (Φtg (x0 )) = l, d'où ∀x ∈ Ωg (x0 ) : V (x) = l, donc V (Φtg (x)) =
limti →∞ V (Φt+t i (x )) = l. On a ainsi V̇ = 0, d'où Ω (x ) ⊂ {x ∈ C : V̇ (x) = 0}. Cet
g 0 g 0
220 Mathématiques pour les systèmes dynamiques

ensemble est invariant (lemme 1), donc Ωg (x0 ) ⊂ I. Pour nir, Φtg (x0 ) étant bornée,
Φtg (x0 ) converge vers Ωg (x0 ) ⊂ I (lemme 1).
Corollaire 4. Si, dans (5.19), g est analytique, alors I = {0} ⇔ {Lkg V (x) = 0, k ∈
N} = {0} (I étant déni dans le théorème 26).

5.7.6. Théorèmes réciproques

Nous venons de donner des conditions susantes de stabilité (asymptotique ou


non, globale ou locale) : il reste à savoir s'il existe des conditions nécessaires. Les
théorèmes réciproques suivants donnent des réponses partielles.
Théorème 27. [KHA 96] Soit l'EDO (5.11), avec f de classe C 1 et de jacobienne
bornée uniformement en t sur un compact contenant l'origine. Si l'origine est un point
d'équilibre localement (respectivement globalement) exponentiellement stable, alors il
existe un ouvert O de Rn contenant l'origine (respectivement O = Rn ), une fonction
V : [t0 , ∞[×O → R+ de classe C 1 et quatre constantes wi > 0 (i ∈ {1, ..., 4}) telles
que pour tout (t, x) ∈ [t0 , ∞[×O :

w1 kxk2 ≤ V (t, x) ≤ w2 kxk2 ,



dV ∂V ∂V
= f (t, x) + ≤ −w3 kxk2 ,
dt (5.19) ∂x ∂t

∂V

∂x ≤ w4 kxk .

De même, il existe αi quatre K−fonctions telles que pour tout (t, x) ∈ [t0 , ∞[×O :

α1 (kxk) ≤ V (t, x) ≤ α2 (kxk) ,



dV ∂V ∂V
= f (t, x) + ≤ −α3 (kxk) ,
dt (5.19) ∂x ∂t

∂V

∂x ≤ α4 (kxk) .

Si f est autonome (c'est-à-dire si l'on considère une EDO du type (5.19)), alors V
peut être choisie indépendante du temps (V = V (x)).
Théorème 28. [HAH 63, HAH 67] Soit l'EDO (5.11), avec f de classe C 1 . Si l'ori-
gine est un point d'équilibre uniformément asymptotiquement stable, alors il existe un
ouvert O de Rn contenant l'origine et une fonction V : [t0 , ∞[×O → R+ de classe
C 1 , dénie positive, convergeant uniformément en t vers zéro avec la norme de x
et telle que sa dérivée soit dénie négative. Si f est autonome (c'est-à-dire si l'on
considère une EDO du type (5.19)), alors V peut être choisie indépendante du temps
(V = V (x)).
Pour clore cette partie sur les théorèmes réciproques, on notera que les résultats
des théorèmes 24 et 25 donnent des conditions nécessaires et susantes.
Equations diérentielles ordinaires 221

5.7.7. Théorèmes d'instabilité


Il existe de nombreux résultats donant des conditions susantes d'instabilité
[HAH 63, HAH 67].
Théorème 29 (de Liapounov). Soit l'EDO (5.11), admettant l'origine pour
équilibre. S'il existe un ouvert O de Rn contenant l'origine et une fonction V :
[t0 , ∞[×O → R, (t, x) 7→ V (t, x), continue et convergeant uniformément en t vers
zéro avec la norme de x et s'il existe un domaine non vide D contenant l'origine et
sur lequel on a V (t, x) < 0 et V̇ (t, x) ≤ 0, alors l'origine est instable.
Exemple 18. Reprenons le modèle de Van der Pol (5.31) : l'équilibre x = 0 est
instable pour µ > 0. En eet, en prenant V (x) = − 21 (x21 + x22 ), on obtient V̇ =
−2x22 (µ − x22 ) et le théorème 29 permet de conclure.
Corollaire 5 (de Liapounov). Soit l'EDO (5.19), admettant l'origine pour équi-
libre. S'il existe une fonction V continue dont la dérivée est dénie négative et si V (x)
est dénie négative ou indénie en signe, alors l'origine est instable.
Exemple 19. Reprenons (5.1) : l'équilibre x = 0 est instable. En eet, en prenant
V (x) = −x2 , on obtient V̇ = −2ax2 (xmax − x) < 0 si x 6= 0. Le corollaire 5 permet
de conclure.
Un résultat plus général est dû à N.G. Chetaev.
Théorème 30 (de Chetaev). Soit l'EDO (5.11), admettant l'origine pour équilibre.
S'il existe un ouvert O de Rn contenant l'origine et une fonction V : [t0 , ∞[×O → R,
(t, x) 7→ V (t, x) de classe C 1 telle que :

1. ∀ε > 0, ∃x ∈ Bε (0) : V (t, x) ≤ 0, ∀t ≥ t0 (on note U l'ensemble des points x


pour lesquels V (t, x) ≤ 0, ∀t ≥ t0 ),
2. V (t, x) est minorée sur U 0 un sous-domaine de U,

dV (t,x)
3. sur U 0 , dt < 0 (en particulier, il existe une K−fonction α telle que
(5.11)
dV (t,x)
dt ≤ −α(|V (t, x)|) < 0),
(5.11)

alors l'origine est instable.


Exemple 20. Soit l'EDO :
ẋ = x3 + y 3 ,
ẏ = xy 2 + y 3 .

L'origine est un point d'équilbre instable. En eet, prenons V (x, y) = 12 (x2 − y 2 ) et


le domaine U déni par U = {(x, y) ∈ R2 : −y ≤ x ≤ y ou y ≤ x ≤ −y} (V (x) ≤ 0).
2
En dénissant U 0 = U ∩ Bε (0), V est minorée par − ε2 et V̇ = (x4 − y 4 ) < 0 sur U 0 .
Le théorème 30 permet de conclure à l'instabilité de 0. Notons enn qu'en ce point, la
jacobienne est nulle, ainsi les théorèmes 14 et 15 ne nous permettent pas de conclure.
Remarque 7. Ces résultats peuvent être facilement adaptés à la stabilité d'un en-
semble A. Enn, on peut énoncer ces résultats de façon duale en remplaçant  dénie
négative  par  dénie positive  et réciproquement.
222 Mathématiques pour les systèmes dynamiques

5.7.8. Extensions vectorielles

Plus le système est complexe et de grande dimension et plus la construction de


fonctions de Liapounov devient  délicate . Il est alors d'usage :
 R1) d'accepter de perdre un peu d'information pour se ramener à un problème
connexe plus simple (c'est sur ce principe qu'est basé la première méthode de
Liapounov, dite du linéarisé local) ;
 R2) de décomposer le problème pour en comprendre plus facilement les parties
constituantes, puis le recomposer (préceptes de Descartes).
Pour analyser un modèle de grande dimension, on peut ainsi tenter de le décompo-
ser en plusieurs sous-systèmes de complexité et de dimension moindres. Les procédés
R1 et R2 sont illustrés respectivement par les exemples 21 et 22.
Exemple 21. Soit le modèle :
dx
= 2x(−2 + sin(t) + x), t ∈ R, x ∈ R. (5.63)
dt

En introduisant la variable z = sign(x)x, on obtient17 :

dz
= 2z(−2 + sin(t) + x), si x 6= 0, (5.64)
dt
dz
≤ 2z(−1 + z), (5.65)
dt
z0
0 ≤ z(t) ≤ , (5.66)
z0 + (1 − z0 ) exp(2(t − t0 ))

et il est alors évident que l'équilibre x = 0 de (5.63) est exponentiellement stable. Une
estimation de Dse (0) est ] − ∞, 1[. Par ailleurs, (5.66) reste valable pour x = 0.
Dans cet exemple 21, nous avons utilisé de façon implicite la notion de système
majorant (SM) : en eet, les solutions de (5.65) sont majorées par celles de l'EDO :
dy
dt
= 2y(−1+y) (pour des conditions initiales identiques). De tels systèmes majorants
présentent les propriétés suivantes :
 leurs solutions permettent d'obtenir une estimation des comportements du sys-
tème initial ;
 ils peuvent inférer une propriété qualitative P pour le système initial et, dans
ce cas, le SM sera dit système de comparaison (SC) pour la propriété P : c'est
le cas dans l'exemple 21 où dydt
= 2y(−1 + y) est un SC pour la propriété P de
stabilité exponentielle pour le système (5.65) ;
 ils peuvent ne plus dépendre du temps ni d'éventuelles perturbations aectant
le système initial, ce qui permet de simplier l'étude de leurs solutions ;
 ils peuvent être de dimension réduite par rapport à celle du système initial (voir
exemple 22).
17 Etant donné que la dérivée de la fonction signe au point x = 0 n'est pas dénie au

sens classique, nous exclurons ce cas pour la suite (x 6= 0). En fait, en utilisant une notion
plus générale du gradient ou de la dérivée (voir [CLA 83, RIC 01]), nous pourrions obtenir
directement un résultat similaire à celui qui suit.
Equations diérentielles ordinaires 223

An de formuler les concepts de SM et de SC, considérons les systèmes :


ẋ = f (t, x), x ∈ Rn , (5.67)
ż = g(t, z), z ∈ Rn , (5.68)
nous avons alors les dénitions suivantes.
Dénition 36. On dira que (5.68) est un système majorant (SM) de (5.67) sur
O ⊂ Rn si :

∀(x01 , x02 ) ∈ O2 : I = I(5.67) (t0 , x01 ) ∩ I(5.68) (t0 , x02 ) 6= {t0 },


x02 ≥ x01 =⇒ z(t; t0 , x02 ) ≥ x(t; t0 , x01 ), ∀t ∈ I.

De ce concept, nous pouvons déduire certaines propriétés qualitatives pour les


solutions positives. Par exemple si z(t; t0 , x02 ) ≥ x(t; t0 , x01 ) ≥ 0 et si les solutions
z(t; t0 , x02 ) (pas forcément uniques) convergent vers l'origine, alors il en est de même
pour les solutions x(t; t0 , x01 ).
Dénition 37. (5.68) est un système de comparaison (SC) de (5.67) pour la pro-
priété P si [P vraie pour (5.68) ⇒ P vraie pour (5.67)].
Exemple 22. Pour le système :
 
dx −2 + sin t + 14 (x21 + x22 ) − sin t
= x, t ∈ R, x ∈ R2 ,
dt sin t −2 + sin t + 14 (x21 + x22 )
(5.69)
la variable v = 14 (x21 + x22 ), est solution de :
dv
= 2v(−2 + sin t + v), t ∈ R, v ∈ R+ .
dt
Ainsi, à l'aide de l'exemple 21, nous pouvons conclure que l'origine de (5.69) est ex-
ponentiellement stable et qu'une estimation de son domaine de stabilité exponentielle
est {x ∈ R2 : (x21 + x22 ) < 4}.
L'analyse de l'exemple 22 nous permet de constater que l'utilisation de la fonction
de Liapounov v permet de réduire la dimension de l'EDO étudiée, tout en condui-
sant à des conclusions signicatives quant aux comportements des solutions de l'EDO
initiale. Cette réduction de dimension entraîne une perte d'information sur les com-
portements liés au système initial. Il semble donc intéressant de réduire cette perte
en utilisant non pas une seule fonction candidate à Liapounov, mais plusieurs fonc-
tions regroupées dans un vecteur qui conduira à une fonction vectorielle de Liapounov
(FVL), en espérant que chacune d'elle apportera des informations provenant de dif-
férentes parties du système initial.
Dénition 38. V est une fonction vectorielle de Liapounov (FVL) si :
V : R n → Rk ,
x 7→ V (x) = [v1 (x), . . . , vk (x)]T ,

où les fonctions vi (x) sont continues, semi-dénies positives et telles que [V (x) =
0 ⇔ x = 0].
224 Mathématiques pour les systèmes dynamiques

Exemple 23. V : R3 → R2+ , x 7→ V (x) = [x21 + x22 , (x2 − x3 )2 + x23 ]T est une FVL,
alors que V : x 7→ [(x1 + x2 )2 , (x2 − x3 )2 ]T n'en est pas une.
Les normes vectorielles [BEL 62, BOR 76, GRU 77, PER 94, PER 95a, BRD 02]
constituent un cas particulier de FVL, présentant l'avantage de permettre une
construction systématique du système majorant. En particulier, en décomposant Rn
en une somme directe :
M
k
Rn = Ei , (5.70)
i=1

avec Ei sous-espace de Rn , dim(Ei ) = ni (isomorphe à Rni ), on construit des normes


 au sens usuel  pi (x[i] ) sur Ei avec x[i] = Pri (x) la projection de x sur Ei . Ces
diérentes normes, regroupées dans un vecteur, permettent de dénir une norme
vectorielle régulière18 :
P : Rn → Rk+ ,
x 7→ P (x) = [p1 (x[i] ), . . . , pk (x[k] )]T .

Ainsi, en décomposant (de façon non unique) le champ de vecteurs f suivant :


f (t, x, d) = A(t, x, d)x + b(t, x, d),

avec d un vecteur traduisant des incertitudes de modèle ou des perturbations, on


obtient :
D+ P (x) ≤ M (.)P (x) + q(.), (5.71)
avec (.) = (t, x, d), M (.) = {mij (.)} une matrice (k × k) et q(.) = [q1 (.), . . . , qk (.)]T
un k-vecteur, dénis par :
( )
grad pi (u[i] )T Pri A(.) Prj u[j]
mij (.) = sup , (5.72)
u∈Rn pj (u[j] )


qi (.) = (grad pi (x[i] ))T Pri b(.) . (5.73)

Pour certaines normes de Hölder, les expressions formelles de (5.72) et (5.73)


peuvent aisément être obtenues [BOR 76, GRU 77, PER 94, PER 95a]. Par exemple,
si P (x) = [|x1 | , . . . , |xn |]T , alors M est la matrice A dont les éléments hors-diagonaux
sont remplacés par leur valeur absolue (soit mij (.) = |aij | si i 6= j et mii (.) = aii ) et
q = [|b1 | , . . . , |bn |]T . La fonction M (.)z + q(.)19 est quasi monotone non décroissante
en z . De plus, on peut toujours trouver g(z) = M (z)z + q(z) ≥ M (.)z + q(.), qui
soit quasi monotone non décroissante en z (au moins localement). Ainsi, le théorème
6 permet de conclure que :
ż = M (z)z + q(z), (5.74)
est un SM de (5.71). Ce qui conduit à divers résultats [PER 94, PER 95a], en parti-
culier le suivant.
18 Si la somme dans (5.70) n'est pas directe, alors P est une norme vectorielle non régulière.
19 Ainsi que M z +q, avec la matrice M (respectivement le vecteur q ) constituée des suprema
sur (t, x, d) des coecients de la matrice M (.) dénie par (5.72) (respectivement du vecteur
q(.) déni par (5.73)).
Equations diérentielles ordinaires 225

Théorème 31. Considérons une des propriétés P dénies aux paragraphes 5.4.2,
5.4.2, 5.4.2, par exemple : stabilité, attractivité, stabilité asymptotique, etc. Sous
les hypothèses conduisant à la construction de (5.74), pour lequel ze est un point
d'équilibre positif de propriété P et ayant un domaine non vide associé DP (ze ), alors
A = {x ∈ Rn : P (x) ≤ ze } a la propriété P , de domaine DP (A) = {x ∈ Rn : P (x) ∈
DP (ze )}.
Exemple 24. Soit le modèle :

 ẋ1 = (1 − x21 − x22 )x1 + d12 (t)x2 ,
ẋ2 = (1 − x21 − x22 )x2 + d21 (t)x1 , (5.75)

|dij (t)| ≤ 1, ∀t ∈ R,

où les fonctions dij sont continues par morceaux. Pour la norme vectorielle régulière
P (x) = [|x1 | , |x2 |]T , on obtient :
 
(1 − p21 (x) − p22 (x)) 1
Dt P (x) ≤ P (x),
1 (1 − p21 (x) − p22 (x))

auquel on associe le SM suivant :


 
1 − z12 1
ż(t) = g(z) = z(t),
1 1 − z22

(g est
 quasi
 monotone non décroissante) ayant
 pour point d'équilibre
 positif
 : ze =
√ 1 √ 1
2 , permettant de conclure que A = x ∈ Rn : P (x) ≤ 2 est glo-
1 1
balement asymptotiquement stable.
Enn, notons que cette démarche peut être étendue au cas de matrices de fonctions
de Liapounov [DJO 86].

5.8. Théories des perturbations et de moyennisation

5.8.1. Introduction
Il s'agit ici de simplier l'étude qualitative des solutions d'une EDO (équation
diérentielle ordinaire) du type :
ẋ = f (t, x, ε), x(t0 ) = a(ε), x ∈ Rn (5.76)
où ε est un petit paramètre. Il est de prime abord naturel de comparer les solutions
de (5.76) à celles de :
ẋ = f0 (t, x) = f (t, x, ε = 0), x(t0 ) = a(0). (5.77)
Nous avons vu quelques éléments de réponse au paragraphe 5.6.1 concernant la sta-
bilité structurelle. Sous des hypothèses de régularité de la fonction f (en particulier,
f au moins C 1 en ε) nous verrons comment comparer les solutions de ces deux EDO
226 Mathématiques pour les systèmes dynamiques

sur un horizon temporel ni ou inni (paragraphe 5.8.2  perturbations régulières .


Ceci peut se faire à l'aide d'un développement en série des solutions. Si la série ne
converge pas uniformément, on parle de perturbations singulières (un cas particu-
lier étant lorsque ∂f
∂ε
est singulière en zéro). Nous verrons (paragraphe 5.8.3) qu'elles
peuvent traduire une inuence faible d'une dynamique stable mais très rapide vis-à-vis
d'une autre dynamique.
Enn, une dernière classe de simplication concerne la moyennisation (paragraphe
5.8.4) : c'est-à-dire l'étude d'une dynamique moyenne résultant d'un comportement
superposé à un autre de type oscillatoire. Le lecteur pourra consulter les ouvrages de
base [KOK 86, OMA 74], ainsi que les chapitres 8 et 9 de [KHA 96] et le chapitre 4
de [GUC 83]. Rapellons qu'une fonction g : R → Rn est dominée par h : R → Rn au
kgk
voisinage d'un point b si, dans un voisinage de ce point, khk est borné. En particulier
la notation g(ε) = O(ε ), k ∈ N signie que les composantes du vecteur g(ε) sont
k

dominées au voisinage de zéro par εk : donc qu'il existe une constante positive M > 0
telle que maxi∈{1,...,n} (|gi (ε)|) < M |ε|k sur un voisinage de zéro.

5.8.2. Perturbations régulières


Nous avons vu que, sous certaines conditions, on pouvait comparer les solutions
de (5.76) et de (5.77) sur un intervalle de temps petit (théorème 4 concernant la
dépendance des conditions initiales) ou plus large (théorème 10 concernant la sta-
bilité structurelle). Dans ce paragraphe, on se pose les même questions pour des
approximations d'ordre plus élevé à savoir : sous quelles conditions les solutions du
système perturbé (5.76) et celles de son approximation sont-elles proches, de quelle
façon peut-on caractériser cette proximité des solutions et sur quel intervalle de temps
cette comparaison est-elle valide ? Pour ce faire, on écrit un développement en série
de f (t, x, ε) en la variable ε, de x(t; t0 , a(ε), ε) , x(t, ε) (la solution de (5.76)) et de
a(ε) :
X
i=k
f (t, x, ε) = εi fi,x (t, x) + ε(k+1) Rf (t, x),
i=0

X
i=k X
i=k
x(t, ε) = εi xi (t) + ε(k+1) Rx (t, x)), a(ε) = εi ai + ε(k+1) Ra (t, x).
i=0 i=0

On doit donc avoir, pour les conditions initiales :



∂ i a
a0 = a(0) = x0 (0), ai = = xi (0),
∂εi ε=0
et, pour la dynamique :
X
i=k
ẋ(t, ε) = εi ẋi (t) + ε(k+1) Ṙx (t, x)) = f (t, x(t, ε), ε)
i=0

X
i=k
= εi fi (t, x0 (t), x1 (t), . . . , xi (t)) + ε(k+1) R(t).
i=0
Equations diérentielles ordinaires 227

En égalant les coecients des puissances de ε, on déduit ẋi (t) = A(t)xi +


fei−1 (t, x0 (t), x1 (t), . . . , xi−1 (t)), A(t) = ∂f
∂x (t,x0 (t),0)
. Ainsi, on doit résoudre le sys-
tème d'équations (pour i ∈ {1, . . . , k}) :
ẋ0 = f (t, x0 , 0), x0 (0) = a(0),
..
. (5.78)
ẋi = A(t)xi + fei−1 (t, x0 (t), x1 (t), . . . , xi−1 (t)), xi (0) = ai .

Les solutions exacte et approchée sont alors distantes d'un O(εk ) comme précisé dans
le théorème suivant (voir chapitre 8 [KHA 96] et [KOK 86, OMA 74]).
Théorème 32. Considérons (5.76), (5.78). Si les conditions suivantes sont vériées :
1. f est de classe C k+2 par rapport à (x, ε), pour tout (t, x, ε) ∈ [t0 , t1 ] × D ×
[−ε0 , ε0 ],
2. a(ε) est de classe C k+1 par rapport à ε, pour tout ε ∈ [−ε0 , ε0 ],
3. (5.76) admet une solution unique dénie sur [t0 , t1 ],
alors, il existe ε∗ > 0 tel que, pour tout ε ∈ [−ε∗ , ε∗ ], (5.76) ait une solution unique
dénie sur [t0 , t1 ] et vériant :
X
i=k
x(t, ε) − εi xi (t) = O(εk+1 ). (5.79)
i=0

Si de plus, dans les points 1 et 3, t1 = ∞, si f ainsi que ses dérivées partielles


jusqu'à l'ordre k + 2 sont bornées sur [t0 , ∞[×D × [−ε0 , ε0 ] et si xeq ∈ D est un
point d'équilibre exponentiellement stable, alors il existe ε∗ > 0 et δ > 0 tels que pour
tout ε ∈ [−ε∗ , ε∗ ] et tout ka(ε) − xeq k < δ, (5.76) ait une solution unique dénie sur
[t0 , ∞[, uniformément bornée et vériant :

X
i=k
x(t, ε) − εi xi (t) = O(εk+1 ), (5.80)
i=0

et ce uniformément en t pour tout t > t0.


Exemple 25. On considère le système :
dx dy
= ωy, = −ωx + εy 2 , (5.81)
dt dt
x ∈ R, y ∈ R, ω = cte et ε ∈ R petit. Les hypothèses du théorème sont vériées pour
tout k. Nous allons l'appliquer pour k = 1. Sur l'intervalle t = [0, 1], calculons une
approximation à l'ordre 1 (i = 0) :
dx0 dy0
= ωy0 , = −ωx0 , (5.82)
dt dt
avec x0 (0) = 1, y0 (0) = 0. On trouve x0 (t) = cos(ωt), y0 (t) = − sin(ωt). Puis, pour
i = 1, on a :
dx1 dy1
= ωy1 , = −ωx1 + y02 = −ωx1 + sin2 (ωt), (5.83)
dt dt
228 Mathématiques pour les systèmes dynamiques

2
avec x1 (0) = 0, y1 (0) = 0. On trouve x1 (t) = 13 cos ωt−2ω cos ωt+1 , y1 (t) =
2
− 23 (sin ωt) cos ωt−1
ω
. On en déduit que x(t, ε) = cos(ωt) + ε3 cos ωt−2ω cos ωt+1 + O(ε2 ),

y(t, ε) = − sin(ωt) − 3 (sin ωt) cos ωt−1
ω
+ O(ε ), ce que l'on peut vérier sur la gure
2

5.16 pour ω = 2, ω = 0.1.

Figure 5.16. ω = 2, ω = 0.1

Les courbes se superposent et on note que :


!
X
i=1
max x(t, ε) − i
ε xi (t) = 1.27 × 10−3 ,
t∈[0,1]
i=0
!
X
i=1
max y(t, ε) − i
ε yi (t) = 2.5 × 10−3 .
t∈[0,1]
i=0

5.8.3. Perturbations singulières

Avant de formuler le problème, commençons par l'exemple d'un moteur à courant


continu (à ux constant), sans couple de charge, modélisé par :

di(t)
e(t) = Ri(t) + L + ef cem (t),
dt
dωm (t)
Γm (t) = bm ω m (t) + Jm ,
dt
Γm (t) = Ki i(t), ef cem = Kb ω m (t),

avec e et i la tension et le courant d'induit, R la résistance (10 Ω) et L l'inductance de


l'induit (0, 001 H), ωm la vitesse de rotation, Jm l'inertie (0, 01 kg m2), bm le coecient
de frottement visqueux (0, 0001 kg m2 s−1 ), ef cem la force contre-éléctromagnétique,
Γm le couple moteur, Ki = Kb les constantes respectivement de couple et de vitesse,
Equations diérentielles ordinaires 229

1 Nm A−1 . S'il n'y a pas de charge :


di(t)
L = −Ri(t) − Kb ω m (t) + e(t),
dt
dωm (t)
Jm = −bm ω m (t) + Ki i(t). (5.84)
dt
Si l'inductance L est faible (ce qui est le cas en général), le courant converge rapide-
ment vers la solution de L di(t)
dt
= 0, c'est-à-dire i(t) = − KRb ω m (t) + R
1
e(t). Ainsi, en
reportant i dans la deuxième équation, la dynamique mécanique (plus lente que la
dynamique électrique) devient :
 
dωm (t) Ki Kb Ki
Jm = − bm + ω m (t) + e(t). (5.85)
dt R R
Pour les valeurs numérique données, on peut noter que la constante de temps
électrique LRi = 10−4 est négligeable devant la constante de temps mécanique
bm
Jm
+ K i Kb
Jm R
= 0, 11. Il est facile de vérier que la réponse à un échelon contant
de la vitesse est en eet extrêmement proche de celle obtenue pour le modèle (5.85)
qui est communément retenu pour modéliser un moteur à courant continu de ce type.
En se replaçant dans un contexte plus général, nous venons de voir que le comporte-
ment résultant est assez proche de la dynamique lente pour laquelle la variable rapide,
associée à la dynamique rapide, est remplacée par sa valeur  d'équilibre  : c'est ce
phénomène que nous allons développer ici.
On s'intéresse ici à un cas particulier de (5.76) appellé modèle standard de pertur-
bations singulières :
ẋ = fl (t, x, z, ε), x ∈ Rn , (5.86)
εż = fr (t, x, z, ε), z ∈ Rm , (5.87)
où les champs de vecteurs fl ( dynamique lente ) et fr ( dynamique rapide ) sont
supposés au moins de classe C 1 par rapport à tous leurs arguments. Notons que si la
dynamique rapide est exponentiellement stable (donc converge rapidement vers 0), le
système se ramène à une équation diérentielle algébrique (EDA), la seconde équation
dégénérant en une contrainte algébrique :
fr (t, x, z, 0) = 0. (5.88)
Dans ce cas d'une EDO d'ordre (n + m), on passe alors à une EDO d'ordre n avec une
contrainte algébrique d'ordre m. S'il existe un quadruplet (ts , xs , zs , 0) tel que (5.88)
soit satisfaite, alors, d'après le théorème de la fonction implicite (fr est de classe C 1 ),
on peut au voisinage de ce quadruplet expliciter (5.88) :
z = h(t, x). (5.89)
Par la suite, on supposera qu'il existe un nombre ni de racines de (5.88) : on dira
alors que (5.86) (5.87) est sous forme standard. En faisant le même raisonnement que
pour le moteur, à condition que la dynamique rapide soit exponentiellement stable,
la dynamique lente résultante est :
ẋ = fl (t, x, h(t, x), 0), x ∈ Rn . (5.90)
230 Mathématiques pour les systèmes dynamiques

En ce qui concerne la dynamique rapide (5.87), intuitivement tout se passe comme si


les variables lentes étaient gées, c'est-à-dire que pendant un intervalle de temps court,
on est amené à étudier le système  autonome  (on a posé t = t0 + ετ , y = z − h(t, x))
dit modèle de la couche limite :
dy
= fr (t, x, y + h(t, x), 0), y ∈ Rm , (5.91)

avec (t, x) des paramètre xes. Le théorème suivant [KHA 96, KOK 86, OMA 74]
précise les comportements relatifs de (5.86), (5.87) et (5.90).
Théorème 33 (de Tikhonov, des perturbations singulières). Considérons
(5.86), (5.87) auxquelles on associe les conditions initiales :
x(t0 ) = x0 (ε), z(t0 ) = z0 (ε). (5.92)
Supposons que dans un voisinage compact de (ts , xs , zs , 0) (une racine isolée de
(5.88)), [t0 , t1 ] × Brx × Brz × [0, ε0 ], les conditions suivantes soient vériées :
1. fl , fr , h(t, x) et ∂fr (t,x,z,0)
∂z
sont de classe C 1 par rapport à leurs arguments
respectifs,
2. x0 et z0 sont de classe C 1 par rapport à ε,
3. le système réduit (5.90) a une solution unique sur le compact, notée x(t),
4. 0 est uniformément exponentiellement stable pour (5.91) sur le compact.
Alors, il existe deux constantes positives ε∗ et δ telles que pour toute condition initiale
(x0 (ε), z0 (ε)) : kz0 (0) − h(t0 , x0 (0))k < δ et 0 < ε < ε∗ , le problème de Cauchy (5.86)
(5.87) (5.92) admet une unique solution (x(t, ε), z(t, ε)) dénie sur [t0 , t1 ] telle que :
x(t, ε) − x(t) = O(ε), (5.93)
z(t, ε) − h(t, x(t)) − y(τ) = O(ε), (5.94)
sont vériées uniformément en t ∈ [t0 , t1 ], y(τ ) étant la solution du modèle de la
couche limite (5.91). De plus, il existe t00 > t0 et 0 < ε∗∗ < ε∗ tels que :
z(t, ε) − h(t, x(t)) = O(ε), (5.95)
est vériée uniformément en t ∈ [t00 , t1 ] et ce pour tout 0 < ε < ε∗∗ .

5.8.4. Moyennisation
Ici on s'intéresse à des systèmes perturbés pouvant être modélisés par :
ẋ = εf (t, x, ε), (5.96)
avec ε un petit paramètre et f un champ de vecteur T −périodique (voir dénition 5
au paragraphe 5.3.2). Du fait de cette périodicité, on peut calculer le champ moyen
(lorsque ε est nul) : Z T
1
fmoy = f (v, x, 0)dv,
T 0
Equations diérentielles ordinaires 231

et se demander sous quelles conditions les solutions du système non autonome (5.96)
et celles du système autonome :

ẏ = εfmoy (y), (5.97)

sont proches. Considérons le changement de variable suivant :


Z t 
x(t) = y(t) + ε f (v, y, 0)dv − tfmoy (y) .
0

Un calcul direct permet de montrer que :


 Z t 
∂f (v, y, 0) ∂fmoy (y)
Id + ε dv − tε ẏ = εfmoy (y) + εp(t, y, ε),
0 ∂y ∂y

où le terme p(t, y, ε) est une perturbation T − périodique qui est en O(ε). Pour ε petit,
la matrice prémultipliant ẏ est non singulière, ce qui conduit à :

ẏ = εfmoy (y) + ε2 q(t, y, ε),

où le terme q(t, y, ε) est une perturbation T −périodique. Ce changement permet d'en


déduire le résultat suivant.
Théorème 34. Supposons que, pour tout (t, x, ε) ∈ [t0 , ∞[×D × [0, ε0 ], le champ
de vecteurs de (5.96) soit C 2 par rapport à (x, ε), C 0 en la variable t, borné et
T −périodique en la variable t. Notons x(t; t0 , x0 , ε) et xmoy (t; t0 , x0 , ε) les solutions
respectives de (5.96) et de (5.97).

1. Si xmoy (t; t0 , x02 , ε) ∈ D, ∀t ∈ [t0 , t0 + εb ] et kx10 − x20 k = O(ε), alors :


b
kx(t; t0 , x01 , ε) − xmoy (t; t0 , x02 , ε)k = O(ε), ∀t ∈ [t0 , t0 + ].
ε

2. Si xeq ∈ D est un point d'équilibre exponentiellement stable pour (5.97), alors


il existe δ > 0 tel que si kxeq − x20 k < δ et kx10 − x20 k = O(ε), alors
kx(t; t0 , x01 , ε) − xmoy (t; t0 , x02 , ε)k = O(ε), ∀t ∈ [t0 , ∞[.
3. Si xeq ∈ D est un point d'équilibre hyperbolique (en particulier, exponentielle-
ment stable) pour (5.97), alors il existe ε∗ > 0 tel que, ∀ε ∈]0, ε∗ [, (5.96) admet
une unique orbite T −périodique hyperbolique de même stabilité que xeq et située
dans un O(ε)−voisinage de xeq .
Exemple 26. Soit le modèle :
ẋ = ε sin(t)x. (5.98)
R 2π
Le champ moyen est fmoy (x) = x
2π 0
sin(v)dv = 0. En restreignant x ∈ [−1, 1], le
théorème précédent nous permet de conclure : toute solution de (5.98) démarrant de
x(0) = x0 ∈ ]−1, 1[ est x(t)
h = x0 +O(ε), ∀t > i0. En eet, (5.98) s'intègre directement,

la solution étant x (t) = e−ε cos(t) + 1 − e−ε x0 = x0 + (1 − cos t) εx0 + O ε2 . La
gure 5.17 illustre les solutions partant de x0 = 0, 5 pour deux valeurs de ε.
232 Mathématiques pour les systèmes dynamiques

Figure 5.17. Solution de (5.98) pour ε = 0, 1 (trait plein) et ε = 0, 01 (pointillé)

Exemple 27. Soit le modèle :



ẋ = ε 20 sin2 (t)x − cos2 (t)x3 . (5.99)
R 3 R
Le champ moyen est fmoy (x) = 20x π
π
0
sin2 (v)dv − xπ 0 cos2 (v)dv = 10x − 12 x3 ,

π

pour lequel
√ on a les équilibres x = 0 (instable), x = 2 5 (exponentiellement stable),
x = −2 5 (exponentiellement stable). Le théorème 34 permet de conclure que, pour√ε
susament petit, il y aura une orbite T −périodique stable au voisinage de x = 2 5.
Pour ε = 0.01, les simulations de (5.99) et du système moyen associé donnent la
gure 5.18.

Figure 5.18. Solutions de (5.99) et du système moyen associé (pour x0 = 3)


Equations diérentielles ordinaires 233

Exemple 28. Une application de cette méthode est l'étude d'oscillateur du second
ordre faiblement non linéaire :
ÿ + ω 2 y = εg(y, ẏ),
qui en posant r sin θ = y, ωr cos θ = ẏ devient :
ε
ṙ = g(r sin θ, ωr cos θ) cos θ,
ω
ε
θ̇ = ω− g(r sin θ, ωr cos θ) sin θ.

g(r sin θ,ωr cos θ) cos θ
Ainsi, en posant f (θ, r, ε) = ω2 − ε g(r sin θ,ωr cos θ) sin θ
, on a :
r

dr
= εf (θ, r, ε).

Si |g| < k min(y, ẏ), alors θ̇ est minorée pour ε susament petit, donc f est bornée
2π−périodique. Si elle est susament dérivable (par exemple, g de classe C 2 ), alors on
peut appliquer le théorème 34. Par exemple, pour l'oscillateur de Van der Pol (5.31),
on trouve :
g(y, ẏ) = ẏ(1 − y 2 ),
dr r cos2 θ(1 − r2 sin2 θ)
= εf (θ, r, ε) ; f (θ, r, ε) = ,
dθ 1 − ε sin θ cos θ(1 − r 2 sin2 θ)
 
dr 1 1
= εfmoy (r) = ε r − r3 .
dθ 2 8
Le système moyen possède trois points d'équilibre : r = 0 (instable), r = 2 (expo-
nentiellement stable), r = −2 (pas de signication). En utilisant le théorème 34, on
déduit que, pour ε susament petit, l'oscillateur de Van der Pol possède un cycle li-
mite stable proche de r = 2. Enn, on peut montrer que cette orbite est T −périodique
de période T = 2π + O(ε).

5.9. Bifurcation et chaos

Les modèles non linéaires peuvent présenter des changements radicaux de compor-
tement lorsqu'un paramètre change : c'est un phénomène de bifurcation. Par exemple,
le déplacement d'un ressort de raideur k attaché à une masse m et à un bâti excité par
un retour en αẋ est modélisé par mẍ + µẋ + kx = 0, µ√= (δ − α), avec δ le coecient
(4mk−µ2 )
de frottement. Les modes, pour µ petit, sont λ = −µ±i 2m . Evidement, si µ est
positif (respectivement négatif), alors l'équilibre est instable (respectivement stable)
alors que, pour µ0 = 0, un mode oscillatoire apparaît. Clairement, µ0 est une valeur
de bifurcation.
Sur des exemples d'équations de récurrence simples20 , on peut vérier qu'une
innité de telles bifurcations peut conduire à un comportement imprévisible car très
20 Par exemple du premier ordre xn+1 = µxn (1 − xn ) (voir [BER 84, GUC 83]).
234 Mathématiques pour les systèmes dynamiques

sensible aux conditions initiales : c'est un phénomène de chaos. Ce même type de


phénomène se manifeste pour les EDO non linéaires autonomes, mais seulement pour
des dynamiques d'ordre intrinsèque supérieur ou égal à trois.

5.9.1. Dépendance d'un paramètre


On suppose que k paramètres, regroupés dans un vecteur µ ∈ Rk , interviennent
dans l'EDO :
dx
= g(x, µ), x ∈ Rn , µ ∈ Rk . (5.100)
dt

Lorsque le champ de vecteurs g est de classe C 1 sur un ouvert de Rn+k , outre


 l'existence, la continuité et l'unicité des solutions , on peut noter (voir théorème
4) que pour un triplet (t0 , x0 , µ0 ) donné, il existe deux voisinages ouverts de x0 et
de µ0 notés respectivement V(x0 ) et V(µ0 ), tels que pour tout couple  (x01 , µ01 ) de
V(x0 ) × V(µ0 ), le problème de Cauchy : dx dt
= g(x, µ01 ), x(t 0 ) = x 01 ait une et une
seule solution maximale φ(t; t0 , x01 , µ01 ) de classe C 1 par rapport à t, x01 et µ01 .
D'autre part, en vertu du théorème 7 (puisqu'il y a bien unicité des solutions), les
points d'équilibres de (5.100) sont donnés par les solutions de :
g(x, µ) = 0, x ∈ R n , µ ∈ Rk .

Ainsi, lorsque le paramètre vectoriel µ varie, le théorème de la fonction implicite


montre que ces équilibres xe (µ) sont des fonctions de µ de même classe que g, à
condition qu'il existe un point d'équilibre (xe , µe ) et qu'en ce point la jacobienne
∂g
Jg (xe , µe ) = ∂x (xe , µe ) soit non singulière : det( ∂x
∂g
(xe , µe )) 6= 0. Sous ces conditions,
il existe un voisinage ouvert de µe , noté V(µe ), et une application h : V(µe ) ⊂ Rk →
Rn , µ 7→ h(µ) de même classe que g, tels que :

g(h(µ), µ) = 0, ∀µ ∈ V(µe ).
Dénition 39. Le graphe de la fonction h constitue les branches d'équilibres.
Exemple 29. Soit le système : dx
dt
= µ3 − x3 , x ∈ R, µ ∈ R. La branche d'équilibres
est la droite x = µ. Notons que, pour tout équilibre (x, µ) 6= (0, 0), la jacobienne de
g est non singulière : dans cet exemple, l'application h est l'identité ou son opposée
selon le signe de xe µe .
Exemple 30. Pour le système dx dt
= µ − x2 , x ∈ R, µ ∈ R, les branches d'équilibres

correspondent au graphe de la parabole x = ± µ, µ ≥ 0, représenté gure 5.19.
Lorsque ∂x ∂g
(xe , µe ) est non singulière, les points d'équilibre (dans un voisinage
de (xe , µe )) sont hyperboliques : le théorème 14 nous donne la structure locale des
solutions au voisinage de ces points (système structurellement stable). Par contre,
dans le cas où ∂x ∂g
(xe , µe ) est singulière, on est en présence d'un point dégénéré (non
hyperbolique), ce qui se traduit par la présence possible d'un changement de com-
portement (bifurcation). On peut noter qu'alors, ce point peut être la jonction de
plusieurs branches d'équilibres (voir exemple 29). La condition  ∂x ∂g
(xe , µe ) est sin-
gulière  traduit une bifurcation locale.
Equations diérentielles ordinaires 235

Figure 5.19. Branches d'équilibres du système dx


dt
= µ − x2

Dénition 40. Une valeur de bifurcation est une valeur du paramètre vectoriel µ
intervenant dans (5.100) pour laquelle (5.100) n'est pas structurellement stable. De
façon générale, on distingue deux types de bifurcations :
1. les bifurcations locales : les changements qualitatifs du portrait de phase se font
au voisinage d'un élément critique ;
2. les bifurcations globales : les changements s'opèrent sur une région de l'espace,
par exemple lorsqu'il y a création d'attracteurs étranges, ou lorsqu'une orbite
homoclinique se transforme en orbite périodique ou point d'équilibre.
Exemple 31. µ0 = 0 est une valeur de bifurcation pour le système de l'exemple 30,
mais pas pour celui de l'exemple 29 car l'équilibre x = µ est toujours asymptotiquement
stable quelle que soit la valeur du paramètre µ.
Dénition 41. Le graphe, dans l'espace (x, µ), de l'évolution des ensembles inva-
riants (points d'équilibres, orbites fermés, etc.) en fonction du paramètre µ constitue
un diagramme de bifurcation.
Le terme  évolution  est pris ici au sens qualitatif, c'est-à-dire qu'il peut s'agir
de création ou de changement qualitatif (par exemple : stable → instable). Par la
suite, on adoptera la convention suivante : les éléments stables seront représentés en
traits pleins et ceux instables, en traits discontinus.
Exemple 32. Reprenons le système de Van der Pol (voir équation (5.3)). L'origine
est un point d'équilibre et la jacobienne en ce point vaut :
 
0 1
Jg (0) = .
−1 2µ
p
Ainsi, pour µ proche de zéro, les valeurs propres sont µ ± i 1 − µ2 . Ce qui signie
que µ0 = 0 est une valeur de bifurcation pour laquelle l'origine, tout en restant un
point d'équilibre, change qualitativement de  asymptotiquement stable  (µ < 0) à
 instable  (µ > 0). Nous verrons par la suite qu'il s'agit d'une bifurcation de Hopf
qui, lorsque µ devient positif, donne naissance à des cycles limites asymptotiquement
stables entourant l'origine. Le diagramme de bifurcation est donné sur la gure 5.20.
236 Mathématiques pour les systèmes dynamiques

Figure 5.20. Bifurcation de Hopf pour (5.3)

5.9.2. Bifurcation locale de codimension 1

A l'heure actuelle, il est impossible de faire une classication exhaustive des phé-
nomènes de bifurcations locales ou globales. En eet une complexité d'étude apparaît
avec l'augmentation :
- de la dimension eective de (5.100) : n,
- du nombre de paramètres qui interviennent dans (5.100) : k.
Cependant, un grand nombre de phénomènes peuvent être étudiés à l'aide de
bifurcations  élémentaires  que l'on retrouve régulièrement. En particulier, pour
les points d'équilibre, lorsque les paramètres varient, les valeurs propres de la jaco-
bienne peuvent traverser l'axe imaginaire : il y a bifurcation. Parmi ces paramètres,
un nombre minimal peut être utilisé pour reproduire ce type de bifurcation : c'est
la codimension de la bifurcation. Pour une bifurcation
 decodimension 1, Jg (0) est
  0 −ω
0 0 0 
semblable soit à , soit à  ω 0 , avec X et Y de tailles
0 X
0 Y
respectives (n−1)×(n−1) et (n−2)×(n−2). Génériquement, toute bifurcation (locale
au voisinage d'équilibre) de codimension 1 peut se ramener à l'une des bifurcations
suivantes21 .

Sous-critique ou selle-n÷ud

Cette bifurcation est modélisée par :


dx
= µ − x2 , x ∈ R, µ ∈ R. (5.101)
dt
21
On pourra pour cela utiliser le théorème de la variété centre (théorème 15) : voir [GUC 83]
pour plus de détails.
Equations diérentielles ordinaires 237

√ √
Les points d'équilibres sont xe1 = − µ et xe2 = µ pour µ ≥ 0, de jacobiennes
√ √
respectives 2 µ et −2 µ.

Figure 5.21. Bifurcation selle-n÷ud de (5.101)

µ0 = 0 est une valeur de bifurcation, avec création de deux points d'équilibres :


 xe1 n'existe pas  (µ < 0) →  existe et est instable  (µ > 0) et  xe2 n'existe pas 
(µ < 0) →  existe et est asymptotiquement stable  (µ > 0). Lorsque µ = µ0 = 0,
(5.101) devient dx
dt
= −x2 , qui admet pour solutions x(t) = 1+(t−t x0
0 )x0
, ce qui montre
que, lorsque x0 est positif, x(t) converge vers zéro et que, dans le cas contraire, il
existe un temps ni (t0 − x10 ) pour lequel il y a  explosion  (x(t) = ∞).
Le diagramme de bifurcation est représenté sur la gure 5.21. On peut noter que
les points d'équilibre ne sont pas de vrais points  selles  (ou  col ) et  n÷ud ,
puisqu'il faudrait être en dimension 2. Pour cela, il sut d'adjoindre à (5.101) l'équa-
tion dy
dt
= −y, y ∈ R, ce qui donne le diagramme de bifurcation de la gure 5.22.
Cette bifurcation prend bien son appellation  selle-n÷ud .

Figure 5.22. Bifurcation selle-n÷ud : (5.101) avec ẏ = −y


238 Mathématiques pour les systèmes dynamiques

Transcritique

Cette bifurcation est modélisée par :


dx
= µx − x2 , x ∈ R, µ ∈ R. (5.102)
dt

Figure 5.23. Bifurcation transcritique de (5.102)

Les points d'équilibres sont xe1 = 0 et xe2 = µ, de jacobiennes respectives µ


et −µ. µ0 = 0 est une valeur de bifurcation. Il y a échange de stabilité entre les
deux points d'équilibres :  xe1 asymptotiquement stable  (µ < 0) →  instable 
(µ > 0) et  xe2 instable  (µ < 0) →  asymptotiquement stable  (µ > 0). Lorsque
µ = µ0 = 0, (5.102) devient dx dt
= −x2 (voir ci-dessus pour les conclusions). Le
diagramme de bifurcation est donné gure 5.23.

Super-critique

On distingue les bifurcations de type fourche et de type Hopf.


La bifurcation fourche est modélisée par :
dx
= µx − x3 , x ∈ R, µ ∈ R. (5.103)
dt
Une étude rapide montre que µ0 = 0 est une valeur de bifurcation, pour laquelle il y
a création de deux points d'équilibre asymptotiquement stables et perte de stabilité
pour l'origine :  xe1 = 0 asymptotiquement stable  (µ < 0) →  instable  (µ > 0) ;

 xe2 = − µ n'existe pas  (µ < 0) →  existe et est asymptotiquement stable 

(µ > 0) et  xe3 = µ n'existe pas  (µ < 0) →  existe et est asymptotiquement
stable  (µ > 0). Lorsque µ0 = 0, (5.103) devient dx
dt
= −x3 , qui admet pour solution
Equations diérentielles ordinaires 239

x(t) = √ x0
, ce qui montre que x(t) converge vers zéro (l'origine est asymp-
1+2(t−t0 )x2
0
totiquement stable, non exponentiellement). Le diagramme de bifurcation est donné
gure 5.24.

Figure 5.24. Bifurcation fourche de (5.103)

La bifurcation de Hopf correspond à la présence de deux valeurs propres complexes


conjuguées ; elle est modélisée par :
dx
= −ωy + x(µ − (x2 + y 2 )), x ∈ R, µ ∈ R,
dt
dy
= +ωx + y(µ − (x2 + y 2 )), y ∈ R, ω = cste.
dt
Cette équation, en coordonnées polaires, devient dr dt
= r(µ − r 2 ), dθ
dt
= ω . Ces deux
équations sont découplées, la première correspondant à une bifurcation fourche (va-
lable seulement pour r positif). On en déduit que µ0 = 0 est une valeur de bifurcation
et qu'il y a création d'une orbite fermée asymptotiquement stable et perte de stabilité
pour l'origine lorsque µ devient positif. Origine :  asymptotiquement stable  (µ < 0)

→  instable  (µ > 0). Orbite (r = µ) :  n'existe pas  (µ < 0) →  existe et
est asymptotiquement stable  (µ > 0). Le diagramme de bifurcation de Hopf a été
donné précédemment (gure 5.20).
Il ne faut pas se er aux apparences : la présence d'un paramètre dans une EDO
ne signie pas l'existence systématique d'une bifurcation. Par exemple, l'EDO dxdt
=
µ − x3 , x ∈ R, µ ∈ R n'a qu'un équilibre qui est asymptotiquement stable pour toute
valeur de µ : il n'y a pas de bifurcation.

5.9.3. Chaos
Un phénomène chaotique (comportement aléatoire en apparence) peut être ob-
tenu à partir de plusieurs phénomènes de bifurcation : doublement de période
240 Mathématiques pour les systèmes dynamiques

[BER 84, GUC 83, PEI 92], bifurcation sur le tore (innité de bifurcations de Hopf),
intermittence (phénomènes périodiques alternant avec des phénomènes apériodiques),
etc. La présence d'attracteurs étranges est un indicateur du chaos : en eet, cela im-
plique une grande sensibilité des solutions aux conditions initiales (deux solutions
démarrant de conditions initiales voisines donnent naissance à des trajectoires de
natures et/ou de formes diérentes). Aussi, un phénomène chaotique peut être dé-
tecté en mettant en évidence soit un ensemble invariant de dimension non entière
(attracteur étrange), soit une sensibilité aux conditions initiales (notamment à l'aide
des exposants de Liapounov). Dans ce qui suit, on ne considèrera que des EDO non
linéaires autonomes du type (5.19).
Dénition 42. Un ensemble A est un attracteur étrange si A est un ensemble
attractif invariant par le ot Φtg et si toute trajectoire initialisée dans A est dense
dans A.
Exemple 33. Soit le modèle de Rösler :

 ẋ = −(y + z),
ẏ = x + ay, (5.104)

ż = b − cz + xz,
pour a = b = 0.2, c = 5.8, on obtient l'attracteur de Rösler de la gure 5.25.

Figure 5.25. Attracteur de Rösler

D'un point de vue pratique, il est rare de pouvoir démontrer qu'un ensemble A est
un attracteur étrange, en particulier de montrer que toute trajectoire initialisée dans
A est dense dans A. Aussi, il est naturel d'avoir recours à des méthodes numériques
permettant de calculer la dimension de l'attracteur qui est un indicateur probant de
son  étrangeté . Considérons un cube C contenant un attracteur A dont on souhaite
déterminer la dimension. En notant n(ε) le nombre de cubes d'arête ε nécessaires au
recouvrement des points constituant l'attracteur A, on dénit la dimension fractale
(ou capacité) par :
ln(n(ε))
df (A) = lim . (5.105)
ε→0 ln( 1ε )
Equations diérentielles ordinaires 241

Il existe de nombreuses autres notions de dimension : dimension de Hausdor (voir


[GUC 83] p. 285), l'entropie relative à une mesure ([GUC 83] p. 286), la dimen-
sion d'information ([SEY 94] p. 345, [PEI 92] p. 735), la dimension de corrélation
([SEY 94] p. 345), la dimension de Liapounov ([PEI 92] p. 739), etc.22 Cependant, en
pratique, on utilise la dimension fractale qui d'un point de vue numérique s'obtient
plus facilement. En eet, en tenant compte de la précision de résolution de l'EDO
(voir [PEI 92] p. 722-726), il sut de tracer la courbe ln(n(ε)) = f (ln( 1ε )) pour obtenir
df (A). Pour l'attracteur de Rösler, par exemple, on obtient df (A) = 2, 015 ± 0, 005.
On peut noter qu'un attracteur étrange (voir la construction du fer à cheval de
Smale [GUC 83] p. 102-116 et 230-235 et [SEY 94] p. 328-334) résulte bien souvent
d'un processus de feuilletage : un ensemble est contracté dans certaines directions,
dilaté dans d'autres et replié sur lui-même de façon à ce qu'il soit invariant. Ainsi
pour détecter un attracteur étrange (donc un phénomène chaotique), on peut utiliser
les exposants de Liapounov qui permettent de mesurer les contractions (si l'exposant
est négatif) et expansions (si l'exposant est positif). Notons que cette caractéristique
se traduit par une sensibilité aux conditions initiales. Considérons une boule de rayon
ε centrée en un point x0 : l'évolution des axes du repère ({ei }i=1,...,n ) lié à ce point
est donnée par Φtg (x0 + εei ) i=1,...,n , permettant de dénir le i-ème exposant de Lia-
pounov :
 t 
1 Φg (x0 + εei )
Li = lim lim ln .
(5.106)
t→∞ ε→0 t ε

Considérons une trajectoire particulière Φtg (x0 ) et notons µi (t) les valeurs propres de
la matrice de monodromie23 associée au linéarisé de ẋ = g(x). Alors autour de cette
trajectoire (c'est-à-dire ż = Jg (Φtg (x0 ))z = A(t)z ), les exposants de Liapounov sont
donnés par :
1
Li = lim ln (|µi (t)|) .
t→∞ t

En particulier, si x0 est un point d'équilibre, alors ż = Jg (x0 )z = Az. La matrice de


monodromie est Φ(t) = exp(At), donc en notant λi les valeurs propres de A (toutes
supposées réelles), on obtient Li = limt→∞ 1t ln (exp(λi t)) = λi .
En général ces exposants sontP réordonnés en L1 ≥ L2 ≥ . . . ≥ Ln . Dans ce cas,
on a pour un système dissipatif ni=1 Li < 0 et une condition nécessaire d'apparition
de phénomène du chaos est L1 > 0. Pour une EDO en dimension 3, une condition
nécessaire et susante d'existence d'attracteur étrange est : L1 < 0, L2 = 0, L3 > 0.

22
Toutes ces dimensions peuvent être dénies à partir d'un famille paramétrée de dimen-
P n(ε) q
ln p
1
sions (dites de Rényi), dénies par dq (A) = 1−q limε→0 i=1
ln( 1 )
i
, q ≥ 0, où pi est la
ε
probabilité pour qu'un point de l'attracteur se retrouve dans la i−ème boîte dont il faut n(ε)
unités pour recouvrir l'attracteur tout entier. Donc si N est le nombre de points (obtenus
par simulation) constituant l'attracteur et Ni le nombre de points contenus dans la i−ème
boîte, on a pi = NNi .
23 Cette matrice est périodique dans le cas d'une trajectoire périodique.
242 Mathématiques pour les systèmes dynamiques

5.10. Bibliographie
[ARN 80] Arnold V.I., Chapitres supplémentaires à la théorie des équations dié-
rentielles ordinaires, MIR, Moscou, 1980.
[ARN 88] Arnold V.I., Equations diérentielles ordinaires, 4e édition, traduit du
russe, MIR, Moscou, 1988.
[BEL 62] Bellman R.,  Vector Lyapunov functions , SIAM J. Control, series A,
vol. 1, n◦ 1, p. 31-34, 1962.
[BER 84] Berge P., Pomeau Y., Vidal C., L'ordre dans le chaos (vers une ap-
proche déterministe de la turbulence), Hermann, 1984.
[BHA 70] Bhatia N.P., Szegö G.P., Stability theory of dynamical systems, Springer
Verlag, Berlin, 1970.
[BIR 27] Birkhoff G.D., Dynamical systems, Amer. Math. Soc. Colloq. IX, 1927.
[BOR 76] Borne P., Contribution à l'étude des systèmes discrets non linéaires de
grande dimension, Thèse de doctorat ès Sc., université de Lille, 1976.
[BDR 93] Borne P., Dauphin-Tanguy G., Richard J.P., Rotella F., Zam-
bettakis I., Analyse et régulation des processus industriels : Tome 1, régulation
continue, Ed. Technip, 1993.
[BRD 02] Borne P., Richard J.P., Dambrine M., Perruquetti W.,  Vector
Lyapunov functions : Nonlinear, time-varying, ordinary and functional dierential
equations , in Stability theory at the end of the XXth century, Taylor & Francis,
London, p. 49-73, 2002.
[CHI 88] Chiang H.D., Hirsch M.W., Wu F.F.,  Stability regions of nonlinear
autonomous dynamical systems , IEEE Trans. Aut. Control, vol. 33, n◦ 1, p.
16-27, 1988.
[CHI 89] Chiang H.D., Thorp J.S.,  Stability regions of nonlinear dynamical sys-
tems : A constructive methodology , IEEE Trans. Aut. Control, vol. 34, n◦ 12,
p. 1229-1241, 1989.
[CLA 83] Clarke F.H., Optimization and nonsmooth analysis, Wiley, 1983.
[COD 55] Coddington E., Levinson N., Theory of Ordinary Dirential Equa-
tions, Mc Graw-Hill, 1955.
[COR 99] Corrieu, P.L., Commande en boucle fermée d'un actionneur pas-à-pas,
Rapport de DEA d'Automatique, Univ. Sc. & Technologies de Lille, 1999.
[DJO 86] Djordjevic M.Z.,  Stability analysis of nonlinear systems by matrix lya-
punov method , IMACS-IFACS, Modelling & Simulation for Control of Lumped
& Distrib. Parameter Systems, p. 209-212, Villeneuve d'Ascq (France), 1986.
[FIL 88] Filippov A.F., Dierential Equations with Discontinuous Righthand Sides,
Kluwer Academic Publishers, 1988.
[GEN 84] Genesio R., Vicino A., New techniques for constructing asymptotic
stability regions for nonlinear systems, IEEE Trans. Circuits and Sys., vol. 31,
n◦ 6, p. 574-581, juin 1984.
[GEN 85] Genesion R., Tartaglia M., Vicino A.,  On estimation of asymptotic
stability regions : State of art and new proposals , IEEE Trans. Aut. Control,
vol. 30, n◦ 8, p. 747-755, août 1985.
[GRU 73a] Gruji¢ Lj.T.,  On practical stability , Int. J. Control, vol. 17, n◦ 4, p.
881-887, 1973.
Equations diérentielles ordinaires 243

[GRU 73b] Gruji¢ Lj.T.,  Practical stability with the settling time , Teoretski
Prilog Automatica, 7, p. 6-10, 1973.
[GRU 77] Gruji¢ Lj.T., Gentina J.C., Borne P.,  General aggregation of large-
scale systems by vector Lyapunov functions and vector norms , Int. J. Control,
vol. 24, n◦ 4, p. 529-550, 1977.
[GRU 87] Gruji¢ Lj.T., Martynyuk A.A., Ribbens-Pavella M., Large scale
systems stability under structural and singular perturbations, LNCIS, Springer
Verlag, 1987.
[GRU 91a] Gruji¢ Lj.T.,  The necessary and sucient conditions for the exact
construction of a Lyapunov function and asymptotic stability domain , 30th
IEEE Conf. on Decision and Control, Brighton, England, p. 2885-2888, 1991.
[GRU 91b] Gruji¢ Lj.T.,  Solutions to Lyapunov stability problems : Nonlinear
systems with dierentiable motions , 13th IMACS World Congress on Comput.
& Appl. Math., p. 1228-1231, Trinity College Dublin, juillet 1991.
[GUC 83] Guckenheimer J., Holmes P., Nonlinear oscillations, dynamical sys-
tems, and bifurcations of vector elds, Springer Verlag, 1983.
[HAH 63] Hahn W., Theory and application of Liapunov's direct method, Prentice-
Hall, Englewood Clis, N.J., 1963.
[HAH 67] Hahn, W., Stability of motion, Springer-Verlag N.Y., 1967.
[HAL 91] Hale J., Koçak H., Dynamics and bifurcations, Texts in Applied Mathe-
matics, vol. 3, Springer Verlag, 1991.
[HIR 74] Hirsh M.W., Smale S., Dierential equations, dynamical systems, and
linear algebra, Academic Press, 1974.
[ISI 89] Isidori A., Nonlinear Control Systems, vol. 1. Springer, 3e édition, 1989.
[KAM 32] Kamke E.,  Zur theorie gewöhnlicher dierentialgleichung II , Acta Ma-
thematicae, vol. 58, p. 57-87, 1932.
[KHA 96] Khalil H.K., Nonlinear systems, Prentice-Hall, 1996.
[KOK 86] Kokotovi¢ P., Khalil H.K., O'Reilly J., Singular perturbation me-
thods in control : Analysis and design, Academic Press, 1986.
[LAK 69] Lakshmikantham, V., Leela S., Dierential and integral inequalities,
vol. 1., Academic Press, New York, 1969.
[LAS 61] LaSalle J.P., Lefschetz S., Stability by Liapunov's direct method with
applications, Academic Press, 1961.
[LIA 92] Liapounov A.M.,  Stability of motion : General problem , Int. J. Control,
Lyapunov Centenary Issue, vol. 55, n◦ 3, mars 1992.
[OMA 74] O'MalleyR.E., Introduction to singular perturbations, Academic Press,
Londres, 1974.
[PEI 92] Peitgen H.O., Jürgens H., Saupe D., Chaos and fractals : New frontiers
of science, Springer-Verlag, 1992.
[PER 94] Perruquetti W., Sur la stabilité et l'estimation des comportements non
linéaires, non stationnaires, perturbés, Thèse de doctorat, université de Lille,
1994.
[PER 95a] Perruquetti W., Richard J.P., Borne P.,  Vector Lyapunov func-
tions : Recent developments for stability, robustness, practical stability and
constrained control , Nonlinear Times & Digest, vol. 2, p. 227-258, 1995.
244 Mathématiques pour les systèmes dynamiques

[PER 95b] Perruquetti W., Richard J.P., Gruji¢ Lj.T., Borne P.,  On pra-
tical stability with the settling time via vector norms , Int. J. Control, vol. 62,
n◦ 1, p. 173-189, 1995.
[REI 82] Reinhard H., Equations diérentielles, fondements et applications,
Gauthier-Villars, 1982.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[ROU 73] Rouch N., Mawhin J., Equations diérentielles ordinaires, Tome 1 :
Théorie générale, Tome 2 : Stabilité et solutions périodiques, Masson, Paris, 1973.
[SCH 95] Schwartz L., Analyse I : Théorie des ensembles et topologie, Hermann,
1995.
[SEY 94] Seydel R., Practical bifurcation and stability analysis : From equilibrium
to chaos, vol. 5, IAM, Springer-Verlag, 2e édition, 1994.
[WAZ 50] Wazewski T.,  Systèmes des équations et des inégalités diérentielles or-
dinaires aux seconds membres monotones et leurs applications, Ann. Soc. Polon.
Math., vol. 23, p. 112-166, 1950.
[WEI 67a] Weiss L.,  Converse theorems for nite time stability , First Asilomar
Conf. on Circuits and Systems, p. 1005-1014, Asilomar, CA, 1967.
[WEI 67b] Weiss L., Infante E.F.,  Finite time stability under perturbing forces
and on product spaces , IEEE Trans. Aut. Control, vol. 12, n◦ 1, p. 54-59, 1967.
[ZUB 61] Zubov V.I., Methods of A.M. Lyapunov and their application, United
States Atomic Energy Commission, vol. AEC-Tr-4439, 1961 (traduit d'une pu-
blication de la Maison d'Édition de l'Université de Leningrad, 1957).
Chapitre 6

Algèbre diérentielle

6.1. Introduction

L'algèbre diérentielle a été développée aux Etats-Unis à partir de 1920 pour


traiter et comprendre les équations diérentielles algébriques, de la même manière
que l'algèbre linéaire permet de formaliser les problèmes relevant du  théorème de
superposition  et s'écrivant à l'aide d'équations linéaires. Il existe une très vaste
bibliographie sur l'algèbre diérentielle et nous nous contenterons de citer les livres
des deux principaux protagonistes de ce sujet : celui de Joseph F. Ritt [RIT 50] et
celui de Ellis R. Kolchin [KOL 73]. L'algèbre diérentielle a été introduite en automa-
tique en France en 1985 par Michel Fliess [FLI 86a, FLI 86b] à propos du problème
de l'inversion entrée-sortie des systèmes non linéaires. Cette nouvelle approche s'est
ensuite révélée très féconde sur de nombreux aspects de la théorie du contrôle comme
la réalisation, la synthèse par bouclage  notamment le découplage, le rejet de per-
turbations, la poursuite de modèle et la linéarisation  la dénition et la classication
des bouclages. C'est dans ce cadre qu'a pu être dégagée plus récemment la notion de
système  diérentiellement plat , très utile pour la pratique [FLI 92b, FLI 95].
L'application de l'algèbre diérentielle s'est ensuite développée au cours de
plusieurs thèses [AIT 94, BOU 94, DEL 93, DIO 89, ELA 92, MES 92, MOU 95,
OLL 90, RUD 91, SED 01] et a donné lieu à de nombreuses publications, dont cer-
taines concernent des applications. Nous n'en retenons que les principales par souci
de concision : [DEL 98a, DEL 98b, DIO 91a, DIO 92, DIO 93, FLI 89a, FLI 90b,
FLI 93a, GLA 88, GLA 90, PER 01, RUD 94, SIR 91b, SIR 91a, SIR 92, WEY 95].
L'algèbre diérentielle a aussi permis de renouveler la vision des systèmes linéaires
grâce à la théorie des modules [FLI 89b, FLI 90c]. Les systèmes en temps discret ont,
quant à eux, été abordés par l'algèbre aux diérences [FLI 90a, FLI 92a].
La section 6.2 est consacrée à un bref rappel de certaines notions d'algèbre commu-
tative nécessaires à la suite du développement. La section 6.3 expose les principales
notions d'algèbre diérentielle utilisées en théorie du contrôle : principalement, les
corps diérentiels et leurs extensions, le degré de transcendance diérentielle et la
notion de base de transcendance diérentielle. Ceci se termine par la construction
détaillée d'une extension de corps à partir d'un système d'équations diérentielles
algébriques. Dans la section 6.4, sont présentées les dénitions des notions classiques
d'automatique  système, entrée, sortie, variable d'état  dans le cadre de l'algèbre
diérentielle. Les quatre sections suivantes concernent quelques notions importantes
de la théorie du contrôle : l'inversion entrée-sortie (section 6.5), les principales pro-

Chapitre rédigé par Emmanuel Delaleau.


246 Mathématiques pour les systèmes dynamiques

priétés structurelles des systèmes (6.6), les notions de bouclages (6.7) et la synthèse
par bouclage (6.8). La dernière partie (6.9) est dévolue à un exemple qui permet
d'illustrer les principales notions exposées dans ce chapitre. Cet exemple est intéres-
sant à plusieurs titres : il est tiré de la pratique et montre que l'algèbre diérentielle
permet aussi de traiter des systèmes dont les équations ne sont pas algébriques.

6.2. Théorie des corps


Contrairement à l'algèbre linéaire qui est universellement utilisée et très large-
ment enseignée, la théorie des anneaux et des corps (ou algèbre non linéaire) est
relativement méconnue. Il paraît donc opportun d'en brosser ici un bref aperçu, non
seulement pour l'aspect pédagogique mais aussi pour son utilité dans la suite de notre
propos. On renvoie à [WAE 91] pour plus de détails ou bien, pour une présentation
résumée, au chapitre 5 de [RIC 01].
Une extension de corps est la donnée de deux corps E et F tels que E ⊆ F .
Une extension est notée F/E ; le corps E est un sous-corps de F ; le corps F est
un surcorps de E . Dans la suite I désignera un ensemble quelconque d'indices. Soit
ξ = (ξ i )i∈I une famille quelconque d'éléments de F ; on note E(ξ i )i∈I ou E(ξ) le sous-
corps de F engendré par E et la famille ξ , c'est-à-dire le plus petit corps contenant
E et (ξ i )i∈I . La famille ξ est un système de générateurs de E(ξ) sur E . Il est aussi
possible de caractériser E(ξ) comme étant l'ensemble des fractions rationnelles en
(ξ i )i∈I à coecients dans E .
L'extension F/E est dite niment engendrée ou, plus simplement, de type ni,
s'il existe une famille nie {ξ 1 , . . . , ξ s } de F telle que F = E(ξ1 , . . . , ξ s ). Si R est un
anneau, on note par R[ξ i ]i∈I ou R[ξ] l'anneau engendré par R et la famille ξ = (ξi )i∈I .
En particulier, l'anneau des polynômes à coecients dans R en les indéterminées
X = (Xi )i∈I est noté R[Xi ]i∈I ou R[X] ; si le nombre d'indéterminées est ni, on
écrit simplement R[X1 , . . . , Xs ].
Un élément a de F est algébrique sur E s'il satisfait une équation algébrique à
coecients dans E . Cela signie qu'il existe un polynôme irréductible P (X) 6= 0 à
coecients dans E tel que P (a) = 0. Un élément qui n'est pas algébrique est dit
transcendant sur E . Si tout élément du corps F est algébrique sur E , l'extension
F/E est dite algébrique ; autrement, elle est qualiée de transcendante. Une exten-
sion transcendante pour laquelle il n'existe aucun élément de F algébrique sur E est
qualiée d'extension transcendante pure.
Une famille ξ = (ξ i )i∈I d'éléments de F est algébriquement dépendante  ou
algébriquement liée  sur E s'il existe un entier ν ∈ N et un polynôme irréductible
P (X1 , . . . , Xν ) 6= 0 à coecients dans E , tels que P (ξ 1 , . . . , ξ ν ) = 0 (on dit parfois
E -algébriquement indépendante  ou libre). Dans le cas contraire, la famille ξ est
dite algébriquement indépendante sur E ou algébriquement libre sur E (on dit aussi
E -algébriquement dépendante  ou liée).
Une famille de F algébriquement indépendante sur E et maximale par rapport à
Algèbre diérentielle 247

l'inclusion est appelée base de transcendance de l'extension F/E . Cette notion géné-
ralise la notion de base d'un espace vectoriel.
Dénition 1 (Degré de transcendance d◦ tr F/E ). Toutes les bases de transcen-
dance d'une extension F/E ont même cardinal ; on l'appelle degré de transcendance
de l'extension F/E et on le note d◦ tr F/E .
Cet entier généralise aux extensions de corps la notion de dimension des espaces
vectoriels. Naturellement, d◦ tr E(a1 , . . . , aα )/E ≤ α et on a l'égalité lorsque que la
famille {a1 , . . . , aα } est E -algébriquement libre. Pour une tour d'extensions G/F/E
(c'est-à-dire que G est un surcorps de F , lui-même sur-corps de E ), le degré de
transcendance vérie l'égalité :

d◦ tr G/E = d◦ tr G/F + d◦ tr F/E. (6.1)

Soient F1 , . . . , Fs des corps intermédiaires de l'extension F/E , c'est-à-dire E ⊆ Fi ⊆


E . Ils sont dits algébriquement disjoints sur E ou E -algébriquement disjoints si,
quelles que soient les parties Ai , E ⊂ Ai ⊂ Fi , l'ensemble A1 ∪ · · · ∪ As est E -
algébriquement libre et si , pour tout i 6= j , Ai ∩ Aj = ∅. Cette notion généralise le
concept de somme directe de sous-espaces vectoriels.
Enn, soit R un anneau. Un sous-ensemble I de R est appelé un idéal si, pour
tout ı,  ∈ I et tout x ∈ R, on a ı +  ∈ I et xı ∈ I. Cet idéal est qualié de premier
si pour tout a, b ∈ R, la condition ab ∈ I entraîne a ∈ I ou b ∈ I.

6.3. Algèbre diérentielle

6.3.1. Corps diérentiel

Un corps diérentiel (ordinaire) K est un corps équipé d'une dérivation, notée


d
dt
, c'est-à-dire d'une application dt d
: K → K , qui vérie : pour tout a, b ∈ K ,
d
dt
(a + b) = dtd d
(a) + dt (b) et dt d
(ab) = dtd d
(a)b + a dt (b). On précise ordinaire s'il n'y a
qu'une seule dérivation : sinon, le corps diérentiel est dit partiel. On notera souvent
d
dt
(a) sous la forme ȧ et dν
dt ν (a) simplement par a (ν)
. Un élément c est dit constant
si dt
d
(c) = 0. L'ensemble des éléments constants d'un corps diérentiel K est un
sous-corps (diérentiel) non vide de K , appelé corps de constantes.
On dénit de la même manière la notion d'anneau diérentiel : il s'agit d'un
anneau muni d'une dérivation. L'anneau diérentiel engendré par l'anneau diérentiel
R et les éléments ξ = (ξ i )i∈I est noté R{ξ i }i∈I ou simplement R{ξ}. En particulier,
l'anneau diérentiel des polynômes diérentiels en les indéterminées diérentielles
X = (Xi )i∈I à coecients dans R est noté R{Xi }i∈I , ou simplement R{X} ; lorsqu'il
y a un nombre ni d'indéterminées, on le note R{X1 , . . . , Xs }.
Enn, un sous-ensemble d'un anneau diérentiel est appelé un idéal diérentiel si
c'est un idéal au sens usuel et s'il est stable par la dérivation. Un idéal diérentiel est
qualié de premier s'il l'est en tant qu'idéal non diérentiel.
248 Mathématiques pour les systèmes dynamiques

6.3.2. Extension de corps diérentiels


Une extension diérentielle ou extension de corps diérentiels L/K est la donnée
de deux corps diérentiels K et L tels que K est un sous-corps de L et la restriction
de la dérivation de L à K coïncide avec la dérivation de K .
Dénition 2 (Corps Khξi). Soit ξ = (ξ i )i∈I une famille d'éléments de L. On note
par Khξ i ii∈I ou Khξi le corps diérentiel engendré par K et la famille ξ , c'est-à-dire
le plus petit corps diérentiel de L contenant K et la famille ξ. Dans ce cas, ξ est
un système de générateurs de Khξi sur K . Une extension L/K est engendrée par la
famille ξ si L = Khξi. Une extension diérentielle est niment engendrée ou de type
ni si elle admet un système ni de générateurs.
Soit L/K une extension diérentielle. Un élément a de L est diérentiellement
algébrique sur K (ou diérentiellement K -algébrique) s'il satisfait une équation dié-
rentielle algébrique à coecients dans K , c'est-à-dire s'il existe un polynôme diéren-
tiel irréductible P (X, . . . , X (α) ) 6= 0 tel que P (a, . . . , a(α) ) = 0. Si a ∈ L ne satisfait
aucune équation diérentielle algébrique à coecients dans K , a est diérentiellement
transcendant sur K .
Une extension diérentielle L/K est diérentiellement algébrique si tout élément
de L est algébrique sur K . Si l'un au moins des éléments de L est diérentiellement
transcendant sur K , l'extension diérentielle L/K est dite diérentiellement trans-
cendante. Si tous les éléments de L sont diérentiellement transcendants sur K , L/K
est dite diérentiellement transcendante pure.

6.3.3. Base de transcendance diérentielle


Une famille ξ = (ξ i )i∈I est diérentiellement algébriquement dépendante sur K
(ou diérentiellement K -algébriquement dépendante) s'il existe des entiers α et β et
un polynôme diérentiel irréductible :
(β)
P (X1 , . . . , Xα , . . . , X1 , . . . , Xα(β) ) 6= 0,
à coecients dans K , tels que P (ξ1 , . . . , ξα , . . . , ξ (β)
1 , . . . , ξ α ) = 0. Sinon, la famille
(β)

ξ est diérentiellement algébriquement libre  ou indépendante  sur K . Il existe des


familles de L diérentiellement algébriquement indépendantes sur K qui sont maxi-
males par rapport à l'inclusion. De telles familles sont appelées des bases de trans-
cendance diérentielles. Si ξ = (ξi )i∈I est une base de transcendance diérentielle de
l'extension diérentielle L/K , tout élément de L est diérentiellement algébrique sur
Khξi.

6.3.4. Degré de transcendance diérentiel


Toutes les bases de transcendance diérentielle d'une extension diérentielle L/K
ont même cardinal, qu'on appelle le degré de transcendance diérentiel de l'exten-
sion L/K . Il est noté d◦ tr diff L/K . Il est clair que d◦ tr diff Khξ 1 , . . . , ξ ν i/K ≤ ν
Algèbre diérentielle 249

et que l'égalité a lieu lorsque que ξ = (ξ 1 , . . . , ξ ν ) est une famille diérentielle-


ment algébriquement indépendante. Pour une extension diérentiellement algébrique,
d◦ tr diff L/K = 0.
Pour une tour d'extensions diérentielles M/L/K (c'est-à-dire, M/L et L/K sont
deux extensions diérentielles ou encore, K ⊆ L ⊆ M ), on a l'égalité :
d◦ tr diff M/K = d◦ tr diff M/L + d◦ tr diff L/K.

Une propriété intéressante des extensions diérentielles de type ni, qui joue un rôle
fondamental pour la réalisation par variables d'état, est la suivante.
Proposition 1. Soit L/K une extension diérentielle niment engendrée. Les deux
propriétés suivantes sont équivalentes :
(i) l'extension L/K est diérentiellement algébrique : d◦ tr diff L/K = 0 ;
(ii) le degré de transcendance (non diérentiel) de l'extension L/K est ni.
Une notion importante pour les aspects algorithmiques et la détermination des
degrés de transcendance (diérentiels ou non) est la possibilité de linéarisation des
équations grâce aux diérentielles de Kähler [JOH 69]. Etant donnée une extension
diérentielle L/K niment engendrée, il est possible de dénir un L[ dt d
]-module à
gauche, noté ΩL/K , et une K -dérivation dL/K : L → ΩL/K qui vérient :
∀a, b ∈ L, dL/K (a + b) = dL/K (a) + dL/K (b),
dL/K (a b) = b dL/K (a) + a dL/K (b),
d
∀a ∈ L, (dL/K (a)) = dL/K (ȧ),
dt
∀c ∈ K, dL/K (c) = 0.

Le module ΩL/K est appelé module des diérentielles de Kähler associé à l'extension
diérentielle L/K . L'idée sous-jacente à la notion de diérentielle de Kähler est celle
d'accroissement innitésimal, comme pour le concept d'espace tangent en géométrie
diérentielle.
Proposition 2. [JOH 69] Soit L/K une extension diérentielle niment engendrée.
Un sous-ensemble S de L est diérentiellement algébriquement indépendant (respec-
tivement, algébriquement indépendant) sur K si et seulement si l'ensemble dL/K (S)
est diérentiellement L-linéairement indépendant (respectivement, L-linéairement in-
dépendant).
On a en particulier : d◦ tr diff L/K = rgΩL/K ΩL/K .

6.3.5. Construction de l'extension diérentielle associée à un système


d'équations diérentielles
Considérons un système ni d'équations algébro-diérentielles ordinaires polyno-
miales Ri , i = 1, . . . , r, reliant un nombre ni de variables wj , j = 1, . . . , s :
(ν i1 )
Ri (w1 , . . . , w1 , . . . , ws , . . . , ws(ν is ) ) = 0, i = 1, . . . , r, (6.2)
250 Mathématiques pour les systèmes dynamiques

où les ν ij sont des entiers naturels. Les entiers r et s vérient r < s car (6.2) est
un système sous-déterminé d'équations algébro-diérentielles, c'est-à-dire qu'il y a
plus de variables que d'équations. On note par k le (plus petit) corps diérentiel
contenant tous les coecients des polynômes du système d'équations (6.2). Il s'agira
d'un corps de constantes (Q, R ou C) si (6.2) est un système stationnaire. Par contre,
si les coecients dépendent du temps, on choisira un corps diérentiel de fonctions
du temps (comme R(t) ou Rhti ou un corps de fonctions méromorphes). A chaque
variable wi apparaissant dans (6.2), on associe une indéterminée diérentielle Wi .
Dans l'anneau diérentiel k{W1 , . . . , Ws }, engendré par k et W1 , . . . , Ws , on considère
les polynômes diérentiels :
(ν i1 )
Ri (W1 , . . . , W1 , . . . , Ws , . . . , Ws(νis ) ), i = 1, . . . , r,

correspondant formellement aux équations (6.2). On désigne par I l'idéal diérentiel


de k {R1 , . . . , Rr } engendré par les polynômes diérentiels R1 , . . . , Rr .
Si I est un idéal premier, l'anneau diérentiel quotient k{W1 , . . . , Ws }/I est un
anneau intègre dont on peut construire le corps de fractions. Notons par K le corps
diérentiel de fractions de k{W1 , . . . , Ws }/I. Ce corps est une extension diérentielle
de k. Notons ı l'application canonique ı : k{W1 , . . . , Ws } → K dénie1 par :
∀P ∈ k{W1 , . . . , Ws }, ı(P ) = p ∈ K avec p = P (mod I). (6.3)
Il est loisible de noter par wi , c'est-à-dire comme les variables qui apparaissent dans
(6.2), les images dans K des indéterminées Wi par l'application ı. On arrive ainsi à la
conclusion que K est le corps diérentiel khw1 , . . . , ws i dans lequel les équations (6.2)
sont satisfaites.
L'extension diérentielle K/k est appelée extension diérentielle associée au sys-
tème d'équations (6.2). C'est un objet intrinsèque, de même que l'idéal diérentiel I,
associé aux équations (6.2). En eet, toute autre famille de polynômes diérentiels
génératrice de l'idéal I conduit à la même extension diérentielle K/k. A partir de
tout système d'équations diérentielles algébriques, engendrant un idéal diérentiel
premier, on peut construire une extension de corps diérentiels. Pour cette raison on
appelle système l'extension diérentielle qui est associée à un système d'équations
diérentielles.
Si l'idéal I n'est pas premier (cas toutefois rare en pratique), il est nécessaire
de le décomposer à l'aide du théorème de Ritt-Raudenbusch [KOL 73, RIT 50]. On
peut alors eectuer la construction précédente pour chacune des composantes de la
décomposition et aboutir à une famille d'extensions diérentielles K1 /k, . . ., Kq /k,
correspondant chacune à une composante de la variété algébrique de (6.2). On renvoie
à [KOL 73, RIT 50] pour tous les détails et les compléments sur ces constructions.
On pourra aussi consulter [BOU 94, BOU 95] en ce qui concerne les aspects algorith-
miques.
Remarque 1. Contrairement aux apparences, la construction de l'extension dié-
rentielle associée à un système d'équations diérentielles n'est pas limitée aux seules
1
On note par P (mod I) l'image du polynôme diérentiel P dans l'anneau quotient
k{W1 , . . . , Ws }/I.
Algèbre diérentielle 251

équations algébriques, comme on le verra dans l'exemple traité en section 6.9. La plu-
part des fonctions usuelles (cos, sin, exp, log. . .) satisfont des équations diérentielles
algébriques et la construction de l'extension diérentielle reste possible moyennant un
enrichissement de l'idéal I. On peut aussi traiter les équations diérentielles conte-
nant des fonctions analytiques non polynomiales à l'aide de l'approche présentée dans
[CON 93, CON 99].

6.4. Systèmes et dynamiques

6.4.1. Système non linéaire


Comme déni précédemment, un système (non linéaire) est une extension de corps
K/k niment engendrée. Le corps k est appelé corps de base associé au système, il
contient les coecients de n'importe quel système d'équations correspondant au sys-
tème K/k. Le corps K est appelé corps du système ou corps systémique ; il contient
les variables et toutes les expressions algébriques qui peuvent être construites à par-
tir des variables du système. De manière sous-jacente à l'extension, on sait qu'il y
a un système d'équations algébro-diérentielles polynomiales, par exemple du type
(6.2), qui sont les équations satisfaites par les variables du système. On renvoie au
paragraphe 6.3.5 pour la construction.
Tout sous-corps diérentiel K de K tel que k ⊂ K ⊂ K déni un sous-système
K/k de K/k.
Le K[ dt
d
]-module ΩK/k associé au système K/k est appelé système linéarisé tangent
de K/k [FLI 95], c'est un système linéaire au sens de la théorie des modules [FLI 90c].

6.4.2. Entrée
Une entrée du système K/k est un ensemble ni e = (e1 , . . . , es ) de K tel que
l'extension K/khei est diérentiellement algébrique. Cela signie que le système est
inuencé par l'entrée, puisque que tout élément de K satisfait une équation diéren-
tielle qui dépend (éventuellement) de l'entrée. On dit aussi que l'entrée est la  cause 
du système, puisqu'elle inuence ses autres variables.
Une entrée est dite indépendante si c'est un ensemble diérentiellement algébri-
quement indépendant sur k. Dans ce cas :
d◦ tr diff K/k = d◦ tr diff khei/k = card e = s, (6.4)
puisque d tr diff K/khei = 0 par dénition de la notion d'entrée ; e est donc une base

de transcendance diérentielle de K/k. Une entrée qui ne serait pas indépendante 


cas cependant rare en pratique  est dite dépendante et ses composantes sont reliées
par des équations diérentielles. De plus, puisque l'extension K/khei est diérentiel-
lement algébrique, toute entrée de K/k doit comporter au moins µ = d◦ tr diff K/k
composantes et toute famille de K à µ éléments diérentiellement algébriquement
252 Mathématiques pour les systèmes dynamiques

indépendants peut être considérée comme une entrée indépendante de K/k. Il s'agit
donc d'une notion très générale d'entrée.
Du point de vue de la théorie du contrôle, l'entrée peut être divisée en deux
parties e = (u, $) où u = (u1 , . . . , um ) est la commande et $ = ($1 , . . . , $q ) la
perturbation. La commande comprend les composantes de l'entrée par lesquelles il
est possible d'agir sur le système tandis que la perturbation est formée des variables
représentant les inuences non maîtrisables aectant le système.

6.4.3. Dynamique
Une dynamique est un système K/k dont on a distingué, en général pour des
raisons liées au fonctionnement du système lui-même, une entrée e particulière. On
note une dynamique sous la forme K/khei.  La dynamique K/khei  signie que l'on
considère le système K/k ayant pour entrée e = (e1 , . . . , es ).

6.4.4. Sortie
Une sortie d'un système K/k ou d'une dynamique K/khei est un ensemble ni y =
(y1 , . . . , yp ) de K. Comme la notion d'entrée présentée plus haut, la notion de sortie
est très générale puisque toute famille nie de K peut être considérée comme sortie.
En pratique, ce sont des raisons liées au fonctionnement du système ou au problème de
contrôle qui déterminent le choix de la sortie. On parle aussi d' eet  pour désigner
la sortie car elle comporte les variables que l'on observe ou que l'on commande.
Lorsque, pour un système K/k, une entrée e et une sortie y sont distinguées, la sous-
extension khe, yi/k de l'extension diérentielle K/k peut elle-même être considérée
comme un système. Elle est appelée sous-système entrée-sortie de K/k. Dans le cas
où K = khe, yi, le système K/k peut être qualié de système entrée-sortie.

6.4.5. Etat et réalisation


Comme l'extension K/k est niment engendrée et comme pour tout choix d'entrée
e de K/k, l'extension K/khei est diérentiellement algébrique, l'extension diérentielle
K/khei possède un degré de transcendance (non diérentiel) ni (voir la proposition
1). Cela conduit à la dénition de la notion d'état : un état de la dynamique K/khei
est une base de transcendance x = (x1 , . . . , xn ) de l'extension K/khei.
La dimension d'un état correspondant à l'entrée e est n = d◦ tr K/khei. On
a vu précédemment que l'on pouvait considérer plusieurs entrées : pour chacune
d'entre elles, la dimension de l'état peut être diérente. L'entier d◦ tr diff K/k re-
présente le nombre de fonctions du temps qu'il faut choisir pour  déterminer  un
système d'équations diérentielles sous-déterminé. Pour une entrée donnée e, l'entier
d◦ tr K/khei correspond au nombre de conditions initiales nécessaires pour  intégrer 
Algèbre diérentielle 253

le système d'équations diérentielles sous-jacent lorsque que la fonction t 7→ e(t) est


connue ou imposée. L'état correspond donc à la  mémoire du système . La déni-
tion qui vient d'être donnée dénit un état comme un être mathématique, mais rien
n'empêche de le choisir parmi les variables physiques du système ; d'ailleurs, même
en linéaire, on obtient des états  mathématiques  par changements de base à partir
d'un état ayant une signication physique.
Puisque x est une base de transcendance de l'extension K/khei, tout élément w de
K est algébrique sur khe1 , . . . , eq i(x1 , . . . , xn ) et satisfait donc une équation algébrique
à coecients dans khe1 , . . . , es i(x1 , . . . , xn ), de la forme :
(κ)
P (w, x1 , . . . , xn , e1 , . . . , es , . . . , e1 , . . . , e(κ)
s ) = 0, (6.5)
où P est un polynôme irréductible à coecients dans k et où κ ∈ N. Cela donne la
forme générale des équations des réalisations d'état ou des changements d'état. La
relation (6.5) appliquée aux composantes de ẋ conduit à des équations diérentielles
de la forme :  (α1 )

 F1 (ẋ1 , x, e, . . . , e ) = 0,
.. (6.6)


.
(αn )
Fn (ẋn , x, e, . . . , e ) = 0,
où les Fi sont des polynômes irréductibles à coecients dans k et αi ∈ N. Les équations
(6.6) sont appelées une représentation d'état de la dynamique K/khei. Pour une sortie
y = (y1 , . . . , yp ) du système K/k, on obtient les équations :
 (β 1 )

 H1 (y1 , x, e, . . . , e ) = 0,
.. (6.7)


.
(β p )
Hp (yp , x, e, . . . , e ) = 0,

avec, similairement, des polynômes Hi irréductibles à coecients dans k et β i ∈ N.


Les équations (6.7) sont appelées équations de sortie.
Si ξ = (ξ 1 , . . . , ξ n ) désigne un autre état de la dynamique K/khei, le changement
d'état de x à ξ s'écrit :
 (γ 1 )

 T1 (ξ 1 , x, e, . . . , e ) = 0,
.. (6.8)


.
(γ n )
Tn (ξ n , x, e, . . . , e ) = 0,

où les Ti sont des polynômes irréductibles à coecients dans k et les γ i , des entiers
naturels. Les équations (6.8) sont les équations de changement d'état.
Les représentations d'état d'un système non linéaire sont, en général, implicites et
dépendent des dérivées de l'entrée. Il en est de même des expressions des sorties ou
des changements d'état. Cela se rencontre eectivement en pratique (voir par exemple
[FLI 93b]).
L'apparition des dérivées de l'entrée s'explique en analysant le processus aboutis-
sant à l'écriture des équations d'état (6.6)  avec éventuellement une sortie (6.7) 
254 Mathématiques pour les systèmes dynamiques

à partir d'un système algébro-diérentiel (6.2) issu d'une modélisation physique. Il


faut tenir compte de deux faits : premièrement, le système (6.2) peut comporter un
certain nombre de variables  qualiées de latentes  qui ne seront pas retenues dans
une représentation d'état ; il sera donc nécessaire de les  éliminer . Deuxièmement,
le système (6.2) peut posséder un certain nombre d'équations purement algébriques,
comme les équations des liaisons des diérentes parties d'un système mécanique, les
lois de Kirchho pour un circuit électrique ou les équations de conservation de la
matière pour un processus chimique. L'élimination des variables latentes se fait par
dérivations des équations algébriques, d'où l'apparition des dérivées de l'entrée dans
(6.6) et (6.7). L'aspect implicite des équations peut se produire, par exemple, lors
d'une modélisation lagrangienne de systèmes mécaniques couplés. On peut consulter
[FLI 90d, FLI 90e] pour une plus ample discussion de ces aspects.
Un état de la dynamique K/khui est qualié de classique s'il conduit à une réalisa-
tion (6.6) sans dérivée de l'entrée (αi = 0), autrement il est généralisé. Contrairement
au cas des systèmes linéaires, il existe des dynamiques non linéaires qui n'admettent
pas d'état classique (voir [DEL 98c] pour une étude approfondie). Une dynamique
qui admet des états classiques est dite classique, sinon, elle est généralisée. De même,
pour un changement d'état, on précise généralisé ou classique suivant qu'il dépend
ou non des dérivées de l'entrée. Il est clair que deux états classiques sont reliés par
un changement d'état classique.

6.5. Inversion entrée-sortie

C'est précisément pour résoudre le problème de l'inversion entrée-sortie que l'al-


gèbre diérentielle a été introduite en automatique [FLI 86a, FLI 86b]. On trouve
dans [RES 90] une synthèse très complète sur ce problème et les diverses approches
utilisées pour le traiter. L'élégance de la solution proposée dans le cadre de l'algèbre
diérentielle est que, comme en linéaire, elle repose sur un concept intrinsèque de rang.
Les solutions obtenues précédemment en non-linéaire étaient, quant à elles, de nature
algorithmique. Bien entendu, le calcul d'un rang est algorithmique, mais ce concept
permet d'élaborer des raisonnements ou de donner des conditions indépendamment
de son calcul.

6.5.1. Rang diérentiel de sortie

Dénition 3 (Rang diérentiel de sortie %(y)). Soit le système non linéaire


K/k de sortie y = (y1 , . . . , yp ). Le rang diérentiel de sortie (relatif à y ) est l'en-
tier d◦ tr diff khyi/k. Il est noté %(y) et correspond au nombre de composantes de y
diérentiellement k-algébriquement indépendantes.
Algèbre diérentielle 255

6.5.2. Inversion à gauche, inversion à droite

La notion d'inversibilité à gauche d'un système (entrée-sortie) reète la possibilité


de pouvoir déterminer l'entrée à partir de la sortie. Le qualicatif  à gauche  provient
du linéaire où l'inversion à gauche d'un système équivaut à l'existence d'une inverse
à gauche de la matrice transfert.
Proposition 3. [FLI 86b, FLI 89a] Le système K/k, de sortie y , est inversible à
gauche si et seulement si %(y) = d◦ tr diff K/k.
Pour un système inversible à gauche, la sortie peut être considérée comme une
entrée. Comme dans le cas linéaire, l'inversibilité à gauche ne dépend pas de l'entrée.
L'inversibilité à droite, quant à elle, signie l'indépendance diérentielle des com-
posantes de la sortie. Comme dans le cas de l'inversion à gauche, la terminologie
provient du cas linéaire pour lequel l'inversion à droite est équivalente à l'existence
d'une inverse à droite de la matrice de transfert.
Proposition 4. [FLI 86b, FLI 89a] Le système K/k, de sortie y , est inversible à
droite si et seulement si %(y) = p = card y .

6.6. Principales propriétés structurelles

On présente ici deux propriétés structurelles des systèmes importantes en théorie


du contrôle : la platitude  qui est une extension naturelle en non-linéaire de la notion
de commandabilité  et l'observabilité.

6.6.1. Platitude

Un système non linéaire K/k est (diérentiellement) plat s'il existe une famille
nie y = (y1 , . . . , ym ) d'éléments diérentiellement k-algébriquement indépendants
d'un corps diérentiel K, extension algébrique de K, telle que l'extension diérentielle
K/khyi soit (non diérentiellement) algébrique. La famille y est appelée une sortie
plate ou sortie linéarisante du système K/k. On renvoie à [FLI 95] pour de plus
amples détails. Remarquons que K/k est une extension diérentielle transcendante
pure.
D'après cette dénition, la sortie y possède la propriété que tout élément de K,
donc de K, est khyi-algébrique. Toute variable du système satisfait une équation
algébrique qui dépend de y et d'un nombre ni de ses dérivées. En d'autres termes,
y donne une  paramétrisation  nie du système qui ne nécessite pas d'intégration
d'équation diérentielle. Tout élément w de K (toute variable du système) satisfait
une équation de la forme suivante, où Q est un polynôme diérentiel irréductible et
256 Mathématiques pour les systèmes dynamiques

γ un entier naturel :
Q(w, y, . . . , y (γ) ) = 0. (6.9)

En linéaire, la propriété de platitude est équivalente à la commandabilité ; la


platitude peut donc être considérée comme une extension possible de la notion de
commandabilité. On a d'autre part le résultat suivant : si un système non linéaire est
plat, alors son système linéarisé tangent ΩK/k est commandable (ce qui s'exprime par
la liberté du K[ dt
d
]-module dans le cadre de la théorie des modules). Outre le rapport
à la commandabilité, la platitude a des liens avec le problème de la linéarisation
par bouclage. L'intérêt de la notion de platitude par rapport à d'autres notions de
commandabilité introduites en non-linéaire est qu'elle permet de calculer la commande
à appliquer au système par planication de trajectoires, grâce aux formules (6.9)
appliquées aux composantes de la commande. Cela a permis d'obtenir des commandes
performantes pour de nombreux exemples industriels.
Pour un système qui n'est pas plat est dénie une notion de défaut : parmi tous les
choix possibles d'ensembles y = (y1 , . . . , ym ) de K, on retient ceux pour lesquels δ =
d◦ trK/yk/y est minimum. Cet entier est appelé défaut du système K/k et représente
l'ordre de la dynamique non plate du système. Bien entendu, un système plat est de
défaut 0.

6.6.2. Observabilité

Une autre propriété structurelle importante pour l'implantation pratique de lois


de commande est l'observabilité.
Proposition 5. [DIO 91b] Le système K/k d'entrée u et de sortie y est observable
si l'extension K/khu, yi est (non diérentiellement) algébrique.
Ainsi, toute variable d'un système non linéaire observable satisfait une équation
algébrique liant la sortie, l'entrée et un nombre ni de leurs dérivées.

6.7. Bouclages

Le bouclage est une des notions essentielles de la théorie du contrôle. Les bou-
clages sont habituellement dénis par leurs équations ; comme c'est le cas pour les
notions vues précédemment, l'algèbre diérentielle permet d'en donner des déni-
tions intrinsèques, c'est-à-dire par une propriété d'une structure algébrique associée
aux équations du système considéré.
Avant d'aborder ce sujet, il est opportun d'eectuer plusieurs remarques sur les
bouclages habituellement considérés. Soit un système non linéaire, déni par une
représentation d'état classique :
ẋ = f (x, u), (6.10)
où u désigne la commande à valeurs dans Rm , et x, l'état à valeurs dans Rn .
Algèbre diérentielle 257

Examinons premièrement le cas d'un bouclage statique :

u = α(x, v), (6.11)

où v est la nouvelle commande. On remarque que x est aussi un état du système en


boucle fermée puisque la substitution de u dans (6.10) conduit à une dynamique de
la forme :
ẋ = f˜(x, v).
Dans le cas d'un bouclage régulier, c'est-à-dire qu'il existe β tel que v = β(x, u), on
remarque v est aussi une variable du système puisqu'elle s'exprime en fonction de x
et u.
Le bouclage dynamique :

u = α(x, ξ, v), (6.12a)


ξ̇ = β(x, ξ, v), (6.12b)

a la particularité d'ajouter une dynamique, représentée par les variables d'état ξ , à la


boucle fermée. On constate que l'état de la boucle fermée est (x, ξ) et que l'état x de
la boucle ouverte fait partie de l'état de la boucle fermée. Dans le cas d'un bouclage
régulier, v peut être exprimée à l'aide de x, ξ , u ; on aboutit ainsi aux équations :

ẋ = f (x, u), (6.13a)


ξ̇ = β(x, ξ, u, u̇, . . . , u(ro ) ), (6.13b)
v = ψ(x, ξ, u, u̇, . . . , u(ro ) ), (6.13c)

qui montrent que u est aussi une entrée de la boucle fermée.


La formalisation de ces réexions conduit aux concepts de bouclages intrinsèques
dénis dans les paragraphes qui suivent.

6.7.1. Notions générales de bouclage

Un bouclage (dynamique) de K/k où K/khui est une paire (L, v), où :


 L est une extension diérentielle de K niment engendrée et diérentiellement
algébrique sur K ;
 v est une entrée du système L/k.
Le bouclage est qualié d'endogène ou d'exogène suivant que l'extension dié-
rentielle L/K est (non diérentiellement) algébrique ou pas. Le corps L contient la
nouvelle entrée v et les éventuelles nouvelles variables qui interviennent dans le bou-
clage. Le bouclage est déni lorsque que l'on a précisé la nouvelle entrée v . Selon la
terminologie usuelle, la dynamique K/khui est appelée dynamique en boucle ouverte
et L/khvi la dynamique en boucle fermée.
258 Mathématiques pour les systèmes dynamiques

6.7.2. Bouclage d'état

Un bouclage d'état de la dynamique K/khui ayant pour état x est un bouclage


(L, v) tel que les corps k(x) et khvi sont k-algébriquement disjoints. Cette dénition
signie que le bouclage ne  détruit  pas l'état x du système ; de plus, x peut toujours
faire partie de l'état de la boucle fermée. Comme précédemment, un bouclage d'état
est qualié d'endogène ou d'exogène suivant la nature de l'extension L/K.

6.7.3. Bouclage quasi statique d'état

Un autre apport de l'algèbre diérentielle à la théorie du contrôle est d'avoir


dégagé la notion de bouclage quasi statique d'état et montré que cette classe est
susamment riche pour résoudre la plupart des problèmes de synthèse par bouclage
[DEL 92, DEL 94, DEL 98b]. Cette nouvelle classe de bouclage contient les bouclages
statiques mais est moins générale que les bouclages dynamiques.
Soit K/khui une dynamique d'état x. Un bouclage (L, v) est un bouclage quasi
statique d'état si (L, v) est un bouclage endogène d'état et si x est aussi un état de
la dynamique en boucle fermée L/khvi. Les équations d'un bouclage quasi statique
d'état sont de la forme (avec r, s ∈ N) :

(r)
φi,r (ui , x, v, . . . , v (s+r) ) = 0, i = 1, . . . , m ( = card u),
(r) (6.14)
ψ j,r (vj , x, u, . . . , u(s+r) ) = 0, j = 1, . . . , µ ( = card v).

Lorsque s = 0, on retrouve le bouclage statique2 d'état. Il est possible de montrer que


les bouclages dynamiques réguliers classiquement utilisés en synthèse par bouclages en
non-linéaire sont des bouclages dynamiques exogènes, donc beaucoup plus complexes
que les bouclages endogènes et quasi statiques.

6.8. Synthèse par bouclages

Dans cette partie, on résume deux problèmes de synthèse par bouclage, à savoir
le découplage et le rejet de perturbations. L'algèbre diérentielle permet d'en don-
ner des dénitions simples, d'exprimer leurs conditions nécessaires et susantes sous
forme de conditions de rang et de montrer que le bouclage dynamique endogène est
susamment riche pour les résoudre. De plus, dans le cas des systèmes classiques, le
bouclage quasi statique sut.

2
On renvoie à [DEL 98a] pour une dénition intrinsèque du bouclage statique basé sur la
notion algébrique de ltration.
Algèbre diérentielle 259

6.8.1. Découplage
Un système K/k d'entrée u (commande) et de sortie y est dit découplé (par rapport
à u et y ) si le sous-système entrée-sortie khu, yi/k vérie :
(i) les corps khu1 , y1 i,. . ., khup , yp i et éventuellement3 khup+1 , . . . , um i sont k-
algébriquement disjoints, à une renumérotation près des composantes de l'entrée
u;
(ii) les composantes de y sont diérentiellement transcendantes sur k.
La condition (i) exprime le fait que dans un système découplé, chaque composante
de la sortie n'est inuencée que par une entrée au maximum ; la condition (ii) assure
que chaque composante de la sortie est eectivement inuencée par une composante
de l'entrée. En d'autres termes, un système découplé possède la structure de plusieurs
systèmes mono-entrée, mono-sortie en parallèle. Le problème du découplage consiste
à déterminer un bouclage tel qu'en boucle fermée, le système soit découplé.
Proposition 6. Un système K/k de sortie y est découplable si et seulement s'il est
inversible à droite [FLI 89a]. Le bouclage qui découple peut toujours être choisi parmi
les bouclages endogènes ou même quasi statiques si le système est classique [DEL 98b].

6.8.2. Rejet de perturbations


Soit K/khu, $i une dynamique de commande u et de perturbation $. La sortie y
du système K/k n'est pas inuencée par la perturbation $ si les corps kh$i et khu, yi
sont k-algébriquement disjoints. Le problème du rejet de perturbations consiste à
déterminer un bouclage qui rend la sortie indépendante de la perturbation dans la
boucle fermée.
Proposition 7. [DEL 98b] Soit la dynamique K/khu, $i de commande u, de per-
turbation $ et de sortie y . Il est possible de rejeter l'inuence sur la sortie de la
perturbation si et seulement si les conditions équivalentes suivantes sont satisfaites :
(i) d◦ tr diff khy, $i/khyi = %(y) ;
(ii) les corps khyi et kh$i sont k-algébriquement disjoints.
Le bouclage qui résout le problème peut toujours être choisi endogène, voire même
quasi statique si le système est classique.

6.8.3. Linéarisation
La linéarisation par bouclage est un problème de synthèse qui a été très étudié.
Outre les aspects pratiques et son rapport avec la commandabilité, la platitude permet
de considérer ce problème sous un autre angle.
Proposition 8. [DEL 98d] Un système non linéaire est linéarisable par bouclage
quasi statique d'état si et seulement s'il est plat.
3 Dans le cas où il y a plus de composantes d'entrée que de sortie.
260 Mathématiques pour les systèmes dynamiques

6.9. Exemple

6.9.1. Modèle
Considérons le moteur synchrone4 dont le modèle s'écrit :
θ̇ = ω, (6.15a)
J ω̇ = np Km (−ia sin np θ + ib cos np θ) − f ω − τ r , (6.15b)
dia
L = −Ria + np Km ω cos np θ + va , (6.15c)
dt
dib
L = −Rib − np Km ω sin np θ + vb , (6.15d)
dt
où θ et ω désignent respectivement la position et la vitesse angulaire de l'arbre du
moteur ; ia et ib les courants dans chacune des phases ; va et vb les tensions d'ali-
mentation de chacune des phases ; τ r le couple résistant que subit l'arbre du moteur.
L'ensemble mécanique en rotation présente un moment d'inertie J ; f est le coecient
de frottements visqueux ; np est le nombre de paires de pôles ; Km , la constante de
couple et de force contre-électromotrice ; L et R, le coecient d'auto-induction et la
résistance des bobinages de chaque phase.

6.9.2. Construction de l'extension diérentielle


Le modèle (6.15) ne relève pas a priori du cadre de l'algèbre diérentielle, puisque
ses équations s'écrivent à l'aide des fonctions trigonométriques. Cette diculté peut
être facilement contournée. Pour cela, on eectue le changement de variables usuel
(transformation de Park) donné par :
       
id ia vd va
= R(np θ) , = R(np θ) ,
iq ib vq vb

où R(np θ) désigne la matrice de rotation d'angle np θ. On obtient alors le modèle


dans le  repère dq  :
θ̇ = ω, (6.16a)
J ω̇ = np Km iq − f ω − τ r , (6.16b)
did
L = −Rid + np Lωiq + vd , (6.16c)
dt
diq
L = −Riq − np Lωid − np Km ω + vq , (6.16d)
dt
où id et iq sont respectivement les courants direct et en quadrature, vd et vq les
tensions directe et en quadrature.
4
Il s'agit d'un modèle d'un moteur à deux phases à aimants permanents et pôles lisses.
On renvoie à [BOD 98] pour plus de détails sur le modèle.
Algèbre diérentielle 261

Ce deuxième modèle est bien constitué d'équations polynomiales. Pour construire


l'extension de corps qui lui est associée, on considère k = R car les coecients sont des
réels supposés constants. On considère l'anneau diérentiel R[Θ, Ω, Id , Iq , Vd , Vq , Tr ],
c'est-à -dire l'ensemble des polynômes diérentiels en les indéterminées diérentielles
Θ, Ω, Id , Iq , Vd , Vq , Tr . Dans cet anneau, on dénit l'idéal diérentiel I engendré par
les polynômes diérentiels :
Θ(1) − Ω, (6.17a)
J Ω̇ − np Km Iq + f Ω + Tr , (6.17b)
(1)
L Id + RId − np LΩIq − Vd , (6.17c)
L Iq(1) + RIq + np LΩId + np Km Ω − Vq . (6.17d)
Cet idéal est premier puisque le système diérentiel (6.16) est explicite en les dérivées
premières des variables (voir par exemple [CON 93]). Il est donc possible de construire
le corps diérentiel K = hθ, ω, id , iq , vd , vq , τ r i comme le corps de fractions de l'anneau
quotient R[Θ, Ω, Id , Iq , Vd , Vq , Tr ]/I.
Examinons maintenant la possibilité de traiter le modèle original (qui n'a pas
subi la transformation dq) à l'aide d'une extension de corps diérentiels. Pour pou-
voir considérer les équations (6.15), il est nécessaire de connaître c = cos np θ et
s = sin np θ . Ces deux quantités sont diérentiellement algébriques sur le corps dif-
férentiel Rhθ, ω, id , iq , vd , vq , τ r i puisqu'elles sont toutes deux solutions de l'équation
diérentielle algébrique :
z̈ + n2p ω 2 z = 0. (6.18)
En pratique, il faudra aussi être vigilant à choisir les bonnes conditions initiales
pour intégrer (6.18) : c(t) = z(t), s(t) = −ż(t) avec z(0) = 1 et ż(0) = 0. On prend
donc L = Khc, si. L'extension diérentielle :
Rhθ, ω, id , iq , vd , vq , τ r , c, si/k,
correspond au système constitué des équations (6.16) et (6.18). Elle permet cependant
de traiter le système d'équations (6.15), puisque toutes les variables qui apparaissent
dans l'écriture de (6.15) sont des éléments du corps L ; ceci est clair pour θ , ω et τ r
qui sont éléments de K ⊂ L ; pour ia , ib , va et vb , il faut utiliser les relations :
ia = id c − iq s, (6.19a)
ib = id s + iq c, (6.19b)
va = vd c − vq s, (6.19c)
vb = vd s + vq c, (6.19d)
où les variables apparaissant dans les membres de droite sont toutes incluses dans
L. La construction du corps diérentiel L s'eectue à partir de l'anneau diérentiel5
R[Θ, Ω, Id , Iq , Vd , Vq , Tr , Z] et de l'idéal diérentiel J ⊃ I engendré par les polynômes
diérentiels (6.17) et Z̈ + n2p Ω2 Z .
5 Il n'est pas nécessaire d'ajouter deux indéterminées diérentielles supplémentaires, cor-

respondant à c et s, par rapport à la construction de K/R. En eet, à un facteur ±np ω près,


c et s sont dérivées l'une de l'autre.
262 Mathématiques pour les systèmes dynamiques

On remarque cependant que d◦ tr L/Rhvd , vq , τ r i = 6, ce qui signie que toute


réalisation de la dynamique L/Rhva , vb , τ r i nécessite 6 variables d'état : 4 pour les
équations (6.16) et (6.19) et 2 pour l'équation (6.18) qui est du second ordre. Le
système d'équations (6.15) ne nécessite que 4 conditions initiales pour être intégré,
par contre il n'est pas sous forme algébrique. Il faut noter qu'il est plus avantageux
d'eectuer des simulations6 avec les équations (6.16), (6.18), (6.19) qui ne nécessitent
pas l'évaluation de fonction transcendante contrairement à (6.15). Par contre, il faut
un peu plus de mémoire pour stocker les deux variables d'état supplémentaires cor-
respondant à une réalisation de (6.18).

6.9.3. Choix de l'entrée et réalisation par variables d'état

Illustrons maintenant la possibilité du choix de l'entrée. Par souci de simplicité, on


se limite au système K/R d'équations (6.16). L'entrée (vd , vq , τ r ) considérée jusqu'à
présent correspond au choix physique naturel, puisque ce moteur est commandé par
l'intermédiaire des tensions appliquées à chacune des phases.
L'extension diérentielle K/R est de degré de transcendance diérentiel 3. En eet,
en posant w1 = θ, w2 = id , w3 = iq , w4 = vd , w5 = vq et w6 = τ r an d' oublier 
la signication des variables, on peut réécrire le système d'équations (6.16) sous la
forme :

J ẅ1 = np Km w3 − f ẇ1 − w6 , (6.20a)


dw2
L = −Rw2 + np Lẇ1 w3 + w4 , (6.20b)
dt
dw3
L = −Rw3 − np Lẇ1 w2 − np Km ẇ1 + w5 . (6.20c)
dt

On se rend ainsi compte qu'il s'agit d'un système de trois équations différen-
tielles algébriques indépendantes en six variables. Par conséquent7 , d◦ tr diff K/R =
d◦ tr diff Rhw1 , . . . , w6 i/R = 3. Le système d'équations (6.16) ou (6.20) est donc un
système à trois entrées (indépendamment de la dénomination des variables). Le choix
naturel pour le fonctionnement en moteur de cette machine électrique est de prendre
deux commandes : les tensions vd et vq , et une perturbation : le couple de charge τ r .
La dynamique K/Rhvd , vq , τ r i vérie d◦ tr K/Rhvd , vq , τ r i = 4, c'est-à-dire qu'il y a
4 variables d'état, comme on le voit sur les équations (6.16) ou (6.20). On constate, en
eet, que si l'entrée est déterminée, il faut donner 4 conditions initiales pour intégrer
(6.15) ou (6.20).

6 En pratique, il n'est pas bon, du point de vue numérique, de simuler (6.18) et il vaut

mieux utiliser une table pour la détermination des fonctions sinus et cosinus qui apparaissent
dans [6.19].
7
On peut utiliser la proposition 2 ou tirer de [DEL 98a] les aspects algorithmiques en
termes de ltrations.
Algèbre diérentielle 263

Avec ce choix la représentation d'état s'écrit :


θ̇ = ω, (6.21a)
np Km f 1
ω̇ = iq − ω − τ r , (6.21b)
J J J
did R 1
= − id + np ωiq + vd , (6.21c)
dt L L
diq R np Km 1
= − iq − np ωid − ω + vq . (6.21d)
dt L L L

On peut cependant considérer d'autres choix d'entrée, par exemple (id , iq , τ r ).


Comme id , iq et τ r sont diérentiellement algébriquement indépendantes sur R,
d◦ tr diff Rhθ, ω, id , iq , vd , vq , τ r i/Rhid , iq , τ r i = 0 et il s'agit bien d'une entrée. Avec
ce choix, d◦ tr Rhθ, ω, id , iq , vd , vq , τ r i/Rhid , iq , τ r i = 2 puisqu'il subsiste 2 équations
diérentielles du premier ordre, (6.16a) et (6.16b), qui permettent de déterminer θ
et ω à partir de l'entrée. Les équations (6.16c) et (6.16d) permettent, quant à elles,
de calculer, sans intégration, vd et vq à partir de l'entrée et de la vitesse ω. Toute
réalisation de K/Rhid , iq , τ r i ne nécessite donc que 2 variables d'état. Avec ce choix,
la représentation d'état s'écrit :
θ̇ = ω, (6.22a)
f np Km 1
ω̇ = − ω+ iq − τ r . (6.22b)
J J J

En pratique, puisqu'il n'est pas possible de commander directement par les cou-
rants, ce deuxième choix d'entrée suggérera plutôt de regarder le système K/R comme
la  cascade  de deux sous-systèmes8 couplés : d'une part, une dynamique rapide
Rhid , iq , ω, vd , vq i/Rhω, vd , vq i d'entrée (ω, vd , vq ) et de sortie (id , iq ), dont une réali-
sation d'état naturelle est par exemple :
did R 1
= − id + np ωiq + vd , (6.23a)
dt L L
diq R np Km 1
= − iq − np ωid − ω + vq ; (6.23b)
dt L L L
et d'autre part, une dynamique lente Rhθ, id , iq , τ r i/Rhid , iq , τ r i, d'entrée id , iq , τ r et
de sortie θ (ou ω ), dont une représentation d'état est (6.22).
Un autre choix possible de l'entrée consiste à prendre9 (−τ r ) comme commande
et (−id , −iq ) comme perturbation. Ce choix correspond au fonctionnement en géné-
ratrice et la sortie est (−vd , −vq ). Dans ce cas, il s'agit d'une dynamique d'ordre 2 :
d◦ tr K/Rh−τ r , −id , −iq i = 2, car les deux équations diérentielles du premier ordre
(6.16a) et (6.16b) permettent de déterminer les variables θ et ω, considérées ici comme
8 Les qualicatifs  lente  et  rapide  font référence à la vitesse relative des deux dyna-

miques considérées pour des choix de paramètres correspondants à des machines réelles.
9
Les signes  −  apparaissent parce que le modèle initial a été écrit en  convention
récepteur  pour la machine, alors qu'elle est considérée ici comme générateur.
264 Mathématiques pour les systèmes dynamiques

état. Les deux autres équations du modèle (6.16c) et (6.16d) donnent les expressions
des sorties en fonction des variables d'état, de l'entrée et de ses dérivées. La représen-
tation d'état obtenue avec ce choix naturel de variables fait apparaître des dérivées
de l'entrée dans les équations des sorties :
θ̇ = ω, (6.24a)
f 1 np Km
ω̇ = − ω + (−τ r ) − (−iq ), (6.24b)
J J J
d(−id )
−vd = R(−id ) − np Lω(−iq ) + L , (6.24c)
dt
d(−iq )
−vq = R(−iq ) + np Lω(−id ) − np Km ω + L . (6.24d)
dt

6.9.4. Platitude
Le système (6.16) est plat et il existe plusieurs sorties linéarisantes ayant une
signication physique.
Celle qui correspond au fonctionnement en moteur est (θ, id , τ r ). On vérie que
θ, id , τ r sont R-diérentiellement indépendantes. De plus, avec l'équation (6.16a), on
obtient l'expression de ω en fonction de la sortie plate, puis, à l'aide de (6.16b), celle
de iq :
1
iq = (J θ̈ + f θ̇ + τ r )
np Km

Enn, les équations (6.16c) et (6.16d) permettent d'exprimer les entrées :


did L
vd = L + Rid − θ̇(J θ̈ + f θ̇ + τ r ),
dt Km
L R
vq = (Jθ(3) + f θ̈ + τ̇ r ) + ˙ d + np Km θ̇.
(J θ̈ + f θ̇ + τ r ) + np Lθi
np Km np Km

Pour la génération de trajectoires à faire suivre au moteur, le choix de θ est souvent


évident en fonction du problème de commande à traiter (par exemple, contrôle de la
position ou de la vitesse). Pour id , le choix n'est pas évident a priori. Cependant,
le choix id (t) = 0 permet de minimiser la puissance dissipée par eet Joule, P =
Ri2q + Ri2d , sur n'importe quel régime de fonctionnement. La variable τ r est une
perturbation et il n'est pas possible de lui assigner une trajectoire ; par contre, il est
possible de considérer sa valeur moyenne ou d'en obtenir une estimation τ̂ r par un
observateur, sous certaines hypothèses. En conclusion, pour faire suivre la trajectoire
de référence t 7→ θ∗ (t) il faut appliquer les commandes :
L ∗ ∗ ∗
vd∗ = − θ̇ (J θ̈ + f θ̇ + τ̂ r ),
Km
L ∗ R ∗ ∗ ∗
vq∗ = (Jθ∗(3) + f θ̈ ) + (J θ̈ + f θ̇ + τ̂ r ) + np Km θ̇ .
np Km np Km
Algèbre diérentielle 265

On constate que ce suivi de trajectoire n'est possible que si θ∗ admet partout une
dérivée troisième à droite et à gauche.
La sortie plate correspondant au fonctionnement en génératrice est (θ, −id , −iq ).
Les calculs pour le vérier et établir les commandes nominales pour suivre des tra-
jectoires sont laissés au lecteur.

6.9.5. Découplage et linéarisation


Prenons comme sortie y = (θ, id ), c'est-à-dire les composantes (à l'exception de
τ r qui est une perturbation) de la sortie plate correspondant au fonctionnement en
moteur. On a %(y) = d◦ tr diff K/khτ r i = 2 car θ et iq sont diérentiellement indé-
pendants. D'après la proposition 6, le découplage est possible. Le bouclage statique :
vd = Rid − np Lωiq + ud ,
vq = Riq + np Lωid + np Km ω + ud ,
eectue le découplage et la linéarisation.

6.9.6. Rejet de perturbations


Prenons comme sortie y = (θ). Les équations (6.16a) et (6.16b) entraînent que les
corps khθi et khτ r i ne sont pas k-algébriquements disjoints. Le rejet de la perturbation
n'est donc pas possible pour ce modèle.

6.10. Bibliographie
[AIT 94] Aït-Amirat Y., Contribution à la théorie de la structure des systèmes
en automatique : application au découplage et au rejet de perturbations,
Thèse de doctorat, université Claude Bernard-Lyon I, 1994.
[BOD 98] Bodson M., Chiasson J., Dierential-geometric methods for control of
electrical motors, Int. J. Robust Nonlinear Control, vol. 8, p. 923-954,
1998.
[BOU 94] Boulier F., Etude et implantation de quelques algorithmes en algèbre
diérentielle, Thèse de doctorat, Université des sciences et technologies
de Lille, 1994.
[BOU 95] Boulier F., Petitot M., Complete computation of the relations for
implicit dynamical systems, Preprints of the IFAC Conference on System
Structure and Control, p. 635-639, Nantes, 5-7 juillet 1995.
[CON 93] Conte G., Perdon A.M., Moog C.H., The dierential eld associated
to a general analytic nonlinear dynamical system, IEEE Trans. Automat.
Control, vol. 38, p. 1120-1124, 1993.
[CON 99] Conte G., Moog C.H., Perdon A.M., Nonlinear Control Systems :
An Algebraic Setting, Lecture Notes in Control and Inform. Sci., vol. 243,
Springer-Verlag, Londres, 1999.
266 Mathématiques pour les systèmes dynamiques

[DEL 92] Delaleau E., Fliess M., Algorithme de structure, ltrations et décou-
plage, C. R. Acad. Sci. Paris Sér. I Math., 315, p. 101-106, 1992.
[DEL 93] Delaleau E., Sur les dérivées de l'entrée en représentation et commande
des systèmes non linéaires, Thèse de doctorat, Université Paris XI, 1993.
[DEL 94] Delaleau E., Pereira da Silva P.S., Conditions de rang pour le rejet
dynamique de perturbations, C. R. Acad. Sci. Paris Sér. I Math., 319, p.
1121-1126, 1994.
[DEL 98a] Delaleau E., Pereira da Silva P.S., Filtrations in feedback synthesis :
Part I, Systems and feedbacks, Forum Math., vol. 10, n◦ 2, p. 147-174,
1998.
[DEL 98b] Delaleau E., Pereira da Silva P.S., Filtrations in feedback synthesis :
Part II, Input-output and disturbance decoupling, Forum Math., vol. 10,
n◦ 3, p. 259-276, 1998.
[DEL 98c] Delaleau E., Respondek W., Lowering the orders of derivatives of
controls in generalized state space systems, J. Math. Systems Estim.
Control, vol. 8, n◦ 4, p. 427-453, 1998.
[DEL 98d] Delaleau E., Rudolph J., Control of at systems by quasi-static feed-
back of generalized states, Internat. J. Control, vol. 71, n◦ 5, p. 745-765,
1998.
[DIO 89] Diop S., Théorie de l'élimination et principe du modèle interne en auto-
matique, Thèse de doctorat, Université Paris XI, 1989.
[DIO 91a] Diop S., Elimination in control theory, Math. Control Signals Systems,
vol. 4, p. 17-32, 1991.
[DIO 91b] Diop S., Fliess M., On nonlinear observability, Proc. 1st European
Control Conference, p. 152-157, Paris, Hermès, 1991.
[DIO 92] Diop S., Dierential-algebraic decision methods and some applications
to system theory, Theoretical Computer Science, vol. 93, p. 137-161, 1992.
[DIO 93] Diop S., Closedness of morphisms of dierential algebraic sets, applica-
tions to system theory, Forum Math., vol. 5, p. 33-47, 1993.
[ELA 92] El Asmi S., Autour de l'inversion des systèmes entrée-sortie et du concept
d'essentialité : une approche algébrique, Thèse de doctorat, Université
Paris XI, 1992.
[FLI 86a] Fliess M., A note on the invertibility of nonlinear input-output dieren-
tial systems, Systems Control Lett., vol. 8, p. 147-151, 1986.
[FLI 86b] Fliess M., Some remarks on nonlinear invertibility and dynamic state-
feedback, In Byrnes C.I., Linquist A., eds, Theory and Applications
of Nonlinear Control Systems (Proc. MTNS, 1985), p. 115-121, Elsevier
Science Publ., North-Holland, 1986.
[FLI 89a] Fliess M., Automatique et corps diérentiels, Forum Math., 1, p. 227-
238, 1989.
[FLI 89b] Fliess M., Generalized linear systems with lumped or distributed pa-
rameters and dierential vector spaces, Internat. J. Control, vol. 49, p.
1989-1999, 1989.
[FLI 90a] Fliess M., Automatique en temps discret et algèbre aux diérences,
Forum Math., vol. 2, p. 213-232, 1990.
[FLI 90b] Fliess M., Generalized controller canonical form for linear and nonlinear
dynamics, IEEE Trans. Automat. Control, vol. 35, p. 994-1001, 1990.
Algèbre diérentielle 267

[FLI 90c] Fliess M., Some basic structural properties of generalized linear systems,
Systems Control Lett., vol. 15, p. 391-396, 1990.
[FLI 90d] Fliess M., What is the Kalman state variable representation good for ?
Proc. 29th IEEE Control and Decision Conference, Honolulu, 1990.
[FLI 90e] Fliess M., Hasler M., Questioning the classic state-space description
via circuit examples, (Proc. MTNS, 1989), p. 1-12, Birkhäuser, Boston,
MA, 1990.
[FLI 92a] Fliess M., Reversible linear and nonlinear discrete-time dynamics, IEEE
Trans. Automat. Control, vol. 37, p. 1144-1153, 1992.
[FLI 92b] Fliess M., Lévine J., Martin P., Rouchon P., Sur les systèmes non
linéaires diérentiellement plats, C. R. Acad. Sci. Paris Sér. I Math., 315,
p. 619-624, 1992.
[FLI 93a] Fliess M., Glad S.T., An algebraic approach to linear and nonlinear
control, Essays on control : perspectives in the theory and its applications
(Groningen, 1993), Progr. Systems Control Theory, vol. 14, p. 223-265,
Birkhäuser, Boston, MA, 1993.
[FLI 93b] Fliess M., Lévine J., Rouchon P., Generalized state variable repre-
sentation for a simplied crane description, Internat. J. Control, vol. 85,
p. 277-283, 1993.
[FLI 95] Fliess M., Lévine J., Martin P., Rouchon P., Flatness and defect
of non-linear systems : introductory theory and examples, Internat. J.
Control, vol. 61, p. 1327-1361, 1995.
[GLA 88] Glad S.T., Nonlinear state space and input output description using
dierential polynomials, New Trends in Nonlinear Control Theory, Des-
cusse J., Fliess M., Isidori A., Leborgne D. eds., Lecture Notes in
Control and Inform. Sci., vol. 122, p. 182-189, Springer-Verlag, 1988.
[GLA 90] Glad S.T., Dierential algebraic modelling of nonlinear systems, In
Realization and modelling in system theory (Amsterdam, 1989), Progr.
Systems Control Theory, vol. 3, p. 97-105, Birkhäuser, Boston, MA, 1990.
[JOH 69] Johnson J., Kähler dierentials and dierential algebra, Trans. Amer.
Math. Soc., vol. 89, p. 92-98, 1969.
[KOL 73] Kolchin E.R., Dierential Algebra and Algebraic Groups, Academic
Press, New York, 1973.
[MES 92] Messager F., Sur la stabilisation discontinue des systèmes, Thèse de
doctorat, Université Paris XI, 1992.
[MOU 95] Mounier H., Propriétés structurelles des systèmes linéaires à retards :
aspects théoriques et pratiques, Thèse de doctorat, Université Paris XI,
1995.
[OLL 90] Ollivier F., Le problème de l'identiabilité structurelle globale : approche
théorique, méthodes eectives et bornes de complexité, Thèse de doctorat,
École polytechnique, 1990.
[PER 01] Pereira da Silva P.S., Delaleau E., Algebraic necessary and sucient
conditions of input-output linearization, Forum Math., 13, p. 335-357,
2001.
[RES 90] Respondek W., Right and left invertibility of nonlinear control systems,
In Sussmann H.J., Nonlinear Controllability and Optimal Control, p.
133-176, Marcel Dekker, 1990.
268 Mathématiques pour les systèmes dynamiques

[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[RIT 50] Ritt J.F., Dierential Algebra, American Mathematical Society, New
York, 1950.
[RUD 91] Rudolph J., Poursuite de modèle : une approche par l'algèbre diéren-
tielle, Thèse de doctorat, Université Paris XI, 1991.
[RUD 94] Rudolph J., Viewing input-output system equivalence from dierential
algebra, J. Math. Systems Estim. Control, vol. 4, p. 353-383, 1994.
[SED 01] Sedoglavi¢ A., Méthodes seminumériques en algèbre diérentielle ; ap-
plication à l'étude des propriétés structurelles de systèmes diérentiels al-
gébriques en automatique, Thèse de doctorat, Ecole polytechnique, 2001.
[SIR 91a] Sira-Ramírez H., Nonlinear dynamical feedback controlled descent on
a non atmosphere-free planet : a dierential algebraic approach, Control
Theory Adv. Tech., vol. 7, n◦ 2, p. 301-320, 1991.
[SIR 91b] Sira-Ramírez H., Lischinsky-Arenas P., The dierentiel algebraic
approach in nonlinear dynamical compensator design for DC-to-DC power
converters, Int. J. Control, vol. 54, n◦ 1) p. 111-134, 1991.
[SIR 92] Sira-Ramírez H., The dierentiel algebraic approach in nonlinear dy-
namical feedback controlled landing maneuvers, IEEE Trans. Automat.
Control, vol. 37, n◦ 4, p. 518-524, 1992.
[WAE 91] van der Waerden B.L., Algebra, volume I & II, Springer-Verlag, New
York, 1991.
[WEY 95] Wey T., Svaricek F., Analyse und synthese nichlinearer regelungssys-
teme mittels dierentialalgebre, Automatisierungstechnik, vol. 43, p. 163-
203, 1995.
Chapitre 7

Equations diérentielles à second membre discontinu

7.1. Introduction

En se plaçant dans le cadre des sciences relevant de l'électronique, de l'électro-


technique et de l'automatique, il apparaît de prime abord naturel à un automaticien
d'étudier les systèmes continus linéaires. En eet, ceux-ci se retrouvent sans trop d'ap-
proximation en électronique linéaire analogique (il est en eet justié de considérer
les résistances, condensateurs, inductances et amplicateurs opérationnels hors satu-
ration comme des éléments linéaires) et, avec des approximations au linéaire tangent,
les systèmes actifs et les systèmes électrotechniques peuvent aussi être représentés par
des systèmes linéaires. Ainsi par exemple, il faut se souvenir qu'un transformateur ad-
met une représentation linéaire, mais ceci généralement uniquement au voisinage de sa
tension nominale (courbes de magnétisation) et de sa fréquence nominale (pertes fer
et courants de Foucault). Néanmoins, si l'on veut aborder des systèmes plus généraux
et/ou des comportements dynamiques plus éloignés des points de fonctionnements
nominaux, on est obligé d'utiliser une représentation non linéaire analytique, comme
cela a été présenté dans les deux chapitres précédents. C'est le cas, par exemple, de
la machine asynchrone (équation du couple électrique).
Cependant, ce passage au non-linéaire analytique est encore souvent insusant
pour traduire les propriétés physiques de nombreux systèmes relevant des équations
diérentielles ordinaires (ce chapitre n'abordera pas le cas des systèmes aux dérivées
partielles). C'est le cas pour les convertisseurs statiques, où les nombreuses commu-
tations des composants à semi-conducteurs produisent des discontinuités dans les
équations diérentielles représentant le système. Il est évident que la commutation
d'un interrupteur n'est pas le seul type de discontinuité qui peut apparaître dans
les circuits électriques, électromagnétiques et électromécaniques : nous pouvons ainsi
citer, sans souci d'exhaustivité, les frottements secs, les triggers, les redresseurs, les
saturations des amplicateurs opérationnels, etc. Pour l'étude de tels systèmes, de
nombreuses méthodes ont été employées : parmi les plus connues, nous pouvons ci-
ter la méthode du premier harmonique. Mais celle-ci, comme beaucoup d'autres, ne
s'applique que dans des conditions très particulières. C'est pour cette raison que ce
chapitre présente une formulation générale, bien que simpliée, de la résolution des
équations non linéaires discontinues. Il est aussi à notre avis très important de souli-
gner l'importance des commandes discontinues dans la recherche de commandes  ro-
bustes  : ceci sera abordé dans la section dédiée à la commande par modes glissants.
Notre présentation de la résolution des équations diérentielles discontinues étant

Chapitre rédigé par Wilfrid Perruquetti et Jean-Pierre Barbot .


270 Mathématiques pour les systèmes dynamiques

plus méthodologique qu'historique, nous citons quelques contributions (sous forme de


livres) marquantes dans le domaine et dans lesquelles le lecteur pourra trouver des
compléments nécessaires à une bonne maîtrise des outils. Ainsi, nous avons choisi : le
livre de A.F. Filippov [FIL 88] sur le vecteur équivalent et la résolution des équations
diérentielles discontinues, le livre de V.I. Utkin [UTK 92] sur les modes glissants, les
livres de J.-P. Aubin et co-auteurs [AUB 84, AUB 90] sur les inclusions diérentielles
et les multifonctions, enn le livre de F.H. Clarke et co-auteurs [CLA 98] sur l'analyse
des dynamiques discontinues.

7.2. Rappels d'analyse convexe

Par la suite, E désignera un espace de Banach (espace vectoriel complet). Les


notions de topologie utiles dans cette partie sont développées dans [RIC 01].

7.2.1. Ensembles convexes


Dénition 1. Un ensemble A ⊂ E est convexe si le segment joignant deux points
quelconques de A appartient à A.
Dans le plan, l'intérieur d'une ellipse est convexe et la réunion de deux disques
disjoints ne l'est pas. Si E est un espace vectoriel normé, toute boule y est convexe.
P
Lemme
Q 1. Si les Ai sont des ensembles convexes de E , alors ∩ni=1 Ai, ni=1 Ai ,
i∈I Ai sont convexes (I est un ensemble d'indices de cardinalité quelconque).
Dénition 2. L'intersection de tous les ensembles convexes (respectivement,
convexes fermés) contenant A est le plus petit convexe (respectivement, convexe fermé)
contenant A : on le note conv(A) (respectivement, conv(A)).

7.2.2. Multifonctions
L'être mathématique appelé  multifonction  (en anglais set-valued map) est une
application qui, à un point, associe un ensemble de points.
Dénition 3 (Multifonction). Soient E1 et E2 deux ensembles. Une multifonction
F est dénie par une relation entre les éléments de E1 et ceux de P(E2 ). On la
note F : E1 ⇒ E2 . Elle associe à un point x de E1 un sous-ensemble F (x) de E2 .
On dénit le domaine de F : dom(F ) , {x ∈ E1 : F (x) 6= ∅}, son graphe1 :
graph(F ) , {(x, y) ∈ E1 × E2 : x ∈ dom(F ) et y ∈ F (x)}, son image : image(F ) ,
{y ∈ E2 : ∃x ∈ dom(F ) tel que y ∈ F (x)} = ∪x∈E1 F (x) ⊂ E2 .
Par exemple, le graphe de la multifonction G : x 7→ {x2 } est une parabole. Ce
graphe est non vide (on dit que F est non triviale) ; de plus, c'est une fonction au
sens classique du terme : elle est dite fonction stricte (G(x) est un singleton). Notons
1 Le graphe peut donc dénir la multifonction F .
Equations diérentielles à discontinuités 271

que : image(G) = R+ , dom(G) = R. Mais le plus intéressant pour cette fonction G


est de dénir une multifonction inverse, comme suit.
Dénition 4 (Inverse). La multifonction inverse de F , notée F −1 , est dénie par
son graphe : graph(F −1 ) = {(y, x) ∈ E2 × E1 : y ∈ F (x)}.
Cette dénition de l'inverse d'une multifonction correspond donc à la permutation
des abscisses et des ordonnées, sans se préoccuper du caractère bijectif ou non de
la fonction. De ce que nous venons de voir, nous déduisons que les propriétés des
multifonctions sont celles des graphes qui leurs sont associés. Ainsi, une multifonction
est convexe si son graphe associé est convexe. De même, nous pouvons dénir des
propriétés uniquement sur l'image de la multifonction.
Dénition 5 (Convexité). Une multifonction F est convexe (respectivement, fer-
mée, compacte bornée) si son image l'est.
Les opérations sur les ensembles peuvent être étendues aux multifonctions à tra-
vers leur graphe associé.
Dénition 6. Soient deux multifonctions F1 et F2 . On dénit, respectivement,
l' intersection et l' union comme :

F1 ∩ F2 ↔ graph(F1 ) ∩ graph(F2 ),
F1 ∪ F2 ↔ graph(F1 ) ∪ graph(F2 ),
F1 ⊂ F2 ↔ graph(F1 ) ⊂ graph(F2 ).

L' image inverse d'une multifonction F sur l'ensemble E2 , notée F −1 (E2 ), est :

F −1 (E2 ) , {x ∈ E1 : F (x) ∩ E2 6= ∅}.

Le noyau d'une multifonction F sur l'ensemble E2 , noté F +1 (E2 ), est égal à :

F +1 (E2 ) , {x ∈ E1 : F (x) ⊂ E2 }.

Notons, par exemple, que la multifonction H dénie par le graphe graph(H)  =


{(x, y) ∈ R × R : y ∈ {+ |x| , − |x|}} a une image inverse
 sur R +
H −1
(R +
) = R qui
est diérente de son noyau sur R+ H +1 (R+ ) = ∅ . Il y a concordance des solutions
de l'image inverse et du noyau quand la multifonction associe à tout élément de E1
au plus un point de E2 .
Nous allons maintenant donner des notions de continuité pour les multifonctions,
qui prolongent celles vues au chapitre  Topologie  de [RIC 01].
Dénition 7 (Semi-continuité). Soient E1 et E2 des espaces topologiques de
Hausdor. Une multifonction F : E1 ⇒ E2 est semi-continue supérieurement en
x ∈ dom(F ) si, pour tout voisinage V ⊂ E2 de F (x), il existe un voisinage W de x
tel que F (W ) ⊂ V . F est semi-continue supérieurement si elle est semi-continue supé-
rieurement en tout point de son domaine dom(F ). F est semi-continue inférieurement
en x ∈ dom(F ) si, pour tout y ∈ F (x) et toute suite xn ∈ dom(F ) convergeant vers x,
il existe une suite yn ∈ F (xn ) convergeant vers y . F est semi-continue inférieurement
si elle l'est en tout point de son domaine dom(F ).
272 Mathématiques pour les systèmes dynamiques

Dans le cas particulier des multifonctions associant à tout élément de E1 au plus un


point de E2 , ces dénitions sont équivalentes : elles sont des ré-écritures directes de la
dénition classique de continuité d'une fonction. Pour des multifonctions n'associant
pas un seul y à chaque x, nous remarquons, par exemple, que la multifonction dénie
par le graphe {(x, y) ∈ R × R : |y| ≤ |x|} (gure 7.1) est semi-continue inférieurement
et supérieurement.
Par contre, la multifonction de graphe {(x, y) ∈ R×R : |y| ≤ 1 pour x 6= 0 et y = 0
pour x = 0} (gure 7.2) est semi-continue inférieurement mais pas supérieurement
en 0. Enn, la multifonction dénie par le graphe {(x, y) ∈ R × R : y = 0 pour
x 6= 0 et |y| ≤ 1 pour x = 0} (gure 7.3) est semi-continue supérieurement mais pas
inférieurement en 0.

Figure 7.1. Graphe {(x, y) ∈ R × R : |y| ≤ |x|}

Figure 7.2. Graphe {(x, y) ∈ R × R : |y| ≤ 1 pour x 6= 0 et y = 0 pour x = 0}

Figure 7.3. Graphe {(x, y) ∈ R × R : y = 0 pour x 6= 0 et |y| ≤ 1 pour x = 0}

Ceci permet une dénition de la continuité pour les multifonctions.


Equations diérentielles à discontinuités 273

Dénition 8 (Continuité). Soient E1 et E2 des espaces topologiques de Hausdor.


Une multifonction F : E1 ⇒ E2 est continue en x ∈ dom(F ) si elle est semi-continue
inférieurement et supérieurement en x. Elle est dite continue si elle est continue en
tout point de son domaine dom(F ).
Des dénitions précédentes, nous obtenons les propositions suivantes.
Proposition 1. La multifonction F : E1 ⇒ E2 est semi-continue supérieurement
en x ∈ dom(F ) si le noyau de tout voisinage de F (x) est un voisinage de x. Elle
est semi-continue inférieurement en x ∈ dom(F ) si l'image inverse de tout voisinage
d'intersection non vide avec F (x) est un voisinage de x.
Dénition 9. La multifonction F : R × E1 ⇒ E2 est localement lipschitzienne en x
s'il existe une fonction positive intégrable ζ et un voisinage V de x tels que :
∀(y, z) ∈ V : dH (F (t, z), F (t, y)) ≤ ζ(t) kz − yk , (7.1)
où dH est la distance de Hausdor de deux ensembles, dénie par :
dH (A, B) = max(sup (a, B), sup(A, b)). (7.2)
a∈A b∈B

Il resterait un bon nombre de notions, théorèmes, propositions et exemples à


présenter, mais ceci dépasse largement le cadre de ce chapitre : nous renvoyons le
lecteur à des ouvrages plus spécialisés [AUB 84, AUB 90] pour poursuivre dans le
domaine. Toutefois, an de faire un lien avec les paragraphes suivants, nous donnons
ci-dessous la dénition d'intégrale de multifonctions.
Dénition 10. L' intégrale de la multifonction F : E1 ⇒ E2 sur l'ensemble mesu-
rable M est l'ensemble des intégrales de F , déni comme suit :
Z Z 
F dσ = f dσ : f ∈ F̃ , (7.3)
M M

avec F̃ , {f ∈ L1 (M, E2 ) : f (x) ∈ F (x) presque partout sur M }.


Remarque 1.  Presque partout sur M  signie  sauf sur un sous-ensemble de
mesure nulle . Nous le noterons quelquefois  p.p. , ainsi f ∈ F signie que
p.p.
f (x) ∈ F (x) presque partout sur M . De même, f = g signie que f (x) = g(x)
p.p.
presque partout sur M .

7.3. Inclusions diérentielles, problème de Cauchy

Le problème de Cauchy (PC) suivant :


x
ẋ = − si x 6= 0, (7.4)
|x|
x(0) = 0,

n'admet pas de solution au sens classique puisque ẋ(0) n'est pas dénie.
n Cependant,
o
en remplaçant le membre de droite par la multifonction F (x) = − |x| si x 6= 0,
x
274 Mathématiques pour les systèmes dynamiques

F (0) = [−1, 1] , on vérie que x(t) = 0 satisfait la relation


∈ F (x) pour tout t. dx
dt
De la même façon, le problème de Cauchy associé à la condition initiale x(0) = x0
(quelconque) admet une solution.
Dans un cadre plus général, pour étudier une équation diérentielle ordinaire
à second membre discontinu (systèmes à structure variable, commande adaptative,
hacheur, phénomène de friction, etc.) de la forme :
dx
= f (t, x), x ∈ X, (7.5)
dt

où f (t, x) est dénie et continue sur I × (Xp \M) (Xp une partition de X , M un
ensemble de mesure nulle2 )), il apparaît intéressant de la remplacer par l'inclusion
diérentielle suivante :
dx
∈ F (t, x), (7.6)
dt
où F (t, x) est un ensemble, dont nous verrons une construction, qui pour (t, x) ∈ I ×
Xp \M est déni par F (t, x) = {f (t, x)}. Cette inclusion doit permettre de  capturer 
les comportements de (7.5).
De même, pour un système commandé, on peut remplacer dx dt
= f (t, x, u), x ∈
X , u ∈ U, par dx
dt
∈ F (t, x, U) : c'est une approche souvent utilisée pour les problèmes
de commande en temps optimal, où l'on cherche une trajectoire de l'inclusion qui
rejoigne une cible en un temps minimum.

7.3.1. Notion de solution

On s'intéresse au problème de Cauchy (PC) suivant :  Existe-t-il une fonction φ


telle que dφ
dt
∈ F (t, φ(t)) presque partout et φ(t0 ) = x0 ? 
Dénition 11 (Solution). On appelle solution de (7.6) passant par x0 à t0 , toute
fonction φ absolument continue3 dénie sur un intervalle non vide (I(t0 , x0 ) ⊂ I ⊂ R)
contenant t0 :

φ : I ⊂ R → X ⊂ Rn ,
t 7→ φ(t; t0 , x0 ),

notée plus simplement φ(t), vériant dφ


dt
∈ F (t, φ(t)) presque partout sur I(t0 , x0 ) et
telle que φ(t0 ) = x0 .
Si φ(t) est une fonction absolument continue, alors il existe χ(u) une fonction
Lebesgue-intégrable qui soit presque partout égale à la dérivée de φ : φ(t) = φ(t0 ) +
2 Il s'agit de la mesure au sens de Lebesgue : voir l'exemple de la page 82 et [RIC 01],

chapitre 2. On peut aussi lire  continue sur Xp \M  comme  continue p.p. , au sens de la
remarque 1.
3φ : [α, β] 7→ Rn est P absolument continue siP ∀ε > 0, ∃δ(ε) > 0 :
n n
∀ {]αi , β i [}i∈{1..n} , ]αi , β i [⊂ [α, β] i=1 (β i − αi ) ≤ δ(ε) ⇒ i=1 kφ(β i ) − φ(αi )k ≤ ε.
Equations diérentielles à discontinuités 275

Rt
t0
χ(u)du. Si, de plus, on a dφ

dt p.p.
F (t, φ(t)), alors χ(u) ∈ F (u, φ(u)) et on obtient
p.p.
donc la représentation intégrale suivante :
Z t
φ(t) ∈ φ(t0 ) + F (u, φ(u))du.
t0

La réciproque n'est vraie que si la multifonction vérie certaines hypothèses de régu-


larité (par exemple, F compacte, convexe, semi-continue supérieurement).

7.3.2. Existence des solutions


Dans le cas où F (t, x) = {f (t, x)} et Xp = X (le membre de droite de (7.5) pouvant
ne pas être déni pour des instants appartenant à un ensemble de mesure nulle), on
retrouve les résultats classiques sur les EDO (résultats de Carathéodory et Péano,
voir chapitre 5, pages 177 et 176). Notamment, l'existence de solution est garantie
par la continuité de la fonction. Pour les multifonctions, une notion de substitution
est la semi-continuité supérieure.
Théorème 1. Supposons que F soit dénie, convexe, semi-continue supérieurement
sur le tonneau :
T = {(t, x) ∈ I × X : |t − t0 | ≤ a, kx − x0 k ≤ b} , (7.7)
avec T ⊂ dom(F ). Si, ∀(t, x) ∈ T et ∀y ∈ F (t, x) 6= ∅, on a kyk ≤ K , alors, il existe
au moins une solution au PC dénie sur au moins un intervalle [t0 − α, t0 + α], avec
α = min(a, K b
).
Théorème 2. Soit F : R × Rn ⇒ Rn semi-continue supérieurement :
 si F est compacte et convexe, alors il existe une solution au PC dénie sur un
ouvert de l'instant initial ;
 s'il existe deux constantes positives c1 et c2 telles que ∀(t, x) ∈ R × Rn et ∀y ∈
F (t, x) 6= ∅, on ait kyk ≤ c1 kxk + c2 , alors il existe une solution au PC dénie
sur R.
Remarque 2. On peut remplacer la deuxième condition par l'existence de deux fonc-
tions localement intégrables c1 (t) et c2 (t) vériant la même inégalité.
Une des conditions précédentes d'existence de solution repose sur la convexité de
F , mais le théorème de relaxation donné ci-après montre que si F est lipschitzienne,
alors l'ensemble des solutions de l'inclusion diférentielle (7.6) est dense dans l'ensemble
de celles de l'inclusion diérentielle  convexiée  :
dx
∈ conv(F (t, x)), (7.8)
dt
c'est-à-dire que toute solution de (7.6) peut être approchée de façon aussi précise
qu'on le désire par des solutions de (7.8).
Théorème 3. Soit F dénie, semi-continue supérieurement, lipschitzienne en x sur
le tonneau T ⊂ dom(F ) déni par (7.7). Si ∀(t, x) ∈ T , ∀y ∈ F (t, x) 6= ∅, on
a kyk ≤ K , alors toute solution x(t) de (7.8) telle que x(t0) = x0 est dénie sur
276 Mathématiques pour les systèmes dynamiques

I(t0 , x0 ) = [t0 − α, t0 + α], α = min(a, Kb ) et, pour tout ε > 0 donné, il existe une
solution y(t) de (7.6) dénie sur I(t0 , x0 ) vériant y(t0) = x0 et ky(t) − x(t)k ≤
ε, ∀t ∈ I(t0 , x0 ).
Cela signie que remplacer (7.6) par (7.8) n'introduit pas de  nouvelle solution .

Problème de régularisation : solution au sens de Filippov

Dans de nombreux cas, f (t, x) (second membre de (7.5)) est dénie sur une par-
tition Xp de l'espace d'état privée de points d'un ensemble de mesure nulle M. Si
f (t, x) est continue sur Xp \M, il est intéressant de considérer la multifonction :
\
F (t, x) = conv(f (t, Bε (x) − M)), (7.9)
ε>0

qui est convexe et semi-continue supérieurement et vérie, pour tout t et tout x ∈


Xp \M : F (t, x) = {f (t, x)}. Une alternative à (7.9) est :
\ \
F (t, x) = conv(f (t, Bε (x) − N )).
ε>0 mes(N )=0

Ainsi, dans le cadre des systèmes à structure variable (par exemple, commandés
par modes glissants), la fonction f n'est pas dénie sur une variété S = {x ∈ X :
s(x) = 0} :  +
f (t, x), si s(x) > 0,
f (t, x) = (7.10)
f − (t, x), si s(x) < 0.

Ainsi est-on amené à considérer (7.9), qui se construit en utilisant :



 f (t, x), si s(x) 6= 0,

F (t, x) =
 
 conv(limx→x∗∈S f (t, x)) = conv f + (t, x), f − (t, x) , si s(x) = 0.
x∈S
(7.11)
Dans ce cadre, en notant Prnormale la projection sur la normale à la surface s(x) = 0
orientée de X − vers X + , on dénit les projections des champs de vecteurs f + (t, x) et
f − (t, x) :

fn+ (t, x) = Prnormale lim f + (t, x), (7.12)


s→0+

fn− (t, x) = Prnormale lim f − (t, x), (7.13)


s→0−

et on obtient le résultat suivant d'existence de solution, dû à A.F. Filippov.


Théorème 4 (de Filippov). Soit le système décrit par (7.5), avec X = X + ∪X − ∪S
et M = S . Supposons qu'il satisfasse :

∂fi
∃k ∈ R+ , ∀x ∈ X + ∪ X − , ≤ k, (i, j = 1 . . . n).
∂xj
Equations diérentielles à discontinuités 277

Soit une fonction s deux fois diérentiable, telle que fn+ et fn− soient continues par
rapport à x et t, pour x solution de s(x) = 0. Soit enn h = fn+ − fn− , supposée
continûment diérentiable. Si, en chaque point de la surface s(x) = 0, une au moins
des deux inégalités fn+ < 0 ou fn− > 0 est vériée, alors, dans le domaine X , il
existe une solution unique (à droite) x(t) du système (7.5), qui dépend des conditions
initiales de façon unique.
De façon générale, pour les inclusions diérentielles, l'unicité des solutions n'a pas
de sens : dans le théorème précédent,  solution unique (à droite)  signie alors que
si, à t0 , deux solutions coïncident, alors elles coïncideront pour tout t ≥ t0 où elles
sont dénies.
Ce résultat (similaire aux théorèmes précédents) a un intérêt pratique immédiat :
en eet, lorsqu'on a simultanément fn+ < 0 et fn− > 0, la solution du problème (7.5)
pour x ∈ S est dénie par :

x ∈ S,
(7.14)
ẋ = f0 (t, x),

avec f0 (t, x) ∈ conv f + (t, x), f − (t, x) ∩ Tx S . Ainsi, la dynamique de glissement est
donnée par :
   
dx hds, f − i + hds, f + i
= f − f −, (7.15)
dt hds, f − − f + i hds, f − − f + i
puisque dans ce cas, la  convexication  du champ de vecteurs s'exprime par
f0 (x, t) = αf + (t, x) + (1 − α)f − (t, x) et :

f0 ∈ Tx S ⇐⇒ hds, f0 i = 0, (7.16)
h i
hds,f − (t,x)i
ce qui nous conduit à α = hds,(f − (t,x)−f + (t,x))i
.

Figure 7.4. Convexication par la méthode de Filippov


278 Mathématiques pour les systèmes dynamiques

Enn, notons que, au voisinage de la surface s = 0, on a l'équivalence :



fn+ (t, x) < 0
⇔ sṡ < 0. (7.17)
fn− (t, x) > 0

Cette dernière condition est connue sous le nom de condition de glissement.

Commande équivalente au sens d'Utkin

Pour un champ de vecteurs ane en la commande, donc pour une équation de la


forme :
dx(t)
= f (t, x) + g(t, x)u, (7.18)
dt
si l'on considère une variable de commande qui commute selon la loi :
(
u+ (t, x) si s(x) > 0,
u= (7.19)
u− (t, x) si s(x) < 0,

alors la méthode de Filippov décrite au paragraphe ci-dessus est équivalente à la


méthode dite de la commande équivalente (due à V.I. Utkin [UTK 92]) : la dynamique
sur la surface S (en glissement) est obtenue en écrivant l'invariance de la surface S :
(
s(x) = 0,
(7.20)
ṡ(x) = 0 = hds, f (t, x)i + hds, g(t, x)iu,

que l'on résoud en u si hds, g(t, x)i 6= 0, ce qui est équivalent à g(t, s) ∈/ Tx S . La
solution est :
hds, f (t, x)i
ueq = − . (7.21)
hds, g(t, x)i

Ainsi, lorsque la loi de commande (7.19) vérie, pout tout t et tout x :


min(u− (t, x), u+ (t, x)) < ueq (t, x) < max(u− (t, x), u+ (t, x)),

il y a bien existence d'une solution au sens de Filippov sur la surface de glissement


et la dynamique de glissement (sur cette surface) est donnée par :
dx

= Idn − g(t, x)(hds, gi)−1 ds, f (t, x) . (7.22)
dt

Ceci s'étend au cas multi-entrées (u ∈ Rm ).

Distinction des deux approches

Le résultat assurant l'équivalence entre la méthode de Filippov et celle d'Utkin


pour (7.18) se déduit du résultat suivant.
Equations diérentielles à discontinuités 279

Théorème 5. Soit le système et les hypothèses :


dx
= h(t, x, u), (7.23)
dt
u ∈ U ⊂R , m
(7.24)
 U compact ;
 h dénie sur un ouvert Ω ⊂ Rn privé de S = {x ∈ X : s(x) = 0}, avec
s ∈ C 1 (X ) ;
 h(t, x, u) continue en x pour t et u xés, continue en t pour x et u xés ;
 h(t, x, U) convexe pour tout t ∈ R et tout x ∈ Ω ;
 il existe deux constantes positives a et b : kh(t, x, u)k ≤ a kxk + b, pour tout
x ∈ Ω et tout u ∈ U .
Alors, les propositions suivantes sont équivalentes :
 il existe une solution du PC suivant dx dt
= h(t, x, u), x(t0 ) ∈ S , dénie sur
[t0 , +∞[ ;
 h(t, x, U) ∩ Tx S 6= ∅, tout t et tout x ∈ S.
La variable u ∈ U solution de h(t, x, u) ∩ Tx S 6= ∅ ⇔ hds, h(t, x, u)i = 0 est la
commande équivalente : cette solution est unique si u 7→ hds, h(t, x, u)i est bijective,
ce qui est le cas lorsque h(t, x, u) = f (t, x) + g(t, x)u et hds, g(t, x)i est de rang plein.
Par contre, pour des systèmes plus généraux que (7.18), les notions dues à Filippov
et à Utkin ne sont pas équivalentes, comme le montre l'exemple :
ẋ1 = −2.1x2 + 4ux1 ,
ẋ2 = −1.1x1 + 4u2 x1 ,
s(x) = x1 + x2 ,
(
−1 si s(x) > 0,
u =
1 si s(x) < 0.

La méthode de la commande équivalente donnerait : ṡ = 0 = (1 + 4u + 4u2 )x1 , soit


ueq = −1/2, donc la dynamique de glissement serait ẋ1 = 0.1x1 et x1 + x2 = 0. La
méthode de Filippov donne par contre : ẋ1 = −2.9x1 et x1 + x2 = 0, résultat issu de :
ẋ = αf + (x) + (1 − α)f − (x),
 
hds, f − (x)i 1
α = = .
hds, (f − (x) − f + (x))i 4x1

Un autre résultat concernant l'équivalence des deux méthodes est le suivant.


Théorème 6 (de Bartolini-Zolezzi, 1986). Soit le système (7.23) et soit S =
{x ∈ Rn : s(x) = 0} une surface de glissement, s ∈ C 1 (Rn , Rm ). Si les conditions
suivantes sont vériées :

1. pour tout (t, x), la fonction G(x)f (t, x, .) est globalement inversible sur U (do-
maine des commandes admissibles), avec G(x) la matrice jacobienne de s,
G(x) = (∂si /∂xj )i=1,...,m, j=1,...,n ;
280 Mathématiques pour les systèmes dynamiques

2. les surfaces Sj dénies par sj (x) = 0 partitionnent l'espace Rn en des ouverts


connexes deux à deux disjoints ;
3. la commande u = u(t, x) ∈ U ⊂ Rm , donnée, est mesurable en t et continue en
x excepté sur les surfaces Sj ;
4. U est un ensemble fermé et f (t, x, U) est convexe pour (t, x) ;
5. f est mesurable en t, continue en x et u, et elle satisfait localement |f (t, x, u)| <
m(t), où m est une fonction intégrable.

Alors, si y(t) est la solution de (7.23) donnée par la méthode de résolution de


Filippov telle que s(y(t)) = 0 pour 0 ≤ t ≤ T , y(t) est aussi la solution donnée par la
méthode du vecteur équivalent.

7.3.3. Analyse des solutions

An d'assurer au moins l'existence de solutions pour l'inclusion diérentielle (7.6),


nous supposerons par la suite que la multifonction F vérie les hypothèses du théo-
rème 1 ou 2 : F est semi-continue supérieurement, compact, convexe. Puisqu'un PC
peut avoir une ou plusieurs solutions, les notions que nous allons présenter sont dite
fortes (respectivement, faibles) si leurs dénitions sont vraies pour toute les solutions
(respectivement, pour au moins une solution) issues d'une condition initiale donnée.

Equilibre

Les dénitions d'équilibre faible ou fort sont directement issues de celles des équa-
tions diérentielles ordinaires (chapitre 5) en tenant compte de la distinction précé-
dente.
Proposition 2. Une condition susante pour que xe soit un équilibre au sens faible
est que 0 ∈ F (t, xe ) pour tout t.

Ensemble viable et invariant

Soit une inclusion diérentielle autonome :


dx
∈ F (x). (7.25)
dt
Dénition 12. Un compact convexe K ⊂ dom(F ) est dit viable ou faiblement
invariant (respectivement, fortement invariant) si au moins une trajectoire (respecti-
vement, toute trajectoire) issue d'une condition initiale appartenant à K évolue dans
K : ∀x0 ∈ K, ∃x(t) dénie sur R+ solution de (7.25) avec x(0) = x0 , telle que
x(t) ∈ K, ∀t ∈ R+ (respectivement, ∀x0 ∈ K, ∀x(t) solution de (7.25) avec x(0) = x0
est dénie sur R+ et vérie x(t) ∈ K, ∀t ∈ R+ .
Equations diérentielles à discontinuités 281

Une condition nécessaire et susante d'invariance faible (viabilité) est :

F (x) ∩ TK
B
(x) 6= ∅, ∀x ∈ K, (7.26)

où TKB (x) est le cône contingent (dit de Bouligand, ou tangent à K ) déni par :
 
xi − x
B
TK (x) , lim : lim xi ∈ K = x et ti & 0 .
i→∞ ti i→∞

Dans ce cas, la condition (7.26), dite aussi condition de tangence, est susante pour
l'existence un point d'équilibre faible dans K :

(7.26) ⇒ ∃xe ∈ K : 0 ∈ F (xe ).

Notons que lorsque K est une variété diérentiable (c'est-à-dire lorsque la frontière
de K est susamment lisse, voir chapitre 4, page 151), TKB (x) est l'espace tangent à
K au point x.
Exemple 1. F dénie par graph(F ) = {(x, y) ∈ R × R : |x| + 3 ≥ |y| ≥ |x| − 3} est
continue et, pour tout x, l'ensemble F (x) est un compact, convexe non vide : donc,
pour tout x0 , il y a existence de trajectoires issues de ce point. Si K est la boule unité
fermée centrée en l'origine, la condition de viabilité est vériée et, dans cette boule,
on a bien l'existence d'au moins un équilibre faible 0 ∈ F (0) (il y en a d'autres : tout
point de [−3, 3]). Notons que les fonctions :


 0 si |t| ≥ 1,

−(t + 1) si − 1 < t < − 12 ,
x(t) ≡ 0 et x(t) =
 t
 si − 12 ≤ t ≤ 12 ,

−(t − 1) si 12 < t < 1,

sont deux solutions du PC : ẋ ∈ F (x), x(0) = 0. L'origine n'est donc pas un équilibre
fort.
Naturellement, pour qu'un ensemble soit fortement invariant, il faut des conditions
supplémentaires : la multifonction F doit être localement lipschitzienne et, pour tout
x ∈ K, F (x) ⊂ TK
B
(x).

Stabilité et fonctions de Liapounov

Avant tout, notons que si K ⊂ dom(F ) est un compact et si F vérie les hypo-
thèses du théorème 1, alors toute trajectoire issue d'un point intérieur à K vérie
les propriétés topologiques suivantes : elle atteint la frontière de K ou diverge, l'en-
semble limite positif (respectivement, négatif) associé vérie les propriétés cités au
théorème 8 du chapitre 5. Les propriétés de stabilité dénies dans ce même chapitre
sur les EDO, peuvent être adaptées en tenant compte de la note faite en introduc-
tion. A titre d'exemple, la stabilité exponentielle faible d'un point d'équilibre se dénit
comme suit.
282 Mathématiques pour les systèmes dynamiques

Dénition 13. xe est faiblement exponentiellement stable pour l'inclusion diéren-


tielle (7.25) si : ∀t0 ∈ R, ∃δ > 0, ∃α ≥ 1, ∃β > 0 tels que ∀x0 ∈ X avec ρ(x0 , xe ) ≤ δ,
il existe au moins une solution φ(t; t0 , x0 ) au PC (7.25), x(t0 ) = x0 , solution dénie
sur [t0 , +∞[ et telle que : ρ(φ(t; t0 , x0 ), xe ) ≤ αρ(x0 , xe )e−β(t−t0 ) , ∀t ≥ t0 .
Exemple 2. [FIL 88] Soit le système ẋ compris entre les deux droites passant par
l'origine et de pente k et m : si k, m < 0 alors l'origine est globalement exponentielle-
ment stable ; si k < 0 < m alors l'origine est globalement faiblement asymptotiquement
stable ; etc.
Exemple 3. L'origine est globalement asymptotiquement stable pour l'inclusion dif-
férentielle ẋ ∈ conv({−x3 }, {−x5 }).
Pour traiter de la stabilité d'un système, on peut utiliser des fonctions de Liapou-
nov, vues au chapitre 5, comme suit.
Théorème 7. [FIL 88] Soit F (t, x) vériant les hypothèses du théorème 1 d'existence
de solutions dans le domaine R×K , avec K un fermé borné. Si :

0 ∈ F (t, 0)
∃v(t, x) ∈ C 1 (R×K, R+ ), v(t, 0) = 0,
∂v ∂v
v̇ ∗ , sup ( + y) ≤ 0 sur R×K, (7.27)
y∈F (t,x) ∂t ∂x

alors, l'origine est stable pour (7.6). Si de plus :

∃(v0 , v1 , w) ∈ C 0 (K, R+ )3 dénies positives sur K ,


v0 (x) ≤ v(t, x) ≤ v1 (x) sur R×K ,

v̇ ≤ −w(x) sur R×K , (7.28)

alors l'origine est asymptotiquement stable pour (7.6).


Si, dans (7.27) ou dans (7.28), on remplace v̇ ∗ par :
∂v ∂v
v̇∗ , inf ( + y), (7.29)
y∈F (t,x) ∂t ∂x

alors les conclusions restent valables pour les notions faibles.


Pour une inclusion diérentielle autonome (7.25), le principe d'invariance de La
Salle et les principaux résulats utilisant des fonctions de Liapounov restent utilisables,
à condition que v(t, x) soit de plus continûment diérentiable et que v̇ soit remplacée
par v̇ ∗ .
Exemple 4. Soit le système :

ẋ1 = − |x1 |α sign(x1 ) + x2 ,
(7.30)
ẋ2 = − |x2 |β sign(x2 ) − x1 ,

avec sign(y) la fonction signe non dénie en y = 0. On transforme cette équation


à second membre discontinu par l'inclusion obtenue en remplaçant dans (7.30) la
Equations diérentielles à discontinuités 283

fonction signe par la multifonction signe sign(y) = −1 si y < 0, 1 si y > 0, [−1, 1] si


y = 0. En choisissant v = 12 (x21 + x22 ) comme fonction de Liapounov, on obtient :

x1 x2 6= 0 : v̇ ∗ = v̇ = −(|x1 |α+1 + |x2 |β+1 ) ≤ 0, (7.31)



x1 = 0 : v̇ = sup (x1 ẋ1 − |x2 | β+1
+ x1 x2 ) = − |x2 | β+1
, (7.32)
sign(x1 )∈[−1,1]

x2 = 0 : v̇ ∗ = sup (− |x1 |α+1 + x1 x2 + x2 ẋ2 ) = − |x1 |α+1 . (7.33)


sign(x2 )∈[−1,1]

On a donc v̇ ∗ ≤ 0 sur R2 : on en conclut que l'origine est globalement asymptotique-


ment stable pour (7.30).
Comme le montre l'exemple suivant, il faut faire attention à ce que v(x) soit
continûment diérentiable.
Exemple 5. Soit le système :

ẋ1 ∈ −4 sign(x1 ) − sign(x2 ),
(7.34)
ẋ2 ∈ − sign(x1 ) + sign(x2 ),

où sign est dénie dans l'exemple précédent. En calculant sans aucune précaution la
dérivée de v = |x1 | + |x2 | le long des trajectoires de (7.34), on trouve v̇ = −3 −
2 sign(x1 x2 ) < 0 ! Cependant la méthode de Filippov pour x1 = 0 donne la dynamique
équivalente suivante : ẋ2 = 34 sign(x2 ), donc x2 diverge.
Théorème 8. [FIL 88] Si, dans le théorème 7, on remplace la condition de dié-
rentiabilité de v(t, x) par une condition de Lipschitz (en x) et si l'on remplace v̇ ∗
par :  
d(v(t + h, x(t) + hy))
v̇ ∗∗ = sup , (7.35)
y∈F (t,x) dh h=0

alors les conclusions du théorème 7 restent valables.


Exemple 6. Pour l'exemple précédent (7.34), avec la même fonction de Liapounov,
on trouve en x1 = 0 :

∗∗ d(v(x2 + h 14 sign(x2 ))) 1
v̇ = = . (7.36)
dh h=0
4
Théorème 9. [FIL 88] Pour que x = 0 soit asymptotiquement stable pour :
ẋ = −A(t, x) Sgn(x), (7.37)
Sgn(x) = (sign(x1 ), . . . , sign(xn )) , T
(7.38)
avec A(t, x) matrice continue, il est susant que xT A(t, 0)x ≥ 0.
Enn, notons que la condition de décroissance v̇ ∗∗ ≤ −w(x) peut être remplacée
par une inclusion diérentielle lorsque v(t, x) admet un gradient généralisé au sens
de Clarke (voir [CLA 98] chapitre 2). Par exemple, si v(t, x) est lipschitzienne en x,
alors :
∂v(t, x) , conv ( lim 5v(ti , xi )),
(ti ,xi )→(t,x)
(ti ,xi )∈M
/
284 Mathématiques pour les systèmes dynamiques

où M est un ensemble de mesure nulle sur lequel 5v(t, x) (le gradient au sens clas-
sique) n'est pas déni. Ainsi, pour (7.5) et en considérant l'inclusion (7.6) avec F (t, x)
donnée par (7.9), on obtient :
* !+
\ F (t, x)
v̇ ∈ ξ, ,
p.p. 1
ξ∈∂v(t,x)

et il sut alors de remplacer v̇ ∗∗ ≤ −w(x) par :


* !+
\ conv(F (t, x))
ξ, ≤ −w(x).
1
ξ∈∂v(t,x)
Pn
Exemple 7 (Preuve du théorème 9). [FIL 88] Soit v(x) = i=1 |xi | , ∂v(x) =
{ξ = (ξ 1 , . . . , ξ n )T : ξ i = sign(xi ) si xT
i 6= 0, ξ i = [−1, 1] si xi = 0 pour
i = 1, . . . , n}. Un calcul direct donne : v̇ ∈ ξ∈∂v(x) −ξ T A(t, x)∂v(x). Soit ϕ(t, x) =
p.p.
minξ∈∂v(x) ξ T A(t, x)ξ ≥ 0. La fonction ϕ(t, x) est continue (puisque A(t, x) conti-
nue) et ϕ(t, 0) > 0. Par conséquent, ∃ε > 0, v(x) ≤ ε ⇒ ϕ(t, x) ≥ h > 0. Si
on note ξ min (t, x) le ξ de la dénition de ϕ(t, x) (c'est-à-dire l'arg minξ T A(t, x)ξ),
ξ∈∂v(x)

on en déduit que, pour tout ξ ∈ ∂v(x), on a : ξTmin A(t, x)(ξ − ξ min ) ≥ 0. En


eet, ξ T A(t, x)ξ = ξ Tmin A(t, x)ξmin + 2ξ Tmin A(t, x)(ξ − ξmin ) + (reste positif) ≥
T min . Donc, puisque ξ min A(t, x)ξ ≥ ϕ(t, x) = ξ min A(t, x)ξ min ≥ h > 0, on
ξ Tmin A(t, x)ξ T T

en déduit ξ∈∂v(x) −ξ T A(t, x)∂v(x) ≤ −h. Ceci montre que, pour v(x) ≤ ε, v̇ ≤ −h
p.p.
et la stabilité asymptotique de l'origine s'en suit.
Des résultats basés sur cette idée sont applicables pour le principe d'invariance
de La Salle. Sans en énoncer le résultat complet (voir [SHE 94] et, pour le résultat
standard, chapitre 5 page 219), nous illustrerons son usage sur l'exemple qui suit.
Exemple 8. (voir [SHE 94]) Soit l'oscillateur mécanique avec friction de Coulomb
modélisé par :
mẍ + b sign(ẋ) + kx = 0.
En prenant comme fonction de Liapounov l'énergie totale du système v(x) , 12 mẋ2 +
1
2
kx2 , v est diérentiable et on obtient :
 
kx 
v̇ ∈ ẋ, −m
b
sign(ẋ) − k
m
x , (7.39)
p..p mẋ

c'est-à-dire v̇ ∈ − mb sign(ẋ)ẋ = − mb |ẋ| . La version modiée du théorème de La Salle


p.p.
indique que tout trajectoire converge vers le plus grand ensemble invariant inclus dans
la fermeture de :  
b
S= (x, ẋ) ∈ R2 : 0 ∈ − |ẋ| ,
m

c'est-à-dire S = (x, 0) ∈ R2 . D'après la condition 
de viabilité (7.26), il faut
0
que F (p) ∩ TS (p) 6= ∅, ∀p ∈ S. Or, F (p) =
B
et TSB (p) =
−mb
[−1, 1] − m
k
x
 
1
span , ce qui implique que F (p) doit être nulle. Finalement, − kb ≤ x ≤ kb .
0
Equations diérentielles à discontinuités 285

7.3.4. Intégration numérique


Nous allons rappeler quelques principes de base de la théorie de l'intégration
numérique (voir par exemple [CLA 98, CRO 89] et le chapitre 5), en soulignant les
dicultés engendrées par le caractère discontinu. Soit le système suivant :
ẋ = f (x, u),
y = h(x), (7.40)
où x ∈ Rn est le vecteur d'état, u ∈ Rp est le vecteur de commande (supposé, dans un
premier temps, constant sur la période d'intégration δ ) et f et h sont des vecteurs de
fonctions analytiques. Alors, la solution du système (7.40) au temps t + δ en fonction
des conditions initiales au temps t, s'écrit formellement :
x(t + δ) = eδLf ( . , u(t))
I|x(t) ,
y(t + δ) = eδLf ( . , u(t)) h|x(t) , (7.41)
P
où Lf , ni=1 fi ∂x∂ i est la dérivée de Lie usuelle (voir pages 160 et 302), |x(t) si-
gnie que toutes les fonctions sont évaluées en x(t), I est la fonction identité et
P∞ δj j δ0 0
eδLf ( . , u(t)) , j=0 j! Lf ( . , u(t)) avec 0! Lf ( . , u(t)) = 0 est l'exponentielle de
dérivée de Lie usuelle (pour plus de détail, voir chapitre 8, ou [MON 95]). La dé-
monstration de ce résultat est immédiate en dérivant (7.41) et en se rappelant que,
pour δ = 0, nous obtenons eδLf (.,u(t)) = I .
A partir de la solution formelle (7.41), deux cas de gure peuvent survenir :
soit eδLf (.,u(t)) I admet un développement ni4 , soit il faut calculer tout les termes
de l'exponentielle. Cette dernière éventualité n'est pas possible en pratique et c'est
pour cela que l'on a recours à des approximations. La plus connue d'entre elles est
l'approximation au premier ordre en δ , dite schéma d'Euler (nous parlerons de la
solution approchée issue de ce schéma comme de la  solution d'Euler ) :
x(t0 + δ) = x(t0 ) + δf (x(t), u(t0 )) + O(δ 2 ),
y(t0 + δ) = y(t0 ) + δLf (.,u(t0 )) h|x(t0 ) + O(δ 2 ), (7.42)
où O(δ 2 ) signie que tous les termes négligés sont au moins d'ordre 2 en δ .
Remarque 3. La sortie y(t0 + δ) est souvent calculée en fonction de x(t0 + δ).
Néanmoins, comme h est analytique, x(t0 + δ) approché à l'ordre 2 en δ implique que
y(t0 + δ) soit aussi approchée au même ordre.
Etudions maintenant ce qu'il advient si l'entrée u est une commande discontinue
(par modes glissants [CLA 98, PER 02] ou de tout autre type, non nécessairement
dénie de façon univoque). Ceci conduit à un système régi par une EDO à second
membre discontinu :
ẋ = f (x, u), u discontinue,
y = h(x). (7.43)
4 On dit alors que le système est discrétisable de façon nie.
286 Mathématiques pour les systèmes dynamiques

f (x, u) étant discontinue, il est alors impossible d'utiliser l'exponentielle de dérivée


de Lie5 , mais son approximation d'Euler itérée k fois peut-elle approcher une solution
exacte du système d'inclusions diérentielles, quand δ tend vers zéro ? Considérons
l'intervalle de temps [t0 , t0 + a] avec a > 0 et choisissons, pour simplier (mais sans
perte de généralité, d'après [CLA 98]), un pas d'échantillonnage δ constant, tel que a
soit un multiple entier de δ . On a alors un arc temporel régulier {t0 , t0 + δ, . . . , t0 +
mδ, . . . , t0 + a} et un arc de solutions dont les termes {x(t0 ), x(t0 + δ), . . . , x(t0 +
mδ), . . . , x(t0 + a)} sont calculés comme suit :

x(t0 + mδ) = x(t0 + (m − 1)δ) + δf (t0 + (m − 1)δ, u(x(t0 + (m − 1)δ)),

avec x(t + (m − 1)δ) solution du pas précédent. La question est alors de savoir si,
pour δ → 0, la solution d'Euler approche, au moins aux instants d'échantillonnage,
une solution exacte du système d'inclusions diérentielles. Pour ceci, nous prendrons
deux exemples.
Exemple 9. On considère le système suivant :
ẋ = −x + u, t ∈ [t0 = 0, a], (7.44)

 0 si x(t) = e−t ,
u(t) = 1 si x(t) > e−t ,

−1 si x(t) < e−t .
Pour la condition initiale x(0) = 1 et a = 1, la solution exacte est x(t) = e−t , alors
que la solution d'Euler tend vers x(t) = 2e−t − 1. Ici, la diculté provient du fait que
la solution exacte n'est pas une solution stable, au sens où, pour toute autre condition
initiale, la solution exacte s'écarte fortement de x(t) = e−t .
Exemple 10. Soit le système (7.44), mais avec :

 0 si x(t) = e−t ,
u(t) = −1 si x(t) > e−t ,

+1 si x(t) < e−t .

Pour la condition initiale x(0) = 1 et a = 1, la solution exacte est x(t) = e−t et la


solution d'Euler tend, elle aussi, vers x(t) = e−t .
D'autres exemples sont donnés dans [CLA 98], notamment un cas où la solution
d'Euler avec un arc temporel régulier dière des solutions obtenues avec des arcs
temporels irréguliers.
La première question qui vient à propos des solutions issues du schéma d'Euler
concerne leur existence et leurs propriétés, sans regarder pour l'instant leur proximité
des solutions exactes. On dénit alors la notion de sélection.
Dénition 14 (Sélection). [CLA 98] Une fonction f est une sélection de l'inclusion
diérentielle (7.6) si on a f (t, x) ∈ F (t, x) pour tout (t, x).
Remarquons que, dans le cas de (7.43), la discontinuité vient de l'entrée u et c'est
donc sur elle que porte la sélection. Si on note celle-ci us , on a, pour tout (t, x) :
us ∈ u(t, x) ∀ et f (x(t, us )) ∈ F (x(t), u(t, x)).
5 Nous verrons qu'un développement à l'ordre 2 en δ peut se révéler fort utile.
Equations diérentielles à discontinuités 287

Théorème 10. Soit une fonction vectorielle f (x, u), sélection de (7.43), dont on
suppose qu'elle vérie la condition de croissance linéaire suivante :
||f (x(t), u(t)|| ≤ k||x|| + c, ∀(t, x) ∈ [t0 , t0 + δ] × Rn . (7.45)
Alors, il existe au moins une solution d'Euler sur l'intervalle [t0 , t0 + δ]. De plus,
6

toutes les solutions d'Euler sont lipschitziennes et satisfont :


||x(t) − x(t0 )|| ≤ (t − t0 ) ek(t−t0 ) (k||x(t0 )|| + c), ∀t ∈ [t0 , t0 + δ]. (7.46)
La preuve de ce théorème se fait par de simples relations d'inégalité. Considérons
maintenant le système (7.40).
Proposition 3. Soit le système à entrée analytique (7.40), avec f vériant la condi-
tion (7.45). Soit x(.) une solution d'Euler sur l'intervalle [t0 , t0 + δ] et soit T un
ensemble ouvert7 contenant x(t) pour tout t ∈ [t0 , t0 + δ]. Alors, toute solution d'Eu-
ler issue d'une approximation susamment ne (β > δ > 0) reste dans le voisinage
de la solution de x(.) (c'est-à-dire dans T ) si :
< f (z, u(z)), (z − p) >≤ 0, ∀z ∈ T, (7.47)
où p est la projection de z sur la trajectoire x(.). On dit alors que la solution est
stable.
La preuve de ce théorème se fait par majoration (le pire cas) des distances par
rapport à la trajectoire x(.).
Remarque 4. Il ne faut pas confondre la stabilité d'un équilibre ou d'un système
avec celle d'une solution. La stabilité d'une solution signie que toute erreur de calcul
susamment faible tend à être oubliée ou, tout du moins, non ampliée.
Pour terminer ce paragraphe, nous donnons simplement la condition de stabilité
de la solution pour le cas du système (7.43), mais nous avons auparavant besoin de
l'hypothèse suivante.
Hypothèse A : pour la multifonction f (x, u) dénie en (7.43), on a :
• ∀(t, x), f (x, u(t, x)) est un ensemble convexe compact non vide ;
• f (x, u(t, x)) est semi-continue supérieurement ;
• il existe des constantes k et c bornées telles que, pour tout (t, x) et toute entrée us
univoque : [f (x, us ) ∈ F (x, u)] ⇒ [f (x, us ) ≤ k||x|| + c].
Proposition 4. Soit le système (7.43) avec f vériant l'hypothèse A, soient x(.) une
solution d'Euler sur l'intervalle [t0 , t0 + δ] et T un ensemble ouvert contenant x(t)
pour tout t ∈ [t0 , t0 + δ]. Alors, la trajectoire x(.) est une solution stable sur T si :
∀z ∈ T, < f (z, u(z)), (z − p) > ≤ 0, (7.48)
où p est la projection de z sur la trajectoire x(.). De plus, x est une solution au sens
de Filippov du système (7.43).
La preuve est identique à la précédente, en utilisant les dénitions et résultats sur
les multifonctions et en vériant que x(.) satisfait bien les conditions du théorème de
Filippov.
6 Elle peut ne pas être unique et dépendre de l'arc temporel choisi.
7
On prend généralement un tube. De plus, on considère ici des ensembles ouverts T tels
que la projection pour chaque point soit unique, ce qui implique qu'il n'y ait pas de point
singulier sur la trajectoire.
288 Mathématiques pour les systèmes dynamiques

7.4. Exemples

7.4.1. Modes glissants classiques


Considérons le système représenté gure 7.5, constitué d'une diode D, d'un in-
terrupteur S , d'une charge R = 1 Ω (résistance), L = 1 H (inductance) et d'une
alimentation continue E = 100 V (ces valeurs étant choisies pour simplier la présen-
tation et les calculs). L'interrupteur S vérie l'équation suivante :
S = 1 pour I < 3 A,
S = 0 pour I ≥ 3 A,
et, en négligeant la chute tension aux bornes de la diode D, la dynamique du système
peut s'écrire :
dI
SE = RI + L , (7.49)
dt
soit encore :
dI 1
= (−RI + SE) , f (I), (7.50)
dt L
avec f (I) discontinue en I = 3 (ensemble de mesure nulle).

Figure 7.5. Mode glissant d'ordre 1



Les hypothèses du théorème de Filippov (théorème 4) sont bien vériées : ∂f
∂x
=
1, ∀x ∈ R\{3} et fn+ = −3 R
L
= −3 < 0 , f −
n = −3 R
L
+ E = 97 > 0. Notons qu'ici, X +

est égal à ]3, +∞[ et X est égal à [0, 3[.


Pour les simulations, la condition initiale sur le courant est choisie égale à zéro.
Nous voyons, sur la gure 7.6, l'évolution du courant I pour une période d'échan-
tillonnage δ égale à 10−4 s. L'épaisseur du trait correspond à ce que l'on nomme la
réticence (en anglais, chattering). Ainsi, le courant atteint en temps ni (' 0, 03 s) la
valeur désirée, puis oscille autour de celle-ci. Ceci est dû à la commutation de l'entrée
(gure 7.7). Pour un mode glissant d'ordre 1 (c'est-à-dire s = 0 au sens usuel et ṡ au
sens de Filippov), la réticence est proportionnelle à O(δ) ; ceci est illustré en compa-
rant, d'une part, des résultats de la gure 7.8 où la réticence a augmenté, la période δ
valant alors 10−3 s ; d'autre part, ceux de la gure 7.9 où la réticence a diminué, avec
δ = 10−5 s.
Equations diérentielles à discontinuités 289

3.5

2.5

1.5

0.5

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Figure 7.6. y pour une période d'échantillonnage égale à 10−4 s

100

80

60

40

20

−20

−40

−60

−80

−100
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Figure 7.7. u pour une période d'échantillonnage égale à 10−4 s

3.5

2.5

1.5

0.5

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Figure 7.8. y pour une période d'échantillonnage égale à 10−3 s


290 Mathématiques pour les systèmes dynamiques

3.5

2.5

1.5

0.5

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1

Figure 7.9. y pour une période d'échantillonnage égale à 10−5 s

7.4.2. Modes glissants d'ordre supérieur

Les modes glissants d'ordre supérieur ont été introduits dans les années 1970 par
l'école russe [FRID 96, LEV 93], dans le but de s'aranchir des problèmes engendrés
par la discontinuité de la commande et de minimiser les eets dûs à une commutation
non immédiate des actionneurs (la réticence est alors, comme on l'a vu dans l'exemple
précédent, en O(δ 2 )). De plus, les contraintes sur les actionneurs deviennent analogues
à celles produites par des commandes classiques (retour d'état, placement de pôle) :
ce dernier point ne sera pas illustré dans l'exemple ci-dessous et nous renvoyons à
[PER 02] pour plus de détails. Ici, dans un souci de brièveté, nous ne donnerons
qu'un exemple simple et assez éloigné des réalités pratiques.
,



Figure 7.10. Modes glissants d'ordre 2 en électronique analogique


Equations diérentielles à discontinuités 291

Le type de commande par modes glissants représenté ci-dessus est appelé twisting
algorithm [LEV 93]. L'interrupteur a commute comme suit :

a=1 si Vs V̇s < 0,


a=0 si Vs V̇s ≥ 0,

et, de façon à assigner Vs à la valeur 3V en temps ni, l'interrupteur b commute selon


la loi :

b=1 si Vs − 3 > 0,
b=0 si Vs − 3 ≤ 0.

En prenant comme valeurs numériques Emin = 20 V , Emax = 100 V et LC = 1,


on obtient :
−1
V̈s = Vdis . (7.51)
LC

La gure 7.11 montre la tension Vs pour δ = 104 s ; la gure 7.12 montre cette
même tension de sortie pour δ = 103 s. Nous constatons que la réticence est alors très
peu visible (elle est en O(δ 2 )). Il faut alors regarder le courant I qui est proportionnel
à la dérivée de la sortie pour obtenir une réticence en O(δ) (gures 7.13 et 7.14). Ici,
nous ne présenterons pas la théorie générale des modes glissants d'ordre supérieur
[LEV 93, PER 02] : nous nous contenterons simplement de prouver qu'il y a bien
convergence en temps ni de Vs vers 3 et que la dérivée de Vs tend elle aussi vers
zéro, également en temps ni (autrement dit, ici c'est V̈s qui est nulle au sens de
Filippov).
4

3.5

2.5

1.5

0.5

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Figure 7.11. Vs pour une période d'échantillonnage égale à 10−4 s

Démonstration : en notant Vs − 3 = x1 et V̇s = x2 , (7.51) se réécrit :

ẋ1 = x2 ,
ẋ2 = −Vdis ,
292 Mathématiques pour les systèmes dynamiques

3.5

2.5

1.5

0.5

0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Figure 7.12. Vs pour une période d'échantillonnage égale à 10−3 s


12

10

−2

−4

−6
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Figure 7.13. −I (V̇s ) pour une période d'échantillonnage égale à 10−4 s


12

10

−2

−4

−6
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Figure 7.14. −I (V̇s ) pour une période d'échantillonnage égale à 10−3 s


Equations diérentielles à discontinuités 293

R R
et nous obtenons alors : x1 (t) = x1 (0) + 0t x2 (τ )dτ et x2 (t) = 0t −Vdis (τ )dτ + x2 (0).
Comme les surfaces x1 = 0 (x2 ∈ R) et x2 = 0 (x1 ∈ R) sont coupées périodiquement8 ,
nous prenons comme conditions initiales x1 (0) = 0+ et x2 (0) = x2 (0) et nous nous
plaçons juste après la traversée de la variété (Vs = 3+ ). Ainsi, tant que la commande
Vdis n'a pas changé, nous obtenons :

t2
x1 (t) = −100 + x2 (0)t,
2
x2 (t) = −100t + x2 (0). (7.52)

L'équation (7.52) reste inchangée tant que la surface x2 = 0 n'est pas atteinte, c'est-
2 (0) (0)2
à-dire jusqu'au temps t2 = x100 et x1 (t2 ) = x2200 . Alors, la surface est coupée et
pour t ≥ t2 nous avons x2 ≤ 0 et x1 > 0, ce qui donne :

ẋ1 = x2 ,
ẋ2 = −20 sign(x1 ).

Nous en déduisons que le système rejoint la surface de contrainte s = 0 en un temps


t3 vériant les équations :

t23
x1 (t3 + t2 ) = −20 + x1 (t2 ) = 0,
2
x2 (t3 + t2 ) = −20t3 , (7.53)
2
2 (0)
d'où t23 = x2000 . La dérivée de x1 à l'instant t3 + t2 , c'est-à-dire sur la surface x1 = 0,
q
est égale à x2 (t2 + t3 ) = − 51 x2 (0). Nous avons donc |x2 (t2 + t3 )| < |x2 (0)|. Cela
génère une suite décroissante, qui commute de plus en plus vite. Mais atteint-on la
surface x1 = x2 = 0 en temps (noté) ni ? En notant t∞ ce temps, nous avons par
récurrence : ! r i  
X

1 1
t∞ = 1+ √ x2 (0).
i=0
5 2000
q
Comme 0 < 1
5
< 1, nous obtenons (pour x1 (0) = 0) :

r  
5 1
t∞ = 1+ √ x2 (0).
4 2000

Il y a donc bien convergence en temps ni.


La preuve ci-dessus montre que le schéma d'Euler ne donne pas toutes les infor-
mations. Ainsi, dans notre analyse, il nous aurait privé du caractère de convergence
en temps ni : par contre les simulations se sont facilement accomodées d'une telle
approximation en raison du caractère  stable  du système.
8
Cette hypothèse est implicitement vériée dans la suite de la démonstration, car nous
verrons ci-dessous que nous traversons périodiquement les variétés x1 = 0 et x2 = 0.
294 Mathématiques pour les systèmes dynamiques

7.5. Bibliographie
[AUB 84] Aubin J-P., Cellina A., Dierential inclusions, Grundlehren der math.
Wissenschaften, 264, Springer Verlag, 1984.
[AUB 90] Aubin J-P., Frankowska H., Set-Valued Analysis, System & control :
Foundations & applications, Birkhauser, 1990.
[CLA 83] Clarke F.H., Optimization and nonsmooth analysis, Canadian Math.
Soc., Series of Monographs and Advanced Texts, Wiley Interscince, 1983.
[CLA 98] Clarke F.H., Ledyaev Y.S., Stern R.J., Wolenski P.R., Nons-
mooth analysis and control theory, Graduate Texts in Mathematics, Sprin-
ger Verlag, New-York, 1998.
[CRO 89] Crouzeix M., Mignot A.L., Analyse numérique des équations diéren-
tielles, Masson, 1989.
[EDW 98] Edwards C.K., Spurgeon S., Sliding mode control, theory and applica-
tions, Taylor and Francis, 1998.
[EME 67] Emel'Yanov S.V., Variable structure control systems, Nauka, 1967.
[FIL 88] Filippov A.F., Dierential equations with discontinuous right-hand sides,
Kluwer Academic Publ., 1988.
[FRID 96] Fridman L., Levant A.,  Higher order sliding modes as the natural
phenomenon in control theory , Robust control via variable structure and
Lyapunov techniques, Ed. F. Garafalo and L. Gliemo, Springer Verlag,
Berlin, n◦ 217, p. 107-133, 1996.
[LEV 93] Levant A.,  Sliding order and sliding accuracy in sliding mode control ,
Int. J. of Control, vol. 58, n◦ 6, p. 1247-1253, 1993.
[MON 95] Monaco S., Normand-Cyrot D.,  Functional expansions for nonlinear
discrete-time systems , Mathematical Systems Theory, vol. 21, p. 235-254,
1995.
[PER 02] Perruquetti W., Barbot J.P., Sliding mode control in engineering,
Control Eng. Series, vol. 11, Marcel Dekker, 2002.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[SHE 94] Shevitz D., Paden B.,  Lyapunov stability theory of nonsmooth sys-
tems , IEEE Trans. Aut. Control, vol. 39, n◦ 9, 1994.
[UTK 92] Utkin V., Sliding modes in control optimization, Springer Verlag, Berlin,
1992.
[ZIN 93] Zinober A.S., Variable structure and Lyapunov control, London, Springer
Verlag, 1993.
Chapitre 8

Développements de Volterra pour les systèmes non


linéaires en temps discret
8.1. Introduction

8.1.1. Contexte
L'objet de ce chapitre est d'introduire des outils facilitant l'expression formelle
et le calcul des développements fonctionnels associés aux évolutions en l'état et
en la sortie de systèmes non linéaires en temps discret. On dénit ainsi des ana-
logues temps discret des séries de Volterra qui caractérisent, en temps continu, les
fonctionnelles entrée-sortie et entrée-état de systèmes d'équations diérentielles for-
cées. Dans le cas continu, ces séries de Volterra sont l'expression formelle des solu-
tions d'un système d'équations diérentielles décrivant le système dynamique donné
[BRO 76, CRO 81, LES 78, RUG 80]. La convergence de ces fonctionnelles, ou séries
d'intégrales multiples des fonctions de commande, est garantie par des conditions
de bornitude sur les commandes et l'intervalle de temps d'intégration. Dans le cas
continu, les séries de Volterra généralisent au cas non linéaire, les séries de Peano-
Baker dont les coecients sont des produits de matrices, faisant ainsi référence à l'al-
gèbre linéaire [MAG 54, WON 79]. Les séries de Volterra, sont des développements
innis caractérisées par des noyaux d'ordre croissant, chaque noyau représentant le
coecient de l'intégrale itérée du même ordre. Il existe en temps continu, en particu-
lier dans le cas des systèmes décrits par des équations forcées anes en la commande
et analytiques en les variables d'état - systèmes linéaires analytiques - une vaste litté-
rature proposant des expressions formelles récurrentes de ces noyaux. Dans le cas plus
général d'équations non linéaires en x et u, il faut se référer à la vaste littérature russe
sur ce sujet, en particulier dans le contexte de la commande optimale, par exemple
[AGR 78, GAM 79]. On constate alors que ces développements récurrents sont dotés
de fortes propriétés combinatoires, mises en évidence dans le contexte mathématique
de l'intégration des systèmes dynamiques.
L'apport majeur des travaux menés dans le contexte de l'automatique a été de
spécier ces développements dans le cas des systèmes forcés et de tirer prot de la
présence des entrées pour les ordonner, les structurer, et faciliter ensuite l'analyse
des propriétés structurelles des systèmes dynamiques commandés associés. Deux ap-
proches s'enrichissent mutuellement : l'une géométrique, met en évidence des champs
de vecteurs canoniques et les propriétés de Lie des algèbres associées (par exemple
[HER 89, ISI 89]) ; l'autre algébrique et combinatoire, traduit en termes de théorie

Chapitre rédigé par Salvatore Monaco et Dorothée Normand-Cyrot.


296 Mathématiques pour les systèmes dynamiques

des langages les propriétés de ces séries [FLI 90]. Ces outils, davantage visuels dans
le contexte géométrique et plus calculatoires dans le contexte algébrique, sont à la
base des progrès de l'automatique non linéaire, tant du point de vue de la compré-
hension des propriétés structurelles, commandabilité, observabilité, invariance, que
des propriétés de commande, linéarisation et stabilisation ou poursuite de trajectoire,
découplage, rejet de perturbations... La première application d'une compréhension
ne de ces développements est la réalisation de ces fonctionnelles par des dynamiques
plus simples, linéaires, bilinéaires, ou plus générales (voir par exemple [RUB 74]). Les
applications les plus récentes sont liées elles à la nécessité croissante de ne plus se
ramener à une analyse linéaire, par essence locale, par changements de coordonnées,
bouclage ou plus généralement par transformation, mais de prendre en compte les
termes d'ordre supérieur, c'est-à-dire les noyaux d'ordre supérieur dans le développe-
ment de Volterra. On approche ainsi une analyse globale des systèmes non linéaires.
Dans le cas discret, il n'y a pas dans la littérature l'équivalent discret des dévelop-
pements de Volterra. On manipule dans ce contexte des équations aux diérences du
premier ordre, dépendant des entrées et les intégrales multiples sont remplacées par
les compositions successives de fonctions. Dans le cas linéaire, les deux situations font
intervenir les mêmes outils, à savoir l'algèbre linéaire puisque la composition de fonc-
tions linéaires correspond au produit des matrices associées. Dans le cas d'équations
aux diérences linéaires en x, l'algèbre linéaire sut encore, les dicultés principales
se situant dans la non-linéarité en les variables de commande. Il est ainsi possible,
par l'introduction d'outils spéciques permettant d'appréhender la non linéarité en
les entrées, de faire un parallèle avec les approches et les résultats du continu. Ceci
a été fait dans le cas des systèmes bilinéaires, substitués dans le contexte discret par
des systèmes à état ane  linéaires en x et polynomiaux en u, [FLI 80], [MON 83].
Dans le cas non linéaire général  non-linéarité en x et u  la représentation des
fonctionnelles entrée-état et entrée-sortie est un problème dicile, en général abordé
en termes d'approximations polynomiales. Citons la première étude complète sur le
sujet dans le cadre de la théorie du contrôle [SON 79a, SON 79b].
L'objet de ce chapitre est de présenter des outils introduits par les auteurs
en [MON 87, MON 89] pour caractériser les développements en séries des fonc-
tionnelles entrée-état et entrée-sortie de dynamiques non linéaires en temps dis-
cret. Ces techniques ont depuis conduit à l'introduction d'autres représentations
faisant référence à une famille de champs de vecteurs, dite canonique, car impli-
quée dans la caractérisation, en termes d'algèbres de Lie, des propriétés structu-
relles et de commande des systèmes non linéaires temps discret. Ces aspects ne se-
ront pas abordés dans ce chapitre, le lecteur interessé peut se référer par exemple à
[ALB 93, CAL 99, GRI 85, JAK 84, JAK 90, MON 83, MON 85, MON 86, MON 97].
Une autre conséquence a été la possibilité, grâce à ces outils, de paralléliser  voire
d'unier  les approches proposées en temps continu et temps discret. Ce parallèle est
intéressant si l'on rappelle que de nombreuses propriétés satisfaites en temps continu
ne sont pas maintenues sous échantillonnage. Disposer d'une étude, en certains points
uniée, permet de considérer comme cas particulier le cas des dynamiques échan-
tillonnées (par bloqueur d'ordre zéro, d'ordre supérieur ou autre échantillonneur).
On dispose alors d'un apparatus mathématique permettant d'étudier le maintien sous
échantillonnage des propriétés d'un schéma continu. Le cas des systèmes échantillon-
Systèmes non linéaires en temps discret 297

nés ne sera pas abordé ici (on peut se référer à l'article [MON 95] et aux références qu'il
contient sur le sujet). On pourra constater, par les techniques introduites, que l'étude
des systèmes non linéaires discrets reste plus dicile que son analogue continu, ce
qui explique une compréhension moins complète même si ce retard tend à se combler
grâce à un eort de recherche important dans ce domaine. En eet, le recours de plus
en plus généralisé aux techniques de simulation par calculateurs pour la prédiction, la
vérication et la commande de systèmes, de plus en plus complexes, voire hybrIes au
sens de la mixité événements discrets et dynamiques continues, rend incontournable
le passage au temps discret et échantillonné, pour appréhender commutations, sauts
et hétérogénéité. Cette diculté supplémentaire du cas discret ne doit pas surprendre
puisque l'on doit aborder une non-linéarité double  en les variables d'entrée et d'état
 il n'y a pas de bénéce à supposer une équation aux diérences linéaire en u, car
cette linéarité est perdue dès la première itération. En fait, il sera intéressant de remar-
quer que, par des techniques analogues à celles introduites dans le contexte discret,
on peut traiter le cas de dynamiques continues, soit non stationnaires, c'est-à-dire
dépendant du temps, soit non linéaires en les variables d'entrée.
Dans ce chapitre, après avoir caractérisé les développements de Volterra discrets
(section 2) et introduit les outils (section 3), on donnera l'expression des noyaux
en termes de ces outils (section 4). An de donner l'intuition des dicultés supplé-
mentaires du contexte discret, on spéciera l'expression des noyaux dans le cas de
systèmes linéaires analytiques (section 5). On illustrera ces techniques en traitant le
problème de la réalisation par modèle à état ane (section 6). Le cas des systèmes
linéaires et bilinéaires seront rappelés à titre d'exemple dans l'ensemble du chapitre.

8.1.2. Classes d'équations aux diérences

Un système non linéaire en temps discret multi-entrées, multi-sorties (m entrées


et p sorties) est représenté par un système d'équations aux diérences non linéaires
(représentation par espace d'état). Un entier k représente le temps discret. Ces équa-
tions aux diérences, dites du premier ordre, expriment les composantes du vecteur
d'état (n variables d'état) à l'instant k + 1 comme des fonctions non linéaires de l'état
à l'instant k. Ces fonctions dépendent des entrées à l'instant k (systèmes dynamiques
commandés causaux) et de variables exogènes pouvant représenter des paramètres
ou des perturbations. De façon générale, la représentation implicite générique d'un
système non linéaire en temps discret, strictement causal, de dimension nie et sta-
tionnaire, est donnée par des équations aux diérences de la forme :

x(k + 1) = F (x(k), u(k)) ∈ Rn , (8.1)


y(k) = H(x(k), u(k)) ∈ R ,p
(8.2)

où les vecteurs d'état x = (x1 , . . . , xn )T ∈ Rn , d'entrée u = (u1 , . . . , um )T ∈ Rm


et de sortie y = (y1 , . . . , yp )T ∈ Rp appartiennent à des espaces vectoriels réels de
dimensions respectives n, m et p (nies). Les fonctions F et H peuvent être supposées
régulières (fonctions à valeurs réelles à dérivées partielles continues), analytiques ou
298 Mathématiques pour les systèmes dynamiques

polynomiales. Ces fonctions admettent, composante par composante, les représenta-


tions :

F (x, u) = {Fi (x, u)}(i=1,...,n) ∈ Rn , Fi : Rn+m → R,


H(x, u) = {Hj (x, u)}(j=1,...,p) ∈ Rp , Hj : Rn+m → R.

Ces équations peuvent modéliser des phénomènes très variés : elles décrivent une large
classe de systèmes en temps discret, incluant les systèmes linéaires, bilinéaires ou à
état-ane, classes fréquemment étudiées dans la littérature et dont les dénitions
sont ci-dessous rappelées.

Systèmes d'équations aux diérences linéaires

Les systèmes linéaires sont de la forme (8.1-8.2) avec F et H linéaires sur Rn+m ,
c'est-à-dire :
X
m
F (x, u) = Ax + uj Bj , (8.3)
j=1

X
m
Hi (x, u) = Ci x + uj Dij ,
j=1

A ∈ Rn , Bj ∈ Rn×1 , Ci ∈ R1×n , Dij ∈ R (i = 1, . . . , p et j = 1, . . . , m).

Systèmes d'équations aux diérences bilinéaires

En décomposant la dynamique (8.1) sous la forme : F (x, u1 , . . . , um ) =


F1 (x, u1 , . . . , um ) + F2 (x, u1 , . . . , um ), les systèmes bilinéaires [RUB 74] sont de la
forme (8.1-8.2) avec F1 et H linéaires sur Rn × Rm et F2 bilinéaire sur Rn × Rm ,
c'est-à-dire :
X
m X
m
F (x, u) = A0 x + uj Bj + uj Aj x, (8.4)
j=1 j=1

X
m
Hi (x, u) = Ci x + uj Dij x,
j=1

avec A0 ∈ Rn , Aj ∈ Rn , Bj ∈ Rn×1 , Ci ∈ R1×n , Dij ∈ R, pour (i = 1, . . . , p) et


(j = 1, . . . , m).
Ces représentations prennent indiéremment le nom de systèmes réguliers [FLI 80]
et, en supposant les Bj et les Dij tous nuls, réguliers homogènes.
Systèmes non linéaires en temps discret 299

Systèmes d'équations aux diérences à état ane

Les systèmes à état ane [SON 79a] sont de la forme (8.1-8.2) avec, pour tout
vecteur d'entrée u xé, F (., u) ane par rapport à x et H(., u) linéaire en x, c'est-à-
dire :

F (x, u) = A0 (u) + A1 (u)x, (8.5)


Hi (x, u) = Ci (u)x,

avec A0 : Rm → Rn , A1 : Rm → Rn×n , Ci : Rm → R1×n , les coecients de ces


matrices étant des fonctions à valeurs réelles, régulières, analytiques ou polynomiales
en u.

Les systèmes d'équations aux diérences linéaires analytiques

En décomposant la dynamique (8.1) sous la forme : F (x, u1 , . . . , um ) = F1 (x) +


F2 (x, u1 , . . . , um ), les systèmes linéaires analytiques - ou anes par rapport aux en-
trées - sont de la forme (8.1-8.2) avec F1 = f0 , F2 (x, .) linéaire par rapport à u pour
tout x xé, c'est-à-dire :

X
m
F (x, u) = f0 (x) + uj gj (x), (8.6)
j=1

Hi (x, u) = hi (x).

On suppose en général la fonction de sortie indépendante des entrées. Les


f0 , g1 , . . . , gm : Rn → Rn et h1 , . . . , hp : Rn → R sont des fonctions régulières, analy-
tiques ou polynomiales en x.
Les systèmes linéaires analytiques, plus récemment appelés systèmes anes, sont
introduits dans le présent contexte discret par analogie avec leurs homologues continus
[ISI 89, NIJ 90], permettant ainsi une comparaison entre le temps discret et le temps
continu. Pourtant, il est important de remarquer que, considérer de telles équations
n'apporte pas une grande simplication d'étude dans le cas discret. Ceci sera précisé
au cours de ce chapitre.

8.2. Fonctionnelles entrée-état et entrée-sortie

Par souci de simplicité, on ne considère dans ce chapitre que le cas mono-entrée


(m=1), le cas plus général pouvant être trouvé en [MON 89].
300 Mathématiques pour les systèmes dynamiques

8.2.1. Cas linéaire


Etant donnée la représentation d'état  dite aussi implicite  d'un système discret
linéaire :

x(k + 1) = Ax(k) + Bu(k),


y(k) = Cx(k),

les comportements entrée-état et entrée-sortie, à partir d'un état initial x(0), sont
décrits par les représentations explicites :
X
k−1
x(k) = γ 0 (k; x(0)) + γ 1 (k, τ ; x(0))u(τ ),
τ =0

X
k−1
= Ak x(0) + Ak−1−τ Bu(τ ),
τ =0

X
k−1
y(k) = w0 (k; x(0)) + w1 (k, τ ; x(0))u(τ),
τ =0

X
k−1
= CAk x(0) + CAk−τ −1 Bu(τ ),
τ =0

où γ 0 (k; x(0)) et w0 (k; x(0)) représentent respectivement les évolutions libres en l'état
et la sortie, ce qui correspond à la réponse pour des entrées nulles. Les γ 1 (k, τ ; x(0)) et
w1 (k, τ ; x(0)) sont les noyaux d'ordre 1 qui caractérisent respectivement la contribu-
tion linéaire de l'entrée sur l'état x(k) et la sortie y(k). Plus précisément, on calcule :

γ 0 (k; x) = Ak x = γ 0 (k)x,
w0 (k; x) = CAk x = w0 (k)x,
γ 1 (k, τ ; x) = Ak−τ −1 B = γ 1 (k − τ − 1),
w1 (k, τ ; x) = CAk−τ −1 B = w1 (k − τ − 1),

où l'on constate que les noyaux d'ordre zéro sont linéaires en x. Les noyaux d'ordre
1 sont indépendants de x et dépendent de la diérence k − τ − 1, ce qui exprime la
stationarité de la représentation par espace d'état linéaire.
On vérie facilement le passage de la forme explicite vers la forme implicite en
posant : Ax = γ 0 (1; x), Cx = w0 (0; x), B = γ 1 (1, 0; x).

8.2.2. Cas non linéaire monovariable

On étudie une dynamique en temps discret, mono-entrée (m = 1), mono-sortie


(p = 1), non linéaire de la forme (8.1, 8.2) avec une fonction de sortie non linéaire
mais indépendante de u. Sans perte de généralité, on décompose la fonction F (x, 0)
Systèmes non linéaires en temps discret 301

représentant l'évolution libre sous la forme x + f (x). Soit donc le système :

x(k + 1) = x(k) + f (x(k)) + g(x(k), u(k)), (8.7)


y(k) = h(x(k)), (8.8)

avec x ∈ Rn , f : Rn → Rn , g : Rn × R → Rn et h : Rn → R des fonctions analytiques


et g vériant g(.; 0) = 0. L'objet de ce paragraphe est de caractériser les représenta-
tions entrée-état et entrée-sortie de ces systèmes par des développements fonctionnels
qui, pour le comportement entrée-sortie, seront à rapprocher des développements de
Volterra du contexte continu.
Pour tout k ∈ N, étant donné une suite de k entrées (u(0), . . . , u(k − 1)) et un état
initial x(0) au temps t = 0, un calcul élémentaire montre que les réponses entrée-état
et entrée-sortie associées au système (8.7, 8.8) sont des fonctionnelles non linéaires
en u, à coecients non linéaires en x. Le calcul de ces fonctionnelles fait intervenir
la composition de fonctions qui induit des non-linéarités en les entrées indexées de
l'instant 0 à l'instant k − 1. En indiquant par I la fonction identité et par  ◦  la
composition de fonctions, on trouve les expressions ci-dessous :
 réponse entrée-état :

x(1) = x(0) + f (x(0)) + g(x(0); u(0)), (8.9)


x(2) = x(1) + f (x(1)) + g(x(1); u(1))
= (I + f + g(.; u(1))) ◦ (I + f + g(.; u(0))) (x(0)),
x(k) = (I + f + g(.; u(k − 1))) ◦ · · · ◦ (I + f + g(.; u(0))) (x(0));

 réponse entrée-sortie :

y(0) = h(x(0)), (8.10)


y(1) = h (x(0) + f (x(0)) + g(x(0); u(0))) ,
y(2) = h ◦ (I + f + g(.; u(1))) ◦ (I + f + g(.; u(0))) (x(0)),
y(k) = h ◦ (I + f + g(.; u(k − 1))) ◦ · · · ◦ (I + f + g(.; u(0))) (x(0)),

et les développements fonctionnels par rapport aux variables u(i)(i=0,...,k−1) de


ces compositions dénissent les développements de type Volterra associés au
système (8.7, 8.8) ;
 développements fonctionnels entrée-état :
X
k−1
x(k) = γ 0 (k; x(0)) + γ 1 (k, τ 1 ; x(0))u(τ 1 ) (8.11)
τ 1 =0

X
k−1
+ γ 2 (k, τ 1 , τ 2 ; x(0))u(τ 1 )u(τ 2 ) + . . .
τ 1 ≥τ 2 =0

X
k−1
+ γ p (k, τ 1 , . . . , τ p ; x(0))u(τ 1 ) . . . u(τ p ) + . . .
τ 1 ≥···≥τ p =0
302 Mathématiques pour les systèmes dynamiques

 développements fonctionnels entrée-sortie de type Volterra :


X
k−1
y(k) = w0 (k; x(0)) + w1 (k, τ 1 ; x(0))u(τ 1 ) (8.12)
τ 1 =0

X
k−1
+ w2 (k, τ 1 , τ 2 ; x(0))u(τ 1 )u(τ 2 ) + . . .
τ 1 ≥τ 2 =0

X
k−1
+ wp (k, τ 1 , . . . , τ p ; x(0))u(τ 1 ) . . . u(τ p ) + . . .
τ 1 ≥···≥τ p =0

Pour toute suite croissante d'entiers τ i entre 0 et k, (k > τ 1 ≥ · · · ≥ τ p ≥ 0), on


dénit ainsi les noyaux successifs d'ordre p ≥ 0 par les fonctions : γ p (k, τ 1 , . . . , τ p ; .) :
Rn → Rn pour la réponse entrée-état et, respectivement : wp (k, τ 1 , . . . , τ p ; .) : Rn →
Rp pour la réponse entrée-sortie.
Les évolutions libres en l'état et en la sortie sont décrites, respectivement, par
γ 0 (k; x(0)) et w0 (k; x(0)). Les noyaux d'ordre 1, γ 1 (k, τ 1 ; x(0)), (respectivement,
w1 (k, τ 1 ; x(0)) représentent la partie qui dépend linéairement de l'entrée, alors que
les noyaux successifs d'ordre p > 1 représentent la contribution d'ordre p de la com-
mande.
Dans le cas des systèmes linéaires et bilinéaires, à cause de la linéarité par rapport
au vecteur d'état x, l'opération de substitution d'une fonction dans une autre se réduit
à la simple composition d'opérateurs linéaires et donc à un produit matriciel. L'ex-
pression du développement en puissances des entrées successives des fonctionnelles
entrée-état et entrée-sortie est donc grandement simpliée et son calcul, possible. Par
contre, dans le cas de dynamiques analytiques, il n'est en général pas facile de donner
une expression formelle simple du développement en puissances des entrées successives
de ces fonctionnelles. Les développements qui suivent introduisent des outils issus de
la géométrie diérentielle mais aux fortes propriétés combinatoires, permettant une
expression formelle récurrente des noyaux et simpliant le calcul.

8.3. Quelques outils mathématiques

8.3.1. Dérivée de Lie


Etant donnée une fonction analytique f : Rn → Rn , on rappelle la notion de
dérivée directionnelle, ou dérivée de Lie, associée à f et notée Lf , outil constamment
utilisé dans le contexte continu pour caractériser les développements de Volterra as-
sociés aux systèmes diérentiels [BRO 76, HER 89, ISI 89, NIJ 90]. Dans un choix
approprié de coordonnées, cet opérateur diérentiel du premier ordre s'écrit [SPI 79] :
X
n

Lf = fi ,
i=1
∂xi

où fi : Rn → R représente la i−ième composante de f .


Systèmes non linéaires en temps discret 303

Etant donnée une fonction h : Rn → R, supposée admettre des dérivées à tout


ordre k ≥ 1, l'opérateur Lf agit sur h comme suit par dénition :
 
  f1 (x)
X
n
∂h ∂h ∂h  ..  ,
Lf (h)|x = fi (x)
∂x = ∂xi , . . . , ∂xn 
i x
. 
i=1 x
fn (x)
soit, de façon vectorielle :
∂h
Lf (h)|x = f (x),
∂x x
où (·)|x indique l'évaluation de la fonction entre parenthèses au point x. Quand
h(x) = I , on obtient simplement Lf (I)|x = f (x).
Exemple 1. Pour illustrer les détails du calcul, on prend n = 2 et :
f : (x1 , x2 ) 7→ (2x1 , x1 + x2 ), h : (x1 , x2 ) 7→ x1 x2 .
∂ ∂
Lf = 2x1 + (x1 + x2 ) ,
∂x1 ∂x2

∂ ∂
Lf (h)|x(0) = 2x1 (x1 x2 ) + (x1 + x2 ) (x1 x2 )
∂x1 x(0)
∂x2 x(0)

= 2 x1 x2 |x(0) + (x1 + x2 ) x1 |x(0) = x1 (0)2 + 3x1 (0)x2 (0).


Ainsi, pour x(0) = (1, 2), on a : Lf (h)|x(0) = 1 + 6 = 7.
On déduit de ces dénitions les propriétés et dénitions suivantes :
1. Lf est un opérateur formel linéaire : étant données deux fonctions dérivables
h1 et h2 et deux nombres réels α1 et α2 ∈ R, on a : Lf (α1 h1 + α2 h2 ) =
α1 Lf (h1 ) + α2 Lf (h2 );
2. compositions itérées de Lf : étant données deux fonctions analytiques f et g
deRn → Rn , on note Lg ◦ Lf la composition,  ◦  des opérateurs associés
dénie par :

∂Lf (h)(x)
Lg ◦ Lf (h)|x = Lg (Lf (h)(x))|x = g(x)
∂x x

!
X X X
∂Lf (h)(x) ∂h(x)
n n n

= gi (x) = fj (x) gi (x),
∂x i x ∂x i ∂x j x

i=1 i=1 j=1 x
X ∂ 2 h(x)
n
X ∂h(x) ∂fj (x)
n
= fj (x)gi (x) + gi (x);
i,j=1
∂xi ∂xj x i,j=1
∂xj x ∂xi x

3. non-commutativité de l'opération  ◦  : Lg ◦ Lf 6= Lf ◦ Lg . Itérativement, on


dénit :
∂Lf (h)(x)
L2f (h)|x , Lf ◦ Lf (h)|x = |x f (x),
∂x
∂Lkf (h)(x)

Lk+1 (h) , Lf ◦ Lkf (h) = f (x), k ≥ 0;
f
x x ∂x
x
304 Mathématiques pour les systèmes dynamiques

4. crochet de Lie [Lf , Lg ] : la composition ◦ n'est pas une opération interne dans
l'ensemble des opérateurs diérentiels du premier ordre. On dénit donc le
crochet de Lie de deux opérateurs, noté [Lf , Lg ], qui correspond au produit
antisymétrique de Lf et Lg par rapport à l'opération ◦ et qui, lui, est un
opérateur du premier ordre :

[Lf , Lg ] , Lf ◦ Lg − Lg ◦ Lf , L[f,g] , (8.13)


Xn
∂h ∂gi Xn
∂h ∂fi ∂h
L[f,g] (h) = fj − gj = [f, g],
i,j=1
∂x i ∂xj
i,j=1
∂x i ∂xj ∂x
X
n
∂gi Xn
∂fi
[f, g]i = fj − gj .
j
∂x j
j=1
∂x j

Il en résulte que : L[f,g] = −L[g,f ] . D'autres propriétés du crochet de Lie sont


décrites au chapitre 4, section 3.

Exemple 2.

f : (x1 , x2 ) 7→ f (x) = (2x1 , x1 + x2 ),


h : (x1 , x2 ) 7→ h(x) = x1 x2 ,
Lf (h)|x = x21 + 3x1 x2 ,
∂ ∂
L2f (h) = 2x1 (x2 + 3x1 x2 ) + (x1 + x2 ) (x2 + 3x1 x2 ),
x ∂x1 1 ∂x2 1
= 2x1 (2x1 + 3x2 ) + (x1 + x2 )(3x1 ) = 7(x1 )2 + 9x1 x2 .

Pour x(0) = (1, 2), on a : L2f (h)|x(0) = 7 + 18 = 25.

8.3.2. Série de Lie

En notant, par convention, I l'opérateur identité (puissance 0 de l'opérateur Lf ,


c'est-à-dire : L0f (h) x = h(x)), on considère le développement en série formelle suivant
[GRO 73] :
1 2 1
eLf , I + Lf + L + · · · + Lkf + . . . , (8.14)
2! f k!
de telle sorte que :


1 k
eLf (h) = h|x + Lf (h)|x + · · · + Lf (h) + · · · = h|eLf (x) , (8.15)
x
k! x

avec e (x) =
Lf Lf
e (I) .
x
Systèmes non linéaires en temps discret 305

Le développement (8.14) est appelé série de Lie associée à Lf . A titre d'exemple,


si f et h sont linéaires sur R (f (x) = Ax, h(x) = Cx), on obtient :

Lf (x) = Ax ,
∂x
∂Cx
Lf (h)|x = Ax = CAx,
∂x x

∂CAx
L2f (h) x = Ax = CA2 x,
∂x x
..
.

Lkf (h) = CAk x,
x

et l'on retrouve l'exponentielle d'une matrice :


X CAk x

eLf (h) = = CeA x, eLf (I) = eA x.
x k! x
k≥0

8.3.3. Exponentielle tensorielle


Dénissons le produit tensoriel de deux opérateurs diérentiels du premier ordre
Lf et Lg , noté Lf ⊗ Lg par analogie avec le produit tensoriel des matrices, comme
l'opérateur diérentiel du deuxième ordre donné, dans un choix approprié de coor-
données, par :
X
n
∂2
Lf ⊗ Lg = fi1 gi2 , (8.16)
i1 ,i2 =1
∂xi1 ∂xi2
X
∂ 2 h(x)
n
Lf ⊗ Lg (h)|x = fi1 (x)gi2 (x) ,
i1 ,i2 =1
∂xi1 ∂xi2 x

que l'on écrira de façon compacte :


∂ ⊗2 h(x)
Lf ⊗ Lg (h)|x = f (x)⊗g(x),
∂x⊗2
avec f (x)⊗g(x) le produit tensoriel des vecteurs f (x) et g(x) d'ordre n [RIC 01].
Ce produit tensoriel est commutatif : Lf ⊗ Lg (h) = Lg ⊗ Lf (h). Il est aussi
associatif par rapport à l'addition : étant données deux fonctions analytiques, g1 et
g2 : Rn → Rn , on a : Lf ⊗ (Lg1 + Lg2 ) = Lf ⊗ Lg1 + Lf ⊗ Lg2 .
Comme précédemment pour la série de Lie, on peut construire le développement
exponentiel formel associé à Lf et déni par rapport au produit tensoriel, obtenant
ainsi l'exponentielle tensorielle de la dérivée de Lie, notée exp⊗ Lf , introduite en
[MON 86]. On pose :
1 ⊗k
exp⊗ Lf , I + Lf + · · · + L + ..., (8.17)
k! f
avec L⊗k
f , Lf ⊗ L⊗k−1
f , L⊗0
f = I,
306 Mathématiques pour les systèmes dynamiques

et, pour simplier les notations, on écrira aussi de façon compacte :


exp⊗ Lf = ∆f .

Le lemme suivant doit être comparé à l'égalité (8.15), qui fait référence à la série
de Lie usuelle.
Lemme 1. Etant données deux fonctions analytiques f : Rn → Rn et h : Rn → R,
l'égalité suivante est vériée :
∆f (h)|x = h ◦ (I + f )(x) = h(x + f (x)). (8.18)
Démonstration : la preuve est une conséquence immédiate du développement de Tay-
lor de h(x + f (x)) en puissances de f (x) au voisinage de x :
1 ⊗2 1 ⊗p
h(x + f (x)) = h(x) + Lf (h)|x + Lf (h) x + · · · + L (h) x + . . .
2! p! f
= ∆f (h)|x .

On déduit de ces dénitions les propriétés suivantes.


Proposition 1. (∆f et la composition de fonctions) Etant données k fonctions ana-
lytiques f1 , . . . , fk : Rn → Rn , on a (par application de la dénition) :
h ◦ (I + fk ) ◦ · · · ◦ (I + f1 )(x) = ∆f1 ◦ · · · ◦ ∆fk (h)|x (8.19)
(il faut remarquer l'ordre inversé des compositions dans les membres de droite et de
gauche).
(Linéarité de l'opérateur ∆f ) Etant données deux fonctions λ1 , λ2 : Rn → R et
deux nombres réels α1 et α2 , on a : ∆f (α1 λ1 + α2 λ2 ) = α1 ∆f (λ1 ) + α2 ∆f (λ2 ). On
vérie, pour α ∈ R :
∆f +g = ∆f ⊗ ∆g , (8.20)
αk ⊗k
∆αf = I + αLf + · · · + L + ...,
 k! f

X uk ⊗k X uk
∆f +ug = ∆f ⊗ ∆ug = ∆f ⊗  I + Lg  = ∆f + ∆f ⊗ L⊗k
g . (8.21)
k! k!
k≥1 k≥1

Enn, ∆f ⊗ L⊗k
g agit sur h, toute fonction dérivable à tout ordre, comme suit :
X
∂h(x) ∂h(x)
n
∆f ⊗ Lg (h)|x = gi (x) = g(x),
i=1
∂xi x+f (x) ∂x x+f (x)

X
n
∂ 2 h(x)
∆f ⊗ L⊗2
g (h) x = gi1 (x)gi2 (x)
i1 ,i2 =1
∂xi1 ∂xi2 x+f (x)

∂ ⊗2 h(x)
= g ⊗2 (x), (8.22)
∂x⊗2 x+f (x)
 ⊗2
∂ ⊗2 h ∂h ∂h T
avec : = ,..., , g ⊗2 (x) = [g1 (x), . . . , gn (x)]⊗2 .
∂x⊗2 ∂x1 ∂xn
Systèmes non linéaires en temps discret 307


∂ ⊗k h(x)
∆f ⊗ L⊗k
g (h) = g ⊗k (x). (8.23)
x ∂x⊗k x+f (x)

Notons que l'égalité (8.21) est très utile pour les développements qui vont suivre,
car elle permet d'exprimer les coecients du développement en puissances des en-
trées des fonctionnelles entrée-état et entrée-sortie en termes des fonctions (f, g ) qui
dénissent la dynamique elle-même.
Exemple 3. Pour illustrer la technicité des calculs, on considère des fonctions poly-
nomiales f, g : R2 → R2 et h : R2 → R dénies par :
f : (x1 , x2 ) 7→ (x21 , x1 + x2 ), g : (x1 , x2 ) 7→ (x1 , x22 ), h : (x1 , x2 ) 7→ x1 x2 ,

pour lesquelles on obtient :


∆f (h)|x = h(x + f (x)) = (x1 + x21 )(x1 + 2x2 )
= 2x1 x2 + 2x21 x2 + x21 + x31 ,


∂h ∂h
∆f ⊗ Lg (h)|x = g (x) + g2 (x)
∂x1 x+f (x) ∂x2 x+f (x)
1

= (2x2 + x1 )x1 + (x1 + x21 )x22


= 2x1 x2 + x21 + x1 x22 + x21 x22 ,

1
∆f (h)|x = h|x + Lf (h)|x + L⊗2 (h)|x
2 f
∂h ∂h ∂ 2 h
= x1 x2 + f (x) + f (x) + f1 (x)f2 (x)
∂x1 x ∂x2 x ∂x1 ∂x2 x
1 2

= x1 x2 + x2 x21 + x21 + x1 x2 + x31 + x21 x2


= 2x1 x2 + 2x21 x2 + x21 + x31 .

8.4. Séries de Volterra et calcul des noyaux

8.4.1. Expression des noyaux de Volterra


Grâce au formalisme précédemment introduit, les développements fonctionnels
(8.9) et (8.10) peuvent être écrits comme suit [MON 89] :
x(k) = ∆f +g(. ;u(0)) ◦ · · · ◦ ∆f +g(. ;u(k−1)) (I)|x(0) , (8.24)

y(k) = ∆f +g(. ;u(0)) ◦ · · · ◦ ∆f +g(. ;u(k−1)) (h)|x(0) . (8.25)

Les développements en puissances des entrées u(i), dont les coecients caracté-
risent exactement les noyaux de Volterra discrets des séries (8.11) et (8.12) respec-
tivement, peuvent maintenant être exprimés en fonction des opérateurs diérentiels
308 Mathématiques pour les systèmes dynamiques

formels précédemment introduits. Pour cela, soit de façon préliminaire le développe-


P
ment en puissances de u de g(. ; u) : g(. ; u) = i≥1 ui! gi (.), où les gi (.) : Rn → Rn
i

sont analytiques, permettant d'écrire (8.7)-(8.8) comme :


X ui (k)
x(k + 1) = x(k) + f (x(k)) + gi (x(k),
i!
i≥1

y(k) = h(x(k)).

Dans ce cas, à cause de (8.20), on trouve :


∆ f + P ui gi
 = ∆f ⊗ ∆ug1 ⊗ . . . ⊗ ∆ ui g ⊗ . . . ,
i≥1 i! i! i

avec, par dénition :


X uki
∆ ui g  =I+ L⊗k , (8.26)
i! i k!(i!)k gi
k≥1

de telle sorte que (8.25) peut s'écrire :





y(k) = ∆  ◦ · · · ◦ ∆" # (h) , (8.27)
f+
P ui0 (0) P i
u k−1 (k−1)
i0 ≥1 i0 !
gi0 f+ ik−1 ≥1 ik−1 !
gik−1
x(0)

en faisant attention à l'ordre inversé de la composition des opérateurs. En substituant


le développement (8.26) à ∆" uij (j) # , i ≥ 1, j = 0, . . . , k − 1, puis en égalant les
ij !
gij

coecients terme à terme, on obtient les expressions qui suivent :


 évolution libre, u(j) = 0 pour (j = 0, . . . , k − 1) :


w0 (k; x(0)) = ∆kf (h) .
x(0)

 noyaux de Volterra d'ordre 1, coecient de u(τ 1 ) :




w1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h) .
x(0)

Pour les noyaux d'ordre supérieur à 1, on doit distinguer les produits d'entrées
au même instant et les produits d'entrées à des instants strictement croissants. Ceci
représente une des dicultés spéciques du temps discret.
 Noyaux de Volterra d'ordre 2 :
 pour τ 1 > τ 2 , coecient de u(τ 1 )u(τ 2 ) :


w2 (k, τ 1 , τ 2 ; x(0)) = ∆τf 2 ◦ ∆f ⊗ Lg1 ◦ ∆τf 1 −τ 2 −1 ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h) ;
x(0)

 pour τ 1 = τ 2 , coecient de u(τ 1 )2 :



1 τ1
w2 (k, τ 1 , τ 1 ; x(0)) = ∆f ◦ ∆f ⊗ (L⊗2 k−τ 1 −1
g1 + Lg2 ) ◦ ∆f (h) ;
2 x(0)
Systèmes non linéaires en temps discret 309

 Noyaux de Volterra d'ordre 3 :


 pour τ 1 > τ 2 > τ 3 , coecient de u(τ 1 )u(τ 2 )u(τ 3 ) :

w3 (k, τ 1 , τ 2 , τ 3 ; x(0)) = ∆τf 3 ◦ ∆f ⊗ Lg1




◦ ∆τf 2 −τ 3 −1 ◦ ∆f ⊗ Lg1 ◦ ∆τf 1 −τ 2 −1 ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h) ;
x(0)

 pour τ 1 > τ 2 = τ 3 , coecient de u(τ 1 )u(τ 2 )2 :

w3 (k, τ 1 , τ 2 , τ 2 ; x(0)) =

1 τ2
∆f ◦ ∆f ⊗ (L⊗2 τ 1 −τ 2 −1
g1 + Lg2 ) ◦ ∆f ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h) ;
2 x(0)

 pour τ 1 = τ 2 > τ 3 , coecient de u(τ 2 )2 u(τ 3 ) :

w3 (k, τ 2 , τ 2 , τ 3 ; x(0)) =

1 τ3
∆f ◦ ∆f ⊗ Lg1 ◦ ∆τf 3 −τ 2 −1 ◦ ∆f ⊗ (L⊗2 k−τ 2 −1
g1 + Lg2 ) ◦ ∆f (h) ;
2 x(0)

 pour τ 1 = τ 2 = τ 3 , coecient de u(τ 1 )3 :

w3 (k, τ 1 , τ 1 , τ 1 ; x(0)) =

1 τ1
∆f ◦ ∆f ⊗ (L⊗3 k−τ 1 −1
g1 + 3Lg1 ⊗ Lg2 + Lg3 ) ◦ ∆f (h) .
3! x(0)

 On procède ainsi de suite pour les noyaux wp (k, . . . , x0 ) d'ordre p > 3.


Les mêmes développements restent valables dans le cas des fonctionnelles entrée-
état pour lesquelles il sut de poser h(x) = x. On obtient :


γ 0 (k; x0 ) = ∆kf (I) ,
x(0)


γ 1 (k, τ 1 ; x0 ) = ∆τf 1 ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (I) ...
x(0)

et ainsi de suite pour les noyaux d'ordre supérieur.


Remarque 1. Sous l'hypothèse d'inversibilité du terme x + f (x), il est possible
[MON 86] de réécrire ces noyaux en termes de compositions d'opérateurs diérentiels
du premier ordre (∆f ⊗ Lgi ◦ ∆−1f (I))i≥1 . Ceci est à la base de l'approche géométrique
proposée pour l'étude des systèmes discrets [MON 97] et des systèmes échantillonnés
qui vérient par dénition cette propriété d'inversibilité [MON 95]. Une étude compa-
rative avec le cas continu qui met en jeu des opérateurs diérentiels du premier ordre
[MON 89] est ainsi possible.
Pour le passage de la forme explicite à la forme implicite, on déduit de ce qui
précède : x + f (x) = γ 0 (1; x), g1 (x) = γ 1 (1, 0; x) = ∆f ⊗ Lg1 (I)|x , g2 (x) =
2γ 2 (1, 0, 0; x) = ∆f ⊗ Lg2 (I)|x , . . . gp (x) = p!γ p (1, 0, . . . , 0; x) = ∆f ⊗ Lgp (I) x ,
h(x) = w0 (0, x).
310 Mathématiques pour les systèmes dynamiques

8.4.2. Cas des systèmes linéaires


Dans le cas linéaire, le système (8.7, 8.8) avec x + f (x) = x + Ax, g(x, u) = Bu,
h(x) = Cx, s'écrit :

x(k + 1) = x(k) + Axk + Bu(k),


y(k) = Cx(k),

et on calcule facilement :

1 ⊗h
∆f (h)|x = h|x + Lf (h)|x + · · · + Lf (h) + . . .
k! x

de telle sorte que Lf (h)|x = ∂h f (x) = CAx, puisque L⊗2 (h)|x = 0. On ob-
∂x x f
tient ∆ f (h)|x = C(I + A)x et, itérativement, w0 (k; x) = C(I + A)k x = w0 (k)x, car
∆kf (I) x = (I +A)k x = γ 0 (k; x) = γ 0 (k)x. Les noyaux d'ordre zéro sont donc linéaires
en x. De la même façon :

∂h
∆f ⊗ Lg (h)|x = g(x) = CB,
∂x x+f (x)

et, pour p > 1 : ∆f ⊗ L⊗p
g (h) x = 0, d'où l'on déduit :

γ 1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆k−1−τ


f
1
(I)|x(0)
= (I + A)k−1−τ 1 B = γ 1 (k, τ 1 ) = Γ1 (k − τ 1 − 1),
w1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆k−1−τ
f
1
(h)|x(0)
= C(I + A)k−τ 1 −1 B = w1 (k, τ 1 ) = W1 (k − τ 1 − 1).

On retrouve le fait que les noyaux d'ordre 1 sont constants et ne dépendent que de la
diérence k − τ − 1.

8.4.3. Cas des systèmes bilinéaires

Le cas bilinéaire correspond à : x + f (x) = x + A0 x, g(x) = A1 x + B, et


h(x) = Cx, de telle sorte que :

x(k + 1) = x(k) + A0 xk + u(k)A1 xk + Bu(k),


y(k) = Cx(k) ;

on obtient alors :

∆f (h)|x = C(I + A0 )x,



∂h
∆f ⊗ Lg (h)|x = g(x) = CA1 x + CB,
∂x
x+f (x)
Systèmes non linéaires en temps discret 311

et, pour p > 1, ∆f ⊗ L⊗p


g (h)|x = 0. On en déduit :

γ 1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆k−1−τ


f
1
(I)|x(0)
= (I + A0 )k−1−τ 1 A1 (I + A0 )τ 1 x(0) + (I + A0 )k−1−τ 1 B,
w1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆fk−τ 1 −1 (h)|x(0)
= C(I + A0 )k−τ 1 −1 A1 (I + A0 )τ 1 x(0) + C(I + A0 )k−τ 1 −1 B,
et ainsi de suite pour les ordres supérieurs.
Remarquons que, dans le cas des systèmes bilinéaires, il faut rapprocher ces dé-
veloppements de Volterra des développements sous forme de séries génératrices en
plusieurs variables non commutatives [FLI 80, MON 83].

8.4.4. Cas des systèmes anes ou linéaires analytiques


On considère maintenant l'équation aux diérences linéaire analytique (8.6) avec,
dans le cas mono-entrée, gi = 0 pour i ≥ 2 et g1 = g . On constate que, partant
d'une équation aux diérences linéaire en u, cette linéarité n'est pas préservée par la
composition de fonctions non linéaires nécessaire au calcul des comportements entrée-
état et entrée-sortie au cours du temps. Dans ce cas linéaire analytique, la formule
P
(8.21) : ∆f +ug = ∆f + k≥1 uk! ∆f ⊗ L⊗k g , permet d'écrire :
k

 
X ui0 (0)
y(k) =  ∆f + ∆f ⊗ Lg  ◦ . . .
⊗i0

i0 ≥1
i0 !
 
X uik−1 (k − 1)
⊗ik−1
◦  ∆f + ∆f ⊗ Lg  (h) ,
ik−1 !
ik−1 ≥1
x(0)

dénissant ainsi un développement de type Volterra. En égalant terme à terme les co-
ecients des développements en puissances des entrées des deux membres de l'égalité,
on calcule les noyaux successifs comme suit.
 Evolution libre :
w0 (k; x(0)) = ∆kf (h)|x(0) .
 Noyau d'ordre 1 :
1 −1
w1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
f (h)|x(0) .
 Noyaux d'ordre 2 :
 pour τ 1 > τ 2 , coecient de u(τ 1 )u(τ 2 ) :
w2 (k, τ 1 , τ 2 ; x(0)) = ∆τf 2 ◦ ∆f ⊗ Lg ◦ ∆τf 1 −τ 2 −1 ◦ ∆f ⊗ Lg ◦ ∆k−τ
f
1 −1
(h)|x(0) ;

 pour τ 1 = τ 2 , coecient de u(τ 1 )2 :


1 τ1
w2 (k, τ 1 , τ 1 ; x(0)) = ∆ ◦ ∆f ⊗ L⊗2 k−τ 1 −1
g ◦ ∆f (h)|x(0) .
2 f
312 Mathématiques pour les systèmes dynamiques

 Noyaux d'ordre 3 :
 pour τ 1 > τ 2 > τ 3 , coecient de u(τ 1 )u(τ 2 )u(τ 3 ) :
w3 (k, τ 1 , τ 2 , τ 3 ; x(0)) =
∆τf 3 ◦∆f ⊗Lg ◦∆τf 2 −τ 3 −1 ◦∆f ⊗Lg ◦∆τf 1 −τ 2 −1 ◦∆f ⊗Lg ◦∆fk−τ 1 −1 (h)|x(0) ;
 pour τ 1 > τ 2 = τ 3 , coecient de u(τ 1 )u(τ 2 )2 :
w3 (k, τ 1 , τ 2 , τ 2 ; x(0)) =
1 τ2
∆ ◦ ∆f ⊗ L⊗2 τ 1 −τ 2 −1
g ◦ ∆f ◦ ∆f ⊗ Lg ◦ ∆fk−τ 1 −1 (h)|x(0) ;
2 f
 pour τ 1 = τ 2 > τ 3 , coecient de u(τ 2 )2 u(τ 3 ) :
w3 (k, τ 2 , τ 2 , τ 3 ; x(0)) =
1 τ3
∆ ◦ ∆f ⊗ Lg ◦ ∆τf 2 −τ 3 −1 ◦ ∆f ⊗ L⊗2 k−τ 2 −1
g ◦ ∆f (h)|x(0) ;
2 f
 pour τ 1 = τ 2 = τ 3 , coecient of u(τ 1 )3 :
1 τ1
∆ ◦ ∆f ⊗ L⊗3
w3 (k, τ 1 , τ 1 , τ 1 ; x(0)) = k−τ 1 −1
g ◦ ∆f (h)|x(0) .
3! f
On procède ainsi de suite pour wp (k, . . . , x0 ), p > 3.
 Noyaux de Volterra d'ordre p : en notant r ≤ p le nombre de valeurs possibles
et diérentes des τ i , (i = 1, · · · p), ainsi que σ i le nombre de τ i égaux, on obtient
l'expression récurrente :
wp (k, τ 1 , · · · , τ 1 , τ 2 , · · · , τ 2 , · · · τ r , · · · , τ r ; x) =
∆f ⊗ L⊗σg
r
τ −τ −1 ∆f ⊗ Lg⊗σ r −1
∆τf r ◦ ◦ ∆f r−1 r ◦ ◦
σr ! σ r−1 !

∆f ⊗ L⊗σ 1
◦ ∆fk−τ 1 −1 (h) .
g
··· ◦
σ1! x
Les mêmes développements restent valables dans le cas des développements fonc-
tionnels entrée-état en posant h(x) = x. On obtient : γ (k; x0 ) = ∆kf (I)|x(0) ,
γ 1 (k, τ 1 ; x(0)) = ∆τf 1 ◦ ∆f ⊗ Lg ◦ ∆k−1−τ
f
1
(I)|x(0) et ainsi de suite pour les noyaux
d'ordre supérieur.
On remarque, comme précédemment, que ces expressions doivent être comparées
à celles obtenues en temps continu dans le cas d'équations diérentielles analytiques
en l'état et linéaires en la commande [ISI 89].

8.5. Quelques résultats de réalisation

8.5.1. Cas des systèmes linéaires


Etant donnés les noyaux d'ordre 0 d'un système linéaire : w0 (k; x) = C(I +
A)k x, γ 0 (k; x) = (I + A)k x et ses noyaux d'ordre 1 : γ 1 (k, τ ; x) = (I +
Systèmes non linéaires en temps discret 313

A)k−τ −1 B, w1 (k, τ ; x) = C(I + A)k−τ −1 B, on vérie immédiatement les décompo-


sitions suivantes [WON 79] pour tout σ tel que k > σ ≥ τ :

∂w0 (k − τ − 1; x) ∂w0 (k − 1 − σ; x) ∂γ 0 (σ − τ ; x)
=
∂x x
∂x γ 0 (σ−τ ;x)
∂x x

∂C(I + A)k−1−σ x ∂(I + A)σ−τ x
=
∂x (I+A)σ−τ x
∂x x

= C(I + A)k−τ −1 = C(I + A)k−1−σ (I + A)σ−τ ,



∂w0 (k − τ − 1; x)
w1 (k, τ ; x) = B
∂x x

= C(I + A)k−1−σ (I + A)σ−τ B = P (k − 1 − σ)Q(σ − τ ).

On énonce facilement les propriétés suivantes :


 les noyaux peuvent être calculés à partir de γ 0 (.; x), w0 (.; x) et B ;
 les noyaux d'ordre 1 sont stationnaires, w1 (k, τ ; x) = W1 (k − τ − 1) ;
 les noyaux d'ordre 1 sont factorisables, w1 (k, τ ; x) = P (k − 1 − σ)Q(σ − τ ),
k − 1 ≥ σ ≥ τ , P et Q matrices réelles de dimensions appropriées.
Dénition 1. Un noyau w(k, τ ) est dit séparable s'il existe des matrices P (.) et Q(.)
telles que pour k > τ ≥ 0, w(k, τ ) = P (k)Q(τ ).
Pk−1
Lemme 2. Toute fonctionnelle entrée-sortie τ =0 w(k, τ )u(τ ), décrite par
y(k) =
un seul noyau non nul, séparable, a une représentation linéaire de la forme :

x(k + 1) = x(k) + Q(k)u(k),


y(k) = P (k)x(k).

Démonstration : la preuve est constructive :

y(k) = P (k)Q(k − 1)u(k − 1) + P (k)x(k − 1)


= w(k, k − 1)u(k − 1) + P (k)Q(k − 2)u(k − 2) + P (k)x(k − 2)
= w(k, k − 1)u(k − 1) + w(k, k − 2)u(k − 2) + P (k)x(k − 2)
X
k−1
= w(k, τ )u(τ ).
τ =0

Si le noyau est stationnaire, on peut montrer l'existence de trois matrices A, B ,


C telles que w(k, τ ) = W (k − τ − 1) = CAk−τ −1 B. On peut ainsi conclure que la
propriété de stationnarité et séparabilité est une condition nécessaire et susante de
réalisation par un système linéaire stationnaire. Ces conclusions vont être généralisées
au contexte non linéaire.
314 Mathématiques pour les systèmes dynamiques

8.5.2. Un résultat de réalisation non linéaire


Quelques propriétés des noyaux non linéaires

On introduit les noyaux w̃p (k, τ 1 , . . . , τ p ; x), de telle sorte que [MON 87] :

w̃p (k, τ 1 , . . . , τ p ; γ 0 (τ p ; x)) = wp (k, τ 1 , . . . , τ p ; x). (8.28)

Le lemme suivant est énoncé pour les systèmes non linéaires (8.7)-(8.8), les gi (.)
représentant les coecients du développement de g(., u) en puissances de u.
Lemme 3. Pour le système (8.7)-(8.8), tout noyau d'ordre p ≥ 1 peut être calculé à
partir des évolutions libres γ 0 (k; x) et w0 (k; x) et des fonctions gi .
Pour les premiers noyaux on obtient :

γ 0 (k; x) = ∆kf (I)|x , w0 (k; x) = ∆kf (h)|x ,

w1 (k, τ 1 ; x) = w̃1 (k, τ 1 ; γ 0 (τ 1 ; x)),


avec : w̃1 (k, τ 1 ; x) = ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h)|x

∂w0 (k − τ 1 − 1; x)
= g1 (x),
∂x x+f (x)

de telle sorte que w̃1 (k, τ 1 ; x) et donc w1 (k, τ 1 ; x) se déduisent de la connaissance de


w0 (k; x), γ 0 (k; x) et g1 (x). De la même façon, à l'ordre 2 :
 pour τ 1 > τ 2 :

w2 (k, τ 1 , τ 2 ; x) = w̃2 (k, τ 1 , τ 2 ; γ 0 (τ 2 ; x))),


w̃2 (k, τ 1 > τ 2 ; x) = ∆f ⊗ Lg1 ◦ ∆τf 1 −τ 2 −1 ◦ ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h)|x
 
∂ w̃1 k, τ 1 , ∆τf 1 −τ 2 −1 (h)
= g1 (x)
∂x

x+f (x)

∂ w̃1 (k, τ 1 , w0 (τ 1 − τ 2 − 1; x))
= g1 (x);
∂x x+f (x)

 pour τ 1 = τ 2 :

1
w̃2 (k, τ 1 = τ 2 ; x) =∆f ⊗ (L⊗2 g1 + Lg2 ) ◦ ∆f
k−τ 1 −1
(h)|x =
2
1 ∂ ⊗2 w0 (k − τ 1 − 1; x) ⊗2 ∂w0 (k − τ 1 − 1; x)
g 1 (x) + g2 (x)),
2 ∂x⊗2 x+f (x) ∂x x+f (x)

de telle sorte que w̃2 (k, τ 1 > τ 2 ; x) et w2 (k, τ 1 , τ 2 ; x) se déduisent de w0 (k; x),
γ 0 (k; x), g1 (x) et g2 (x). Le raisonnement reste valable pour les noyaux d'ordre
supérieur.
Systèmes non linéaires en temps discret 315

Propriétés des noyaux quand l'état initial est un état d'équilibre

Si x(0) = xe est un état d'équilibre, c'est-à-dire si xe +f (xe ) = xe , des propriétés de


séparabilité des noyaux peuvent être établies et conduire à des conditions susantes
de réalisation par des dynamiques à état ane. En remarquant qu'en xe , les noyaux
w̃p (.) et wp (.) coïncident :

w̃p (k, τ 1 , . . . , τ p ; xe ) = wp (k, τ 1 , . . . , τ p ; xe ),

il résulte en particulier que :



∂w0 (k − τ 1 − 1; x)
w1 (k, τ 1 ; xe ) = ∆f ⊗ Lg1 ◦ ∆fk−τ 1 −1 (h)|xe = g1 (xe ), (8.29)
∂x xe

et, ainsi, w1 (k, τ 1 ; xe ) ne dépend que de la diérence k − τ 1 − 1, c'est-à-dire :

w1 (k, τ 1 ; xe ) = W11 (k − τ 1 − 1),

avec W11 (.) une matrice de dimension appropriée. Par rapport aux noyaux d'ordre
deux, on obtient :

∂w1 (k, τ 1 , ς) ∂γ 0 (τ 1 − τ 2 − 1, x)
w2 (k, τ 1 , τ 2 ; xe ) = g1 (xe )
∂ς ς=xe ∂x xe
1 1
= W21 (k − τ 1 − 1)W22 (τ 1 − τ 2 − 1),

1 ∂ w0 (k − τ 1 − 1; x)
⊗2
w2 (k, τ 1 , τ 1 ; xe ) = g1⊗2 (xe )
2 ∂x⊗2 x=xe

1 ∂w0 (k − τ 1 − 1; x) 2
+ 2
∂x g2 (xe ) = W21 (k − τ 1 − 1),
xe

où W21
2
(.), W21
1
(.) et W22
1
(.) sont des matrices de dimensions appropriées.

Réalisation par système à état ane

Proposition 2. Soit la représentation non linéaire (8.7)-(8.8), avec (I +f ) inversible


et partant d'un état d'équilibre x(0) = xe . Alors, les q premiers noyaux admettent une
réalisation à état ane. Le comportement entrée-sortie de ce modèle est caractérisé
par ces q noyaux et uniquement ceux-là, q ≥ 1.
Démonstration : la preuve est constructive. Sous l'hypothèse d'inversibilité de (I +f ) :
Rn → Rn et grâce aux décompositions précédentes, on déduit pour k > τ 1 ≥ 0 la
décomposition suivante :

∂w0 (k − τ 1 − 1, x) ∂w0 (k − 1, ς) ∂γ 0 (−τ 1 , x)
∂x g1 (xe ) =
∂ς ∂x g1 (xe )
xe ς=xe x=xe

= P11 (k)Q11 (τ 1 ) = C11 (A11 )k−τ 1 −1 B11 .


316 Mathématiques pour les systèmes dynamiques

De la même façon, pour k > τ 1 ≥ 0 et τ 1 > τ 2 :


1
w2 (k, τ 1 > τ 2 ; x(0)) = P21 (k-1-σ 1 )Q121 (σ1 − τ 1 )P22
1
(τ 1 -1-σ 2 )Q122 (σ2 − τ 2 )
1
= C21 (A121 )k−τ 1 −1 B21
1 1
C22 (A122 )τ 1 −τ 2 −1 B22
1
,
2
w2 (k, τ 1 , τ 1 ; x(0)) = P21 (k − 1 − σ 1 )Q221 (σ1 − τ 1 ) = C21
2
(A221 )k−1−τ 1 B21
2
,

et ainsi de suite pour les noyaux d'ordre supérieur, avec P21


1
(.), Q121 (.), P22
1
(.), Q122 (.),
P21 (.) et Q21 (.) des matrices de dimensions appropriées.
2 2

Réalisation linéaire du noyau d'ordre 1

Le noyau d'ordre 1, w1 (k, τ 1 ; xe ) peut ainsi être réalisé par le système linéaire
ci-dessous avec pour état initial la condition z10 = 0, on pose :
z1 (k + 1) = A11 z1 (k) + B11 u(k),
y1 (k) = C11 z1 (k).
Pk−1 k−τ 1 −1
On vérie que y1 (k) = τ 1 =0 C11 A11 B11 u(τ 1 ).

Réalisation bilinéaire du noyau d'ordre 2 pour τ 1 > τ 2

Le noyau w2 (k, τ 1 , τ 2 ; xe ) peut être réalisé par le système bilinéaire ci-dessous avec
pour état initial la condition z20 = 0, on pose :
     
A121 0 0 1
B21 1
C22 0
z2 (k + 1) = 1 z2 (k) + z2 (k)u(k) + 1 u(k),
0 A22 0 0 B22
1

y2 (k) = C21 0 z2 (k).
Pk−1
On a : y2 (k) = τ 1 >τ 2 =0
1
C21 (A121 )k−τ 1 −1 B21
1 1
C21 (A122 )τ 1 −τ 2 −1 B22
1
u(τ 1 )u(τ 2 ).

Réalisation à état ane du noyau d'orde 2 pour τ 1 = τ 2

Le noyau w2 (k, τ 1 = τ 2 ; xe ) peut être réalisé par le système bilinéaire ci-dessous


avec pour état initial la condition z30 = 0, on pose :
1 2 2
z2 (k + 1) = A221 z3 (k) + B21 u (k),
2
2
y3 (k) = C21 z3 (k).

et on vérie que y3 (k) = w3 (k, τ 1 = τ 2 ; xe ). En posant y(k) = y1 (k) + y2 (k) +


y3 (k), les trois systèmes ci-dessus constituent le modèle qui réalise les trois noyaux
w1 (k, τ 1 ; xe ), w2 (k, τ 1 > τ 2 ; xe ), w3 (k, τ 1 = τ 2 ; xe ), et uniquement ces trois noyaux
(q = 3). Une analyse plus approfondie montre que l'on peut réduire le nombre de
Systèmes non linéaires en temps discret 317

systèmes nécessaires pour réaliser un nombre ni de noyaux. Ainsi, dans le cas présent,
en notant : A11 = A221 , C11 = C21
2
et en posant :
2 2
z4 (k + 1) = A11 z4 (k) + B11 u(k) + B21 u (k),
y4 (k) = C11 z4 (k),

on obtient y4 (k) = y1 (k) + y3 (k), soit, en conclusion : y(k) = y2 (k) + y4 (k).


Ce résultat doit être comparé à son analogue en temps continu, obtenu en termes
de systèmes bilinéaires et non à état ane (ces derniers sont nécessaires en discret
pour représenter les contributions des produits d'entrées simultanées.

8.6. Un point de vue géométrique

8.6.1. Systèmes linéaires et invariance


Le concept d'invariance est le point de départ de deux propriétés fondamentales
pour l'étude des systèmes dynamiques. La première fait référence au lien état-sortie et
concerne l'absence d'états diérents correspondant à des sorties égales (observabilité).
La seconde fait référence au comportement entrée-état et concerne la possibilité d'agir
sur les entrées pour atteindre des états prédénis (commandabilité). Un concept fon-
damental de la théorie des opérateurs linéaires est celui de sous-espace invariant. Du
point de vue du comportement dynamique, cette propriété en induit une autre, plus
signicative encore, exposée ci-dessous et ayant trait à la notion de feuilletage.
Considérons en introduction le système linéaire de dimension n :
x(k + 1) = Ax(k) + Bu(k),
y(k) = Cx(k),

où A : x 7→ Ax est aussi considérée comme un opérateur linéaire. Soit V un sous-


espace de dimension m, invariant par rapport à A (c'est-à-dire : AV ⊂ V ) et soit V
une matrice de vecteurs de base de V . Si T −1 est une matrice n × n, régulière dont
les m premières colonnes sont celles de la matrice V , alors T dénit un changement
de coordonnées (z = T (x)) conduisant à :
   
−1 Ã11 Ã12 B̃1
T AT = , Ã11 ∈ R ,
m
TB = ,
0 Ã22 B̃2

z1 (k + 1) = Ã11 z1 (k) + Ã12 z2 (k) + B̃1 u(k), (8.30)


z2 (k + 1) = Ã22 z2 (k) + B̃2 u(k). (8.31)
En d'autres termes et d'un point de vue dynamique, les évolutions libres (u = 0)
du système initialisé dans V (z2 (0) = 0) restent dans V . Ceci reste vrai si u(k) 6= 0
avec B̃2 = 0, c'est-à-dire avec une perte de commandabilité de z2 s'écrivant aussi
ImB ⊂ V , où ImB est l'espace engendré par les colonnes de B .
318 Mathématiques pour les systèmes dynamiques

De plus, si l'on considère deux conditions initiales z(0) et z 0 (0) dont la diérence
est un vecteur de V , alors les évolutions z(k) et z 0 (k) qui en sont issues par (8.30)-
(8.31) maintiennent cette propriété pour u = 0 ou pour ImB ⊂ V :
[z(0) − z 0 (0)] ∈ V ⇒ [z(k) − z 0 (k)] ∈ V.

En d'autres termes, des variétés translatées de V se transforment en variétés trans-


latées ou, de façon équivalente, le feuilletage (structure induite par translation de V )
est invariant par la dynamique libre de (8.30)-(8.31) et, dans le cas où Im B ⊂ V , par
ses dynamiques forcées.
Si l'on suppose maintenant que le sous-espace invariant V est contenu dans le
noyau de C (V ⊂ ker C ), alors, dans les coordonnées z , le système s'écrit :
z1 (k + 1) = Ã11 z1 (k) + Ã12 z2 + B̃1 u(k),
z2 (k + 1) = Ã22 z2 (k) + B̃2 u(k),
y = C̃2 z2 (k),

et les évolutions partant d'un état initial dans V (z2 (0) = 0) donnent donc des sor-
ties identiquement nulles. Ainsi, la propriété V ⊂ ker C exprime l'impossiblité de
distinguer, par les sorties, des états appartenant à une même feuille.
En conclusion, si AV ⊂ V ⊂ ker C et u = 0 (ou Im B ⊂ V ), alors on a l'implication :
[z(0) − z 0 (0)] ∈ V ⇒ [z(k) − z 0 (k)] ∈ V ⇒ y(k) = y 0 (k) = y(0). Dans ce cas,
les évolutions de l'état partant de conditions initiales appartenant à une même feuille
appartiennent à tout instant à cette feuille, à laquelle est associée une sortie constante.

8.6.2. Systèmes non linéaires, invariance et décompositions locales


Un exemple d'extension de certains résultats de la théorie linéaire à la classe des
systèmes anes, au moins d'un point de vue local, fait référence à cette propriété
d'invariance et aux décompositions qu'elle induit. Les techniques issues de la géomé-
trie diérentielle sont utiles dans ce cadre et les instruments de base sont les notions
de distribution et de feuilletage induit [ISI 89, SPI 79]. Le feuilletage peut être com-
pris comme une partition de l'espace d'état en surfaces de dimension constante, les
feuilles, correspondant à des surfaces de niveau d'une certaine fonction. La notion de
surface de niveau généralise celle de variétés translatées caractéristiques du contexte
linéaire.
Une distribution (voir chapitre 4) est une loi qui associe à chaque point d'une
variété diérentiable M , un sous-espace de l'espace tangent en ce point à la variété,
c'est-à-dire, si l'on prend M = Rn :
x 7→ ∆(x) ⊂ T × Rn .

En tout point x ∈ Rn , la distribution ∆ dénit l'espace tangent en x à la feuille


passant par x. Dans un contexte linéaire, les notions de feuille et d'espace tangent
Systèmes non linéaires en temps discret 319

coïncident avec les variétés anes translatées. L'hypothèse de régularité ci-dessous


est centrale pour les développements qui suivent : ∆(x) est une distribution régulière
c'est-à-dire de dimension constante et involutive en un voisinage Ix0 de x0 : elle induit
un feuilletage de Ix0 . Sur ces bases, en se rappelant la formulation adoptée pour
l'invariance dans le cas linéaire  passage d'une feuille à une autre sous l'évolution
dynamique du système  on peut dénir dans ce cas non linéaire particulier appelé
 régulier  le concept d'invariance. On considère la dynamique en temps discret :
x(k + 1) = F (x(k), u(k)),
y(k) = H(x(k).

Dénition 2 (Invariance). Un feuilletage est invariant par rapport à F (x, u) si,


étant donnés deux états d'une même feuille, les évolutions associées se maintiennent
à chaque instant sur une même feuille : sous l'action de F (x, u), les feuilles se trans-
forment en feuilles. Notons Jx (f ) la jacobienne de la fonction f . Une distribution ∆
est invariante par rapport à F (x, u) si :
Jx (F (·, u))∆ ⊂ ∆(F (·, u)),

ou, de façon équivalente, si :


∂F (x, u)
∆ ⊂ ∆(F (x, u)).
∂u

Soit z = Φ(x) un changement non linéaire de coordonnées, transformant le système


initial en :
z(k + 1) = F̃ (z(k), u(k)) , Φ ◦ F (Φ−1 (z(k)), u(k)),
y(k) = H̃(z(k)) = H(Φ−1 (z(k)).

On vérie les propriétés géométriques suivantes.


Propriété 1. (P1) Etant donnée une distribution ∆ invariante par rapport F (x, u),
il existe un changement de coordonnées z = Φ(x) = (Φ1 (x), Φ2 (x))T tel qu'en choi-
sissant pour z1 = Φ1 (x) les coordonnées curvilignes de la distribution, on vérie la
décomposition :
!
−1 Fe1 (z1 , z2 , u)
F (z, u) = Φ ◦ F (Φ (z), u) = .
Fe2 (z2 , u)

(P2) La condition supplémentaire : ∆ ⊂ ker dH , qui exprime que les feuilles sont
contenues dans les surfaces de niveau associées à la fonction de sortie H , implique,
d'après le choix de coordonnées : ∂z
∂ H̃
1
= 0, c'est-à-dire :

H̃(z) , H ◦ Φ−1 (z) = H̃(z2 ).

Les sorties associées à des états appartenant à une même feuille sont égales (ceci
généralise la condition linéaire V ⊂ ker C ).
320 Mathématiques pour les systèmes dynamiques

(P3) La condition supplémentaire : ∂F ∂u


⊂ ∆(F (x, u)), qui exprime que les variations
par rapport à l'entrée se produisent dans une direction tangente aux feuilles (puisque
∆(x) représente le plan tangent à la feuille passant par x), implique la décomposition :

z1 (k + 1) = Fe1 (z1 (k), z2 (k), u(k)),


z2 (k + 1) = Fe2 (z2 (k)).

L'invariance de la structure est maintenue malgré la présence de l'entrée (ceci géné-


ralise la condition linéaire Im B ⊂ V ).

L'exemple du rejet de perturbation

Supposons l'existence d'une distribution ∆ invariante par rapport à :


x(k + 1) = F (x(k), u(k), w(k)),
y(k) = H(x(k)),

dans laquelle w(k) représente une entrée de perturbation. Les conditions supplémen-
taires : ∂F
∂w
⊂ ∆(F (·, u, w)) et ∆ ⊂ ker dH , entraînent l'existence d'un changement de
coordonnées transformant le système initial en le système :
z1 (k + 1) = Fe1 (z1 (k), z2 (k), u(k), w(k)),
z2 (k + 1) = Fe2 (z2 (k), u(k)),
y(k) = e 2 (k)).
H(z

On constate, sur la structure des équations, que la sortie ne dépend plus de la


variable w et assure ainsi un rejet de la perturbation. On trouve des approches com-
plètes sur le sujet dans [GRI 85, MON 86] et dans les références contenues dans ces
articles.

8.7. Bibliographie
[AGR 78] Agrachev A.A., Gamkrelidge R.V., Exponential representations of
ows and the chronological calculus, Math. Sb., vol. 107, p. 467-532, 1978.
[ALB 93] Albertini F., Sontag E.D.,  Discrete-time transitivity and accessibi-
lity : analytic systems , SIAM J. Contr. Optimiz., vol. 33, p. 1599-1622,
1993.
[BRO 76] Brockett R.W.,  Volterra series and geometric control , Automatica,
vol.12, p. 167-176, 1976.
[CAL 99] Califano C., Monaco S., Normand-Cyrot D.,  A note on the
discrete-time normal form , IEEE Trans. Aut. Contr., 1999.
[CRO 81] Crouch P.,  Dynamical realizations of nite Volterra series , SIAM J.
Cont. Opt., vol. 19, p. 177-202, 1981.
[FLI 80] Fliess M.,  Generating series for discrete-time nonlinear systems , IEEE
Trans. Aut. Cont., vol. 25, 1980.
Systèmes non linéaires en temps discret 321

[FLI 90] Fliess M.,  Réalisation locale des systèmes non linéaires, algèbres de
Lie ltrées transitives et séries génératrices non commutatives , Invent.
Math., vol. 83, p. 521-537, 1990.
[FNC 81] Fliess M., Normand-Cyrot D.,  A Lie theoretic approach to nonlinear
discrete time controllability via Ritt's formal dierential groups , Syst.
and Control Letters, vol. 1, p. 179-183, 1981.
[GAM 79] Gamkrelidge R.V., Exponential representations solutions of ordinary
dierential equations, Lect. Notes Math., vol. 703, 1979.
[GRI 85] Grizzle J.W.,  Controlled invariance for discrete-time nonlinear systems
with an application to the disturbance decoupling problem , IEEE Trans.
Aut. Cont., vol. 30, p. 1517-1530, 1985.
[GRI 93] Grizzle J.W.,  A linear algebraic framework for the analysis of discrete-
time nonlinear systems , SIAM J. on Control Optimiz., vol. 31, p. 1026-
1044, 1993.
[GRO 73] Gröbner, Serie di Lie e Loro Applicazioni, Poliedro, Cremonese, Roma,
1973.
[HER 89] Hermes H.,  Distributions and the Lie algebras their bases can gene-
rate , Proc. Amer. Math. Soc., vol. 106, n◦ 2, p. 555-565, 1989.
[ISI 89] Isidori A., Nonlinear Control Systems, Springer Verlag, Berlin, 1989.
[JAK 84] Jakubczyk B., Normand-Cyrot D.,  Orbites de pseudo groupes de
diéomorphismes et commandabilité des systèmes non linéaires en temps
discret , C.R. Acad. Sc., Paris, t. 298, I, vol. 11, p. 257-260, 1984.
[JAK 90] Jakubczyk B., Sontag E.D.,  Controllability of nonlinear discrete-time
systems : a Lie algebraic approach , SIAM J. of Control & Optim., vol.
28, p. 1-33, 1990.
[LES 78] Lesiak, Krener A.J.,  The existence and uniqueness of Volterra series
for nonlinear systems , IEEE Trans. Aut.Cont., vol. 23, p. 1090-1095,
1978.
[MAG 54] Magnus W.,  On the exponential solution of dierential equations for a
linear operator , Communications on Pure and Applied Mathematics, vol.
7, p. 649-673, 1954.
[MON 83] Monaco S., Normand-Cyrot D.,  On the immersion of a discrete-
time polynomial system into a polynomial ane one , Systems and Cont.
Letters, vol. 3, p. 83-90, 1983.
[MON 85] Monaco S., Normand-Cyrot D.,  Invariant distributions for discrete-
time nonlinear systems , Systems and Control Letters, vol. 5, p. 191-196,
1985.
[MON 86] Monaco S., Normand-Cyrot D.,  Nonlinear systems in discrete-
time , Algebraic and geometric methods in nonlinear control theory, M.
Fliess and M. Hazenwinkel Eds., D. Reidel, p. 411-430, 1986.
[MON 87] Monaco S., Normand-Cyrot D.,  Finite Volterra series realizations
and input output approximations of nonlinear discrete-time systems , Int.
J. of Control, vol. 45, n◦ 5, p. 1771-1787, 1987.
[MON 89] Monaco S., Normand-Cyrot D.,  Functional expansions for nonlinear
discrete-time systems , Math. Sys. Theo.,vol. 21, p. 235-254, 1989.
[MON 95] Monaco S., Normand-Cyrot D.,  A unifying representation for nonli-
near discrete-time and sampled dynamics , Journal of Mathematical Sys-
tems, Estimation, and Control, vol. 7, p. 477-503, 1997.
322 Mathématiques pour les systèmes dynamiques

[MON 97] Monaco S., Normand-Cyrot D.,  Geometric properties of a class of


nonlinear discrete-time dynamics , Proc. European Control Conference,
1997.
[NIJ 90] Nijmeijer H., van der Schaft A.J., Nonlinear Dynamical Control Sys-
tems, Springer Verlag, 1990.
[REE 58] Ree R.,  Lie elements and an algebra associated with shues , Ann. of
Maths., vol. 68, p. 210-220, 1958.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[RUB 74] Ruberti A., d'Alessandro P., Isidori A.,  Realization and structure
theory of bilinear dynamical systems , SIAM J. Cont., vol. 12, p. 517-537,
1974.
[RUG 80] Rugh W.J., Nonlinear system theory : the Volterra-Wiener approach, The
Johns Hopkins University Press, vol. 7, Baltimore, 1980.
[SAN 83] Sandberg I.W.,  Volterra-like expansions for solutions of nonlinear inte-
gral equations and nonlinear dierential equations , IEEE Trans on Aut.
Cont. vol. 30, p. 68-77, 1983.
[SON 79a] Sontag E.D., Polynomial Response Maps, Lect. Notes in Cont. and Info.
Sciences, vol. 13, Springer Verlag, Berlin, 1979.
[SON 79b] Sontag E.D.,  Realization theory of discrete-time nonlinear systems, I
- the bounded case , IEEE Trans on Circuits and Systems, vol. 26, p. 342-
356, 1979.
[SPI 79] Spivak M.,  A Comprehensive introduction to dierential geometry ,
Publish or perish Press, vol. 1, Berkeley, 1979.
[SUS 84] Sussmann H.J.,  A Lie - Volterra expansion for nonlinear systems , Lect.
Notes in Cont. and Info. Sc., vol. 58, p. 822-828, 1984.
[WON 79] Wonham W.M., Linear multivariable control : a geometric approach,
Springer Verlag, 1979.
Chapitre 9

Equations diérentielles à retard

9.1. Introduction

De nombreux systèmes réels, dits héréditaires, présentent des phénomènes de re-


tard (ou post-eet) : contrairement aux systèmes  ordinaires , leur évolution tem-
porelle n'est pas dénie à partir d'un simple vecteur d'état (exprimé au présent), mais
dépend irréductiblement de leur histoire.
Par exemple, cette situation se rencontre dans les nombreux cas où un transport
de matière, d'énergie ou d'information engendre un  temps mort  dans la réaction :
en télécommunications (transfert hertzien, optique ou électrique), en écologie (inter-
action proies-prédateurs), en dynamique des populations et en épidémiologie (temps
de gestation ou d'incubation), en mécanique (visco-élasticité)... Même si le processus
ne contient pas intrinsèquement de post-eet, sa chaîne de commande peut intro-
duire des retards (par exemple si les capteurs demandent un temps d'acquisition non
négligeable). Pour ces raisons, il semble raisonnable de considérer le retard comme
une caractéristique universelle de l'interaction entre l'homme et la nature (donc, des
sciences pour l'ingénieur), au même titre que la non-linéarité, par exemple.
Les équations diérentielles fonctionnelles (EDF) constituent un outil mathéma-
tique approprié à l'étude du phénomène d'hérédité, généralisant les équations dié-
rentielles ordinaires (EDO). Comme pour tous les systèmes dynamiques, leur inves-
tigation théorique inclue des sujets comme l'existence et l'unicité des solutions, leur
périodicité, l'analyse des bifurcations, les problèmes aux limites, la commande et l'es-
timation, la caractérisation des comportements asymptotiques (stabilité, bornitude,
moyennage, etc.), pour n'en citer que quelques-unes. L'étude des systèmes à retards
a rencontré un intense intérêt depuis quelques décennies.
Les premières EDF ont été considérées par J. Bernoulli, L. Euler, J.L. Lagrange,
P. Laplace, S. Poisson et d'autres, en lien avec certains problèmes géométriques posés
au XVIIIe siècle. Au début du XXe siècle, d'importantes applications en furent faites
par V. Volterra [VOL 09]. La situation changea dans les années 30, avec l'apparition
d'un grand nombre de problèmes techniques et scientiques. La régulation sur base
de modèles linéaires et stationnaires avec retard fut considérée par Y. Zypkin en 1941.
Les bases de la théorie moderne des EDF furent posées par A.D. Myshkis [MYS 49,
MYS 51]. En particulier, il fut le premier à formuler l'énoncé du problème de Cauchy
pour des équations à retard arbitraire (ponctuel ou distribué, ni ou inni). Les années
suivantes ont vu une explosion de la théorie des EDF et de leurs applications (voir

Chapitre rédigé par Vladimir B. Kolmanovskii et Jean-Pierre Richard.


324 Mathématiques pour les systèmes dynamiques

par exemple [DUG 97, KOL 99, KON 86, KOS 96, LOR 97, NIC 97, NIC 01, RIC 98,
RIK 98] et les nombreuses références incluses). Dans ce chapitre, l'accent sera mis sur
les grandes lignes de la théorie des équations diérentielles à retards, permettant ainsi
l'accès aux méthodes et résultats concrets qui en découlent.

9.2. Classes d'équations dierentielles fonctionnelles

Les équations dierentielles fonctionnelles (également appelées héréditaires ou à


argument diéré 1 ) peuvent être considérées comme une combinaison d'équations dié-
rentielles ordinaires et d'équations fonctionnelles. Les valeurs de l'argument peuvent y
être discrètes, continues ou mixtes : en correspondance, on dénira les notions d'équa-
tions diérentielles aux diérences, d'équations intégrodiérentielles, ou mixtes2 .
Une EDF est dite autonome (ou stationnaire) si elle est invariante vis-à-vis de
tout changement de variable t 7→ t + T (pour tout T ∈ R). L'ordre d'une EDF est
celui de la plus haute dérivée de la fonction inconnue régie par l'équation. Ainsi, les
équations fonctionnelles peuvent être considérées comme des EDF d'ordre zéro et la
notion d'EDF généralise les équations de l'analyse mathématique des fonctions d'un
argument continu.

9.2.1. Equations à retards ponctuels


Considérons une EDF à retards ponctuels, de la forme :
 
z (m) (t) = f0 t, z (m1 ) (t − h1 (t)) , ..., z (mk ) (t − hk (t)) , (9.1)

dans laquelle z (t) ∈ Rq , z (m) (t) = dt m z (t) , k et mi ∈ N, hi (t) ∈ R . Le membre


m +
d

de droite f0 et les retards hi sont donnés et z est une fonction inconnue de t. La


propriété hi (t) ∈ R+ (signiant que toutes les déviations d'argument sont positives
ou nulles) est cruciale pour la causalité de (9.1). Cette équation (9.1) est dite :
 équation diérentielle fonctionnelle de type retardé, ou EDF retardée (en abrégé,
EDR) , si :
m > max {m1 , ..., mk } ; (9.2)
 équation diérentielle fonctionnelle de type neutre, ou EDF neutre (en abrégé,
EDN ), si :
m = max {m1 , ..., mk } ; (9.3)
 équation diérentielle fonctionnelle de type avancé, ou EDF avancée (en abrégé,
EDFA), si :
m < max {m1 , ..., mk } . (9.4)
1 Traduction de l'anglais deviating argument en lien avec l'appellation dierential-
dierence equation
2
Plus particulièrement, dans le cas des équations diérentielles retardées (EDR) qui sera
développé par la suite, on parlera de retards ponctuels, distribués ou mixtes.
Equations diérentielles à retard 325

Une EDR est ainsi caractérisée par le fait que la valeur de la dérivée d'ordre le
plus élevé est dénie, pour chaque valeur de l'argument t, par les valeurs des dérivées
d'ordre plus faible prises en des arguments inférieurs ou égaux à t.
La pratique de la modélisation montre qu'à la quasi-unanimité, seules les équa-
tions de type retardé (9.2) ou neutre (9.3) sont utilisées pour représenter des proces-
sus réels. Comme dans le cas des équations diérentielles ordinaires, l'équation (9.1)
peut être réécrite sous la forme d'une équation diérentielle du premier ordre (impli-
quant la dérivée x = dx ) portant sur un vecteur x ∈ Rn de dimension plus grande
.
dt
(n = (m − 1) q) en prenant comme nouvelles inconnues les dérivées successives de y .
On aboutit ainsi aux EDR et EDN suivantes :
(9.5)
.
x(t) = f (t, x (t − h1 (t)) , ..., x (t − hk (t))) ,

(9.6)
. . .
x(t) = f t, x (t − h1 (t)) , ..., x (t − hk (t)) , x (t − gk (t)) , ..., x (t − gl (t)) .

Comme nous l'avons remarqué, toute EDF est une combinaison d'équations ordi-
naires et fonctionnelles et l'équation de type neutre (9.6) est équivalente au système
hybride suivant :
 .
x(t) = y(t),
y(t) = f (t, x (t − h1 (t)) , ..., x (t − hk (t)) , y (t − gk (t)) , ..., y (t − gl (t))) .

Dans certains phénomènes, le retard peut dépendre d'une solution inconnue, c'est-
à-dire avoir la forme hi (t, x (t)) . De tels retards sont quelquefois dits autoréglants.

9.2.2. Equations retardées générales, retards distribués


Une équation diérentielle retardée générale (à retards non nécessairement ponc-
tuels) se représente sous la forme :
.
x(t) = f (t, xt ) , (9.7)
où, pour un certain t, x (t) ∈ Rn et l'état xt est une fonction dénie par :

xt : Jt → Rn , xt (θ) , x (t + θ) ,
Jt ⊂ ]−∞, 0] , θ ∈ Jt .
Dans ce cas, Jt peut être un intervalle donné [−h(t), −g(t)] ou ]−∞, −g(t)]. La fonc-
tion xt peut être interprétée comme un fragment de la solution x à droite du point
t, observé depuis ce point. Le membre de droite de (9.7) est une fonction de t et xt :
ainsi, à toute fonction ψ : Jt → Rn d'une certaine famille de fonctions, correspond un
vecteur f (t, ψ) ∈ Rn .
Remarquons que l'équation à retards ponctuels (9.5) est un cas particulier de
(9.7)3 . Si un des intervalles Jt n'est pas de mesure nulle, l'équation diérentielle
fonctionnelle (9.7) est dite retardée, à retards distribués.
3 Dans (9.5), l'ensemble Jt est de mesure nulle [RIC 01], réduit à un nombre ni de points.
326 Mathématiques pour les systèmes dynamiques

On peut dénir de la même façon une équation diérentielle fonctionnelle neutre,


à retards distribués comme suit :
. 
(9.8)
.
x(t) = f t, xt , xt ,

où la notation xt correspond de façon similaire à xt : Jt → Rn , avec Jt de mesure


. .
. .
non nulle et xt (θ) , x (t + θ) . Cependant, la suite de ce chapitre se limitera au
cas retardé (voir par exemple [KON 86] pour ce qui concerne les systèmes de type
neutre).

9.2.3. Notations complémentaires


On utilisera par la suite les notations suivantes :
Jt = [−h(t), −g(t)] ⊂ ]−∞, 0] , J = [α, β] ⊂ R ;
C (Jt ) (resp. C 1 (Jt )) ensemble des fonctions continues (resp. dérivables) de Jt →
Rn ;
xt ∈ C (Jt ) : Jt → Rn , θ 7→ xt (θ) , x (t + θ) ;
D = [t0 , +∞[ × C [−h, 0] , (t, ψ) ∈ D ;
k.k norme scalaire de vecteur : Rn → R+ , x 7→ kxk ;
k.kC norme de fonction, C [−h, 0] → R+ , ψ 7→ kψkC , supθ∈[−h,0] {kψ (θ)k} ;

Bδ ⊂ C [−h, 0] boule fonctionnelle, Bδ , {ψ ∈ C [−h, 0] ; kψkC < δ} ;


λmax (Q) la plus grande valeur propre d'une matrice Q symétrique ;
pour toute matrice réelle M (t) = [mij (t)] , on dénit |M (t)| = [|mij (t)|] et
  |mij (t)| si i 6= j,
M (t) = m+
+ +
ij (t) , mij (t) =
mii (t) si i = j.

9.3. Le problème de Cauchy pour les EDR

Le problème de Cauchy consiste à montrer l'existence (et, si possible, l'unicité)


de la solution de l'équation (9.7) correspondant à une certaine fonction initiale et
à une certaine valeur initiale. Considérons l'équation diérentielle retardée (9.7) et
supposons que pour un certain t0 ∈ R, la fonction f : (t, x) 7→ f (t, x) est dénie pour
tout t ∈ [t0 , +∞[ et x ∈ C (Jt ) , Jt = [−h(t), −g(t)] . Le point t0 est appelé point
initial 4 pour la solution. Nous supposerons également que t0 , inf t≥t0 {t − h (t)} >
−∞.
La fonction initiale
  de l'équation (9.7) pour un point initial t0 est prescrite sur
ψ
l'intervalle initial t0 , t0 . Si t0 = t0 , alors cet intervalle initial est vide et on retrouve
4 Ou instant initial si t représente le temps.
Equations diérentielles à retard 327

le problème de Cauchy classique pour les EDO (sans hérédité, sans fonction initiale).
Cependant, dans tous les cas, la valeur initiale x (t0 ) de la solution doit être prescrite.
Généralement (bien que cela ne soit pas nécessaire) la valeur initiale de la solution
x (t0 ) fait partie de
 la fonction
 initiale, c'est-à-dire que cette dernière est prescrite sur
l'intervalle fermé t0 , t0 avec ψ (t0 ) = x (t0 ) .
Soulignons que la solution x (t) doit être construite dans le sens des t croissants,
c'est-à-dire sur un intervalle J ayant comme extrémité gauche le point t0 ∈ J. Ceci
implique que x est à interpréter comme étant le prolongement de la fonction initiale,
x (t + θ) , ψ (t + θ) pour t + θ > t0 .
Nous considérerons ici le problème de Cauchy pour des EDR à retard ni, et
supposons que la solution appartient à C 1 (c'est-à-dire, est une fonction continûment
diérentiable de t). Le problème étudié est donc :
.
x(t) = f (t, xt ) , xt (θ) = x (t + θ) ∀θ ∈ [−h, 0] , (9.9)
xt0 = ψ. (9.10)
Ici, h ≥ 0 est une constante (nie), x (t) ∈ Rn , t0 ∈ R, et ψ : [−h, 0] → Rn . La solution
t 7→ x (t) (t ≥ 0) du problème (9.9) (9.10) est le prolongement de la fonction intiale
t 7→ x (t) (t0 − h ≤ t ≤ t0 ).
Dénition 1. Soit un intervalle J ayant t0 comme borne gauche (incluse). Une
fonction x ∈ C 1 (J) est une solution du problème de Cauchy (9.9) (9.10) sur cet
intervalle J si elle vérie l'équation (9.9) avec les conditions initiales x (t0 ) = ψ (t0 )
et (9.10) en tous les points de J (c'est-à-dire, xt (t + θ) = ψ (t + θ − t0 ) ∀t − θ < t0 ).
Théorème 1. Soient ψ ∈ C [−h, 0] et une fonction vectorielle f : D → Rn , continue
et vériant dans le voisinage de tout couple (t, ψ) ∈ D une condition de Lipschitz
par rapport à son deuxième argument ψ (la constante de Lispchitz correspondante
dépendant, en général, de ce couple). Alors il existe un point tψ , t0 < tψ ≤ +∞
dépendant de ψ, t0 , f, tel que :

(a) il existe une solution x du problème (9.9)(9.10) sur J = [t0 , tψ [ ;


(b) sur tout intervalle [t0 , t1 ] ⊂ [t0 , tψ [ , cette solution est unique ;
(c) si tψ < +∞ alors x (t) n'a pas de limite nie quand t → tψ ;
(d) la solution x dépend continûment de f et ψ.

La dernière proposition (d) signie que : ∀t1 ∈ [t0 , tψ ] et ∀ε > 0, ∃δ > 0 tel que si,
dans (9.9) (9.10), f et ψ sont remplacées par f et ψ vériant les mêmes propriétés et
avec :
ψ − ψ < δ et f (t, ψ) − f (t, ψ) < δ pour t ∈ [t0 , t1 ] , (9.11)
C
alors la solution x du problème transformé vérie :
kx (t) − x (t)k < ε pour t ∈ [t0 , t1 ] . (9.12)
Par ailleurs, en prenant t − t0 comme nouvelle variable indépendante, il est possible
d'étudier de la même façon la dépendance de la solution envers le point initial t0 de
la même façon que sa dépendance envers f .
328 Mathématiques pour les systèmes dynamiques

Démonstration : [points (a) et (b)] en intégrant les deux membres de l'équation (9.9),
on constate que le problème (9.9)(9.10) est équivalent à l'existence d'une solution
continue pour l'équation intégro-diérentielle :
Zt
x (t) = ψ (0) + f (τ , xτ ) dτ , t ∈ Jx . (9.13)
t0

Considérons le membre de droite de cette équation en tant qu'opérateur dans l'espace


métrique {x ∈ C ([t0 , t0 + α] , [ψ (0) − β, ψ (0) + β]) , x (t0 ) = ψ (0)}, où α, β > 0 sont
des constantes susamment petites. Le theorème de Banach (principe d'application
contractante [RIC 01]) garantit l'existence et l'unicité de la solution pour tout inter-
valle [t0 , t0 + α] susamment petit. On en déduit l'unicité de la solution pour tout
intervalle d'existence : en eet, s'il existe deux solutions
x1 et x2 , alors en décalant
le point initial de t0 à inf t > t0 : x1 (t) 6= x2 (t) , nous obtenons une contradiction.
En eectuant l'union de tous les intervalles [t0 , t1 ] , {t0 < t1 < +∞} sur lesquels la so-
lution existe, nous obtenons l'intervalle maximal d'existence. Cet intervalle, de type
[t0 , tψ [, est ouvert à droite (t0 < tψ ≤ +∞). Ainsi, (a) et (b) sont démontrées.
[point (c)] Supposons que tψ < +∞ et qu'il existe x (tψ ) = limt→t− [x (t)]. Alors,
ψ
la fonction x complétée par x (tψ ) est continue sur [t0 , tψ ] . Puisque f est continue,
l'équation (9.13) est également valable pour t = tψ , et la solution existe donc sur
[t0 , tψ ] . Or ceci contredit la dénition de tψ . La limite nie x (tψ ) ne peut donc
exister, ce qui prouve (c).
[point (d)] Supposons que t ∈ ]t0 , tψ [ et ε > 0 sont xés, avec ε assez petit pour
que la fonction (t, ψ) 7→ f (t, ψ) soit bornée et lipschitzienne en ψ dans la bande
t0 < t < t1 , kψ − xt kC < ε (un tel ε existe d'après les hypothèses sur f ). Nous
constatons alors que si l'équation (9.11) est vériée pour un δ > 0 susamment faible
alors l'égalité kx (t) − x (t)k = ε est impossible pour t ∈ [t0 , t1 ] . Il s'en suit que x (t)
est borné et, d'après (c), que l'équation (9.12) est vériée.
Inversement, supposons qu'il n'existe pas δ > 0 vériant (9.11). Alors, il doit exister
des suites δ k → 0 (δ k ∈ (0, ε)), f k et ψ k vériant pour chaque k la propriété corres-
pondante (9.11) et telles que pour des points tk ∈ ]t0 , t1 ] les solutions xk du problème
correspondant (9.9) (9.10) satisfassent :
kx (t) − xk (t)k < ε (t0 ≤ t < tk ) , kx (tk ) − xk (tk )k = ε. (9.14)
L'ensemble des fonctions xk : [t0 , tk ] → Rn étant uniformément borné et équicontinu,
le lemme d'Ascoli-Arzela [RIC 01] permet   le passage
  à des sous-suites (uniformément
convergentes sur chaque intervalle t0 , t ⊂ t0 , t ), tk → t > t0 , xk → x pour
k → +∞. La fonction x est uniformément
 continue sur t0 , t et peut donc être
prolongée sur t0 , t avec x t − x t = lim kx (tk ) − xk (tk )k = ε. La fonction xk
est la solution du problème :
Zt
xk (t) = ψ k (0) + f k (τ , xkτ ) dτ , t ∈ [t0 , tk ] ,
t0

xk (t) = ψ k (t − t0 ) , t ∈ [t0 − h, t0 ] .
Equations diérentielles à retard 329

 
Eectuons le passage à la limite k → +∞ sur tout intervalle ci-dessus t0 , et en
utilisant la majoration suivante :
t
Z Zt

f k (τ , xkτ ) dτ − f (τ , xτ ) dτ


t0 t0

Z te Z et

≤ f (τ , xkτ ) − f (τ , xτ ) dτ − kf (τ , xkτ ) − f (τ , xτ )k dτ .
k
t0 t0

Les deux termes du membre de droite tendent vers 0 pour k → +∞ : le premier par la
convergence uniforme de f k vers f dans la bande t0 < t < t1 , kψ − xt k < ε ; le second
à cause des propriétés
 de Lipschitz de f en ψ (dans la même bande). Donc, x vérie 
(9.13) sur t0 , et avec la condition

initiale

(9.10). D'après

(c),

x (t) = x (t) , ∀t ∈ t0 , e
t .
Ceci étant vrai pour tout et ∈ t0 , t , il vient x t = x t , ce qui est impossible. Il
doit donc exister δ > 0 vériant (9.11), ce qui termine la preuve du point (d).

9.4. Méthode pas à pas

Il est rare de pouvoir obtenir l'expression analytique de la solution d'une équation


diérentielle fonctionnelle générale. Cependant, dans le cas d'équations retardées à
retards ponctuels, il est quelquefois possible d'utiliser la méthode dite pas à pas. Nous
la présenterons ici dans le cas scalaire :
(9.15)
.
x(t) = f (t, x (t) , x (t − h)) ,
t > t0 , h > 0 constant.

La fonction f : [t0 − h, +∞[ × R2 → R est continue, lipschitzienne en son second


argument. La fonction initiale ψ (t) de l'équation (9.15) est continue, donnée sur
l'intervalle [t0 − h, t0 ] .
Le  premier pas  correspond à l'intervalle t ∈ [t0 , t0 + h]. Pour ces valeurs de t,
l'équation (9.15) devient une équation diérentielle ordinaire :
.
x(t) = f (t, x (t) , ψ (t − h)) , t ∈ [t0 , t0 + h] ,

qui peut généralement être résolue pour la condition initiale x (t0 ) = ψ (t0 ), puisque
nous sommes dans le cas scalaire. Le résultat donne la solution sur [t0 , t0 + h], qui à
son tour conduit au  deuxième pas  de résolution pour t ∈ [t0 + h, t0 + 2h] , dans
lequel la fonction x (t − h) est connue, issue du pas précédent. Cette EDO est à son
tour résolue pour la condition initiale x (t0 + h) , et ainsi de suite.
Considérons par exemple le système suivant, où α est une constante :
(9.16)
.
x(t) = αx (t − h) ,
ψ (t) ≡ ψ 0 (constante) ∀t ∈ [t0 − h, t0 ] ,
330 Mathématiques pour les systèmes dynamiques

pour lequel la méthode pas à pas nous donne la solution, pour t ∈ [t0 , +∞[ :
X
+∞ k
α
x (t) = ψ 0 [t − t0 − (k − 1) h]k ω (t − t0 − (k − 1) h) , (9.17)
k!
k=0
 
signe(θ)
avec la notation ω (θ) , 1 + 2
.

La régularité de la solution croît donc avec le temps. Cette propriété est par ailleurs
une caractéristique générale des équations diérentielles retardées.

9.5. Stabilité des systèmes à retards

Le problème de la stabilité des EDR se pose très concrètement lors de la synthèse


des asservissements, puisque la présence d'un retard dans un système bouclé conduit
le plus souvent à des oscillations, voire des instabilités. Si la nature mathématique du
phénomène de retard n'est pas prise en compte, la seule alternative de synthèse est de
prévoir des marges de robustesse excessives, réduisant dénitivement les performances
dynamiques. Il est donc important de disposer d'outils spéciques. Diverses mé-
thodes sont disponibles (voir des bilans dans [DAM 93, DUG 97, KON 86, NIC 97]) :
approches fréquentielles [BEL 63, GOR 89, STE 89], méthodes de type Liapounov
[BUR 85, KOL 92, KON 86, KOS 96] ou Popov [HAL 66], théorèmes de compa-
raison [LAK 69, RIG 97], approches métriques [DRI 77, ELS 73, HAL 91], théo-
rie des opérateurs [DIE 95], faisceaux matriciels [NIC 97], systèmes stochastiques
[KOL 99, KOS 96], etc. Nous ne présenterons ici que quelques uns de ces résultats :
ils servent en général de base commune à toutes les méthodes d'investigation de la
stabilité.

9.5.1. Notion d'équilibre pour une EDR


Considérons à nouveau le système (9.9)-(9.10), soit :
(9.18)
.
x(t) = f (t, xt ) ,
xt0 = ψ, ψ ∈ C [−h, 0] .

Nous supposerons que f (t, ϕ) est continue, bornée pour ϕ bornée, localement lip-
schitzienne en ϕ. La solution de (9.18) est notée x (t, t0 , ψ) .
Dénition 2. La fonction ϕe ∈ C [−h, 0] est un état d'équilibre de (9.18) si pour
tout t0 ∈ R, la solution x (t, t0 , ϕe ) existe et vérie x (t, t0 , ϕe ) = ϕe .
Théorème 2. [DAM 93] La fonction ϕe ∈ C [−h, 0] est un état d'équilibre de (9.18)
si et seulement si les trois conditions suivantes sont vériées :

(i) ∀t0 ∈ R, x (t, t0 , ϕe ) existe et est unique ;


(ii) ∀t ∈ R, f (t, ϕe ) = 0 ;
Equations diérentielles à retard 331

(iii) ϕe est une fonction constante de C [−h, 0] : ∀θ ∈ [−h, 0] , ϕe (θ) = xe .

On parlera donc indiéremment d'état d'équilibre (ϕe ) ou de point d'équilibre


(xe ).

9.5.2. Dénitions relatives à la stabilité des EDR

Nous faisons ici l'hypothèse que le système (9.18) possède un équilibre, placé à
l'origine sans réduction de généralité, et donc que f (t, 0) ≡ 0.
Dénition 3. L'équilibre x = 0 du problème (9.18) (avec ψ = 0) est dit :

1. stable si ∀ε > 0, ∀t0 , ∃δ = δ (t0 , ε) > 0, ψ ∈ Bδ ⇒ x (t, t0 , ψ) ∈ Bε ;


2. uniformément stable par rapport à t0 si la propriété précédente est vériée avec
δ = δ (ε) (donc δ indépendant de t0 ) ;

3. asymptotiquement stable s'il est stable et s'il existe η = η (t0 ) > 0 tel que
[ψ ∈ Bη ] ⇒ [limt→∞ x (t, t0 , ψ) = 0] ;

4. uniformément asymptotiquement stable s'il est uniformément stable et si la


limite de la propriété précédente est uniforme, c'est-à-dire si ∃η > 0 : ∀γ >
0, ∃T (γ) > 0 : [ψ ∈ Bη et t ≥ T (γ)] ⇒ [x (t, t0 , ψ) ∈ Bγ ] ∀t0 ;

5. globalement (uniformément) asymptotiquement stable s'il est (uniformément)


asymptotiquement stable avec η = +∞.

9.5.3. Stabilité des systèmes linéaires stationnaires

Dans cette section, on parlera indiéremment de la stabilité asymptotique de


l'équilibre ou du système : en eet dans le cas linéaire stationnaire, un point d'équi-
libre, s'il est asymptotiquement stable, est forcément unique (la propriété est globale
et uniforme).
La stabilité d'un système linéaire stationnaire retardé est déterminée par la po-
sition des racines de son équation caractéristique par rapport à l'axe imaginaire. Le
système est globalement asymptotiquement stable si et seulement si toutes les racines
sont dans le demi-plan complexe gauche (l'axe imaginaire étant exclu). On retrouve
ici la même propriété que dans le cas des équations ordinaires : par contre, l'équa-
tion caractéristique étant ici un quasi-polynôme [RIC 01], des tests simples de cette
propriété (comme le critère de Routh-Hurwitz) ne sont plus disponibles.
332 Mathématiques pour les systèmes dynamiques

Considérons l'équation générale5 suivante à retard quelconque (ni ou inni, ponc-


tuel ou distribué) :
Z0
(9.19)
.
x (t) = [dK (θ)] x (t + θ) , x (t) ∈ Rn , t ≥ 0,
−∞

x (θ) = ψ (θ) ∀θ ∈ ]−∞, 0] ,

où l'intégrale est dénie au sens de Stieljes [RIC 01], avec K (θ) une matrice n × n
dont les coecients kij sont des fonctions de θ ∈ ]−∞, 0] et à variations bornées. La
transformation de Laplace appliquée à (9.19) conduit à :
 
sI − K (s) x (s) = ψ (0) + F (s) , s ∈ C,
Z−t Z0
avec F (t) = [dK (θ)] ψ (t + θ) , F (s) = e−sθ F (θ) dθ,
−∞ −∞

Z0 Z0
K (s) = esθ dK (θ) , x (s) = e−sθ x (θ) dθ.
−∞ −∞

L'équation caractéristique correspondante est :


 
∆ (s) = det sI − K (s) = 0. (9.20)

Elle a généralement un nombre inni de solutions dans le plan complexe : dans le cas
contraire (nombre ni de racines) on parle d'EDR dégénérée.
Théorème 3. Le système (9.19) est asymptotiquement stable si les racines de (9.20)
sont dans le demi-plan gauche strict ( Réel(s) < 0) et si toutes les fonctions kij
(i,j=1,...,n) vérient :
Z0
|θ| |dkij (θ)| < +∞.
−∞

De nombreuses méthodes ont été élaborées pour localiser les racines de (9.20) (voir
par exemple [DAM 93, KON 86] ainsi que le Chapitre 10 de [RIC 01]). Le problème
n'est pas simple dès l'instant où l'ordre n grandit, ou bien lorsque quelques paramètres
de réglage (notamment le retard) sont conservés formellement.
Exemple 1. Considérons l'équation x. (t) = −x (t − 1) . Son équation caractéristique
est s + e−s = 0, dont les solutions s = α ± jβ sont en nombre inni. Le système n'est
donc pas dégénéré. Ici, s = −0.318 ± 1.337j est une estimation de la paire de racines
de plus grande partie réelle : il y a donc stabilité asymptotique6 . Par contre, le cas
5 Le théorème de Riesz [RIC 01] assure l'existence de la fonction (dite canonique) K im-

pliquée dans (9.19) pour toute fonctionnelle linéaire continue g(xt ).


6 On a en fait α ∈ ]−0.3181, −0.3182[ . Les racines sont situées à l'intersection des courbes
p
β = ±e−α (1 − α2 e2α ) et β = arccos (−αeα ) .
Equations diérentielles à retard 333

suivant est dégénéré et instable :


   
0 1 0 0 1 0
x (t) =  − 21 1  x (t) +  0 −1  x (t − h) ,
.
0 0
0 − 12 0 0 0 0

∆ (s) = s s2 − 1 .
Exemple 2. Considérons le système (9.19) dans sa forme scalaire :
Z0
.
x (t) = x (t + θ) dk (θ) ,
−∞

et supposons que le noyau k(s) est une fonction non croissante (dk (θ) ≤ 0), constante
sur l'intervalle θ ≤ −h < 0 (par conséquent, l'eet de retard à l'instant t est limité
aux instants [t − h, t]) :
Z0
(9.21)
.
x (t) = x (t + θ) dk (θ) .
−h

Alors, (9.21) est asymptotiquement stable si :


Z0 Z0
π
γ0 = dk (θ) < 0 et γ 1 = |dk (θ)| < .
2h
−h −h

Démonstration : pour s = α + jβ , l'équation (9.20) s'écrit :


Z0
Im ∆ (s) = β − eαθ sin βθ dk (θ) = 0, (9.22)
−h

Z0
Re ∆ (s) = α − eαθ cos βθ dk (θ) = 0. (9.23)
−h

Or, ces deux équations ne peuvent être simultanément vériées pour α ≥ 0 :


R0
si |β| < π
2h
, alors (9.23) n'a pas de racine puisque α − eαθ cos βθ dk (θ) ≥
−h
R0
− eαθ cos βθ dk (θ) ≥ −γ 0 e−αh cos βh > 0 ; si |β| > 2h π
, alors (9.22) n'a pas
−h
R0 R0
de racine puisque eαθ sin βθ dk (θ) ≤ dk (θ) < 2h
π
.
−h −h

9.5.4. Première méthode de Liapounov


L'approximation au premier ordre (ou approximation des petits mouvements, ou
système linéarisé tangent), bien connue pour les EDO (voir le chapitre 5), est encore
334 Mathématiques pour les systèmes dynamiques

valable dans le cas des systèmes à retards. Considérons :


X
k
ẋ(t) = Ai x(t − hi ) + q(t, xt ) (9.24)
i=0

q(t, xt ) = q(t, x(t), x(t − τ 1 (t)), ..., x(t − τ k (t)),


h0 = 0, hi = constantes, τ j (t) ∈ [0, τ i ] continues,
kui k ≤ ε ⇒ kq(t, u0 , ..., uk )k ≤ β ε (ku0 k + ... + kuk k),

avec β ε = constante pour ε donné, β ε uniformément décroissante vers 0 quand ε → 0.


L'approximation au premier ordre est dénie par :
X
k
(9.25)
.
z(t) = Ai z(t − hi ).
i=0

Théorème 4. [ELS 73] Si le système linéarisé (9.25) est asymptotiquement stable,


alors z = 0 l'est aussi pour (9.24). Si (9.25) a au moins une racine caractéristique à
partie réelle positive, alors z = 0 est instable pour (9.24).

9.5.5. Cas des retards faibles


Le résultat précédent peut être utilement complété par une approximation des
petits retards, résultat de nature qualitative obtenu par continuité des racines carac-
téristiques de (9.25) vis-à-vis des retards hi .
P
Théorème 5. [ELS 73] Si A = ki=0 Ai est de Hurwitz (respectivement, instable),
alors pour des valeurs susamment faibles des retards hi , la solution nulle z = 0 est
asymptotiquement stable (respectivement, instable) pour (9.25) et donc (9.24). Si, sur
les n valeurs propres de A, n − 1 ont des parties réelles strictement négatives et la
n−ième est nulle, alors, pour des valeurs susamment faibles des hi , z = 0 est stable
pour (9.25) et donc pour (9.24).
Dans le cas d'un retard unique, une estimation quantitative des  petits  retards
conservant la stabilité est donnée par le théorème suivant. Nous considérons ici le
système linéaire à retard constant :
dz(t)
= A0 z(t) + A1 z(t − h), (9.26)
dt
qui, pour un retard nul, devient :
dz(t)
= (A0 + A1 ) z(t). (9.27)
dt
Théorème 6. [GOU 02] Si le système à retard nul (9.27) est asymptotiquement stable
et si P est la matrice solution de l'équation de Liapounov (où Q est une matrice réelle
dénie positive [RIC 01]) :
(A0 + A1 )T P + P (A0 + A1 ) = −QT Q, (9.28)
Equations diérentielles à retard 335

alors (9.26) est asymptotiquement stable pour tout retard h ∈ [0, hmax ] :
1h i− 1
2
hmax = λmax (B T B) , avec B = Q−T AT1 P (A0 + A1 ) Q−1 . (9.29)
2

Démonstration : le principe de la démonstration sera donné dans la section suivante


(exemple 4).

9.5.6. Méthode directe de Liapounov


La méthode directe de Liapounov reste l'outil le plus puissant pour étudier la
stabilité des équations à retards. Comme en dimension nie (voir le chapitre 5),
elle conduit généralement à des conditions seulement susantes. Par contre, vu la
diculté du calcul des racines caractéristiques, son emploi se justie très souvent,
même dans le cas linéaire.
Dénition 4. Une fonction scalaire ω : [0, +∞[ → [0, +∞[ est dite dénie positive
si elle est continue et vérie ω (r) > 0 pour r > 0, et ω (0) = 0. Une matrice carrée
réelle Q est dénie positive si ω (x) = xT Qx l'est (donc si et seulement si ses valeurs
propres λi vérientλi > 0).
Dénition 5. Soit V une fonctionnelle vériant les propriétés suivantes :
(a) V : R × Bh → R (h > 0) est continue, avec V (t, 0) = 0 pour tout t.
(b) il existe des fonctions scalaires ω 1 , ω 2 dénies positives, non décroissantes, telles
que : 
ω 1 (ϕ (0)) ≤ V (t, ϕ) ≤ ω 2 kϕkC ∀t. (9.30)

La dérivée totale de la fonctionnelle V (t, ϕ) le long des solutions de (9.18) est


alors dénie par :
. 1
V (t, ϕ) , lim sup [V (t + ε, x (t + ε, t, ϕ)) − V (t, ϕ)] .
ε→0+ ε
Théorème 7. S'il existe une fonctionnelle V (t, ϕ) vériant les propriétés (a) et (b)
ci-dessus et, pour tout t0 et tout t ≥ t0 :
.
V (t, ϕ) ≤ −ω 3 (ϕ (0)) , (9.31)
où ω3 est dénie positive, non décroissante, alors l'équilibre x = 0 de l'EDR (9.18)
est uniformément asymptotiquement stable.
Démonstration : soient ε > 0 et δ ≤ h choisi tel que ω2 (δ) ≤ ω 1 (ε). Alors, pour
toute fonction
 initiale ϕ ∈ Bδ , on a ω1 (kx (t, t0 , ϕ)k) ≤ V (t, xt ) ≤ V (t, ϕ) ≤
ω 2 kϕkC ≤ ω 1 (ε). Ainsi, kx (t, t0 , ϕ)k ≤ ε ∀t ≥ t0 , prouvant la stabilité uniforme.
Montrons maintenant que limt→+∞ x (t) = 0 pour toute fonction initiale ϕ ∈ Bη
où η vérie 0 < η ≤ h et ω2 (η) ≤ ω 1 (h). Comme pour la preuve de stabilité, on
déduit kx (t, t0 , ϕ)k ≤ h ∀ϕ ∈ Bη . Donc x (t, t0 , ϕ) ≤ c < ∞. Supposons que
.

pour une condition initiale ϕ ∈ Bη la solution x (t, t0 , ϕ) ne tende pas vers 0 quand
t → +∞. Alors, il doit exister ε > 0 et une suite {ti } , limi→+∞ ti → +∞ tels que
336 Mathématiques pour les systèmes dynamiques

.
kx (ti , t0 , ϕ)k ≥ ε. Or, x (t, t0 , ϕ) ≤ c < ∞ et donc ti+1 − ti ≥ 2∆, ∆ = 2c ε
,
et kx (ti + τ , t0 , ϕ)k ≥ 2 pour tout τ tel que |τ | ≤ ∆. Pour ces instants τ , (9.31)
ε
.
implique que pour un α > 0, V (ti + τ , xti +τ ) ≤ −α. Notons V (t) = V (t, xt ) et
P (t) le nombre de points ti tels que t0 + ∆ ≤ ti ≤ t − ∆. Alors, V (t) − V (t0 ) ≤
N
t0 +∆≤ti ≤t−∆ [V (ti + ∆) − V (ti − ∆)] ≤ −2∆αN (t) . Comme N (t) → +∞ pour
t → +∞, on en déduit que V (t) → −∞ pour t → +∞, ce qui est impossible car
V (t) ≥ 0.
Exemple 3. Considérons l'équation scalaire
Z +∞
(9.32)
.
x (t) = −ax (t) + x (t − θ) dk (θ) , t ≥ 0,
0

où a est une constante positive et k (t) est une fonction à variation bornée sur [0, +∞[ .
Considérons la fonctionnelle de Liapounov suivante :
Z +∞ Z t
V (t, xt ) = x2 (t) + |dk (θ)| x2 (τ ) dτ . (9.33)
0 t−θ

La dérivée de (9.33) le long de (9.32) est :


 Z +∞ 
.
V (t, xt ) = 2x (t) −ax (t) + x (t − θ) dk (θ)
0
Z +∞ Z +∞
+ x2 (t) |dk (θ)| − x2 (t − θ) |dk (θ)| .
0 0

Remarquons que :
Z Z Z
+∞ +∞ +∞
2 x (t) x (t-θ) dk (θ) ≤ x2 (t) |dk (θ)| + x2 (t-θ) |dk (θ)| .
0 0 0

L'équilibre x = 0 est donc asymptotiquement stable pour (9.32) si :


Z +∞ Z +∞
a> |dk (θ)| , θ |dk (θ)| < +∞,
0 0

puisque sous ces deux conditions les hypothèses (9.30) (9.31) sont validées.
Exemple 4. La démonstration du théorème 6 utilise h la fonctionnelle
Rt
dei Liapou-
nov V = V1 + V2 , V1 = αy(t)T P y(t), y(t) = z(t) + t−τ A1 z(θ)dθ , V2 =
Rt hR i
z T (v)QT Qz(v)dv dθ. En remarquant que y(t) = (A0 + A1 ) z(t), on vériera
t .
t−τ θ
.
que la dérivée V est négative sous la condition (9.29).

9.5.7. Stabilité et équations de Riccati


Depuis une vingtaine d'années, diverses méthodes de construction de fonction-
nelles de Liapounov pour des équations particulières ont été proposées (voir par
Equations diérentielles à retard 337

exemple [DUG 97, KOL 92, KON 86, NIC 97] et les références incluses). Les théo-
rèmes qui suivent sont une application du théorème 7 aux systèmes linéaires, per-
mettant de formuler des conditions de stabilité en terme d'existence d'une solution
positive dénie à certaines équations de Riccati (voir le chapitre 9 de [RIC 01]) auxi-
liaires. Pour ne pas alourdir la présentation, nous traiterons ici les seuls systèmes à
retards ponctuels :
X
m
ẋ(t) = Ai x(t − hi ). (9.34)
i=1

Un cas plus général, incluant les modèles à retards distribués, est traité dans
[KOR 99]. De même, les conditions peuvent plus généralement concerner la stabi-
lité dépendante de certains retards et indépendante des autres [KNR 99]. Notons que
les équations de Riccati obtenues conduisent, à leur tour, à des conditions de type
LMIs (voir [RIC 01] chapitre 12).
Nous utiliserons les notations suivantes :
X
m X
m
A= Ai , Aij = Ai Aj , hij = hi + hj , h= hi .
i=1 i=1

Théorème 8. Le système (9.34) est asymptotiquement stable si, pour deux matrices
symétriques et dénies positives R, Q, il existe une matrice dénie positive P solution
de l'équation de Riccati :
X
m
AT P + P A + mRh + P hi Aij R−1 ATij P = −Q. (9.35)
i,j=1

Démonstration : on choisit la fonctionnelle V = V1 + .V2 , V1 = xT (t)P x(t),


Pm R hij Rt
i,j=1 hj ds t−s x (τ )Rx(τ)dτ , conduisant à V = −xT (t) Qx (t) −
T
V2 =
Pm R t−hij T
i,j=1 t−hj [Rx (θ) + Aij P x (t)]R
−1
[Rx (θ) + ATij P x (t)]T dθ.
Théorème
P R t 9. Le système (9.34) est asymptotiquement stable si l'équation x(t) +
m
i=1 Ai t−hi
x(s)ds = 0 l'est et si, pour des matrices symétriques et dénies positives
Ri [i∈{1,...,m}] , Q, il existe une matrice dénie positive P solution de l'équation de
Riccati :
X
m X
m
AT P + P A + Ri hi + AT P Ai Ri−1 ATi P Ahi = −Q. (9.36)
i=1 i,j=1

Démonstration : Pbasée R sur la fonctionnelle PV (t, xtR) = V1 + V2 ,


V1 = [x(t) + m
i=1 A i
t
x(s)ds]T
P [x(t) + m
i=1 A i
t
x(s)ds], V2 =
Pm R hi R t t−hi t−hi

i=1 0 ds t−s x (τ )Ri x(τ )dτ .


T

Théorème 10. Le système (9.34) est asymptotiquement stable si, pour deux matrices
symétriques et dénies positives R, Q, il existe une matrice dénie positive P solution
de l'équation de Riccati :
X
m
AT P + P A + (hi P Ai R−1 BiT P + mhATi RAi ) = −Q. (9.37)
i=1
338 Mathématiques pour les systèmes dynamiques

Démonstration : basée sur la fonctionnelle V (t, xt ) =RV1 + V2 + V3 , V1 = xT (t)P x(t),


Pm R hi R t P
V2 = i=1 0 ds t−s ẋT (τ )Rẋ(τ )dτ , V3 = mh m i=1 t−hi x (s)Ai RAi x(s)ds.
t T T

Remarque 1. Si dans les trois théorèmes précédents, les retards hi sont tous nuls, les
trois équations de Riccati coïncident avec l'équation de Liapounov du système linéaire
ordinaire ẋ = Ax et les conditions susantes présentées sont également nécessaires.
Ceci donne à penser que ces conditions sont peu conservatives pour des retards faibles.
Exemple 5. Considérons le système du second ordre avec un nombre quelconque m
de retards hi ≥ 0 (et α, β deux constantes) :
X
m  
−α β
ẋ(t) = B x(t − hi ), B= .
−β −α
i=1

Les trois théorèmes donnent la même condition (susante) : 0 ≤ h < α


α2 +β 2
.
Exemple 6. Considérons le système (9.34) avec m = 2 :
   
−α1 β1 −α2 β2
ẋ(t) = x(t − h1 ) + x(t − h2 ).
−β 1 −α1 −β 2 −α2

En posant µ2i = α2i + β 2i (i=1,2) , les équations (9.35) et (9.37) conduisent à :


 (α1 + α2 )2
(h1 + h2 ) h1 µ21 + h2 µ22 < ,
2 (µ21 + µ22 )
alors que (9.36) donne une condition moins contraignante, obtenue en choisissant
R1 = |µ1 | I, R2 = |µ2 | I :
 (α1 + α2 )2
(h1 + h2 ) h1 µ21 + h2 µ22 < .
2 (µ21 + µ22 )
Ce dernier exemple montre que les conditions issues des trois équations de Riccati
(9.35), (9.36) et (9.37) ne sont pas équivalentes.

9.5.8. Principe de comparaison


Le principe général de cette approche (déjà rencontrée au chapitre 5 dans le cas des
EDO, voir dénition page 223) est de comparer les solutions des équations d'origine
avec celles d'un système auxiliaire (sensé être plus simple) appelé système de com-
paraison. Celui-ci est en général obtenu à partir d'inégalités diérentielles [LAK 69]
vériées par le système d'origine. Le principe de comparaison s'applique à une classe
très large de systèmes7 , ordinaires comme fonctionnels, et dans cette partie nous
l'illustrerons principalement dans le cas linéaire non stationnaire :
ẋ(t) = A (t) x (t) + B (t) x (t − h (t)) , t ≥ t0 , (9.38)
x (t0 + θ) = ϕ (θ) , ∀θ ≤ 0. (9.39)
7
Voir des articles de synthèse comme [BOR 02, RIG 97] qui concernent des cas présentant
des non-linéarités, discontinuités, retards multiples, systèmes neutres, etc.
Equations diérentielles à retard 339

Les coecients des matrices A (t) = (aij (t)) et B (t) = (bij (t)) , ainsi que le re-
tard h (t) ≥ 0, sont supposés continus. Nous emploierons les notations A+ (t) et
|B (t)| , |x (t)| dénies dans la section  Notations complémentaires .
Considérons une fonction de comparaison z (t) ∈ Rn vériant l'inégalité diéren-
tielle :
z(t) ≥ A+ (t) z (t) + |B (t)| z (t − h (t)) , (9.40)
.
∀t ≥ t0 ,
|z (t0 + θ)| ≥ |ϕ (θ)| , ∀θ ≤ 0. (9.41)
Théorème 11. Pour toute fonction z (t) satisfaisant (9.40) (9.41), on a :
z (t) ≥ |x (t)| ≥ 0 ∀t ∈ R,
où x (t) est la solution du système (9.38) (9.39).
Démonstration : montrons tout d'abord que si ϕ 6= 0, alors z (t) ≥ 0, ∀t ≥ t0 8 . D'après
(9.41), ceci est vrai pour t = t0 . Par contradiction, notons τ > t0 le premier point où
une composante de z s'annule, zj (τ ) = 0. En ce point, d'après (9.40), z j (τ ) ≥ 0 et
.

zj (t) ne peut donc devenir négative.


Soit maintenant ε ∈ ]0, 1] , et xε (t) la solution du problème de Cauchy :
x (t) = [A (t) − εI] xε (t) + B (t) xε (t-h (t)) , ∀t ≥ t0 , (9.42)

x (t0 + θ) = (1 − ε) ϕ (θ) ,
ε
∀θ ≤ 0. (9.43)
Montrons que :
|xε (t)| < z (t) ,
∀t ≥ t0 . (9.44)
D'après (9.41) (9.43), (9.44) est vraie pour t = t0 . Par contradiction, notons τ >
t0 le premier point

l'inégalité stricte (9.44) devient une égalité pour une de ses
composantes, xεj (τ ) = zj (τ ) . Considérons tout d'abord le cas xεj (τ ) > 0. D'après
(9.42) (9.41),
xj (τ ) − z j (τ ) ≤ −εxεj (τ ) + A (τ ) xε (τ ) − A+ (τ ) z (τ )
.ε .

+ B (τ ) xε (τ − h (τ )) − |B (τ )| z (τ − h (τ ))
≤ −εxεj (τ ) + A+ (τ ) [|xε (τ )| − z (τ )]
+ |B (τ )| [|xε (τ − h (τ ))| − z (τ − h (τ ))]
≤ −εxεj (τ ) < 0.
Ceci contredit la dénition de τ . Le cas xεj (τ ) < 0 se traite de même, conduisant à
−xj (τ )− z j (τ ) ≤ εxεj (τ ) < 0. La preuve est obtenue en passant à la limite, en notant
.ε .

que limε→0 xε (t) = x (t).


Plusieurs résultats ont été obtenus à partir de l'utilisation du système de compa-
raison correspondant à l'égalité dans (9.40) et (9.41), soit :
 
z(t) = sup A+ (t) z (t) + sup [|B (t)|] z (t − h (t)) ,
.
∀t ≥ t0 ,
t t

ainsi que du lemme suivant permettant de conclure à la stabilité des systèmes linéaires
stationnaires obtenus par majoration.
8
on peut plus strictement montrer kz (t)k > 0 en utilisant un passage à la limite analogue
à celui de la deuxième partie de cette démonstration.
340 Mathématiques pour les systèmes dynamiques

Lemme 1. [GOU 97] Soient A, B1 et B2 des matrices n × n réelles, h1 et h2 des


constantes positives ou nulles, et soit le système (t ≥ 0) :
z(t) = A+ z(t) + |B1 | sup z(t − θ) + |B2 | sup z(t − θ). (9.45)
.

0≤θ≤h1 0≤θ≤h2

Si (A+ + |B1 | + |B2 |) est de Hurwitz9 , alors la solution z = 0 est asymptotiquement


stable pour (9.45).
Théorème 12. [GOU 97] L'équilibre x = 0 du système linéaire perturbé :
ẋ(t) = Ax(t) + Bx(t − h(t))
+ f (x(t), t) + g(x(t − h(t), t)
|f (x, t)| ≤ F |x| , |g(x, t)| ≤ G |x| ,
0 ≤ h(t) ≤ hmax , B = B 0 + B 00 ,

est asymptotiquement stable si la matrice (A + B 0 )+ + |B 00 | + F + G +


hmax [|B 0 A| + |B 0 B| + |B 0 | (F + G)] est de Hurwitz.
Si B 0 est choisie nulle, on obtient le corollaire suivant.
Corollaire 1. L'équilibre x = 0 de (9.38) est asymptotiquement
 stable si A+ + |B|
est une matrice de Hurwitz, avec A = supt A (t) < ∞ et |B| = supt [|B (t)|] < ∞.
+ +

Cette deuxième condition est indépendante du retard, mais nécessite que A+ soit
une matrice de Hurwitz. Elle ne permet donc pas d'étudier un éventuel eet stabilisant
de la partie retardée B (t). Par contre, la précédente, qui dépend de la valeur maximale
du retard hmax , nécessite la stabilité asymptotique de (A + B 0 )+ mais non celle de A.

9.5.9. Exemple d'application


Les modèles retardés sont souvent proposés en biologie pour décrire la lutte des
espèces et leur dynamique de croissance. Considérons le modèle logistique suivant,
correspondant au cas où une ressource en nourriture est limitée mais se renouvelle de
façon autonome :  
x(t − h)
ẋ(t) = γ 1 − x(t). (9.46)
k
x(t) est le nombre d'individus dans la population, le retard h est le temps de repro-
duction de la nourriture (le retard est quelquefois interprété comme l'âge moyen des
reproducteurs). La constante γ est le coecient de Malthus de croissance linéaire.
La constante k est la population moyenne (d'équilibre) et est liée à la capacité de
l'environnement à nourrir la population.
Le système (9.46) a deux points d'équilbre : x = 0 (mort de l'espèce) et x = k
(population moyenne). Pour étudier ce second équilibre, on introduit le changement
de variable x (t) = k [1 + y (t)] , qui conduit au système d'équilibre y = 0 suivant :
(9.47)
.
y (t) = −γ y (t − h) [1 + y (t)] .
9 Elle est alors l'opposée d'une M-matrice (voir [RIC 01], chapitre 8).
Equations diérentielles à retard 341

Nous étudierons la stabilité de y = 0 sur le système linéarisé y (t) = −γ y (t − h)


.

(théorème 4), qui est un cas particulier de l'intégrale de Stieljes (9.21) avec :

0 si θ < −h,
k (θ) =
γ si θ ≥ −h.

D'après l'exemple 2, la stabilité asymptotique (locale) de x = k pour (9.47) est


garantie si 0 < γ < 2h
π
.

9.6. Compléments bibliographiques

Comme l'attestent les très nombreux travaux paraissant aujourd'hui au niveau


international, les systèmes à retards constituent un champ d'étude important pour
l'automaticien. En complément aux références déjà citées dans l'introduction, citons
pour ce qui concerne les aspects fondamentaux de l'automatique (voir un bilan récent
dans [RIC 98] et les numéros spéciaux [LOR 97, RIK 98]) : modélisation [LOR 97],
outils pour la stabilité (cf. introduction du paragraphe 5), propriétés structurelles
[LOR 97, SEN 94], commande (placement de spectre [LOR 97, WAT 96], optimale
[KOL 99, KOS 96], suivi de modèle [LOI 97, PIC 98], platitude [MOU 98], modes
glissants [GOU 02], linéarisation [MOO 00]).
Parmi les ouvrages incluant des domaines d'application spéciques, citons l'éco-
logie [GOP 92], la biologie [MCD 78], la robotique [STE 89]. De nombreux exemples
sont également présentés dans [KOL 99, LOR 97, NIC 01, RIK 98].

9.7. Bibliographie
[BEL 63] Bellman R., Cooke K.L., Dierential dierence equations, Academic
Press, New York, 1963.
[BOR 02] Borne P., Richard J.P., Dambrine M., Perruquetti W.,  Vector
Lyapunov functions : Nonlinear, time-varying, ordinary and functional dif-
ferential equations , in Stability theory at the end of the XXth century,
Taylor & Francis, London, p. 49-73, 2002.
[BUR 85] Burton T.A., Stability and periodic solutions of ordinary and functional
dierential equations, Academic Press, Orlando, vol. 178, 1985.
[COR 80] Corduneanu C., Lakshmikantham V., Dierential-dierence equa-
tions, Academic Press, 1963.
[CRY 72] Cryer C.W.,  Numerical methods for functional dierential equations ,
in Delay and functional dierential equations and their applications , Aca-
demic Press, New York, 1972.
[DAM 93] Dambrine M., Contribution à l'étude de la stabilité des systèmes à re-
tards, Thèse de l'Université des sciences et technologies de Lille, n◦ 1386,
21 octobre 1993.
[DAM 93] Dambrine M., Richard J.P.  Stability analysis of time-delay systems ,
Dynamic Syst. & Applications, n◦ 2, p. 405-414, 1993.
342 Mathématiques pour les systèmes dynamiques

[DAM 94] Dambrine M., Richard J.P.,  Stability and stability domains analysis
for nonlinear, dierential-dierence equations , Dynamic Syst. & Applica-
tions, n◦ 3, p. 369-378, 1994.
[DIE 95] Diekmann O., von Gils S.A., Verduyn Lunel S.M., Walther H.O.,
 Delay equations, functional, complex and nonlinear analysis , Applied
Math. Sciences, 110, Springer, 1995.
[DRI 77] Driver R.D.,  Ordinary and delay dierential equations , Applied Math.
Sciences, Springer, 1977.
[DUG 97] Dugard L., Verriest E.I. (Eds.), Stability and control of time-delay
systems, Lecture Notes in Control and Inform. Sc., n◦ 228, Springer Verlag,
1997.
[ELS 73] El'sgol'ts L. E., Norkin S.B., Introduction to the theory and application
of dierential equations with deviating arguments, Academic Press, New
York, 1973.
[GOP 92] Gopalsamy K., Stability and oscillations in delay dierential equations of
population dynamics, Kluwer Academic Publ., 1992.
[GOR 89] Gorecki H., Fuksa S., Grabowski P., Korytowski A.,  Analysis
and synthesis of time delay systems , John Wiley & Sons, 1989.
[GOU 02] Gouaisbaut F., Perruquetti W., Richard J.P.,  Sliding mode
control for systems with time delay , Chapitre 11 de Sliding mode control
in engineering, Control Eng. Series, vol. 11, Marcel Dekker, 2002.
[GOU 97] Goubet-Bartholoméüs A., Dambrine M., Richard J.P.,  Stability
of perturbed systems with time-varying delay , Syst. & Control Letters,
n◦ 31, p. 155-163, 1997.
[HAL 66] Halanay A., Dierential equations : stability, oscillations, time lags, Aca-
demic Press, New York, 1966.
[HAL 91] Hale J.K., Verduyn Lunel S.M., Introduction to functional dierential
equations, Applied Math. Sciences, 99, Springer Verlag, 1991.
[KOL 92] Kolmanovskii V.B., Myshkis A.D., Applied theory of functional die-
rential equations, Kluwer Acad. Publ., 1992.
[KOL 99] Kolmanovskii V.B., Myshkis A.D., Introduction to the theory and ap-
plications of functional dierential equations, Kluwer Acad. Publ., 1999.
[KNR 99] Kolmanovskii V.B., Niculescu S.I., Richard J.P.,  On the
Lyapunov-Krasovskii functionals for stability analysis of linear delay sys-
tems , Int. J. Control, 72, p. 374-384, 1999.
[KON 86] Kolmanovskii V.B., Nosov V.R., Stability of functional dierential
equations, Academic Press, Londres, 1986.
[KOR 99] Kolmanovskii V.B., Richard J.P.,  Stability of some linear systems
with delays , IEEE Trans. Automat. Contr., vol. 44, n◦ 5, p. 984-989, 1999.
[KOS 96] Kolmanovskii V.B., Shaikhet L.E., Control of systems with after eect,
American Math. Society, RI, vol. 157, 1996.
[KUA 93] Kuang Y., Delay dierential equations with applications in population
dynamics, Academic Press, 1993.
[LAK 69] Lakshmikantham V., Leela S., Dierential and integral inequalities,
vol. II, Academic Press, New York, 1969.
[LOI 97] Loiseau J.J., Brethé D.,  2D exact model matching with stability,
the structural approach , Bulletin of the Polish Acad. of Sc., Technical
Sciences, vol. 45, n◦ 2, p. 309-317, 1997.
Equations diérentielles à retard 343

[LOR 97] Loiseau J.J., Rabah R.(Eds.),  Analysis and Control of Time-Delay
Systems , numéro spécial du Journal Européen des Systèmes Automatisés,
n◦ 6, Hermès, 1997.
[MCD 78] MacDonald N., Time lags in biological models, Lecture Notes in Bioma-
thematics, n◦ 27, Springer Verlag, 1978.
[MOO 00] Moog C.H., Castro-Linares R., Velasco-Villa M., Marquez-
Martinez L.A.,  The disturbance decoupling problem for time-delay non-
linear systems , IEEE Trans. Automat. Control, vol. 45, n◦ 2, p. 305-309,
2000.
[MOU 98] Mounier H., Rudolph J.,  Flatness based control of nonlinear delay
systems : a chemical reactor example , Int. J. Control, 71, p. 871-890,
1998.
[MYS 49] Myshkis A.D.,  General theory of dierential equations with delay ,
Uspehi Mat. Nauk., vol. 4, n◦ 5, 99-141, 1949 (en russe). Trad. anglaise
1951 : Transl. AMS, n◦ 55, p. 1-62.
[MYS 51] Myshkis A.D.,  Linear dierential equations with delay , Nauka, 1972
(éd. orig. 1951 ; Trad. allemande : Lineare dierentialgleichungen mit na-
cheilendem argument, VEB Deutsch. Verlag, Berlin, 1955).
[NIC 97] Niculescu S. I., Systèmes à retard. Aspects qualitatifs sur la stabilité et la
stabilisation, Diderot Multimedia, Paris, série  Nouveaux Essais , 1997.
[NIC 01] Niculescu S. I., Delay eects on stability, Lecture Notes in Control and
Inform. Sc., n◦ 269, Springer Verlag, 2001.
[PIC 98] Picard P., Ku¢era V., Lafay J.F.,  Model matching for linear systems
with delays and 2D systems , Automatica, vol. 34, n◦ 2, p. 183-193, 1998.
[RIC 98] Richard J.P.,  Some trends and tools for the study of time delay sys-
tems , Conférence plénière, 2nd Conf. IMACS-IEEE CESA'98 (Computa-
tional Eng. in Systems Applic.), vol. P, p. 27-43, Tunisie, avril 1998.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[RIG 97] Richard J.P., Goubet-Bartholoméüs A., Tchangani P.A., Dam-
brine M.,  Nonlinear delay systems : tools for a quantitative approach to
stabilization , chapitre 11 de [DUG 97], 1997.
[RIK 98] Richard J.P., Kolmanovskii V.B. (Eds.),  Delay systems , numéro
spécial de Mathematics & Computers in Simulation, vol. 45, n◦ 3-4, 1998.
[SEN 94] Sename O., Sur la commandabilité et le découplage des systèmes linéaires
à retards, Thèse de l'Université de Nantes - Ecole Centrale de Nantes,
octobre 1994.
[STE 89] Stépán G.  Retarded dynamical systems : stability and characteristic
functions , Research Notes in Math. Series, 210, John Wiley & Sons, 1989.
[TCH 98] Tchangani P.A., Dambrine M., Richard J.P., Kolmanovskii
V.B., Stability of nonlinear dierential equations with distributed delay ,
Nonlinear Analysis : Theory, Methods & Appl., 34, p. 1081-1095, 1998.
[VOL 09] Volterra V.,  Sulle equazioni integrodienziali della teorie dell' elasti-
cita , Atti. Accad. Lincei (18) 295, 1909.
[VOL 31] Volterra V., Théorie mathématique de la lutte pour la vie, Gautier-
Villars, 1931.
[WAT 96] Watanabe K., Nobuyama E., Kojima K.,  Recent advances in control
of time-delay systems : a tutorial review , Proc. 35th Conf. Decision &
Control, Kobe, Japon, p. 2083-2089, 1996.
Chapitre 10

Systèmes à paramètres distribués

10.1. Introduction

De nombreuses applications industrielles se modélisent naturellement sous forme


de systèmes à paramètres distribués (SPD). Leur comportement dynamique est dé-
crit, le plus souvent, par une ou plusieurs équations aux dérivées partielles (EDP),
les variables étant alors des fonctions du temps et de la variable spatiale, donc distri-
buées sur un domaine spatial : elles appartiennent à un espace de dimension innie.
La distinction entre le temps t ∈ R+ ou ]0, tf [ et la variable spatiale x ∈ Ω, avec Ω
un ouvert de Rn (domaine géométrique où est étudié le phénomène), correspond à la
réalité physique de la grande majorité des problèmes rencontrés en automatique ; elle
permet également d'envisager certaines classications des SPD. Ainsi, lorsqu'il n'y a
pas de dérivée partielle ∂t

dans les équations, le SPD constitue un problème station-
naire, dans le cas contraire il s'agit d'un problème d'évolution [DAU 88]. Lorsque,
dans un problème d'évolution, le temps n'apparaît pas explicitement dans les termes
aux dérivées partielles spatiales, le SPD constitue un problème d'évolution station-
naire, par analogie avec les systèmes à paramètres localisés (régis par des équations
diérentielles ordinaires) où le temps n'apparaît pas dans les coecients qui carac-
térisent le régime libre. D'autre part, la modélisation conduit souvent naturellement
à des opérateurs où les dérivées par rapport à t et celles par rapport à x sont bien
séparées et, si des dérivées croisées existent, un changement de variables simple per-
met en général de les supprimer ; de plus, l'ordre de dérivation par rapport à t est
rarement supérieur à 2. En conséquence, on a coutume, en automatique des SPD, de
distinguer parmi les problèmes d'évolution :
 ceux du premier ordre gouvernés par des EDP paraboliques :
∂y
+ Px,t (Dx )y = f dans Ω × ]0, tf [ ,
∂t
 ceux du deuxième ordre gouvernés par des EDP hyperboliques :

∂2y
+ Px,t (Dx )y = f dans Ω × ]0, tf [ ,
∂t2
où l'opérateur Px,t (Dx ) est un opérateur diérentiel linéaire ne comportant que des
dérivations par rapport à x, associé à des conditions de bord convenables et des
conditions initiales en nombre susant pour assurer l'existence d'une solution (le
problème est alors bien posé, au sens de Hadamard [HAD 32]) et f = f (x, t) est une

Chapitre rédigé par Jean-Pierre Babary et Irène Zambettakis.


346 Mathématiques pour les systèmes dynamiques

distribution donnée qui contient la commande dans le cas des problèmes à commande
interne.
Remarque 1. En toute rigueur, les propriétés de parabolicité et d'hyperbolicité ne
sont acquises que pour des EDP (et pas des systèmes d'EDP) et pour des opérateurs
Px,t (Dx ) elliptiques, c'est-à-dire dont le polynôme caractéristique relatif aux termes
dérivés d'ordre le plus élevé n'a pas de racine réelle en (x, t) non nulle [DAU 88].
Par exemple, le modèle parabolique de la diusion de la chaleur concerne tous
les problèmes de conduction thermique (échangeurs thermiques, fours à combustion,
processus de séchage, climatisation, etc.) pour lesquels la température constitue une
variable distribuée à asservir. Les problèmes de contrôle des vibrations dans les struc-
tures mécaniques exibles (robotique, applications spatiales) [BAL 82] correspondent,
eux, à des modèles hyperboliques du type de l'équation des ondes où la variable dis-
tribuée est un déplacement. Les problèmes relevant de la mécanique des uides, qui
interviennent entre autres en aérodynamique, dans les turbo-machines, les échangeurs
de chaleur ou les réacteurs nucléaires, sont également modélisés par des SPD. La plu-
part des réacteurs chimiques correspondent aussi à une modélisation sous forme SPD
puisqu'ils sont généralement le siège de phénomènes de diusion à la fois de chaleur
et de matière, les variables distribuées étant la température et les concentrations des
réactants.
Les processus dont l'espace d'état est de dimension innie peuvent être régis
par d'autres types d'équations comme les équations intégrales, les équations intégro-
diérentielles ou les équations à retards. Pour simplier, nous limitons ce chapitre au
cas des SPD de type EDP, les outils mathématiques présentés pouvant s'appliquer
de façon analogue aux autres modèles, moyennant une dénition adaptée des espaces
fonctionnels.
Le chapitre est composé de quatre parties. Les trois premières regroupent les
notions d'analyse fonctionnelle fort utiles pour aborder les concepts classiques de
l'automatique linéaire généralisés au cas de la dimension innie. Les principales dé-
nitions et caractérisations des opérateurs sont données dans les parties 10.2 et 10.3 ;
la théorie des semi-groupes, qui constitue la base de la théorie dans l'espace d'état
des systèmes linéaires de dimension innie, fait l'objet de la partie 10.4. Les résul-
tats et les théorèmes sont donnés sans démonstration et tirés des ouvrages d'analyse
fonctionnelle [KAT 66, YOS 66], mais également d'ouvrages relatifs à l'analyse et à
la synthèse de commandes de SPD comme [BAN 83, CUR 95, LIO 68].
L'étude des propriétés spectrales d'un opérateur (présentée dans la partie 10.3)
trouve une application importante en automatique dans l'approche fréquentielle des
SPD. Nous n'abordons pas cette approche ici, mais les résultats récents concernant
ce sujet sont largement développés dans [CUR 95].
L'étude théorique des systèmes non linéaires de dimension innie restant souvent,
du moins dans le cas de modèles non académiques, un problème ouvert, nous présen-
tons, dans la dernière partie (10.5), diérentes méthodes d'approximation permettant
d'obtenir une modélisation en dimension nie des SPD linéaires et non linéaires, adap-
tée au problème d'observation et de commande posé. Le lecteur trouvera également
des développements sur ce sujet ainsi que sur l'identiabilité et l'estimation de para-
Systèmes à paramètres distribués 347

mètres dans [BOU 98, ZAM 97].

10.2. Le cadre fonctionnel

Les principales dénitions de l'analyse fonctionnelle relatives aux espaces de di-


mension innie et aux opérateurs sur ces espaces sont rappelées dans cette partie,
en ne détaillant que les notions propres à la dimension innie. Seules les propriétés
essentielles qui seront utilisées en automatique des systèmes à paramètres distribués
linéaires sont dénies ici, ainsi que les moyens de les caractériser simplement. Les
notions usuelles de topologie peuvent être trouvées dans [RIC 01].

10.2.1. Espaces vectoriels normés de dimension innie

Espaces de Banach

Un espace vectoriel V de dimension innie est un espace vectoriel engendré par un


nombre inni de vecteurs de base. Lorsqu'une norme k.kV est dénie sur cet espace,
V est un espace vectoriel normé noté (V, k.kV ) . Un sous-ensemble W de (V, k.kV ) est
dit :
 fermé si la limite de toute suite convergente de W est dans W, soit :

∀ {xn } ∈ W, ∃x ∈ V, lim kxn − xkV = 0 =⇒ x ∈ V,

et la fermeture W d'un sous-ensemble W de V est l'union de W et de toutes


les limites des suites convergentes de W : c'est le plus petit ensemble fermé
contenant W ;
 ouvert si son complémentaire est fermé ;
 borné si sup kxkV < ∞ ;
x∈V
 compact si toute suite de W contient une sous-suite convergente dans W ;
 relativement compact si sa fermeture est compacte ;
 dense dans V si W = V (tout vecteur de V peut alors être approché d'aussi près
que l'on veut par un vecteur de W ) ; tous les espaces vectoriels normés possèdent
des sous-ensembles denses mais ceux-ci peuvent ne pas être dénombrables.
L'espace vectoriel normé (V, k.kV ) est séparable s'il contient un sous-ensemble
dense dénombrable.
Dénition 1 (Espace de Banach). Un espace de Banach B est un espace vectoriel
normé complet, c'est-à-dire où toute suite de Cauchy1 est convergente.

1 Rappelons qu'une suite {xn } d'éléments de (V, k.kV ) est dite de Cauchy si :
lim kxn − xm kV = 0.
n→∞, m→∞
348 Mathématiques pour les systèmes dynamiques

Exemple 1. L'espace C [0, 1] des fonctions continues sur [0, 1] , muni de la norme
kxk∞ = sup |x (t)| , est un espace de Banach car toute suite uniformément conver-
t∈[0,1]
gente de fonctions continues converge vers une fonction continue ; par contre, C [0, 1]
1 1/2
R
muni de la norme kxk = |x (t)|2 dt n'est pas complet, puisque la suite de
0
Cauchy des fonctions {xn } de C [0, 1] dénies par :

 0 si 0 ≤ t ≤ 1/2 − 1/n,
xn (t) = nt/2 − n/4 + 1/2 si 1/2 − 1/n ≤ t ≤ 1/2 + 1/n,

1 si 1/2 + 1/n ≤ t ≤ 1,

si 0 ≤ t < 1/2
0
converge vers x (t) = ∈
/ C [0, 1] .
s i 1/2 ≤ t < 1
1
Cependant, l'obtention d'un espace de Banach à partir d'un espace vectoriel normé
(V, k.kV ) est assurée par le théorème suivant [YOS 66].
Théorème 1. Pour tout espace (V, k.kV ), il existe un espace de Banach VB et
une application linéaire injective f : V → VB telle que f (V ) soit dense dans VB
et kf (x)kVB = kxkV pour tout x de V . L'espace (VB , k.kVB ) est la complétude de
(V, k.kV ).
1 1/2
R
Ainsi, la complétude de C [0, 1] muni de la norme kxk = |x (t)|2 dt est
0
l'espace L2 (0, 1) (voir [RIC 01] page 98).

Espaces de Hilbert

L'intérêt des espaces de Hilbert réside essentiellement dans la notion d'orthogo-


nalité, basée sur l'existence d'un produit scalaire.
Dénition 2 (Espace de Hilbert). Un espace de Hilbert H est un espace vectoriel :
 muni d'un produit scalaire h., .iH sur un corps K (C ou R) ;
 complet p
(donc de Banach) pour la norme induite par ce produit scalaire :
kxkH = hx, xiH .
Exemple 2. L'espace L2 (Ω) des fonctions mesurables sur un ouvert Ω de Rn , ou plus
précisément l'ensemble desR classes équivalentes des fonctions égales presque partout à
x et telles que, kxkL2 = Ω |x|2 dΩ < ∞ pour tout x (|x| représentant la norme sur
le corps K)R, est un espace de Hilbert pour la norme L2 induite par le produit scalaire
hx, yiL2 = Ω
xydΩ.
Une classe d'espaces de Hilbert importante pour les applications est celle des
espaces de Sobolev, dénis, pour m ∈ N et en notant Dα la dérivation multi-indices
(dérivation partielle par rapport aux n variables de Ω, voir page 24) d'ordre |α| =
α1 + · · · + αn , par :
 
∂x|α|
S m (Ω) = x ∈ L2 (Ω) , Dα x = α1 ∈ L2 (Ω) , ∀α ∈ N n
, |α| ≤ m ,
∂x1 · · · ∂xα
n
n
Systèmes à paramètres distribués 349

muni du produit scalaire hx, yim,Ω et de la norme kxkm,Ω :


!1/2
P P R 2
hx, yim,Ω = hD x, D yiL2 (Ω) ,
α α
kxkm,Ω = |D x| dΩ
α
.
|α|≤m |α|≤m Ω

Remarque 2. 1 On montre que S m (Ω) est une complétude de C m (Ω) comme de


C (Ω), pour la norme induite associée [YOS 66].

2 L'espace F (Ω) désignant l'espace vectoriel des fonctions C m (Ω) à support com-
pact inclus dans Ω, on note S0m (Ω) la fermeture de F (Ω) dans S m (Ω) et on montre
que S0m (Ω) = S m (Ω) pour m = 0 ou si Ω = Rn .
L'existence d'un produit scalaire permet de dénir :
 la notion d'orthogonalité : deux vecteurs x et y de H sont orthogonaux si hx, yi =
0;
 le sous-espace orthogonal d'un Hilbert V :
V ⊥ = {x ∈ H, hx, yi = 0 ∀y ∈ V } ;

V ⊥ est un sous-espace vectoriel fermé de H et H peut être décomposé de


manière unique en la somme directe H = V ⊕ V ⊥ ; une condition nécessaire et
susante pour qu'un sous-espace V soit dense dans H est que V ⊥ = {0} ;
 la base orthonormée d'un Hilbert H séparable est un sous-ensemble non vide
{φn , n ≥ 1} de H, orthonormé, c'est-à-dire dont les vecteurs sont mutuellement
orthogonaux et de norme unité soit :

1 si n = m,
hφn , φm i = δ nm , (10.1)
0 si n 6= m ;

et maximal, c'est-à-dire tel que span φn = H.


Par exemple, pour L2 (0, 1), la base orthonormée la plus connue est :
n √ √ o
1, 2 sin (2πnt) , 2 cos (2πnt) , n ≥ 1 .

La décomposition en série de Fourier des vecteurs de H sur la base {φn , n ≥ 1} de H


est donnée par :
X

∀x ∈ H, x = hx, φn i φn ,
n=1

où hx, φn i sont les coecients de Fourier de x dans la base {φn }. Le produit scalaire
et la norme s'écrivent alors :
P

hx, yi = hx, φn i hy, φn i,

n=1
1/2
P

kxkH = |hx, φn i|2 .
n=1

Cette décomposition fournit en particulier une réponse au problème de l'approxi-


mation en dimension nie (voir section 10.5). En eet, si {φn , n ≥ 1} est une base
350 Mathématiques pour les systèmes dynamiques

P
N
orthonormée d'un Hilbert H , la projection orthogonale hx, φn i φn de x sur le
n=1
sous-espace vectoriel de dimension nie N engendré par les {φn , 1 ≤ n ≤ N } est la
meilleure estimation à l'ordre N de x, c'est-à-dire que seule une augmentation de
l'ordre N peut améliorer cette approximation.

10.2.2. Opérateurs sur des espaces vectoriels de dimension innie


Les principaux résultats de la théorie des opérateurs linéaires font l'objet de cette
partie, d'abord dans le cas général d'opérateurs dénis sur des espaces vectoriels, puis
lorsque ces espaces sont hilbertiens.
Dénition 3 (Opérateur linéaire). Un opérateur linéaire T de V1 dans V2 , où V1
et V2 sont deux espaces vectoriels dénis sur un même corps K , est une application
de D (T ) ⊂ V1 → V2 telle que :
∀x1 , x2 ∈ D (T ) , ∀α ∈ K,
T (x1 + x2 ) = T (x1 ) + T (x2 ) ,
T (αx) = αT (x) .

D (T ) est le domaine de dénition de T , la paire (T, D (T )) constituant la dénition


complète d'un opérateur.
L'image Im (T ) = T (D (T )) de D (T ) par T est un sous-espace de V2 . Lorsqu'il est
de dimension nie, T est un opérateur de rang ni. On appelle graphe de l'opérateur
T le sous-espace G (T ) = {(x, T x) , x ∈ D (T )} de V1 × V2 .
Lorsqu'il existe une bijection entre le domaine de dénition D (T ) et son image

T (D (T )) l'opérateur T est inversible. L'inverse T −1 est un opérateur de D T −1 =
T (D (T )) ⊂ V2 dans V1 , tel que :

T −1 T x1 = x1 , ∀x1 ∈ D (T ) ,
T T −1 x2 = x2 , ∀x2 ∈ T (D (T )) .
Théorème 2. L'inverse d'un opérateur linéaire est un opérateur linéaire.
Dénition 4 (Opérateur borné). Un opérateur linéaire T de D (T ) ⊂ V1 → V2
est borné si :
∃c ∈ R tel que ∀x ∈ D (T ) , kT xkV2 ≤ c kxkV1 ,

et sa norme kT k est alors dénie par :


kT xkV2
kT k = sup = sup kT xkV2 . (10.2)
x∈D(T ), kxkV1 x∈D(T ),
x6=0 kxkV =1
1

Les conséquences de cette dénition sont les suivantes :

1. si D (T ) est borné, l'image T (D (T )) par un opérateur T borné est un sous-


ensemble borné de V2 ;
Systèmes à paramètres distribués 351

2. si T est borné de D (T ) ⊂ V dans un Banach


B , alors T possède une extension
bornée unique Te de D (T ) dans B, avec Te = kT k [KAT 66] ;
3. un résultat souvent utile dans les démonstrations de convergence est :
kT xkV2 ≤ kT k kxkV1 .

Remarque 3. La propriété de bornitude est équivalente à celle de continuité pour


les opérateurs linéaires [KAT 66], [KRE 78].
Dénition 5 (Espace B (V1 , V2 )). B (V1 , V2 ) est l'espace vectoriel des opérateurs
linéaires bornés dont le domaine de dénition, D (T ), est un espace vectoriel V1 ,
B (V1 , V2 ) étant muni de la norme dénie en (10.2). On notera B (V ) cet espace
lorsque V1 = V2 = V.
Théorème 3.  Si V1 est un Banach, B (V1 , V2 ) l'est aussi.
 Si T1 ∈ B (V1 , V2 ) et T2 ∈ B (V2 , V3 ) , alors T3 = T2 ◦ T1 vérie :
T3 ∈ B (V2 , V3 ) ,
kT3 k ≤ kT2 k kT1 k .

 B (V ) est une algèbre et ∀T1 ∈ B (V ) , ∀T2 ∈ B (V ) , kT1 T2 k ≤ kT1 k kT2 k .



Dénition 6 (Injection dense continue). Soit B, k.kB un  Banach et W un
sous-espace de B muni d'une autre norme telle que W, k.kW soit également un
Banach. L'opérateur I de B(W, B) déni par Iw = w est appelé prolongement par
continuité et l'on a :
kwkB ≤ c kwkW , ∀c ≥ 0.
Si W est un sous-espace dense de B pour la norme k.kB , I est une injection dense.
Lorsque I est une injection dense continue (c'est-à-dire bornée) on la notera :
W ,→ B.

Diérentes notions de convergence peuvent être introduites dans B (V1 , V2 ) .


Dénition 7 (Convergence et continuité uniformes). La suite {Tn , n ≥ 1}
d0 opérateurs bornés de B (V1 , V2 ) converge uniformément vers T ∈ B (V1 , V2 ) si :
lim kTn − T kB(V1 ,V2 ) = 0.
n→∞

Cette propriété sera surtout utilisée dans le cas d'un opérateur T (t) fonction de la
variable de temps t ∈ [0, tf ] ⊂ R, sous la forme suivante : T (t) ∈ B (V1 , V2 ) est
uniformément continu à t0 si :
lim kT (t) − T (t0 )kB(V1 ,V2 ) = 0.
t→t0

Cette convergence naturelle, basée sur la norme de B (V1 , V2 ), constitue cepen-


dant une propriété très contraignante, souvent dicile à prouver. On lui préfère donc
souvent le concept suivant.
352 Mathématiques pour les systèmes dynamiques

Dénition 8 (Convergence forte). La suite {Tn , n ≥ 1} d'opérateurs bornés de


B (V1 , V2 ) converge fortement vers T ∈ B (V1 , V2 ) si :

lim kTn x − T xkV2 = 0, ∀x ∈ V1 .


n→∞

Un opérateur T (t) ∈ B (V1 , V2 ) converge fortement à t0 si :


lim kT (t) x − T (t0 ) xkB(V1 ,V2 ) = 0, ∀x ∈ V1 .
t→t0
Théorème 4. Si T (t) ∈ B (V ) , alors T (t) converge fortement sur [a, b] si et seule-
ment si :
{T (t) x ∈ C ([a, b] , V ) , ∀x ∈ V } ,

où C ([a, b] , V ) est l'espace des fonctions continues de [a, b] dans V.


Théorème 5 (de Banach-Steinhaus, de bornitude uniforme). [KAT 66]
Soient B un Banach, V un espace vectoriel et {Tn } une famille bornée de B (B, V )
telle que, pour chaque x ∈ B, la famille {Tn x} soit bornée dans V , c'est-à-dire :
∀x ∈ B, ∃M (x)/ kTn xkV ≤ M (x).

Alors, kTn k est uniformément bornée relativement à n, c'est-à-dire :


sup kTn kB(B,V ) < ∞.
n
Théorème 6. [YOS 66] Si T ∈ B (B1 , B2 ), où B1 , B2 sont deux espaces de Banach,
l'image par T de tout ouvert de B1 est un ouvert de B2 .
Dénition 9 (Opérateur compact). Un opérateur borné T de B (V1 , V2 ) est com-
pact si l'image par T de tout sous-ensemble borné de V1 est un sous-ensemble relati-
vement compact de V2 .
Les opérateurs compacts constituent une classe d'opérateurs bornés particulière-
ment intéressante parce qu'ils ont des propriétés similaires à celles des opérateurs
en dimension nie. Les propriétés suivantes permettent de caractériser les opérateurs
compacts T de D (T ) ⊂ V1 → V2 :
si T est borné et dim (T (D (T ))) < ∞, alors T est compact ;
si dim (V1 ) < ∞, alors T est compact ;
si T est compact, alors l'image T (D (T )) est séparable ;
si T est un opérateur compact de B (V1 , V2 ) tel que T (D (T )) soit un sous-espace
fermé de V2 , alors T (D (T )) est de dimension nie ;
 si S ∈ B (V1 , V2 ) , U ∈ B (V3 , V4 ) et T ∈ B (V2 , V3 ) est compact, alors U T S
∈ B (V1 , V4 ) est compact ;
 si {Tn } est une suite d'opérateurs compacts de V dans un Banach B, conver-
geant uniformément vers T, alors T est compact.
Exemple 3. Une classe importante d'opérateurs compacts sur l'espace L2 (a, b) est
celle des opérateurs intégraux, dénis par :
Z b
(T x)(z) = θ(z, ς)x(ς)dς, (10.3)
a

où θ(z, ς) ∈ L2 ([a, b] × [a, b]) est le noyau de T.


Systèmes à paramètres distribués 353

Les opérateurs fermés constituent une classe importante d'opérateurs, non néces-
sairement bornés, auxquels peuvent être étendues de nombreuses propriétés relatives
aux opérateurs bornés.
Dénition 10 (Opérateur fermé). Un opérateur linéaire T de V1 → V2 est fermé
si son graphe G (T ) = {(x, T x) , x ∈ D (T )} est un sous-espace fermé de V1 × V2 ,
c'est-à-dire si :

∀xn ∈ D (T ) , n ∈ N 

lim xn = x =⇒ x ∈ D (T ) et T x = y. (10.4)
n→∞


lim T xn = y
n→∞

Le choix d'un bon domaine de dénition D (T ) peut donc permettre d'obtenir un


opérateur T fermé.
Les opérateurs bornés T ∈ B (B1 , B2 ) sont des opérateurs fermés, l'inverse étant en
général faux. On peut cependant caractériser la propriété de bornitude d'un opérateur
à l'aide du théorème suivant.
Théorème 7 (du graphe fermé). Si T est un opérateur fermé de B1 dans B2
déni sur tout B1 , c'est-à-dire D (T ) = B1 , alors T est un opérateur borné.
Il existe de nombreux opérateurs fermés non bornés, mais la fermeture n'est alors
souvent pas simple à montrer. Le résultat suivant permet de résoudre de nombreux
cas pratiques.
Théorème 8. Si T est un opérateur linéaire de B1 dans B2 , inversible, tel que
T (D (T )) = B2 et T −1 ∈ B (B2 , B1 ) , alors T est fermé.
Dénition 11 (Forme linéaire). Une forme linéaire f est un opérateur linéaire
déni sur un espace vectoriel V et à valeurs dans le corps K associé à V .
D'après la deuxième conséquence de la dénition des opérateurs bornés, on sait que
tout opérateur borné peut être étendu à la fermeture de son domaine sans changement
de sa norme. Dans le cas des formes linéaires, le théorème de Hahn-Banach donne un
résultat plus fort.
Théorème 9 (de Hahn-Banach). Toute forme linéaire bornée f : D(f ) → K
dénie sur un sous-espace D(f ) d'un espace vectoriel normé V peut être étendue à
une forme linéaire bornée F sur tout V avec kf k = kF k .
Cet ensemble des formes linéaires bornées F dénies sur tout l'espace vectoriel V
est l'espace dual topologique de V , noté V 0 . Mentionnons quelques propriétés, où |·|
représente la norme sur le corps K :
 V 0 est un Banach pour la norme kF kV 0 = sup |F (x)| ;
x∈V
kxkV =1
 la dualité se traduit entre k.kV et k.kV 0 par : kxkV 0 = sup |F (x)| .
0
F ∈V
kF kV =1

Un espace V est réexif s'il est en bijection isométrique avec son bidual V 00 ,
0 0
(V ) .
Exemple 4. 1. Si 1
p
+ 1
q
= 1 et 1 < p < ∞, alors (Lp (a, b))0 = Lq (a, b) .
354 Mathématiques pour les systèmes dynamiques

2. L'ensemble des distributions sur un ouvert Ω de R est le dual topologique D0 (Ω) de


l'espace D (Ω) des fonctions à valeurs dans C, dénies et continues dans Ω, à support
compact, indéniment dérivables : c'est l'ensemble des formes linéaires continues sur
D (Ω) .
Dénition 12 (Opérateur dual). L' opérateur dual T 0 d'un opérateur fermé T :
B1 → B2 de domaine D (T ) dense dans B1 est déni par :
D (T 0 ) = {f2 ∈ B20 / ∃f1 ∈ B10 , f2 (T x) = f1 (x) , ∀x ∈ D (T )} ,
(10.5)
T 0 : B20 → B10 tel que T 0 f2 = f1 , ∀f2 ∈ D (T 0 ) .
Dénition 13 (Convergence faible). Une suite {xn } d'un espace vectoriel V
converge faiblement vers x si :
∀f ∈ V 0 , lim f (xn ) = f (x) .
n→∞

De cette propriété, moins restrictive que celle de convergence forte et donc plus
facile à vérier dans les applications, on retiendra les conséquences :
 toute suite faiblement convergente est bornée ;
 un espace de Banach B est réexif si et seulement si toute suite bornée de B
contient une sous-suite faiblement convergente [YOS 66] ;
 B1 étant un Banach séparable et B2 un Banach réexif, si {Tn } ⊂ B (B1 , B2 )
est une suite d'opérateurs uniformément bornés, alors il existe T ∈ B (B1 , B2 )
et une sous-suite α (n) ⊂ N tels que :

lim f Tα(n) x = f (T x) , ∀x ∈ B1 , ∀f ∈ B20 . (10.6)
n→∞

10.2.3. Opérateurs sur des espaces de Hilbert


Un espace de Hilbert étant un Banach, tous les résultats précédents sont appli-
cables, mais l'existence d'un produit scalaire et le théorème de représentation de Riesz
permettent de remplacer la notion d'opérateur dual par celle d'opérateur adjoint. En
eet, une propriété fondamentale d'un espace de Hilbert H est d'être en bijection
avec son espace dual H 0 . Ce résultat est connu sous la forme du théorème suivant
[KAT 66].
Théorème 10 (de la représentation de Riesz). Tout vecteur x d'un Hilbert H
induit une forme linéaire bornée f dénie par f (y) = hy, xiH . Réciproquement, pour
toute forme linéaire bornée f sur H , il existe un vecteur x0 ∈ H unique tel que :
f (y) = hy, x0 iH , ∀y ∈ H,
et, de plus, kf k = kx0 k .
Il sera donc possible (et, souvent, utile) d'identier un espace de Hilbert H à son
dual H 0 .
Remarque 4. [AUB 79] H1 et H2 étant deux espaces de Hilbert, s'il existe une in-
jection dense continue H1 ,→ H2 , alors H20 ,→ H10 . Si, de plus, H1 et H2 peuvent être
simultanément identiés à leurs duaux, alors H1 = H2 . Dans tous les cas, H2 est
l'espace pivot tel que : H1 ,→ H2 ,→ H10 .
Systèmes à paramètres distribués 355

Dénition 14 (Opérateur adjoint d'un opérateur borné). Pour tout opérateur


borné T ∈ B (H1 , H2 ), le théorème 10 assure l'existence d'un opérateur unique T ∗ dans
B (H2 , H1 ), dit opérateur adjoint de T et déni par :

hT x1 , x2 iH2 = hx1 , T ∗ x2 iH1 , ∀x1 ∈ H1 , ∀x2 ∈ H2 .

On dit que T ∈ B (H) est un opérateur normal si T T ∗ = T ∗ T , unitaire si T T ∗ =


T ∗ T = IH .
Exemple 5. L'opérateur T ∗ , adjoint de l'opérateur intégral (10.3), vérie :
Z b Z b Z b Z b
hT x, yi = θ(z, ς)x(ς)dς y (z)dz = x(ς) θ(z, ς)y (z) dz dς,
a a a a

donc : Z b
T ∗ y (.) = θ(z, .)y (z) dz. (10.7)
a
Théorème 11. Si T est compact, alors son adjoint est aussi un opérateur compact.
La possibilité d'identier un Hilbert à son dual induit un isomorphisme entre
l'adjoint T ∗ et le dual T 0 d'un opérateur T . Plus précisément, si :

T 0 : H20 → H10 avec T 0 x02 (x1 ) = x02 (T x1 ) ,
T ∗ : H2 → H1 avec hx1 , T ∗ x2 iH1 = hT x1 , x2 iH2 ,

alors, d'après le théorème de Riesz, il existe deux opérateurs bijectifs bornés (linéaires
uniquement dans le cas d'espaces de Hilbert dénis sur R) :


J1 : H1 → H10 tel que x01 (x) = x, J1 x01 ,


et J2 : H2 → H20 tel que x02 (x) = x, J2 x02 ,
donc :
T ∗ = J1 T 0 J2−1 . (10.8)
Cet isomorphisme entre T 0 et T ∗ a pour conséquence :
Im (T )⊥ = ker (T ∗ ) ,

Im (T ) = ker (T ∗ ) ,

Im (T ∗ ) = ker (T ) ,
Im (T ∗ ) = ker (T )⊥ .

L'isomorphisme (10.8) permet également de déduire de (10.5) les propriétés suivantes,


pour T, S ∈ B (H1 , H2 ) , R ∈ B (H2 , H3 ) et α ∈ C :
I ∗ = I,
(αT )∗ = αT ∗ ,
kT ∗ k = kT k ,
(10.9)
(T + S)∗ = T ∗ + S ∗ ,
(RT )∗ = T ∗ R∗ ,
kT T ∗ k = kT k2 .
356 Mathématiques pour les systèmes dynamiques

Dénition 15 (Opérateur adjoint d'un opérateur non borné). Soit T un


opérateur sur H de domaine D (T ) dense dans H ; l' opérateur adjoint T ∗ de T est
déni par :
T ∗ : D (T ∗ ) → H,
D (T ∗ ) = {x2 ∈ H, ∃x∗2 ∈ H hT x1 , x2 i = hx1 , x∗2 i , ∀x1 ∈ D (T )}
∀x2 ∈ D (T ∗ ) , T ∗ x2 = x∗2 .
Remarque 5. Si T est un opérateur fermé sur H, de domaine D (T ) dense dans H,
alors D (T ∗ ) est dense dans H et T ∗ est fermé. De plus, l'isomorphisme (10.8) existe
également entre T ∗ et T 0 .
La recherche de l'adjoint d'un opérateur T, de domaine D (T ) dense dans H, peut
être facilitée en utilisant les propriétés suivantes.
Théorème 12. 1. (αT )∗ = αT ∗ ; D ((αT )∗ ) = D (T ∗ ) si α 6= 0 (pour α = 0,
D ((αT )∗ ) = H ) [RUD 73] ;
2. A étant un opérateur borné déni sur tout H , on a [CUR 95] :
(A + T )∗ = A∗ + T ∗ et D ((A + T )∗ ) = D (T ∗ ) ;

3. si T a un inverse borné (c'est-à-dire s'il existe T −1 ∈ B(H) tel que T T −1 = IH



et T −1 T = ID(T ) ), alors T ∗ est aussi d'inverse borné et (T ∗ )−1 = T −1
[KAT 66].
Exemple 6. H étant l'espace de Hilbert L2 (0, 1), on se propose de déterminer l'ad-
joint de l'opérateur T = dzd
de domaine :
 
dx
D (T ) = x ∈ H, x absolument continue, x (0) = 0 et ∈H .
dz
Son inverse est l'opérateur borné déni sur H par :
Z
 z
T −1 x (z) = x(ς)dς.
0

Z Z Z Z

1 z 1 1
T −1 x1 , x2 = x1 (ς)dςx2 (z)dz = x1 (ς)x2 (z)dzdς, 2
0 0 0 ς
Z Z D
1 1 ∗ E
= x1 (ς) x2 (z)dzdς = x1 , T −1 x2 ,
0 ς
 
−1 ∗
 R1
avec T x2 (ς) = ς x2 (z)dz. On en déduit (propriété 3 du théorème 1) que
l'adjoint de l'opérateur T = dz
d
de domaine D (T ) est déni par :
T ∗ x = − dx
dz
,
D (T ) = {x ∈ H, x absolument continue, x (1) = 0 et dx

∈ H}.
Exemple 7. H étant l'espace de Hilbert L2 (0, 1), les propriétés ci-dessus permettent
dz

d2
également de montrer que l'opérateur T = dz 2 de domaine :

 
x ∈ H, x et dx absolument continues,
D (T ) = dz
2 ,
avec dx
dz
(0) = dx
dz
(1) = 0 et ddzx2 ∈ H
est son propre adjoint.
Systèmes à paramètres distribués 357

Dénition 16 (Opérateur symétrique, auto-adjoint, non négatif). Un opé-


rateur T de domaine D (T ) dense dans H est symétrique si :
∀x, y ∈ D (T ) , hT x, yi = hx, T yi .
Un opérateur T est auto-adjoint s'il est symétrique et si D (T ∗ ) = D (T ) ; c'est donc
un opérateur normal. Un opérateur T auto-adjoint déni sur H est :
 non négatif (T ≥ 0) si hT x, xi ≥ 0, ∀x ∈ D (T ) ;
 positif (T > 0) si hT x, xi > 0, ∀x ∈ D (T ) ;
 coercif (T > I ) si ∃ > 0, hT x, xi ≥  kxk2 , ∀x ∈ D (T ) .
Théorème 13. 1. Tout opérateur symétrique borné est auto-adjoint.
2. Tout opérateur auto-adjoint est fermé (puisque l'adjoint est fermé).
3. Un opérateur inversible T est auto-adjoint si et seulement si son inverse T −1
l'est.
4. T est auto-adjoint si et seulement si : ∀x ∈ D (T ) , hT x, xi ∈ R.
5. T ∈ B (H) est auto-adjoint si et seulement si : ∀x ∈ H, hT x, xi ∈ R [KRE 78].
6. Si T ∈ B (H) est auto-adjoint, alors :
kT k = sup |hT x, xi| . (10.10)
kx=1k

7. Soit Tn une suite d'opérateurs sur H, bornés, auto-adjoints, non négatifs, tels
que : Tn+1 ≥ Tn et ∃α ∈ R+∗ , αI ≥ Tn . Alors, {Tn } converge fortement vers
un opérateur T auto-adjoint non négatif et αI ≥ T ≥ Tn pour tout n [KRE 78].
8. Un opérateur T auto-adjoint non négatif possède une racine carrée non négative
unique T 1/2 telle que :
 
D T 1/2 ⊃ D (T ) ,
T 1/2 x ∈ D(T 1/2 ), ∀x ∈ D (T ) ,
T 1/2 T 1/2 x = T x, ∀x ∈ D (T ) .

De plus, si T est positif, T 1/2 l'est aussi [KAT 66].


9. Dans le cas particulier des opérateurs bornés de B(H) (propriétés déduites de
(10.9) et de (10.10)), on a :

1/2 1/2
T = kT k ,
|hT x, yi|1/2 ≤ hT x, xi hT y, yi ,
kT xk2 ≤ kT k hx, T xi .

Les projections orthogonales constituent une classe importante d'opérateurs auto-


adjoints non négatifs : P ∈ B (H) est une projection si P 2 = P , orthogonale si
P ∗ = P. Un tel opérateur est naturellement associé à une décomposition orthogonale
de H. Ceci permet de résoudre le problème de l'approximation en dimension nie
(voir section 10.5) par le biais du lemme suivant.
Lemme 1 (de projection orthogonale). V étant un sous-space fermé d'un Hilbert
H , on a : ∀x ∈ H, ∃!v0 ∈ V, kx − v0 k = minv∈V kx − vk .
On note v0 = PV x, où PV est la projection orthogonale de x sur V , et x − v0 =
PV ⊥ x.
358 Mathématiques pour les systèmes dynamiques

10.3. Théorie spectrale

La théorie spectrale d'un opérateur linéaire T concerne l'analyse de la distribution


des valeurs de λ pour lesquelles l'opérateur λI − T est inversible, ainsi que l'étude des
propriétés de cet inverse, lorsqu'il existe. Les dénitions et les résultats principaux sont
présentés dans le cas général des opérateurs fermés, puis dans le cas particulièrement
intéressant des opérateurs compacts, compte tenu de la similitude des propriétés de
ces opérateurs avec celles des opérateurs en dimension nie.

10.3.1. Cas général : les opérateurs fermés

Dans toute cette partie, T est un opérateur fermé sur un Banach B, de domaine
de dénition D (T ) , x, y ∈ B et λ ∈ C. Le problème consiste à déterminer sous quelles
conditions l'équation :
(λI − T ) x = y,

possède une solution x pour tout y de B. Lorsque B est de dimension nie, il sut
que λ ne soit pas valeur propre de T ; il s'agit de généraliser ce concept de valeur
propre au cas des opérateurs de dimension innie.
Dénition 17 (Opérateur résolvant, équation résolvante). Si λI − T est in-
versible et d'inverse borné sur un domaine dense de B , on appelle opérateur ré-
solvant (ou résolvante) de T l'opérateur (λI − T )−1 . C'est un opérateur fermé et
borné de domaine fermé et dense ; donc, d'après le théorème 7 du graphe fermé,
(λI − T )−1 ∈ B (B). L' ensemble résolvant ρ (T ) de T est l'ensemble des valeurs de
λ ∈ C telles que (λI − T )−1 ∈ B (B) . On peut montrer que ρ (T ) est un ouvert
de C. Une propriété importante de l'opérateur résolvant est qu'il satisfait l' équation
résolvante, ∀λ, µ ∈ ρ (T ) :

(λI − T )−1 − (µI − T )−1 = (λ − µ)(λI − T )−1 (µI − T )−1 . (10.11)

 −1
Ceci indique que : (λI − T )−1 = I − (λ − µ)(µI − T )−1 (µI − T )−1 , soit :

X

(λI − T )−1 = (λ − µ)n (µI − T )−n−1 , ∀λ, µ ∈ ρ (T ) . (10.12)
n=0

Cette série est uniformément convergente si :



(λ − µ)(µI − T )−1 −1 < 1, (10.13)

et, réciproquement, si µ ∈ ρ (T ) et λ ∈ C vérient (10.13), alors λ ∈ ρ (T ) et (λI −


T )−1 est déni par (10.12).
Systèmes à paramètres distribués 359

L'opérateur résolvant (λI − T )−1 est une fonction faiblement holomorphe3 sur
ρ (T ) et sa dérivée est :
d
(λI − T )−1 = −(λI − T )−2 .

Théorème 14 (Résolvant d'un opérateur borné). Si T ∈ B (B) est tel que
kT k < 1, I − T est inversible et (I − T )−1 ∈ B (B) est déni par :

(I − T )−1 = I + T + T 2 + · · · + T n + · · · , avec : (I − T )−1 ≤ (1 − kT k)−1 .
Corollaire 1. Si T ∈ B (B) et |λ| > kT k , alors λ ∈ ρ (T ) et :
X


(λI − T )−1 = λ−n−1 T n , avec : (λI − T )−1 ≤ (|λ| − kT k)−1 .
n=0

En dimension nie, le spectre d'un opérateur est constitué d'un nombre ni de
points : les valeurs propres. En dimension innie le spectre peut être vide, inni, ou
même couvrir tout le plan complexe.
Dénition 18 (Spectre). Le spectre σ (T ) d'un opérateur fermé T est le complé-
ment dans C de l'ensemble résolvant ρ (T ) de T.
La  séparation du spectre  distingue trois parties, telles que σ (T ) = σ p (T ) ∪
σ c (T ) ∪ σ r (T ) :
1. Le spectre ponctuel de T est l'ensemble des valeurs propres, soit :
σ p (T ) = {λ ∈ C, (λI − T ) non injectif} . (10.14)
Les concepts de la dimension nie relatifs aux valeurs propres (vecteurs propres, sous-
espaces propres, ordre et multiplicité) se généralisent de façon naturelle en dimension
innie. On a en particulier :
 λ0 valeur propre isolée4 est d'ordre ν 0 si, pour tout x ∈ B :
lim (λ − λ0 )ν 0 (λI − T )−1 x
λ→λ0

existe, mais pas lim (λ − λ0 )ν 0 −1 (λI − T )−1 x0 pour un certain x0 ;


λ→λ0
 λ0 valeur propre isolée est d'ordre inni si, pour tout ν ∈ N, il existe un xν ∈ B
tel que lim (λ − λ0 )ν (λI − T )−1 xν n'existe pas ;
λ→λ0
 la multiplicité d'une valeur propre d'ordre ni ν 0 est : dim(ker(λ0 I − T )ν0 ).
2. Le spectre continu de T est l'ensemble des λ ∈ C pour lesquels λI − T possède un
inverse non borné de domaine dense dans B :
n o
σc (T ) = λ ∈ C, (λI − T ) injectif, Im (λI − T ) = B, Im (λI − T ) 6= B . (10.15)

3. Le spectre résiduel de T est l'ensemble des λ ∈ C pour lesquels λI − T possède un


inverse de domaine non dense dans B .
3 La fonction F : C → B(H , H ) est faiblement holomorphe en t s'il existe un opé-
1 2 0
rateur noté

dF
(t ) ∈ B(H1 , H2 ) tel que, pour tout x1 ∈ H1 et tout
dt 0
x2 ∈ H2 , on ait :
1
lim hx2 , F (t0 + h)x1 i − hx2 , F (t0 )x1 i − hhx2 , dF (t )x i = 0.
dt 0 1 C
h→0 |h|
4 Il s'agit d'un point isolé du spectre, pas seulement un point isolé de σp .
360 Mathématiques pour les systèmes dynamiques

Exemple 8. Soit l'opérateur diérentiel T déni par T x (z) = de domaine de


dx(z)
dz
,
dénition D (T ) = C(a, b). Son spectre est C tout entier, puisque l'équation dx(z)
dz

λx = 0 a toujours une solution non triviale x(z) = eλz qui est dans C(a, b).
Par contre, la restriction T1 de T au domaine D (T1 ) = {x ∈ C(a, b), x (a) = 0} a un
spectre vide car l'opérateur résolvant (λI − T )−1 existe quelque soit λ ∈ C et est déni
par : Z z
(λI − T )−1 x(z) = eλz e−λς x(ς)dς ∈ C(a, b).
a

La restriction T2 de T au domaine D (T2 ) = {x ∈ C(a, b), x (b) = kx (a)} a unique-


ment un spectre ponctuel déni par :
 
1
σ c (T ) = λn = (log k + 2nπi) , n = 0, ±1, ±2, · · ·
b−a

Cas des opérateurs bornés

Pour les opérateurs bornés dénis sur un Banach B, ni l'ensemble résolvant ρ (T ),


ni le spectre σ (T ) ne sont vides. Plus précisément, on montre, comme en dimension
nie, que le spectre de T ∈ B (B) est un sous-ensemble compact non vide de C contenu
dans le disque fermé |λ| < kT k . Le rayon spectral d'un opérateur borné T ∈ B (B)
est déni par :
rσ (T ) = sup |λ| ,
λ∈σ(T )

et l'on montre le résultat suivant [KAT 66] :


p
rσ (T ) = lim n
kT n k, (10.16)
n→∞

d'où l'on déduit que si T et S ∈ B (B) , alors rσ (T S) = rσ (ST ). Le rayon spectral


d'un opérateur normal est rσ (T ) = kT k.

Cas des opérateurs auto-adjoints

Si T est un opérateur auto-adjoint déni sur un Hilbert H, son spectre est réel :
σ (T ) ⊂ R. Si, de plus, T ∈ B (H) , alors on a les propriétés suivantes :

σ (T ) ⊂ [m, M ] , où m = inf hT x, xi et M = sup hT x, xi ;


kxk=1 kxk=1
m, M ∈ σ (T ) ;
kT k = max {|m| , |M |} ;
rσ (T ) = kT k .
Remarque 6. Dans le cas plus général d'un opérateur T fermé de domaine dense
dans un Banach B, le spectre de l'adjoint de T est σ (T ∗ ) = σ (T ).
Systèmes à paramètres distribués 361

10.3.2. Cas des opérateurs compacts


Nous avons vu, dans le paragraphe précédent, que les propriétés spectrales des
opérateurs en dimension innie sont beaucoup plus complexes qu'en dimension nie.
Cependant, le spectre d'un opérateur compact a une structure simple, ce qui conduit
à une théorie des systèmes à opérateurs compacts analogue à celle des systèmes de
dimension nie. Il en est de même lorsque l'opérateur résolvant est compact. Enn,
dans le cas des opérateurs normaux compacts, l'analyse du spectre conduit à une
décomposition spectrale de l'opérateur.
Théorème 15 (Propriétés spectrales). Si T est un opérateur compact déni sur
un Banach B :
 λ 6= 0 est soit dans le spectre ponctuel σp (T ), soit dans l'ensemble résolvant
ρ (T ) ;
 σ p (T ) est dénombrable et sans point d'accumulation non nul ;
 l'ordre de toutes les valeurs propres non nulles est ni, donc leur multiplicité
aussi.
Une autre classe d'opérateurs ayant un spectre analogue à celui des opérateurs
en dimension nie est celle des opérateurs à résolvante compacte, fréquents dans la
modélisation des systèmes dynamiques. La plupart des opérateurs diérentiels relatifs
aux problèmes aux limites sont de ce type.
Théorème 16 (Opérateur à résolvante compacte). Soit T un opérateur fermé,
tel que sa résolvante (λI − T )−1 existe et soit compacte pour un certain λ. Alors, le
spectre de T est discret, c'est-à-dire constitué uniquement de valeurs propres isolées de
multiplicité nie. De plus, la résolvante (λI − T )−1 est compacte pour tout λ ∈ ρ (T ).
Exemple 9. Les opérateurs T1 et T2 de l'exemple 8 sont des opérateurs à résolvante
compacte. En eet, on montre que leurs résolvantes sont des opérateurs intégraux de
noyau continu.
Soit T ∈ B (H) un opérateur normal compact sur un Hilbert H . Dans ce cas, non
seulement le spectre est constitué uniquement de valeurs propres de multiplicité nie,
mais les projections associées aux valeurs propres sont orthogonales. On en déduit le
résultat suivant.
Théorème 17 (Opérateur normal compact). [KAT 66] Si T ∈ B (H) est un
opérateur normal compact sur un espace de Hilbert H , alors il existe une base ortho-
normée de vecteurs propres {φi ≥ 1} , correspondant aux valeurs propres {λi ≥ 1} ,
telle que :
X

Tx = λi hx, φi i φi , ∀x ∈ H. (10.17)
i=1

Cela signie que tout opérateur normal compact sur un Hilbert induit une base
orthonormée sur cet espace. L'extension de ce résultat au cas d'opérateurs compacts
non nécessairement bornés est donnée dans le théorème suivant.
Théorème 18. [CUR 95] Si T ∈ B (H1 , H2 ) est compact, il admet la décomposition
de Schmidt : ∞ X
T x1 = σi hx1 , ψi i φi , ∀x1 ∈ H1, (10.18)
i=1
362 Mathématiques pour les systèmes dynamiques

 {ψ i } et {φi } étant les vecteurs propres de T ∗ T et de T T ∗ respectivement, consti-


tuant des bases orthonormales pour les espaces de Hilbert H1 et H2 respective-
ment √ ;
 σ i = λi ≥ 0 étant les valeurs singulières de T .
De plus, on a kT k = maxi σ i .
Un opérateur T déni sur un Hilbert H est à résolvante normale compacte s'il
existe un λ0 ∈ ρ (T ) pour lequel (λ0 I − T )−1 est normal et compact. L'équation de
la résolvante (10.11) montre qu'alors, cette propriété est vraie pour tout λ ∈ ρ (T ) .
Théorème 19 (Opérateur à résolvante normale compacte). Soit T un opé-
rateur dedomaine D (T ) ⊂ H, avec 0 ∈ ρ (T ) et T −1 compact et normal. Si
P

D (T ) = x ∈ H, |λi |2 |hx, φi i|2 < ∞ , alors T est fermé et admet la décom-
i=1
position :
X

Tx = λi hx, φi i φi , ∀x ∈ D (T ) . (10.19)
i=1

Exemple 10. Soit T déni par :


2

2 pour x ∈ D (T ) ,
T x = − ddz x

D (T ) = x ∈ L2 (0, 1) , x et absolument continues


dx
dz o
2
avec x (0) = x (1) = 0 et ddzx2 ∈ L2 (0, 1) .

Z
 1
Il vient : T −1 x (z) = g (z, ς) x (ς) dς,
0

(1 − ς) z pour 0 ≤ z ≤ ς ≤ 1,
g (z, ς) =
(1 − z) ς pour 0 ≤ ς ≤ z ≤ 1.

Puisque g (z, ς) = g (ς, z) , T −1 est auto-adjoint d'après (10.7) (voir exemple 5) ; il est
compact car c'est un opérateur intégral (10.3). Donc, on peut calculer ses valeurs et
vecteurs propres. Soit λ ∈ C tel que T −1 x = λx ; alors on peut écrire, pour z ∈ [0, 1] :
Z Z
 z 1
T −1 x (z) = (1 − z) ςx (ς) dς + (1 − ς) zx (ς) dς
0 z
Z z Z 1 Z 1
= ςx (ς) dς + zx (ς) dς − zςx (ς) dς = λx (z) .
0 z 0

En diérentiant deux fois (T −1 x est absolument continu), on obtient :

d2 x
−x(z) = λ , (10.20)
dz 2

donc λ = 0 n'est pas valeur propre de T −1 . La solution générale de (10.20) :

x(z) = a sin(λ−1/2 z) + b cos(λ−1/2 z),


Systèmes à paramètres distribués 363

et les conditions
 aux limites x (0) = 0 et x (1) = 0 permettent d'obtenir les valeurs
propres n21π2 , n ≥ 1 et les vecteurs propres {sin (nπz) , n ≥ 1} . D'après le théo-
rème précédent, T est fermé et sa décomposition spectrale est :
X
∞ D √ E√
(T x)(z) = n2 π 2 x, 2 sin (nπz) 2 sin (nπz) ,
n=1
( )
X
∞ D √ E 2
4 4
avec D (T ) = x ∈ L2 (0, 1) , n π x, 2 sin (nπ.) < ∞ .
n=1

10.4. Théorie des semi-groupes

L'approche par semi-groupes des systèmes linéaires de dimension innie consiste à


rechercher pour ces systèmes une formulation abstraite, analogue à celle des systèmes
en dimension nie, de la forme :
dx
= Ax(t) + Bu(t), t ≥ 0, (10.21)
dt
x(0) = 0,
y = Cx.

Il s'agit donc de généraliser le concept de matrice de transition eAt pour des


opérateurs non bornés et dénis sur des espaces abstraits (Hilbert ou simplement
Banach). Les propriétés obtenues permettront ensuite d'étendre aux systèmes linéaires
de dimension innie [CUR 95] les résultats de stabilité asymptotique, de contrôlabilité
et d'observabilité, de stabilisabilité et de détectabilité, ainsi que ceux relatifs à la
commande optimale linéaire quadratique.
Les exemples présentés dans cette partie sont ceux de systèmes régis par des
équations aux dérivées partielles, mais une analyse identique peut être menée pour
les systèmes à retard [CUR 95].

10.4.1. Notion de semi-groupe

Considérons, à titre d'exemple introductif, le processus de chauage d'une barre


métallique de longueur 1, modélisé par :
∂x(z,t) ∂ 2 x(z,t)
∂t
= ∂z 2
+ u (z, t) , x (z, 0) = x0 (z),
(10.22)
∂x(0,t) ∂x(1,t)
∂z
=0= ∂z
,

où x(z, t) représente la température en z et à l'instant t, x0 (z) le prol initial (t = 0)


de température le long de la barre et u (z, t) la commande de chauage répartie sur
toute la longueur.
364 Mathématiques pour les systèmes dynamiques

On voit aisément qu'une formulation du type (10.21) peut être obtenue en choi-
d2
sissant x (z, t) ∈ L2 (0, 1), A = dz 2 l'opérateur T déni dans l'exemple 7 et B = I. La
fonction x0 (.) ∈ L2 (0, 1) joue le rôle de condition initiale mais les conditions de bord
sont incluses dans la dénition de l'espace fonctionnel L2 (0, 1) de l'état x (z, t) .
Pour une commande et des conditions initiales susamment dérivables, la super-
position des eets de x0 (z) et de u(z, t) conduit à la solution de (10.22) :
Z 1 Z t Z 1
x(z, t) = g(t, z, ς)x0 (ς)dς + g(t − τ , z, ς)u(ς, τ )dςdτ ,
0 0 0

où g(t, z, ς) est la fonction de Green :


X

2
π2 t
g(t, z, ς) = 1 + 2e−n cos(nπz) cos(nπζ). (10.23)
n=1

Remarque √7. Cette fonction s'obtient


explicitement ici à partir des fonctions propres
φn (z) = 1, 2 cos(nπz), n ≥ 1 associées aux valeurs propres −n2 π 2 , mais en géné-
ral, il n'existe aucune méthode pour trouver une fonction de Green [CAR 88, REI 91].
Une formulation abstraite de ce problème peut être obtenue en dénissant, pour t ≥ 0,
l'opérateur T (t) ∈ B(L2 (0, 1)) :
Z 1
T (t)x0 (z) = g(t, z, ς)x0 (ς)dς, (t ≥ 0),
0
Z t
⇒ x(t) = T (t)z0 + T (t − τ )u(τ )dτ .
0

Formulation abstraite

La formulation générale d'un système dynamique linéaire régi par des équations
aux dérivées partielles peut s'écrire sous la forme :



∂x(z,t)
= A(t)x(z, t) + B(t)uΩ (z, t),


∂t
 conditions initiales : x(z, 0) = x (z), z ∈ Ω,
0
(10.24)

 conditions aux limites : Q(t, uΓ
)x(ξ, t) = 0, (ξ, t) ∈ Γ × ]0, tf [ ,



observation : y(z, t) = C(t)x(z, t).

Dans cette formulation, l'état x(z, t) est un vecteur de fonctions xi (z, t) à valeurs
réelles dénies sur un ouvert Ω de Rn de frontière Γ. z = (z1 , · · · , zn ) ∈ Ω est le
vecteur de coordonnées spatiales et t ∈ ]0, tf [ la variable temps.
A est un opérateur linéaire matriciel aux dérivées partielles spatiales uniquement,
B un opérateur linéaire matriciel. La commande interne uΩ (z, t) est constituée d'un
ensemble de fonctions d'entrée dénies sur tout Ω (commande interne distribuée) ou
des parties de Ω (commande interne localisée ou bien ponctuelle). Q est un opérateur
matriciel linéaire diérentiel sur Γ×]0, tf [ , fonction de la commande frontière uΓ (ξ, t).
Systèmes à paramètres distribués 365

C est un opérateur matriciel linéaire diérentiel sur Ω dans le cas d'une observation
interne, sur Γ dans le cas d'une observation frontière.
Lorsque A, Q, C sont indépendants du temps, le système est stationnaire.
La plupart des problèmes linéaires d'évolution [LIO 68] conduisent naturellement
à ce type de modélisation (10.24), où l'équation aux dérivées partielles est résolue
en ∂t

. Dans le cas de dérivées partielles par rapport à t d'ordre supérieur à 1, on
se ramène à la formulation (10.24) en utilisant un espace fonctionnel produit. Par
exemple, le problème d'ordre 2 en t déni par :
∂ 2 x(z,t)
∂t2
= A(t)x(z, t) + B(t)uΩ (z, t),
x(z, 0) = x0 (z), z ∈ Ω,
∂x(z,0)
∂t
= x1 (z), z ∈ Ω,

peut être mis sous la forme (10.24) en posant :


n oT
e(z, t) = x(z, t), ∂x(z,t)
x ∂t
,
e0 (z) = {x0 (z), x1 (z)}T ,
x
   
e 0 I e 0
A(t) = , B(t) = .
A(t) 0 B(t)

L'espace fonctionnel est généralement un Hilbert H réel, séparable, de dimension


innie. La formulation dans cet espace s'obtient par la dénition d'un espace d'état
X ⊂ H et dense dans H qui absorbe, en quelque sorte, les conditions de bord,
c'est-à-dire que les conditions aux limites dans (10.24) se ramènent formellement à
x(., t) ∈ X . Si l'on adopte la notation x pour la fonction t 7→ x(., t) de ]0, tf [ → X , il
convient de prendre x ∈ L2 (]0, tf [ , X). La dérivée partielle ∂x
∂t
peut alors être notée
dx
dt
, la dérivation de x par rapport à t étant prise au sens des distributions avec
dx
dt
∈ D0 (]0, tf [ , X 0 ) .
Il faut également dénir l'espace des commandes U ⊂ H tel que :
u = (uΩ , uΓ ) ∈ L2 (]0, tf [ , U ),

et l'espace des observations Y ⊂ H tel que :


y(t) ∈ L2 (]0, tf [ , Y ).

Par exemple :
 U = H dans le cas d'une commande distribuée agissant sur tout ou partie de
Ω (respectivement, Y = H pour une observation répartie sur tout Ω) ;
 U = Rp dans le cas d'une commande ponctuelle par p actionneurs sur Ω ou plus
fréquemment sur Γ (respectivement, Y = Rq pour une observation ponctuelle
par q capteurs) ;
 U = L2 (Γ) (respectivement, Y = L2 (Γ)) dans le cas d'une commande (respec-
tivement, observation) localisée sur la frontière Γ.
366 Mathématiques pour les systèmes dynamiques

Dans ce cadre fonctionnel précis, la formulation dans l'espace d'état (10.21) du


système modélisé par (10.24) s'écrit :


dx
= A(t)x + B(t)uΩ , t ∈ ]0, tf [ ,


dt
 x(0) = x0, x0 ∈ H,
(10.25)

 y = C(t)x,


x ∈ L2 (0, tf , X), dx
dt
∈ L2 (0, tf , X 0 ).

Le problème ainsi déni admet une solution x(z, t) dite solution faible, la condition
x ∈ L2 (0, tf , X) assurant les conditions de bord et une régularité susante pour que
l'opérateur A puisse agir (au sens des distributions). Une plus grande régularité de la
solution peut être obtenue en imposant x0 ∈ D(A), ce qui induit x ∈ D(A), c'est-à-
dire que x vérie les conditions de bord en étant susamment diérentiable au sens
classique des fonctions : la solution ainsi dénie est une solution forte.
Remarque 8. Les commandes (respectivement, les observations) internes et répar-
ties ou localisées conduisent à des opérateurs B (respectivement, C ) bornés. Le cas
où la commande (respectivement, l'observation) est ponctuelle ou frontière, donne
nécessairement lieu à des opérateurs B (respectivement, C ) non bornés.
Remarque 9. Si l'opérateur A est coercif, on montre que la solution dépend conti-
nûment des données, c'est-à-dire qu'il y a existence et unicité de la solution x ∈
L2 (0, tf , X), telle que dx
dt
∈ L2 (0, tf , X 0 ) : le problème est bien posé au sens de Hada-
mard [HAD 32].
Ces notions seront détaillées dans le cas stationnaire dans la partie 10.4.2.

C 0 -semi-groupes, ou semi-groupes fortement continus

Le concept de semi-groupe fortement continu est étroitement lié à celui d'un sys-
tème dynamique sans entrée. En eet, si le système est linéaire à coecients constants
et autonome, son état x(t) peut être relié à l'état initial x0 = x(0, z), quelque soit t,
par :
x(t) = T (t)x, (10.26)
où T (t) est un opérateur linéaire, paramétré en t, de H dans H et tel que T (0) = I
(l'identité dans H).
Si de plus le problème est bien posé au sens de Hadamard, l'état du système est
unique et varie continûment en fonction de l'état initial x0 . De l'unicité, on déduit
que, quelque soit l'état initial x0 :

x(t + τ ) = T (t + τ )x0 = T (t)x(τ) = T (t)T (τ)x0 .

La variation continue de l'état en fonction de x0 confère à T (t) la propriété d'être


borné sur H.
Systèmes à paramètres distribués 367

Un semi-groupe fortement continu (ou C0 -semi-groupe) T (t) est une fonction


de R+ dans B(H) qui possède les propriétés suivantes :
T (t + τ ) = T (t)T (τ), t, τ ≥ 0 ;
T (0) = I ; (10.27)
∀x0 ∈ H, kT (t)x0 − x0 kt→0+ → 0 .

Un semi-groupe fortement continu T (t) sur un Hilbert H possède les propriétés élé-
mentaires suivantes :
 kT (t)k est borné sur tout sous-intervalle ni de [0, +∞[ ;
 T (t) est fortement continu pour tout t ∈ [0, +∞[ ;
Rt
 ∀x ∈ H, 1
t
T (τ)xdτ → x quand t → 0+ ;
0
 si ω 0 = inf ( 1t log kT (t)k), alors ω0 = lim ( 1t log kT (t)k) < ∞ ;
t>0 t→+∞
 ∀ω > ω 0 , il existe une constante Mω telle que ∀t ≥ 0, kT (t)k ≤ Mω eωt .
Cette dernière propriété montre que T (t) est exponentiellement borné, la constante
ω 0 étant parfois appelée la borne de croissance du semi-groupe.
Exemple 11. Reprenons le système modélisé par (10.22). L'opérateur T (t) déni en
(10.26) s'écrit, compte tenu de l'expression (10.23) :
X

T (t) = eλn t hz, φn i φn , (10.28)
n=0

 √
avec λn = −n2 π2 pour n ≥ 1 et λ0 = 0, φn (z) = 1, 2 cos(nπz), n ≥ 1 . La base
φn (z) est orthonormée et les valeurs propres λn vérient :

sup(λn ) < ∞. (10.29)


n≥1

T (t) est donc un opérateur borné vériant (10.27) : c'est un C0 -semi-groupe et on


peut montrer que sa borne de croissance est ω0 = 0.

Générateur innitésimal d'un C0 -semi-groupe

Le générateur innitésimal A d'un C0 -semi-groupe T (t) sur un espace de Hilbert


H est déni par :
1
A = lim (T (t) − I) x. (10.30)
t→0+ t
Lorsque cette limite existe, le domaine de dénition D (A) est alors l'ensemble des
éléments de H pour lesquels la limite existe.
L'opérateur résolvant (λI − A)−1 joue un rôle important dans les applications.
On a en particulier les résultats suivants.
Théorème 20. Si ω0 est la borne de croissance du semi-groupe et pour λ ∈ C et
ω ∈ R tels que Re(λ) > ω > ω 0 , alors :
368 Mathématiques pour les systèmes dynamiques

 λ ∈ ρ(A) ; R∞
 ∀x ∈ H, (λI − A)−1 x = 0 e−λt T (t)xdt ;

 (λI − A)−1 ≤ M , σ = Re(λ) ;
λ−ω
 lim α (I − A)−1 x = x.
∀x ∈ H, α→∞
α∈R

L'opérateur résolvant d'un générateur innitésimal d'un C0 -semi-groupe est donc


la transformée de Laplace du semi-groupe.
Théorème 21. T (t) étant un semi-groupe fortement continu sur un espace de Hilbert
H, de générateur innitésimal A, T (t) et A vérient [CUR 95] :
 ∀xn0 ∈ D(A), T (t)x0 ∈ D(A), ∀t ≥ 0 ;
 dt
d
n (T (t)x0 ) = A T (t)x0 = T (t)A x0 , ∀x0 ∈ D(A ), t > 0, n ∈ N ;
n n n

Zt
 T (t)x0 − x0 = T (τ )Ax0 dτ , ∀x0 ∈ D(A) ;
0
Zt Zt
 T (τ)xdτ ∈ D(A) et A T (τ )xdτ = T (t)x − x, ∀x ∈ H ;
0 0
T

 A est un opérateur fermé et D(An ) est dense dans H ;
n=1
 T ∗ (t) est un C0 -semi-groupe de générateur innitésimal A∗ sur H.
Ces propriétés traduisent l'existence d'une solution x(t) = T (t)x0 au système
dynamique (10.25), stationnaire (A(t) = A), autonome (uΩ = 0), qui constitue un
problème de Cauchy homogène ; la dernière propriété assure l'équivalence de l'exis-
tence d'une solution au problème dual.
La dénition (10.30) ci-dessus est cependant rarement utilisée pour calculer le
générateur innitésimal d'un semi-groupe, parce qu'elle est souvent dicile à appli-
quer. On lui préfère l'utilisation du théorème suivant, qui constitue un résultat très
important sur la caractérisation des générateurs innitésimaux.
Théorème 22 (de Hille-Yosida). Une condition nécessaire et susante pour qu'un
opérateur linéaire A fermé et de domaine dense sur un espace de Hilbert H soit le
générateur innitésimal d'un C0 -semi-groupe est qu'il existe des réels M et ω tels que :
M
∀α > ω, tel que α ∈ ρ (A) , (αI − A)−r ≤ , ∀r ≥ 1,
(α − ω)r

et on a alors kT (t)k ≤ M eωt .


Exemple 12. Le générateur innitésimal du semi-groupe T (t) de l'exemple 11 est
l'opérateur auto-adjoint A déni sur H par :
X

Ax = λn hx, φn i φn ,
n=1
( )
X

2
D (A) = x ∈ H, |λn hx, φn i| < ∞ .
n=1
Systèmes à paramètres distribués 369

Le théorème de Hille-Yosida permet de montrer ce résultat, sachant que supn≥1 (λn ) <
∞. On peut vérier ensuite que cet opérateur A s'identie à l'opérateur diérentiel
déni dans l'exemple 7.
Le théorème de Hille-Yosida donne une condition nécessaire et susante pour
qu'un opérateur soit le générateur innitésimal d'un C0 -semi-groupe. Le théorème
suivant fournit des conditions susantes mais plus simples à vérier.
Théorème 23. Pour qu'un opérateur A fermé, de domaine dense sur un espace de
Hilbert, soit le générateur innitésimal d'un C0 -semi-groupe vériant kT (t)k ≤ eωt , il
sut qu'il vérie :
Re (hAx, xi) ≤ ω kxk2 , ∀x ∈ D(A) ;
Re (hA∗ x, xi) ≤ ω kxk2 , ∀x ∈ D(A∗ ).

On retrouve ici l'équivalence des conditions sur l'opérateur dual A∗ .

Les opérateurs à spectre de Riesz

Nous envisageons ici une classe d'opérateurs caractérisée par des propriétés spec-
trales qui permettent une représentation particulièrement agréable pour un grand
nombre de systèmes décrits par des équations aux dérivées partielles de type hyper-
bolique ou parabolique.
Dénition 19 (Base de Riesz). Un sous-ensemble non vide {φn , n ≥ 1} d'un
Hilbert H est une base de Riesz pour H s'il est maximal (c'est-à-dire tel que
span {φn } = H ) et si :

∃m > 0, ∃M > 0, et ∀N ∈ N, ∃ {αn ∈ C, n = 1, · · · , N } tels que :


N 2
P
N P P
N (10.31)
m |αn |2 ≤
αn φ
n ≤ M |αn |2 .
n=1 n=1 n=1

D'après la condition (10.31), on vérie que les bases orthonormées sont des bases
de Riesz. Inversement, on peut montrer que toute base de Riesz est l'image, par un
opérateur borné inversible, d'une base orthonormée.
Dénition 20 (Opérateur à spectre de Riesz). Un opérateur à spectre de
Riesz est un opérateur fermé sur un espace de Hilbert H, de valeurs propres simples
{λn , n ≥ 1} dont les vecteurs propres associés constituent une base de Riesz sur H et
telles que {λn , n ≥ 1} soit un sous-ensemble convexe de H.
Autrement dit, deux points quelconques de {λn , n ≥ 1} ne pourront jamais être
joints par un segment entièrement contenu dans {λn , n ≥ 1}. Cette hypothèse d'un
spectre convexe inclut donc les opérateurs dont le spectre possède un nombre ni
de points d'accumulation. Il s'agit là d'une hypothèse technique importante, utile en
particulier pour démontrer les conditions de commandabilité approchée [CUR 95].
Théorème 24. Soit A un opérateur à spectre de Riesz de valeurs propres simples
{λn , n ≥ 1} associées aux vecteurs propres {φn , n ≥ 1} . Soient {ψ n , n ≥ 1} les vec-
teurs propres de A∗ tels que hφn , ψ n i = δnm (dénis en (10.1)). Alors, A vérie les
propriétés suivantes :
370 Mathématiques pour les systèmes dynamiques

 
 ρ(A) = λ ∈ C, inf |λ − λn | > 0 , σ (A) = {λn , n ≥ 1} et :
n≥1

1 X

∀λ ∈ A, (λI − A)−1 = h., ψn i φn ;
n=1
λ − λn
 ∞

P
 pour x ∈ D(A) = x ∈ H, λ2n |hx, ψ i|2 < ∞ :
n
n=1

X

Ax = λn hx, ψ n i φn ;
n=1

 A est générateur innitésimal d'un semi-groupe fortement continu si et seule-


ment si sup Re (λn ) < ∞. Le semi-groupe est alors déni par :
n≥1

X

T (t) = eλn t h., ψn i φn ,
n=1

et sa borne de croissance est : ω0 = inf t>0 1
t
log kT (t)k = sup Re (λn ) .
n≥1

Exemple 13. L'opérateur A = d2


dz 2
de l'exemple 7 est un opérateur à spectre de Riesz
déni par :
X

Ax = −n2 π 2 hx, ψ n i φn pour x ∈ D(A),
n=1
( )
X

4 4 2
D(A) = x ∈ L2 (0, 1), n π |hx, ψn i| < ∞ .
n=1

Le théorème 24 conrme l'existence du semi-groupe T (t) déjà obtenu dans l'exemple


11.
L'approche spectrale peut paraître plus lourde que l'étude de l'ensemble résolvant
(théorème de Hille-Yosida) pour prouver l'existence d'un semi-groupe, mais l'étude
des valeurs propres et des vecteurs propres est essentielle pour l'analyse des propriétés
de commandabilité et d'observabilité des systèmes linéaires [CUR 95].

10.4.2. Le problème de Cauchy


Cas général des problèmes non homogènes

Les problèmes de commande des systèmes dynamiques (10.25) (restreints ici au


cas stationnaire A(t) = A) constituent, dans le cas général, des problèmes de Cauchy
non homogènes :
dx
= Ax(t) + B(t)uΩ , t ∈ ]0, tf [ , x(0) = x0 ∈ H. (10.32)
dt
L'existence et l'unicité d'une solution forte (analogue à la solution classique en di-
mension nie) sont assurées par le théorème suivant.
Systèmes à paramètres distribués 371

Théorème 25. Si A est le générateur innitésimal d'un semi-groupe fortement


continu T (t) sur un espace de Hilbert H, B(t)uΩ ∈ C 1 ([0, tf ], H) et x0 ∈ D(A),
alors :
Zt
x(t) = T (t)x0 + T (t − τ )B(τ )uΩ (τ )dτ , (10.33)
0

est l'unique solution de (10.32) et elle est continubment diérentiable sur [0, tf ].
Cependant, la condition B(t)uΩ ∈ C 1 ([0, tf ], H) est généralement dicile à obte-
nir. On peut alors utiliser le résultat de solution faible suivant.
Théorème 26. Soient x0 ∈ H et B(t)uΩ ∈ Lp ([0, tf ]; H)p≥1 . Alors, (10.33) est
l'unique solution faible de (10.32) sur [0, tf ]. Elle est continue sur [0, tf ].
Exemple 14. Reprenons le système modélisé par (10.22). La formulation abstraite
d2
dans l'espace d'état L2 (0, 1) s'obtient à l'aide de l'opérateur A = dz 2 de l'exemple 7.
Si la commande est telle qu'il existe p ≥ 1 tel que u(z, t) ∈ Lp ([0, tf ]; L2 (0, 1)), alors
la solution (10.33) s'écrit, compte tenu de la dénition du semi-groupe (exemple 11) :

X
∞ Z tX

x(z, t) = eλn t hx0 , φn i φn (z) + eλn (t−τ ) hu(τ ), φn i φn (z) dτ
n=0 0 n=0
Z 1 X
∞ Z 1 Z t Z 1
= x0 (z)dz + 2eλn t x0 (z) cos(nπz)dz cos(nπζ) + u(z, τ )dzdτ
0 n=1 0 0 0
Z tX
∞ Z 1
2
π 2 (t−τ )
+ e−n 2 u(z, τ ) cos(nπz)dz cos(nπζ)dτ .
0 n=0 0

En pratique, il est souvent impossible de calculer explicitement le semi-groupe : les


problèmes d'automatique ne nécessitent d'ailleurs pas ce calcul, mais simplement l'as-
surance de l'existence du semi-groupe qui prouvera que le problème est bien posé. Les
deux paragraphes suivants développent ce point de vue dans des cas particulièrement
fréquents.

Le retour d'état : un problème de Cauchy homogène

Lorsque le terme de commande B(t)uΩ correspond à un retour d'état :

B(t)uΩ = Rx(t),

où R est un opérateur borné, le problème (10.25) se ramène au problème de Cauchy


suivant :  dx
= (A + R)x(t), t > 0,
dt (10.34)
x(0) = x0 .

On montre alors, en considérant R comme une perturbation de l'opérateur A, le


résultat suivant [CUR 95], très utile dans les applications.
372 Mathématiques pour les systèmes dynamiques

Théorème 27. Si A est le générateur innitésimal d'un semi-groupe fortement


continu T (t) sur un Hilbert H et si R ∈ B(H), alors A + R est le générateur in-
nitésimal de l'unique semi-groupe fortement continu TR (t) vériant :
Z t
TR (t)x0 = T (t)x0 + T (t − τ )RTR (τ )x0 dτ . (10.35)
0

Si, de plus, kT (t)k ≤ M eωt , alors : kTR (t)k ≤ M e(ω+M kRk)t .


Remarque 10. En utilisant le fait que A est le résultat de la perturbation de A + R
par −R, on déduit de (10.35) :
Zt
TR (t)x0 = T (t)x0 + TR (t − τ )RT (τ)x0 dτ .
0

Lorsque le retour R est un opérateur non stationnaire R(t) tel que, ∀ t ∈ [0, tf ] ,
R(t) ∈ B(H) et tel que hx1 , R(.)x2 i soit mesurable pour tout x1 de H et pour tout
x2 de H, alors :
ess sup kR(t)kB(H) < ∞, (10.36)
0≤t≤tf

où ess sup est la borne supérieure essentielle (c'est-à-dire au sens de Lebesgue, sans
tenir compte des valeurs isolées).
Le théorème 27 se généralise comme suit.
Théorème 28. Si A est le générateur innitésimal d'un semi-groupe fortement
continu T (t) sur un Hilbert H et si R(t) vérie (10.36), alors A + R(.) est le gé-
nérateur innitésimal de l'unique semi-groupe fortement continu TR (t, τ ) vériant :
TR (t, τ ) : {(t, τ ) ; 0 ≤
R tτ ≤ t ≤ tf } → B(H),
TR (t, τ )x0 = T (t − τ )x0 + τ TR (t − θ)R(θ)T (θ, τ )x0 dθ.

L'opérateur TR (t, τ ) caractérise la solution faible de (10.34) sur [0, tf ] si x0 (t) ∈ H ,


la solution forte si x0 (t) ∈ D(A). TR (t, τ ) possède les propriétés suivantes :
1. TR (t, t) = I, ∀t ∈ [0, tf ] ;
2. TR (t, θ)TR (θ, τ ) = TR (t, τ ), 0 ≤ τ ≤ θ ≤ t ≤ tf ;
3. TR (., τ ) est fortement continu sur [τ , tf ] et TR (t, .) est fortement continu sur
[0, t] ;
4. ∀x0 ∈ D(A) :
Rt
τ
TR (t, θ) (A + R(θ)) x0 dθ = TR (t, τ )x0 − x0 ;

∂τ
TR (t, τ )x0 = −TR (t, τ ) (A + R(τ )) x0 presque partout sur [0, t[ .

Le cas des systèmes interconnectés

Lorsque le système (10.25) peut être décomposé en sous-systèmes interconnec-


tés, où l'interconnexion peut être vue comme une perturbation, on peut utiliser le
théorème suivant pour montrer l'existence d'un C0 -semi-groupe, donc de la solution.
Systèmes à paramètres distribués 373

Théorème 29 (Systèmes interconnectés). Soient T1 (t) et T2 (t) des semi-groupes


fortement continus sur leurs espaces de Hilbert respectifs H1 et H2 , de générateurs
innitésimaux
  respectifs A1 et A2 , et tels que kTi k ≤ Mi e , i = 1, 2. Si A =
ωi t

A1 0
, avec D(A) = D(A1 ) ⊕ D(A2 ) et C ∈ B (H1 , H2 ), alors A est le géné-
C A2
rateur innitésimal du C0 -semi-groupe T (t) déni sur H = H1 ⊕ H2 par :
 
T1 (t) 0
T (t) = ,
K(t) T2 (t)
Rt
où K(t)x1 = 0 T2 (t − τ )CT1 (t)x1 dτ .

De plus, il existe M > 0 tel que kT (t)k ≤ M eωt , avec ω = max(ω1 , ω 2 ) si ω1 6= ω 2 et


kT (t)k ≤ M teωt si ω 1 = ω 2 = ω.

10.5. Méthodes d'approximation

10.5.1. Systèmes linéaires : la méthode des fonctions propres

Considérons la classe de systèmes linéaires dénis sur un domaine spatial Ω ⊂ R


et un domaine temporel ]0, tf [⊂ R, par l'équation d'état :
∂x(z, t)
= M [x(z, t)] + g(z, t), (10.37)
∂t
les conditions aux limites sur la frontière Γ de Ω :

L[x(z 0 , t)] = 0, z 0 ∈ Γ (Ω) , (10.38)

et la condition initiale :
x(z, 0) = x0 (z), (10.39)
où M et L représentent des opérateurs matriciels diérentiels sur le vecteur d'état x.
Une solution du système (10.37)-(10.39) peut être obtenue s'il est possible de déter-
miner analytiquement les valeurs et fonctions propres de l'opérateur M . Ce problème
aux valeurs propres associées consiste à résoudre le système :

M [Φ(z)] = λT Φ(z),
(10.40)
L[Φ(z 0 )] = 0.

S'il existe une solution non nulle de (10.40), alors λ et Φ(z) sont respectivement
les valeurs propres et les fonctions propres. Dans le cas où il existe un ensemble
dénombrable de solutions λi , Φi (z) et où les Φi (z) forment une base, la solution de
(10.37) peut s'écrire sous la forme séparable :
X

x(z, t) = ai (t)Φi (z), (10.41)
i=1
374 Mathématiques pour les systèmes dynamiques

et ainsi l'équation (10.37) s'écrit :


X
∞ X

ȧi (t)Φi (z) = ai (t)λi Φi (z) + g(z, t). (10.42)
i=1 i=1

Dans le cas général d'un problème linéaire non auto-adjoint (où M et son adjoint
M ∗ n'admettent pas le même ensemble de fonctions propres), on utilise la propriété
d'orthogonalité des deux ensembles de fonctions propres Φ et Φ∗ :
Z


Φi (z), Φ∗j (z) Ω = Φi (z)Φ∗j (z)dz = δ ij , (10.43)

où δ ij est le symbole de Kronecker déni en 10.1. A partir de l'équation (10.42), on


peut alors écrire :
X


X




ȧi (t) Φi (z), Φ∗j (z) Ω = ai (t)λi Φi (z), Φ∗j (z) Ω + g(z, t), Φ∗j (z) Ω ;
i=1 i=1

d'où, en tenant compte de (10.43) :


ȧi (t) = λi ai (t) + hg(z, t), Φ∗i (z)iΩ , i = 1, 2, ..., ∞. (10.44)
Ce système diérentiel de dimension innie est entièrement découplé et on peut l'écrire
sous la forme :
ȧ(t) = Aa(t) + B(t), (10.45)
où A est la matrice diagonale formée des valeurs propres λi . La condition initiale est
déterminée par :
ai (0) = hx0 (z), Φ∗i (z)iΩ i = 1, 2, ..., ∞, (10.46)
et la solution (10.41) de l'équation (10.37) est donc égale à :
x(z, t) = C(z)T a(t), (10.47)
où C est le vecteur de dimension innie, formé des fonctions propres de M .
Dans le cas particulier d'un problème linéaire auto-adjoint, il sut de remplacer
Φ∗ par Φ dans l'équation (10.44) et dans la condition initiale (10.46).
Le système diérentiel (10.45) étant de dimension innie, on procède en pratique
à une troncature d'ordre N dans l'expression de la solution (10.41), N dépendant de
la précision souhaitée sur la solution approchée de x(z, t).
Le calcul de B(t) dépend de g(z, t), donc du type de commande envisagé.

10.5.2. Systèmes non linéaires : la méthode des résidus pondérés


On considère la classe de systèmes dénie par l'équation d'état (10.37) dans la-
quelle la commande interne u(z, t) apparaît explicitement :
Systèmes à paramètres distribués 375

∂x(z, t)
= M [x(z, t)] + H(z)u(z, t). (10.48)
∂t
Soit x0 = x(z, t0 ) l'état initial. Les conditions aux limites (10.38) s'écrivent, dans
le cas où il existe une commande frontière ul (z 0 , t) :

L[x(z 0 , t)] = ul (z 0 , t), z 0 ∈ Γ(Ω). (10.49)

La méthode des résidus pondérés [FIN 72] consiste à déterminer pour l'équation
(10.48) une solution modale approchée de la forme :
X
N
x̃(z, t) = ai (t)fi (z) + ϕ(z, t), (10.50)
i=1

où les fonctions de base fi (z) sont xées a priori. La fonction ϕ(z, t) satisfait les
conditions aux limites (10.49). La précision de l'approximation dépend de l'ordre
de troncature N . En reportant la solution x∗ dans l'équation (10.48), les conditions
(10.49) et la condition initiale, on dénit les résidus suivants :
 résidu sur l'équation :
∂ x̃
R(x̃) = − M [x̃] − Hu, (10.51)
∂t
 résidu sur les conditions aux limites :
Rl (x̃) = L[x̃] − ul , (10.52)
 résidu sur la condition initiale :
R0 (x̃) = x0 − x̃0 . (10.53)
En faisant un choix approprié de x̃ tel que les conditions aux limites soient tou-
jours satisfaites (Rl = 0), la méthode  intérieure  des résidus pondérés consiste à
minimiser le résidu R(x̃), ce qui revient à projeter ce résidu, déni en (10.51), sur N
fonctions de pondération ω i (z) et à écrire que ces projections sont nulles. En raison
de la nature répartie du résidu sur Ω, ces projections sont dénies par les produits
intérieurs suivants :
Z
hR(x̃), ω i (z)iΩ = R(x̃)ω i (z)dΩ = 0, i = 1, 2, ..., N. (10.54)

On obtient ainsi un système de N équations permettant de calculer les coecients


inconnus ai (t) de l'expression (10.50). Selon le choix des fonctions de pondération
ω i (z), on obtient plusieurs classes de méthodes des résidus pondérés, comme suit.

1. La méthode des moindres carrés : la minimisation du produit scalaire


hR(x̃), R(x̃)iΩ par rapport aux inconnues ai (t) revient à choisir :

∂R(x̃)
ω i (z) = , i = 1, 2, ..., N, (10.55)
∂ai
376 Mathématiques pour les systèmes dynamiques

car de la condition de minimisation : ∂


hR(x̃), R(x̃)iΩ = 0, on déduit :
R ∂ai

∂ai Ω
R2 (x̃)dΩ = 0 et, donc :
∂R(x̃)
h R(x̃), iΩ = 0.
∂ai
2. La méthode de Galerkin : la minimisation du produit scalaire hR(x̃), R(x̃)iΩ
par rapport aux ȧi (t) revient à choisir :
∂R(x̃)
ω i (z) = = fi (z), i = 1, 2, ..., N. (10.56)
∂ ȧi
En eet, de la condition de minimisation : ∂
∂ ȧi
hR(x̃), R(x̃)iΩ = 0, on déduit :
Z Z
∂ ∂R(x̃)
R2 (x̃)dΩ = R(x̃) dΩ = 0.
∂ ȧi Ω Ω ∂ ȧi
PN P
Or, R(x̃) = i=1 ȧi (t)fi (z) − M [ Ni=1 ai (t)fi (z)] − Hu, donc :

∂R(x̃)
= fi (z), i = 1, 2, ..., N.
∂ ȧi
3. La méthode des moments : dans ce cas, les fonctions ω i (z) sont des fonctions
linéairement indépendantes, orthogonales sur Ω :
Z
ω i (z)ω j (z)dΩ = δ ij , (10.57)

où δ ij est le symbole de Kronecker.
4. La méthode de collocation par sous-domaines (ou méthode des sous-domaines) :
en partitionnant le domaine Ω en N sous-domaines Ωi (i = 1, 2, ..., N ) non
nécessairement disjoints, les fonctions de pondération ωi (z) sont xées comme
suit : 
constante sur Ωi ,
ωi =
0 ailleurs,
ce qui rend nulle l'intégrale du résidu sur chacun des sous-domaines :
Z
R(x̃)dΩ = 0, i = 1, 2, ..., N.
Ωi

5. La méthode de collocation par points : lorsque chaque sous-domaine Ωi , déni


ci-dessus, se réduit à un point, les fonctions de pondération ω i (z) sont identiées
à des fonctions de Dirac :
ω i (z) = δ(z − zi ), i = 1, 2, ..., N, (10.58)
R
et, dans ce cas, le produit (10.54) s'écrit : Ω R[x̃(z, t)] δ(z − zi ) dΩ = 0, soit :
R[x̃(zi , t)] = 0. (10.59)
En annulant les résidus aux diérents points de collocation zi (i = 1, 2, ..., N )
choisis sur Ω, la solution x̃ est obtenue exactement en ces points.
Si cette dernière méthode est très simple à mettre en ÷uvre, elle nécessite un
certain nombre de précautions dans le choix des fonctions de base fi (z), du nombre
et de la position des points de collocation. C'est ce qui est présenté plus en détails
dans le paragraphe suivant.
Systèmes à paramètres distribués 377

10.5.3. Mise en ÷uvre de la méthode de collocation par points


Les méthodes des résidus pondérés sont assez largement utilisées dans les domaines
physique, chimique ou biochimique : parmi elles, la méthode de collocation par points
est souvent préférée (un certain nombre de publications dans les années 80 sont citées
en références). Il y a à cela deux raisons principales : la première est que l'établissement
du système diérentiel ordinaire s'eectue sans calcul d'intégrales (grâce au choix des
fonctions de Dirac) ; la seconde est que la nature des variables d'état est conservée
dans la transformation. De plus, il a été montré [CHO 83] que les bilans de masse et
de chaleur sont conservés dans l'approximation.
Par contre, cette méthode peut conduire à de mauvais résultats, comparés à ceux
obtenus par les autres méthodes [VIL 78], si certaines règles quantitatives ou quali-
tatives ne sont pas respectées. En eet, la mise en ÷uvre de la méthode nécessite le
choix de trois paramètres :
1. les fonctions de base fi (z),
2. la position zi des points de collocation,
3. le nombre N de points de collocation.

Choix des fonctions de base

Il est possible de choisir les fi (z) selon une structure polynomiale ; an d'éviter
l'obtention de systèmes numériquement mal conditionnés, il est préférable que ces
polynômes soient orthogonaux sur Ω [MOL 90, RIC 01] :
Z
fi (z)fj (z)dΩ = ri2 δij . (10.60)

Une représentation intéressante de la solution approchée est obtenue avec les poly-
nômes d'interpolation de Lagrange dénis par :
PN+2 (z)
fi (z) = 0
, (10.61)
(z − zi )PN+2 (zi )
Y
N+1
0 dPN+2
avec PN+2 = (z − zi ), PN+2 = .
i=0
dz

Les zi sont les abscisses des points d'interpolation ; z0 et zN+1 sont les limites de
Ω. Si les points de collocation sont confondus avec les points d'interpolation, la mé-
thode est dite de collocation orthogonale [VIL 78]. On peut vérier qu'en chaque point
d'interpolation zj :
fi (zj ) = δ ij , i, j = 0, 1, ..., N + 1. (10.62)
Sachant que la solution approchée est de la forme :
X
N+1
x̃(z, t) = ai (t)fi (z),
i=0
378 Mathématiques pour les systèmes dynamiques

et en tenant compte de la propriété (10.60), on obtient :


x̃(zi , t) = ai (t), i = 0, 1, ..., N + 1. (10.63)
Autrement dit, les fonctions ai (t) représentent les valeurs de la solution approchée
aux points d'interpolation.

Détermination de la position des points de collocation

Il a été montré que, pour un nombre N xé de points de collocation, il existe une
solution optimale de l'approximation [VIL 78], à savoir :  Les positions optimales
des points de collocation sont
les zéros de polynômes orthogonaux sur Ω. 
Les polynômes les plus souvent utilisés sont ceux de Jacobi PN(α,β) [RIC 01], où N
est le degré du polynôme. Ces polynômes vérient la relation d'orthogonalité (10.64),
dans laquelle zL ≡ zN+1 :
Z zL
(α,β)
z k PN (z − zL )α (z − z0 )β dz = 0, k = 0, 1, ..., N − 1. (10.64)
z0

On trouvera dans [MIC 72] une méthode de calcul numérique des zéros du
polynôme de Jacobi. Les paramètres α et β peuvent être considérés comme des
paramètres de réglage en vue d'obtenir la meilleure solution ou, tout au moins, une
solution admissible ; pour cela, il n'existe pas de règles quantitatives précises mais
des études théoriques et expérimentales ont montré qu'il est préférable de placer les
points de collocation dans les zones où les non-linéarités sont les plus inuentes. Le
tableau suivant fournit quelques points de repère.
α β Propriétés
0 0 Distribution uniforme des zéros (polynômes de Legendre)
1 1 Positions symétriques des zéros
1 -0.5 Cas de variables symétriques en espace
petit >1 Davantage de zéros près de z = zL
>1 petit Davantage de zéros près de z = z0
D'autres polynômes peuvent aussi être utilisés, tels ceux de Hahn [STE 83].

Détermination du nombre de points de collocation

D'une façon générale, le problème du choix de N est plus dicile à résoudre que
celui du choix des zi . Il dépend de la structure du modèle (c'est-à-dire non-linéarités,
dynamique, dimensions du domaine Ω) et des capteurs (structure de l'équation de
sortie).
Une corrélation qualitative a été établie [SRI 85] entre le nombre N nécessaire pour
une précision désirée et un paramètre de réduction d'ordre (PRO) obtenu à partir d'un
Systèmes à paramètres distribués 379

développement en série de la solution en régime permanent. Le PRO correspond au


N -ième terme de la série ; si la série converge rapidement, N peut être relativement
faible. Par conséquent, plus la valeur absolue du PRO est grande, plus le nombre de
points de collocation est élevé. Des modications à cette méthode ont été proposées
[SRI 85] dans le cas de systèmes complexes.

10.6. Bibliographie
[AUB 79] Aubin J.P., Applied functional analysis, John Wiley & Sons, 1979.
[BAB 96] Babary J.P., Bourrel S., Nihtila M.T., Dochain D.,  Sur la re-
présentation d'état des systèmes à paramètres répartis , Les systèmes de
régulation, Masson, p. 317-336, 1996.
[BAL 82] Balas M.J.,  Towards a more practical control theory for distributed
parameter systems , Control and Dynamic Systems, p. 362-418, Academic
Press, 1982.
[BAN 89] Banks H.T., Kunisch K., Estimation techniques for distributed parame-
ter systems, Birkhäuser, 1989.
[BAN 83] Banks S.P., State space and frequency domain methods in the control of
distributed parameter systems, P. Peregrinus, Londres, 1983.
[BER 90] Berrahmoune L.,  Stabilisation des structures exibles faiblement amor-
ties , R.A.I.R.O. - A.P.I.I., vol. 24, n◦ 4, 1990.
[BOU 98] Bourrel S., Dochain D., Babary J.P., Queinnec I.,  Modelling,
identication and control of a denitrifying biolter , Journal of Process
Control, vol. 10, n◦ 1, p. 73-91, 1999.
[CAR 88] Carrier G.F., Pearson C.E., Partial dierential equations. Theory and
technique, deuxième édition, Academic press, U.S.A.
[CAR 87] Carver M.B., Salcudean M., Two-uid modelling of phase redistribu-
tion by obstructions, Mathematics and Computers in Simulation, vol. 29,
p. 399-412, 1987.
[CHO 83] Cho Y.S., Joseph B.,  Reduced order steady state and dynamic mo-
dels for separation processes. Part I : Development of the model reduction
procedure , AIChE Journal, vol. 29, n◦ 2, p. 261-269, 1983.
[CUR 95] Curtain R.F., Zwart H.J., An introduction to innite-dimensional linear
systems theory, Springer-verlag, 1995.
[DAU 88] Dautray R., Lions J.L., Analyse mathématique et calcul numérique, t.
6, Masson, 1988.
[FIN 72] Finlayson B.A., The method of weighted residuals and variational prin-
ciples, Academic Press, 1972.
[HAD 32] Hadamard J., Le problème de Cauchy et les équations aux dérivées par-
tielles linéaires hyperboliques, Hermann et Cie, Paris, 1932.
[HIL 57] Hille E., Phillips R.S., Functional analysis and semigroups, Amer.
Math. Soc. Coll. Publ., N◦ 31, Providence, R.I., 1957.
[KAT 66] Kato T., Perturbation theory of linear operators, Springer Verlag, 1966.
[KRE 78] Kreyszig E., Introductory functional analysis with applications, John Wi-
ley & Sons, 1978.
380 Mathématiques pour les systèmes dynamiques

[LIO 68] Lions J.L., Contrôle optimal de systèmes gouvernés par des équations aux
dérivées partielles, Dunod, Paris, 1968.
[MIC 72] Michelsen M.L., Villadsen J.,  A convenient computational procedure
for collocation constants , Chemical Engineering Journal, vol. 4, p. 64-68,
1972.
[MOL 90] Molander M., Computer aided modelling of distributed parameter pro-
cesses, Thèse de doctorat, Tech. Report 193, School of Electr. Comput.
Eng., Chalmers Univ. Techn., Goteborg, Suède, 1990.
[REI 91] Reinhard H., Equations aux dérivées partielles. Introduction, Dunod,
1991.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[RUD 73] Rudin W., Functional Analysis, McGraw-Hill Book Company, New York,
1973.
[SRI 85] Srivastava R.K., Joseph B.,  Reduced order models for separation
columns-V : selection of collocation points , Comput. Chem. Eng., vol.
9, n◦ 6, p. 601-613, 1985.
[STE 83] Stewart W.E., Levien K.L., Morari M.,  Collocation methods in
distillation , Foundation of Computer Aided Process Design, snowmass
co.(USA), juin 1983.
[VIL 78] Villadsen J.V., Michelsen M.L., Solution of dierential equation mo-
dels by polynomial approximation, Int. Series in the Physical and Chemical
Engineering Sciences, Prentice Hall, 1978.
[YOS 66] Yosida K., Functional Analysis, Springer-Verlag, 1966.
[ZAM 97] Zambettakis I., Bourrel S., Rotella F., Babary J.P.,  Parametric
identication of a xed bed bioreactor , European Control Conf., ECC'97,
Bruxelles, 1-4 juillet 1997.
,QGH[

$ G¶(XOHU 
GH 3LFDUG/LQGHO|I 
DEVFLVVH GH FRQYHUJHQFH 
GHV SHWLWV PRXYHPHQWV 
DEVROXPHQW FRQWLQXH  
GHV SHWLWV UHWDUGV 
DFWLI ULVTXp 
GX SHLJQH GH 'LUDF 
DGMRLQW RSpUDWHXU   
DUJXPHQW GLIIpUp 
DIILQH
DUUrW WHPSV G¶  
HQ O¶pWDW 
$VFROL$U]HOD  
HQ O¶HQWUpH 
DWODV 
HQ OD FRPPDQGH 
DWWUDFWHXU pWUDQJH  
DOpDWRLUH YDULDEOH YHFWHXU  
DWWUDFWLYLWp 
DOJpEULTXH
DXWRDGMRLQW RSpUDWHXU  
pOpPHQW 
DXWRFRYDULDQFH 
FRQWUDLQWH 
DXWRQRPH 
GpSHQGDQFH OLHQ 
DXWRUpJODQW UHWDUG  
GLVMRQFWLRQ 
DOJqEUH 
%
DX[ GLIIpUHQFHV 
FRPPXWDWLYH  %DQDFK HVSDFH GH    
GH /LH  %DQDFK6WHLQKDXV WKpRUqPH  
GLIIpUHQWLHOOH  EDVH
QRQ OLQpDLUH  GH 5LHV] 
DQQHDX GLIIpUHQWLHO  GH WUDQVFHQGDQFH 
DQWLV\PpWULH  GLIIpUHQWLHOOH 
DSSOLFDWLRQ OLQpDLUH FRQWLQXH  GXDOH 
DSSUR[LPDWLRQ RUWKRQRUPpH 
DX SUHPLHU RUGUH  
 0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV

%HUQRXLOOL &DXFK\5LHPDQ RSpUDWHXU  


pTXDWLRQ GH  FDXVDO VLJQDO  
UHODWLRQ GH  FHUWDLQ pYpQHPHQW  
ELIXUFDWLRQ   FKDPS
%ORPEHUJ<ULOHQ V\VWqPH GH   DIILQH HQ OD FRPPDQGH 
%RUHO WULEX GH   GH YHFWHXUV 
ERUQH GLIIpUHQWLDEOH 
GH FURLVVDQFH  FKDQJHPHQW GH FDUWH 
HVVHQWLHOOH   FKDRV  
ERXFODJH   &KHWDHY WKpRUqPH GH  
G¶pWDW  FKLPLH 
G\QDPLTXH  &ODLUDXW pTXDWLRQ GH  
HQGRJqQHH[RJqQH  &ODUNH JUDGLHQW DX VHQV GH  
TXDVL VWDWLTXH  FODVVH
UpJXOLHU  G¶XQ DWODV 
VWDWLTXH  G¶XQH DSSOLFDWLRQ 
ERUQp  . ./ IRQFWLRQ GH   
RSpUDWHXU  PRQRWRQH 
%RXOLJDQG F{QH GH   FODVVLTXH pWDW  
EUDQFKH G¶pTXLOLEUHV  FRGLPHQVLRQ G¶XQH ELIXUFDWLRQ 
%URPZKLFK:DJQHU LQWpJUDOH   FRHUFLI 
EURZQLHQ FROORFDWLRQ PpWKRGHV GH  
FDUUp GX  FRPPDQGDELOLWp     
)PRXYHPHQW  
PRXYHPHQW   ORFDOH 
GGLPHQVLRQQHO  ORFDOH IDLEOH  
JpRPpWULTXH  FRPPDQGH pTXLYDOHQWH 
FRPPXWDQW 
& FRPPXWDWLYLWp 
GH GHX[ IORWV 
FDQGLGDWH IRQFWLRQ  
FRPSDFW 
FDQRQLTXH
FRPSDUDLVRQ
HVSDFH 
GH VROXWLRQV  
PDUWLQJDOH 
IRQFWLRQ GH  
FDSDFLWp 
V\VWqPH GH  
&DUDWKpRGRU\ WKpRUqPH GH  
FRPSOpWXGH 
FDUUp GX EURZQLHQ 
FRPSOHW FRPSOqWH
&DUVRQ LQWpJUDOH GH  
FKDPS 
FDUWH ORFDOH 
WULEX 
&DXFK\
FRPSRVDQWH
ORL GH VWDQGDUG 
G¶XQ FKDPS GH YHFWHXUV 
SUREOqPH GH     
G¶XQH IRUPH 
VXLWH GH 
,QGH[ 

FRPSRVLWLRQ LWpUpH GH /LH  FULWLTXH  


FRQGLWLRQ FURFKHW
GH JOLVVHPHQW  GH /LH   
GH WDQJHQFH  GH /LH LWpUp 
FRQGLWLRQQHOOH SUREDELOLWp   GH SURFHVVXV G¶,W{ 
F{QH FRQWLQJHQW WDQJHQW  F\FOH OLPLWH 
FRQWLQJHQW F{QH  
FRQWLQX FRQWLQXH '

PXOWLIRQFWLRQ  


GpFOLQDQWH IRQFWLRQ  
V\VWqPH 
GpFRPSRVLWLRQ
WUDMHFWRLUH 
FDQRQLTXH G¶XQH YD 
FRQWUDFWLRQ GHV QRUPHV 
GH 'XQIRUG 
FRQYHUJHQFH
GpFRUUpODWLRQ 
GH YD GDQV /U 
GpFRXSODJH HQWUpHVRUWLH 
GRPLQpH 
GpIDXW G¶XQ V\VWqPH 
GRPLQpH FRQGLWLRQQHOOH 
GpILQLH SRVLWLYH  
HQ ORL HQ GLVWULEXWLRQ 
GpJpQpUp GpJpQpUpH  
IDLEOH  
GHJUp GH WUDQVFHQGDQFH  
IRUWH XQLIRUPH  
GHQVLWp
PRQRWRQH 
G¶XQ VRXVHQVHPEOH  
PRQRWRQH FRQGLWLRQQHOOH 
G¶XQH LQMHFWLRQ 
SRQFWXHOOH 
G¶XQH YDULDEOH DOpDWRLUH 
SUHVTXH V€UH SV  
JDXVVLHQQH 
VWUXFWXUH GH 
GpSHQGDQFH
FRQYH[H PXOWLIRQFWLRQ  
G¶XQ SDUDPqWUH 
FRQYH[LILFDWLRQ  
GHV FRQGLWLRQV LQLWLDOHV  
FRQYROXWLRQ  
GpULYpH
DQQHDX DOJqEUH GH 
GH 'LQL 
FRUSV TXRWLHQW GH  
GH /LH  
SURGXLW GH  
GLUHFWLRQQHOOH 
FRUSV
IUDFWLRQQDLUH 
DOJpEULTXHPHQW GLVMRLQW 
RSpUDWHXU GH 
GLIIpUHQWLHO RUGLQDLUHSDUWLHO 
WRWDOH 
HQJHQGUp 
GLDJUDPPH GH ELIXUFDWLRQ 
HQJHQGUp SDU XQH IDPLOOH 
GLIIpUHQWLHOOH
V\VWpPLTXH 
pTXDWLRQ      
FRUUHVSRQGDQFH 
DOJqEUH 
FRXFKH OLPLWH 
GH .lKOHU 
&RXORPE IULFWLRQ GH  
H[DFWH 
FRXUEH LQWpJUDOH 
JpRPpWULH 
FRYDULDQFH  
QRWDWLRQ 
FRYHFWHXU 
SODWLWXGH 
 0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV

GLODWDWLRQ  GH JOLVVHPHQW 


GLPHQVLRQ HQ ERXFOH RXYHUWHIHUPpH 
G¶XQ DWODV  OHQWHUDSLGH 
G¶XQ pWDW 
G¶XQH GLVWULEXWLRQ  (

IUDFWDOH 
pFKDQWLOORQQDJH 
LQILQLH 
pFKHORQ XQLWp 
'LQL GpULYDWLRQ GH  
('$ 
'LUDF
(') 
GLVWULEXWLRQ GH 
('2  
LPSXOVLRQ GH  
('3 
SHLJQH GH 
('5('1(')$ 
GLUHFWLRQQHOOH GpULYpH  
('6  
GLVFUHW GLVFUqWH
OLQpDLUH 
RSpUDWHXU 
pJDOLWp SUHVTXH V€UH 
WHPSV     
pOpPHQW DOJpEULTXHWUDQVFHQGDQW 
YDULDEOH DOpDWRLUH 
GLIIpUHQWLHOOHPHQW 
GLVVLSDWLYLWp 
HOOLSWLTXH DX[ OLPLWHV  
GLVWDQFH
HQGRJqQHH[RJqQH 
GH +DXVGRUII 
HQVHPEOH
GH :KLWQH\ DX VHQV &  
DWWUDFWLI 
GLVWULEXWLRQ    
ERUQp GHQVH IHUPp RXYHUW  
GH FKDPSV GH YHFWHXUV 
LQYDULDQW 
GH 'LUDF 
IDLEOHPHQWIRUWHPHQW 
LQWpJUDEOH 
OLPLWH 
QRQ VLQJXOLqUH 
QpJOLJHDEOH 
WHPSpUpH 
QRQHUUDQW 
GRPDLQH
SURJUHVVLI 
G¶XQH FDUWH ORFDOH 
UpVROYDQW 
G¶XQH PXOWLIRQFWLRQ 
YLDEOH 
GH FRQYHUJHQFH /DSODFH  
HQWUpH  
GH GpILQLWLRQ 
GpSHQGDQWH 
GH VWDELOLWp  
LQGpSHQGDQWH 
HVWLPDWLRQ G¶XQ 
HVSpUDQFH
'RRE WKpRUqPH GH  
FRQGLWLRQQHOOH 
GXDO GXDOH 
G¶XQH YD pWDJpH SRVLWLYH 
HVSDFH  
G¶XQH YD SRVLWLYH 
RSpUDWHXU 
HVSDFH
'XKDPHO LQWpJUDOH GH  
FDQRQLTXH 
'XQIRUG GpFRPSRVLWLRQ GH  
FRWDQJHQW 
G\QDPLTXH 
G¶pWDW 
FODVVLTXHJpQpUDOLVpH 
G¶pWDW pWHQGX 
,QGH[ 

GH %DQDFK    GH /LpQDUG 


GH +DUG\  GH UpFXUUHQFH 
GH +LOEHUW  GH 5LFFDWL  
GH SKDVH  GH VRUWLH 
GH SUREDELOLWp  GH 9DQ 'HU 3RO  
GH SUREDELOLWp ILOWUp  GHV RQGHV 
GH 6FKZDUW]  GLIIpUHQWLHOOH
GH 6REROHY  DOJpEULTXH  
G¶RUGUH HQWLHU  IRQFWLRQQHOOH 
G¶RUGUH QRQ HQWLHU  QHXWUH 
GHV GLVWULEXWLRQV  RUGLQDLUH  
GHV GLVWULEXWLRQV WHPSpUpHV  UHWDUGpH  
GHV pSUHXYHVUpDOLVDWLRQV  VWRFKDVWLTXH  
GHV IRQFWLRQV LQWpJURGLIIpUHQWLHOOH 
j VXSSRUW FRPSDFW  pTXLOLEUH   
WHPSpUpHV  EUDQFKH G¶ 
GHV VLJQDX[ j VSHFWUH ERUQp 28 GpJpQpUp 
GX PRXYHPHQW  IDLEOHIRUW 
GXDO   K\SHUEROLTXH 
JDXVVLHQ  pTXLYDOHQFH
O GHV YD LQWpJUDEOHV  GH SURFHVVXV DOpDWRLUHV 
O  WRSRORJLTXH 
OS  pTXLYDOHQWH FRPPDQGH  
SRORQDLV  HVWLPDWLRQ 
SUREDELOLVDEOH  pWDJp pWDJpH
UpIOH[LI  SURFHVVXV 
WDQJHQW   YDULDEOH DOpDWRLUH 
YHFWRULHO  pWDW   
GH GLPHQVLRQ LQILQLH  FODVVLTXHJpQpUDOLVp 
VpSDUDEOH  G¶pTXLOLEUH 
pSUHXYH  UHSUpVHQWDWLRQ G¶ 
pTXDWLRQ pWUDQJH DWWUDFWHXU  
DX[ GpULYpHV SDUWLHOOHV    (XOHU
DX[ GLIIpUHQFHV  DSSUR[LPDWLRQV G¶ 
G¶pWDW  VFKpPD VROXWLRQ G¶  
G¶(XOHU/DJUDQJH  (XOHU/DJUDQJH pTXDWLRQV  
G¶RUGUH QRQ HQWLHU  pYDQHVFHQWH PpPRLUH  
GH %HUQRXLOOL  H[LVWHQFH GH VROXWLRQ 
GH &ODLUDXW  H[SOLFLWH IRUPH   
GH /DJUDQJH  H[SRQHQWLHOOH
GH /DQJHYLQ  GH /LH  
GH /LDSRXQRY    GH PDWULFH 
 0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV

PDUWLQJDOH   GH FRYDULDQFH 


WHQVRULHOOH  GH *UHHQ 
H[SRVDQW GH /LDSRXQRY   GH /LDSRXQRY  
H[WHQVLRQ GH UpSDUWLWLRQ 
DOJpEULTXHWUDQVFHQGDQWH  GH WUDQVIHUW 
GH FRUSV  GpFOLQDQWH 
GLIIpUHQWLHOOH  GpILQLH SRVLWLYH  
DVVRFLpH  JpQpUDOLVpH K\SHUIRQFWLRQ  
GLIIpUHQWLHOOHPHQW LQGLFDWULFH 
DOJpEULTXH  LQLWLDOH 
WUDQVFHQGDQWH  OLSVFKLW]LHQQH  
WUDQVFHQGDQWH SXUH  SURSUH  
ILQLPHQW HQJHQGUpH   TXDVL PRQRWRQH  
WUDQVFHQGDQWH SXUH  UpJXOLqUH 
UDGLDOHPHQW QRQ ERUQpH 
) VHPLGpILQLH SRVLWLYH 
VLJQH 
IDLEOH
VWULFWH 
FRQYHUJHQFH 
WHPSpUpH 
SURSULpWp 
WHVW 
VWDELOLWp H[SRQHQWLHOOH 
WUDQVIRUPDEOH /DSODFH  
IDPLOOH
YHFWRULHOOH GH /LDSRXQRY 
DOJpEULTXHPHQW OLEUH 
IRUPH
GLIIpUHQWLHOOHPHQW OLEUH 
GLIIpUHQWLHOOH GH GHJUp  
)DWRX OHPPH GH  
H[SOLFLWH  
FRQGLWLRQQHO 
LPSOLFLWH  
IHUPp IHUPHWXUH  
OLQpDLUH 
IHXLOOHWDJH  
VWDQGDUG 
ILEUH ILEUp  
IRUPXOH
)LOLSSRY WKpRUqPH GH  
G¶LQYHUVLRQ 
ILOWUDWLRQ 
G¶,W{ 
VWDQGDUG 
HQ GLIIpUHQWLHOOH 
ILQLPHQW HQJHQGUp 
GH )XELQL 
)ORTXHW WKpRULH GH  
GH 3RLVVRQ 
IORW VHPLIORW  
IRUWH
IRQFWLRQ
FRQYHUJHQFH 
j GpFURLVVDQFH UDSLGH 
SURSULpWp 
j VXSSRUW FRPSDFW 
IRXUFKH ELIXUFDWLRQ  
DEVROXPHQW FRQWLQXH 
)RXULHU
FDUDFWpULVWLTXH G¶XQH YD 
VpULH GH 
G¶RSpUDWHXU 
WUDQVIRUPDWLRQ GH 
GH FODVVH . ./   
G¶XQH ORL DOpDWRLUH 
GH FRPSDUDLVRQ  
,QGH[ 

IUDFWLRQQDLUH  +|OGHU
GpULYDWLRQ  LQpJDOLWp GH 
LQWpJUDWLRQ  QRUPH GH 
)UREHQLXV WKpRUqPH GH   KRORPRUSKH IDLEOHPHQW  
)XELQL IRUPXOH GH   KRPRFOLQLTXH KpWpURFOLQLTXH 
)9/  +RSI ELIXUFDWLRQ GH  
+XUZLW] PDWULFH GH   
* + K\EULGH V\VWqPH  

JDLQ O  K\SHUEROLTXH


pTXLOLEUH 
*DOHUNLQ PpWKRGH GH  
('3 
JDXVVLHQ JDXVVLHQQH
K\SHUIRQFWLRQ 
HVSDFH 
ORL  
,
SURFHVVXV  
YDULDEOH DOpDWRLUH  LLG 
YHFWHXU DOpDWRLUH  LGpDO 
JpQpUDOLVp pWDW   GH /LH 
JpQpUDWHXU LQILQLWpVLPDO  GLIIpUHQWLHO 
JpRPpWULH GLIIpUHQWLHOOH  LGHQWLWp GH -DFREL 
*LEEV SKpQRPqQH GH   LPDJH
JOLVVHPHQW G¶XQH PXOWLIRQFWLRQ 
FRQGLWLRQ GH  LQYHUVH 
G\QDPLTXH GH  SUREDELOLWp 
JUDQGV QRPEUHV ORL GHV    LPSOLFLWH
JUDSKH IRUPH  
G¶XQH PXOWLIRQFWLRQ  WKpRUqPH GH OD IRQFWLRQ 
G¶XQ RSpUDWHXU  LPSRVVLEOH pYpQHPHQW  
IHUPp WKpRUqPH GX   LPSXOVLRQ GH 'LUDF  
*UHHQ IRQFWLRQ GH   LQpJDOLWp
*URQZDOO OHPPH GH    GH +|OGHU 
*UXMLü WKpRUqPH GH   GH -HQVHQ  
+DGDPDUG DX VHQV GH    GH 0DUNRY 
+DKQ%DQDFK WKpRUqPH GH   GH 0LQNRYVNL 
+DUG\ HVSDFH GH   GLIIpUHQWLHOOH 
+DXVGRUII PD[LPDOH 
GLPHQVLRQ GH  LQFOXVLRQ GLIIpUHQWLHOOH 
GLVWDQFH GH  LQFRPSDWLEOH pYpQHPHQW  
+HDYLVLGH IRQFWLRQ GH   LQGpSHQGDQFH   
KpUpGLWDLUH   LQGpWHUPLQpH 
+LOEHUW HVSDFH GH   GLIIpUHQWLHOOH 
+LOOH<RVLGD WKpRUqPH GH   LQGLFDWULFH IRQFWLRQ  
LQMHFWLRQ GHQVH 
 0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV

LQVWDELOLWp  MDFRELHQQH  


LQWpJUDEOH -HQVHQ LQpJDOLWp GH   
GLVWULEXWLRQ  -RUGDQ
YDULDEOH DOpDWRLUH  FRXUEH GH 
LQWpJUDOH LQWpJUDO IRUPH GH 
FRXUEH  .lKOHU GLIIpUHQWLHOOH GH  
G¶RUGUH IUDFWLRQQDLUH  .DOPDQ FULWqUH GH  
G¶XQH PXOWLIRQFWLRQ  .ROPRJRURY WKpRUqPH GH    
GH %URPZKLFK:DJQHU  .RWHOLDQVNLL FULWqUH GH  
GH &DUVRQ GH 'XKDPHO  .URQHFNHU OHPPH GH  
GH 5LHPDQQ/LRXYLOOH 
QXPpULTXH  /

RSpUDWHXU 
/D 6DOOH SULQFLSH G¶LQYDULDQFH GH  
SUHPLqUH 
 
VWRFKDVWLTXH 
/DJUDQJH
LQWHUVHFWLRQ GH PXOWLIRQFWLRQV 
pTXDWLRQ GH 
LQWHUYDOOH
SRO\Q{PHV GH 
GH FRQILDQFH 
ODJUDQJLHQ 
LQLWLDO 
/DQJHYLQ
LQYDULDQFH
pTXDWLRQ GH 
G¶XQ IHXLOOHWDJH 
WKpRUqPH GH 
G¶XQ VRXVHVSDFH 
/DSODFH WUDQVIRUPDWLRQ GH  
G¶XQH GLVWULEXWLRQ 
ODWHQWH YDULDEOH  
SULQFLSH G¶  
/HEHVJXH PHVXUH GH   
LQYHUVH
OHPPH
j JDXFKHj GURLWH 
pOpPHQWDLUH G¶XQLFLWp 
G¶XQH PXOWLIRQFWLRQ 
GH )DWRX  
LPDJH 
GH *URQZDOO 
RSpUDWHXU 
GH .URQHFNHU 
WUDQVIRUPpH GH )RXULHU 
/LpQDUG pTXDWLRQ GH  
LQYROXWLYLWp G¶XQH GLVWULEXWLRQ 
/LDSRXQRY
LUUpGXFWLEOH IDFWRULVDWLRQ   UH PpWKRGH  

LVRFKURQH WUDQVPLWWDQFH  
H PpWKRGH   
,W{
pTXDWLRQ GH   
IRUPXOH G¶ 
GLPHQVLRQ GH 
IRUPXOH GLIIpUHQWLHOOH G¶ 
H[SRVDQW GH  
SURFHVVXV G¶ 
IRQFWLRQ GH 
PpWKRGH GLUHFWH GH 
- .
WKpRUqPH GH 
-DFREL /LH
LGHQWLWp GH  DOJqEUH GH 
SRO\Q{PH GH  FURFKHW GH  
,QGH[ 

GpULYpH GH   PpWKRGH SDV j SDV 


H[SRQHQWLHOOH GH  0LNXVLVNL FDOFXO GH  
LGpDO GH  0LQNRYVNL LQpJDOLWp GH  
VpULH GH  PRGH JOLVVDQW 
VpULH H[SRQHQWLHOOH GH  G¶RUGUH VXSpULHXU 
OLPLWH  PRGqOH ORJLVWLTXH  
FHQWUDOH WKpRUqPH GH OD   PRGLILFDWLRQ G¶XQ SURFHVVXV 
HQVHPEOH  PRLQGUHV FDUUpV 
LQIpULHXUH VXSpULHXUH YD   PRPHQW G¶XQH YD 
OLQpDULVDWLRQ   PRPHQWV PpWKRGHV GHV  
SDU ERXFODJH  PRWHXU
OLQpDULVp WDQJHQW  j FRXUDQW FRQWLQX 
OLQpDULWp   SDV j SDV 
OLSVFKLW]LHQQH V\QFKURQH 
IRQFWLRQ   PRXYHPHQW 
PXOWLIRQFWLRQ   EURZQLHQ   
ORJLVWLTXH PRGqOH    EURZQLHQ GGLPHQVLRQQHO 
ORL EURZQLHQ JpRPpWULTXH 
G¶XQH YDULDEOH DOpDWRLUH  PR\HQQH G¶XQH YD JDXVVLHQQH 
GH &DXFK\ VWDQGDUG  PR\HQQLVDWLRQ 
GHV JUDQGV QRPEUHV   PXOWLLQGLFH 
JDXVVLHQQH   PXOWLIRQFWLRQ 
XQLIRUPH  FRQWLQXH 
LPDJH G¶XQH 
0 LQWpJUDOH G¶XQH 
LQYHUVH 
PDMRUDQW V\VWqPH  
OLSVFKLW]LHQQH  
0DUNRY
QR\DX G¶XQH 
LQpJDOLWp GH 
VHPLFRQWLQXH   
SURSULpWp GH 
VLJQH 
PDUWLQJDOH 
H[SRQHQWLHOOH 
1
ORFDOH 
PDWULFH GH FRYDULDQFH  QpJDWLYH SDUWLH  
PD[LPDO PD[LPDOH QpJOLJHDEOH HQVHPEOH  
VROXWLRQ  QHXWUH V\VWqPH  
VRXVHQVHPEOH  Q°XG 
PHVXUDEOH  QRQ OLQpDLUH 
SURJUHVVLYHPHQW  QRQ WULYLDOH PXOWLIRQFWLRQ  
PHVXUH QRUPH
GH /HEHVJXH   FRQWUDFWLRQ GHV QRUPHV 
GH 5DGRQ  GH +|OGHU 
SURGXLW  YHFWRULHOOH 
 0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV

1RYLNRY WKpRUqPH GH   3

QR\DX
ŒV\VWqPH 
G¶XQH PXOWLIRQFWLRQ 
3DOH\:LHQHU WKpRUqPH GH  
GH 3RLVVRQ 
3DUN PRGqOH WUDQVIRUPDWLRQ GH   
VpSDUDEOH 
3DUVHYDO pJDOLWp UHODWLRQ GH   
SDUWLH
2
ERUpOLHQQH 
REVHUYDELOLWp     SRVLWLYH QpJDWLYH 
RSpUDWHXU SDUWLHO FRUSV GLIIpUHQWLHO  
DGMRLQW   SDV j SDV
DXWRDGMRLQW V\PpWULTXH  PpWKRGH 
ERUQp  PRWHXU 
G¶DYDQFH  3HDQR WKpRUqPH GH  
G¶LQWpJUDWLRQ  SHLJQH GH 'LUDF 
GH &DXFK\5LHPDQQ  3HL[RWR WKpRUqPH GH  
GH GpULYDWLRQ S  SHQGXOH SHVDQW 
GH GLODWDWLRQ  SpULRGLTXH
GH UpIOH[LRQ  FKDPS GH YHFWHXUV 
GH UHWDUG  IRQFWLRQ 
GH WUDQVODWLRQ  RUELWH 
GHV RQGHV  SHUWXUEDWLRQ 
GLIIpUHQWLHO HOOLSWLTXH  UpJXOLqUH  
GXDO  UHMHW GH 
IHUPp  VLQJXOLqUH   
LQWpJUDO  PRGqOH VWDQGDUG 
LQYHUVLEOH  3LFDUG/LQGHO|I DSSUR[LPDWLRQV GH  
ODSODFLHQ  3ODQFKHUHO pJDOLWp GH  
OLQpDLUH  SODQLILFDWLRQ GH WUDMHFWRLUH 
RUELWH  SODWLWXGH 
IHUPpH  3RLQFDUp VHFWLRQ GH  
KRPRFOLQLTXH  SRLQW
SpULRGLTXH  G¶pTXLOLEUH 
RUGLQDLUH IL[H WKpRUqPH GX  
FRUSV GLIIpUHQWLHO  QRQHUUDQW 
RUGUH  3RLVVRQ
G¶XQ RSpUDWHXU  IRUPXOH GH 
QRQ HQWLHU  QR\DX GH 
2UQVWHLQ8KOHQEHFN  SRORQDLV HVSDFH  
RUWKRJRQDOLWp  SRUWUDLW GH SKDVH 
RUWKRQRUPp  SRVLWLYH
RXYHUW  GpILQLH  
SDUWLH 
,QGH[ 

VHPLGpILQLH  SURORQJHPHQW SDU FRQWLQXLWp 


YDULDEOH DOpDWRLUH  SURSRUWLRQQHOSOXVLQWpJUDO 
SRVWHIIHW  SURSUH IRQFWLRQV GH /LDSRXQRY  
SUHPLHU SURSULpWp SUHVTXH V€UH SV  
LGpDO 
RUGUH  4 5

DSSUR[LPDWLRQ DX 


TXDGUDWLTXH
SUHVTXH V€UHPHQW SV  
WUDQVIRUPDWLRQ 
SULQFLSH G¶LQYDULDQFH   
YDULDWLRQ 
SUREDELOLWp 
5DGRQ PHVXUH GH   
FRQGLWLRQQHOOH 
UDQJ
LPDJH 
GLIIpUHQWLHO GH VRUWLH 
SUREOqPH
ILQL 
DX[ FRQGLWLRQV LQLWLDOHV 
UpDOLVDWLRQ 
DX[ FRQGLWLRQV OLPLWHV IURQWLqUHV 
UpFXUUHQFH 
DX[ OLPLWHV HOOLSWLTXHV 
UpHOOH YDULDEOH DOpDWRLUH  
DX[ YDOHXUV SURSUHV 
UpIOH[LI HVSDFH  
GH &DXFK\     
UpIOH[LRQ 

UpJXODULWp HOOLSWLTXH 
OLQpDLUH DXWRDGMRLQW 
UpJXOLHU UpJXOLqUH
SURFHVVXV
ERXFODJH 
j WUDMHFWRLUHV FRQWLQXHV 
FDV QRQ OLQpDLUH 
DGDSWp 
GLVWULEXWLRQ 
DGDSWp SURJUHVVLI 
IRQFWLRQ 
DOpDWRLUH 
QRUPH YHFWRULHOOH 
G¶,W{ 
VROXWLRQ 
GH 2UQVWHLQ8KOHQEHFN 
V\VWqPH 
pTXLYDOHQW DOpDWRLUH  
UHMHW GH SHUWXUEDWLRQ  
pWDJp 
UHQYHUVHPHQW GH WUDMHFWRLUH 
JpQpUDWHXU  
5pQ\L GLPHQVLRQ GH  
JDXVVLHQ  
UpSDUWLWLRQ
VWDWLRQQDLUH 
ILQLH 
SURGXLW
IRQFWLRQ GH 
GH FRQYROXWLRQ  
UpSRQVH
GH WULEXV 
IUpTXHQWLHOOH  
GH YD LQGpSHQGDQWHV 
LPSXOVLRQQHOOH 
WHQVRULHO G¶RSpUDWHXUV 
LQGLFLHOOH 
SURJUHVVLI  
LVRPRUSKH 
SURMHFWLRQ
UHSUpVHQWDWLRQ G¶pWDW 
G¶XQ FKDPS GH YHFWHXU 
UpVLGXV SRQGpUpV 
RUWKRJRQDOH 
UpVROYDQW RSpUDWHXU   
VWpUpRJUDSKLTXH 
 0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV

UHWDUG     VLQXV


GLVWULEXp  FDUGLQDO VLQF  
RSpUDWHXU GH  LQWpJUDO 6L  
SRQFWXHO  6REROHY HVSDFH GH   
UpWLFHQFH  VROXWLRQ 
5LFFDWL pTXDWLRQ GH    DX VHQV GH )LOLSSRY 
5LHPDQQ/LRXYLOOH LQWpJUDOH   FRPSDUDLVRQ GH  
5LHV] G¶(XOHU  
EDVH VSHFWUH GH  G¶XQH ('6 
UHSUpVHQWDWLRQ GH  G¶XQH LQFOXVLRQ GLIIpUHQWLHOOH 
5LWW5DXGHQEXVFKW WKpRUqPH GH   H[LVWHQFH G¶XQH 
UREXVWHVVH  IDLEOH IRUWH  
5|VOHU DWWUDFWHXU GH    LQIpULHXUH VXSpULHXUH 
PD[LPDOH 
6 UpJXOLqUHVLQJXOLqUH 
VRPPH
1DGGLWLYLWp  
GH YD LQGpSHQGDQWHV 
1PHVXUDEOH 
GLUHFWH 
VpOHFWLRQ 
VRUWLH  
VpSDUDEOH
pTXDWLRQ GH  
HVSDFH YHFWRULHO 
OLQpDULVDQWH 
QR\DX 
SODWH 
VpULH
VRXVFULWLTXH ELIXUFDWLRQ  
GH )RXULHU 
VRXVHVSDFH
GH /LH 
LQYDULDQW 
GH 9ROWHUUD 
PD[LPDO 
VFKpPD G¶(XOHU  
RUWKRJRQDO 
6FKPLGW GpFRPSRVLWLRQ  
VRXVPDUWLQJDOH 
6FKZDUW] HVSDFH GH  
VSHFWUH
VHOOH 
GH 5LHV] 
VHPLFRQWLQXLWp 
SRQFWXHO FRQWLQX UpVLGXHO 
G¶XQH PXOWLIRQFWLRQ  
VWDELOLWp 
VHPLGpILQLH SRVLWLYH 
DV\PSWRWLTXH    
VHPLJURXSH 
JOREDOH 
IRUWHPHQW FRQWLQX &R  
DX VHQV GH /LDSRXQRY 
VHPLQRUPH  
FRUSV GHV RSpUDWHXUV 
VLJQDO
G¶XQH VROXWLRQ 
j VSHFWUH ERUQp 
GRPDLQH GH 
FDXVDO 
H[SRQHQWLHOOH 
VLJQH IRQFWLRQ  
IDLEOH 
VLQJXOLqUH
JOREDOH ORFDOH 
SHUWXUEDWLRQ 
SUDWLTXH 
VROXWLRQ 
,QGH[ 

VWUXFWXUHOOH  7

XQLIRUPH  


WDQJHQW
VWDQGDUG
F{QH 
ILOWUDWLRQ 
OLQpDULVp 
SHUWXUEDWLRQV VLQJXOLqUHV 
WDX[
YD JDXVVLHQQH 
G¶LQWpUrW 
VWDWLRQQDLUH  
GH FRQYHUJHQFH 
SURFHVVXV 
WHPSpUpH GLVWULEXWLRQ  
VWRFKDVWLTXH
WHPSV
pTXDWLRQ GLIIpUHQWLHOOH 
FRQWLQX GLVFUHW  
LQWpJUDOH 
G¶DUUrW G¶DWWHLQWH 
VWUXFWXUH GH FRQYHUJHQFH 
WHQVRULHO SURGXLW  
VXLWH GH &DXFK\ 
WHVW IRQFWLRQ  
VXSHUFULWLTXH ELIXUFDWLRQ  
WKpRUqPH
VXSHUSRVLWLRQ LQWpJUDOH GH  
G¶pFKDQWLOORQQDJH 
VXSSRUW 
G¶H[WHQVLRQ 
VXUPDUWLQJDOH 
G¶LQVWDELOLWp 
VXUFRUSV 
GH ERUQLWXGH XQLIRUPH 
V\PpWULTXH RSpUDWHXU  
GH &DUDWKpRGRU\ 
V\PEROH 
GH &KHWDHY 
V\VWqPH 
GH FODVVH PRQRWRQH 
FRQWLQX 
GH FRQYHUJHQFH GRPLQpH 
G¶pTXDWLRQV DX[ GLIIpUHQFHV
GH FRQYHUJHQFH PRQRWRQH 
DIILQH 
GH GpSHQGDQFH GHV &, 
ELOLQpDLUH 
GH 'RRE 
OLQpDLUH  
GH )LOLSSRY 
OLQpDLUH DQDO\WLTXH 
GH )UREHQLXV 
GpIDXW G¶XQ 
GH *UXMLü 
GH %ORPEHUJ<ULOHQ 
GH +DKQ%DQDFK 
GH FRPSDUDLVRQ  
GH +DUWPDQ*UREPDQ 
GH FRRUGRQQpHV ORFDOHV 
GH +HQU\ HW &DUU 
GH JpQpUDWHXUV  
GH +LOOH<RVLGD 
GH 9ROWHUUD/RWND 
GH .ROPRJRURY   
GLIIpUHQWLHOOHPHQW SODW 
GH .RWHOLDQVNLL 
HQWUpHVRUWLH 
GH OD IRQFWLRQ LPSOLFLWH 
KpUpGLWDLUH 
GH OD OLPLWH FHQWUDOH 
K\EULGH 
GH OD YDULpWp FHQWUH 
OLQpDULVp WDQJHQW  
GH OD YDULpWp VWDEOH 
PDMRUDQW  
GH /DQJHYLQ 
QRQ OLQpDLUH  
GH /LDSRXQRY 
VWDWLRQQDLUH 
GH PR\HQQLVDWLRQ 
Π
GH 1RYLNRY 
 0DWKpPDWLTXHV SRXU OHV V\VWqPHV G\QDPLTXHV

GH 3pDQR  8 9

GH 3DOH\:LHQHU 
XQLIRUPH
GH 3HL[RWR 
FRQWLQXLWp FRQYHUJHQFH 
GH UpJXODULWp HOOLSWLTXH 
VWDELOLWp 
GH 5LHV] 
XQLRQ GH PXOWLIRQFWLRQV 
GH 5LWW5DXGHQEXVFK 
9DQ 'HU 3RO pTXDWLRQ   
GH 7LNKRQRY 
YDULDEOH
GH 7LWFKPDUVK 
DOpDWRLUH YD  
GH =XERY 
GLVFUqWH 
GHV JUDQGV QRPEUHV 
pWDJpH 
GHV SHUWXUEDWLRQV UpJXOLqUHV 
LLG 
GHV SHUWXUEDWLRQV VLQJXOLqUHV 
LQWpJUDEOH 
GX JUDSKH IHUPp 
UpHOOHSRVLWLYHYHFWRULHOOH 
GX SRLQW IL[H 
WHPSRUHOOH 
UpFLSURTXH 
YDULDQFH 
7LNKRQRY WKpRUqPH GH  
G¶XQH YD JDXVVLHQQH 
7LWFKPDUVK WKpRUqPH GH  
YDULDWLRQ
WRXU G¶H[WHQVLRQV  
ILQLHSDUDPpWULTXHWRWDOH 
WUDMHFWRLUH 
TXDGUDWLTXH 
G¶XQ SURFHVVXV DOpDWRLUH 
YDULpWp
WUDQVFHQGDQW pOpPHQW  
GLIIpUHQWLDEOH 
WUDQVFULWLTXH ELIXUFDWLRQ  
GLIIpUHQWLHOOH 
WUDQVIRUPDWLRQ
ORFDOH VWDEOH LQVWDEOH 
GH )RXULHU 
9DVLFHN PRGqOH GH  
DOpDWRLUH 
VXU O  YHFWHXU
DOpDWRLUH 
GH /DSODFH 
G¶pWDW GH SKDVH 
G¶XQ VHPLJURXSH 
JDXVVLHQ 
XQLODWqUHELODWqUH 
WDQJHQW 
GH 3DUN 
YHUVLRQ 
WUDQVODWLRQ 
YLDEOH HQVHPEOH  
WUDQVSRVLWLRQ 
YRODWLOLWp 
WULEX 
9ROWHUUD
ERUpOLHQQH 
pTXDWLRQ LQWpJUDOH GH 
FRPSOqWH 
VpULH GH 
GHV pYpQHPHQWV DQWpULHXUV 
9ROWHUUD/RWND V\VWqPH GH  
GLVFUqWH JURVVLqUH 
HQJHQGUpH  
: =
SURGXLW 
:KLWQH\ GLVWDQFH GH  
=XERY WKpRUqPH GH  

Vous aimerez peut-être aussi