Vous êtes sur la page 1sur 394

Mathématiques pour les systèmes dynamiques

© LAVOISIER, 2002
LAVOISIER
11, rue Lavoisier
75008 Paris
Serveur web : www.hermes-science.com

ISBN 2-7462-0565-3

Catalogage Electre-Bibliographie
Richard, Jean-Pierre (sous la direction de)
Mathématiques pour les systèmes dynamiques
Paris, Hermès Science Publications, 2002
ISBN 2-7462-0565-3
RAMEAU : communication, théorie mathématique de la
systèmes dynamiques
DEWEY : 519 : Probabilités et mathématiques appliquées

Le Code de la propriété intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'une


part, que les "copies ou reproductions strictement réservées à l'usage privé du copiste et non
destinées à une utilisation collective" et, d'autre part, que les analyses et les courtes citations
dans un but d'exemple et d'illustration, "toute représentation ou reproduction intégrale, ou
partielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, est
illicite" (article L. 122-4). Cette représentation ou reproduction, par quelque procédé que ce
soit, constituerait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de la propriété intellectuelle.
Mathématiques
pour les systèmes
dynamiques

sous la direction de
Jean-Pierre Richard
Mathématiques
pour les systèmes dynamiques
sous la direction de Jean-Pierre Richard

fait partie de la série SYSTÈMES AUTOMATISÉS dirigée par Claude Foulard

TRAITÉ IC2 I NFORMATION – COMMANDE – COMMUNICATION


sous la direction scientifique de Bernard Dubuisson

Le traité Information, Commande, Communication répond au besoin


de disposer d'un ensemble complet des connaissances et méthodes
nécessaires à la maîtrise des systèmes technologiques.
Conçu volontairement dans un esprit d'échange disciplinaire, le traité IC2
est l'état de l'art dans les domaines suivants retenus par le comité
scientifique :
Réseaux et télécoms
Traitement du signal et de l'image
Informatique et systèmes d'information
Systèmes automatisés
Productique

Chaque ouvrage présente aussi bien les aspects fondamentaux


qu'expérimentaux. Une classification des différents articles contenus
dans chacun, une bibliographie et un index détaillé orientent le lecteur
vers ses points d'intérêt immédiats : celui-ci dispose ainsi d'un guide pour
ses réflexions ou pour ses choix.
Les savoirs, théories et méthodes rassemblés dans chaque ouvrage ont
été choisis pour leur pertinence dans l'avancée des connaissances ou pour
la qualité des résultats obtenus dans le cas d'expérimentations réelles.
Liste des auteurs

Brigitte D’ANDRÉA-NOVEL Eric MOULINES


Ecole nationale supérieure Ecole nationale supérieure
des mines de Paris des télécommunications
Paris
Jean-Pierre BABARY
LAAS-CNRS Jamal NAJIM
Toulouse Ecole nationale supérieure
des télécommunications
Jean-Pierre BARBOT Paris
Ecole nationale supérieure
de l’électronique Dorothée NORMAND-CYROT
et de ses applications L2S-CNRS
Cergy-Pontoise Gif-sur-Yvette

Wilfrid PERRUQUETTI
Emmanuel DELALEAU
Ecole centrale de Lille
Université Paris-Sud
Orsay Pierre PRIOURET
Université Pierre et Marie Curie
Vladimir B. KOLMANOVSKII
Paris
CINVESTAV
Mexico, Mexique Jean-Pierre RICHARD
Ecole centrale de Lille
Laurent LEFÈVRE
Ecole supérieure d’ingénieurs Frédéric ROTELLA
en systèmes industriels avancés Ecole nationale d’ingénieurs de
Valence Tarbes

Salvatore MONACO Irène ZAMBETTAKIS


Università La Sapienza IUT de Tarbes
Roma, Italie LAAS-CNRS, Toulouse
7DEOHGHVPDWLqUHV

$YDQWSURSRV                                        
-HDQ3LHUUH 5 ,&+$5'

35(0,Ê5( 3$57,( 0$7+e0$7,48(6 3285 /(6 6,*1$8; (7 6<67Ê0(6     

&KDSLWUH  7UDQVIRUPpHV LQWpJUDOHV HW GLVWULEXWLRQV                

/DXUHQW / ()Ê95(
 0RWLYDWLRQV                                      

 7UDQVIRUPDWLRQ GH )RXULHU                             

 7UDQVIRUPDWLRQ GH /DSODFH                            

 'LVWULEXWLRQV                                     

 0RWLYDWLRQV                                  

 6WUXFWXUHV GH FRQYHUJHQFH HVSDFH GXDO HW GLVWULEXWLRQV        

 'LVWULEXWLRQV WHPSpUpHV                           

 7UDQVIRUPpHV GH )RXULHU GH GLVWULEXWLRQV                

 &DUDFWpULVDWLRQV GHV HVSDFHV GH 6REROHY                 

 $SSOLFDWLRQ DX[ SUREOqPHV DX[ OLPLWHV HOOLSWLTXHV           

 %LEOLRJUDSKLH                                     

&KDSLWUH  &DOFXO RSpUDWLRQQHO GH 0LNXVL VNL                    

)UpGpULF 5 27(//$
 /¶DQQHDX GH FRQYROXWLRQ GHV VLJQDX[ j WHPSV FRQWLQX            

 /¶RSpUDWHXU G¶LQWpJUDWLRQ                          

 'LYLVHXUV GH ]pUR                               

 /H FRUSV GHV RSpUDWHXUV                              

 0XOWLSOLFDWLRQ SDU XQ VFDODLUH                       

 /¶RSpUDWHXU GH GpULYDWLRQ S                        

 )RQFWLRQV G¶RSpUDWHXUV                               


10 Mathématiques pour les systèmes dynamiques

 /¶RSpUDWHXU GH UHWDUG                             

 'pULYDWLRQ HW LQWpJUDWLRQ                          

 (TXDWLRQV GLIIpUHQWLHOOHV G¶RSpUDWHXUV                  


 3URFHVVXV JpQpUDWHXU G¶XQ VLJQDO                         
 6LJQDX[ WUDQVIRUPDEOHV DX VHQV GH /DSODFH               
 )UDFWLRQV UDWLRQQHOOHV HQ S                         
 )RQFWLRQV DQDO\WLTXHV                            
 &DOFXO RSpUDWLRQQHO                                 
 (TXDWLRQV GLIIpUHQWLHOOHV RUGLQDLUHV j FRHIILFLHQWV FRQVWDQWV      
 (TXDWLRQV LQWpJUDOHV GH FRQYROXWLRQ                   
 (TXDWLRQV j UHWDUG                              
 (TXDWLRQV DX[ GpULYpHV SDUWLHOOHV                     
 6\VWqPHV HW WUDQVIHUWV                                
 2SpUDWHXU GH WUDQVIHUW                            
 4XHOTXHV FDV SDUWLFXOLHUV                          
 6\VWqPHV PXOWLHQWUpHV PXOWLVRUWLHV                    
 &DV GHV VLJQDX[ j WHPSV GLVFUHW                         
 $QQHDX HW TXRWLHQWV GH FRQYROXWLRQ                   
 4XHOTXHV RSpUDWHXUV                             
 &DOFXO RSpUDWLRQQHO                              
 %LEOLRJUDSKLH                                    

&KDSLWUH  3UREDELOLWpV HW pOpPHQWV GH FDOFXO VWRFKDVWLTXH            


(ULF 0 28/,1(6 -DPDO 1$-,0 3LHUUH 35,285(7
 'pILQLWLRQV JpQpUDOHV                                
 (VSDFH GH SUREDELOLWp                            
 3UREDELOLWp                                   
 9DULDEOHV DOpDWRLUHV                             
 4XHOTXHV LQpJDOLWpV XWLOHV                          
 0RPHQWV G¶RUGUH S HVSDFHV /S                      
 9DULDQFH FRYDULDQFH                             
 ,QGpSHQGDQFH PHVXUHV SURGXLWV                      
 )RQFWLRQV FDUDFWpULVWLTXHV WUDQVIRUPpH GH )RXULHU           
 9DULDEOHV DOpDWRLUHV JDXVVLHQQHV                      
 7KpRUqPHV OLPLWHV                                  
 (VSpUDQFH FRQGLWLRQQHOOH                             
 &RQVWUXFWLRQ pOpPHQWDLUH                          
 *pQpUDOLVDWLRQ                                 
 3URFHVVXV DOpDWRLUHV                                 
 3UHPLqUHV GpILQLWLRQV                            
 5pSDUWLWLRQV ILQLHV                              
 3URFHVVXV JDXVVLHQ                              
Table des matières 11

 /H PRXYHPHQW EURZQLHQ                             


 'pILQLWLRQ                                   
 3URSULpWpV GHV WUDMHFWRLUHV GX PRXYHPHQW EURZQLHQ          
 )LOWUDWLRQV SURFHVVXV DGDSWpV                           
 0DUWLQJDOHV                                      
 7KpRUqPHV G¶DUUrW                              
 ,QpJDOLWpV PD[LPDOHV                             
 7KpRUqPHV GH FRQYHUJHQFH                         
 &DOFXO VWRFKDVWLTXH                                 
 &RQVWUXFWLRQ GH O¶LQWpJUDOH VWRFKDVWLTXH                 
 &RQWLQXLWp GH O¶LQWpJUDOH VWRFKDVWLTXH                   
 0DUWLQJDOHV ORFDOHV                              
 0RXYHPHQW EURZQLHQ GGLPHQVLRQQHO                  
 (VSDFHV JDXVVLHQV                                  
 3URFHVVXV G¶,W{                                   
 (TXDWLRQV GLIIpUHQWLHOOHV VWRFKDVWLTXHV ('6                
 ,QWURGXFWLRQ                                 
 6ROXWLRQ GHV ('6  FDV OLSVKLW]LHQ                    
 'pSHQGDQFH HQ IRQFWLRQ GHV FRQGLWLRQV LQLWLDOHV           
 &DUDFWqUH PDUNRYLHQ GHV VROXWLRQV                    
 (TXDWLRQV GLIIpUHQWLHOOHV VWRFKDVWLTXHV OLQpDLUHV            
 %LEOLRJUDSKLH                                    

' (8;,Ê0( 3$57,( 6<67Ê0(6 '<1$0,48(6                     

&KDSLWUH  2XWLOV GH JpRPpWULH GLIIpUHQWLHOOH                    

%ULJLWWH '¶$1'5e$129(/
 1RWLRQ GH YDULpWp GLIIpUHQWLHOOH                          

 (VSDFH WDQJHQW                                    

 &KDPS GH YHFWHXUV HW FURFKHW GH /LH                      

 (VSDFH FRWDQJHQW IRUPHV GLIIpUHQWLHOOHV HW GLVWULEXWLRQV         

 $SSOLFDWLRQ j O¶pWXGH GH OD FRPPDQGDELOLWp                  

 %LEOLRJUDSKLH                                     

&KDSLWUH  (TXDWLRQV GLIIpUHQWLHOOHV RUGLQDLUHV                   

:LOIULG 3 (55848(77,
 ,QWURGXFWLRQ                                     

 %LRORJLH                                    

 &KLPLH                                     

 (OHFWULFLWp                                   

 (OHFWURQLTXH                                  

 (OHFWURWHFKQLTXH                               

 0pFDQLTXH                                   


12 Mathématiques pour les systèmes dynamiques

 (TXDWLRQV GLIIpUHQWLHOOHV RUGLQDLUHV VRXV IRUPH LPSOLFLWH          

 'pILQLWLRQV                                   

 4XHOTXHV pTXDWLRQV SDUWLFXOLqUHV                      

 (TXDWLRQV GLIIpUHQWLHOOHV GX SUHPLHU RUGUH                   

 1RWLRQ GH VROXWLRQ                              

 &ODVVLILFDWLRQ                                 

 1RWLRQ GH IORW                                 

 &RPSDUDLVRQ GH VROXWLRQV LQpJDOLWpV GLIIpUHQWLHOOHV          

 4XHOTXHV FDUDFWpULVDWLRQV GH FRPSRUWHPHQWV                 

 (QVHPEOHV UHPDUTXDEOHV                          

 3URSULpWpV                                   

 &DV OLQpDLUH DXWRQRPH                               

 &DOFXO GHV VROXWLRQV                             

 &RQGLWLRQV GH VWDELOLWp                            

 'LVFUpWLVDWLRQ G¶XQH pTXDWLRQ G¶pWDW OLQpDLUH DXWRQRPH        

 (WXGH GH FRPSRUWHPHQWV  UpVXOWDWV ORFDX[                   

 6WDELOLWp VWUXFWXUHOOH                             

 'X PRGqOH OLQpDLUH DX PRGqOH QRQ OLQpDLUH               

 6WDELOLWp  VHFRQGH PpWKRGH GH /LDSRXQRY HW UpVXOWDWV JOREDX[       

 )RQFWLRQV GH FRPSDUDLVRQ                         

 )RQFWLRQV GH /LDSRXQRY                           

 7KpRUqPHV DVVRFLpV j OD VHFRQGH PpWKRGH GH /LDSRXQRY       

 7KpRUqPHV GH =XERY HW *UXMLü                       

 3ULQFLSH G¶LQYDULDQFH /D 6DOOH                       

 7KpRUqPHV UpFLSURTXHV                           

 7KpRUqPHV G¶LQVWDELOLWp                           

 ([WHQVLRQV YHFWRULHOOHV                           

 7KpRULHV GHV SHUWXUEDWLRQV HW GH PR\HQQLVDWLRQ                

 ,QWURGXFWLRQ                                  

 3HUWXUEDWLRQV UpJXOLqUHV                           

 3HUWXUEDWLRQV VLQJXOLqUHV                          

 0R\HQQLVDWLRQ                                

 %LIXUFDWLRQ HW FKDRV                                 

 'pSHQGDQFH G¶XQ SDUDPqWUH                        

 %LIXUFDWLRQ ORFDOH GH FRGLPHQVLRQ                    

 &KDRV                                      

 %LEOLRJUDSKLH                                    

&KDSLWUH  $OJqEUH GLIIpUHQWLHOOH                            

(PPDQXHO ' (/$/($8


 ,QWURGXFWLRQ                                     

 7KpRULH GHV FRUSV                                  


Table des matières 13

 $OJqEUH GLIIpUHQWLHOOH                                

 &RUSV GLIIpUHQWLHO                               

 ([WHQVLRQ GH FRUSV GLIIpUHQWLHOV                      

 %DVH GH WUDQVFHQGDQFH GLIIpUHQWLHOOH                   

 'HJUp GH WUDQVFHQGDQFH GLIIpUHQWLHO                    

 &RQVWUXFWLRQ GH O¶H[WHQVLRQ GLIIpUHQWLHOOH DVVRFLpH

j XQ V\VWqPH G¶pTXDWLRQV GLIIpUHQWLHOOHV                     

 6\VWqPHV HW G\QDPLTXHV                              

 6\VWqPH QRQ OLQpDLUH                             

 (QWUpH                                      

 '\QDPLTXH                                  

 6RUWLH                                      

 (WDW HW UpDOLVDWLRQ                               

 ,QYHUVLRQ HQWUpHVRUWLH                               

 5DQJ GLIIpUHQWLHO GH VRUWLH                          

 ,QYHUVLRQ j JDXFKH LQYHUVLRQ j GURLWH                  

 3ULQFLSDOHV SURSULpWpV VWUXFWXUHOOHV                        

 3ODWLWXGH                                    

 2EVHUYDELOLWp                                 

 %RXFODJHV                                       

 1RWLRQV GH ERXFODJH                             

 %RXFODJH G¶pWDW                                

 %RXFODJH TXDVL VWDWLTXH G¶pWDW                       

 6\QWKqVH SDU ERXFODJHV                               

 'pFRXSODJH                                  

 5HMHW GH SHUWXUEDWLRQV                            

 /LQpDULVDWLRQ                                  

 ([HPSOH                                        

 0RGqOH                                     

 &RQVWUXFWLRQ GH O¶H[WHQVLRQ GLIIpUHQWLHOOH                

 &KRL[ GH O¶HQWUpH HW UpDOLVDWLRQ SDU YDULDEOHV G¶pWDW          

 3ODWLWXGH                                    

 'pFRXSODJH HW OLQpDULVDWLRQ                         

 5HMHW GH SHUWXUEDWLRQV                            

 %LEOLRJUDSKLH                                    

&KDSLWUH  (TXDWLRQV GLIIpUHQWLHOOHV j VHFRQG PHPEUH GLVFRQWLQX       

:LOIULG 3(55848(77, HW -HDQ3LHUUH %$5%27


 ,QWURGXFWLRQ                                     

 5DSSHOV G¶DQDO\VH FRQYH[H                            

 (QVHPEOHV FRQYH[HV                             

 0XOWLIRQFWLRQV                                


14 Mathématiques pour les systèmes dynamiques

 ,QFOXVLRQV GLIIpUHQWLHOOHV SUREOqPH GH &DXFK\                

 1RWLRQ GH VROXWLRQ                              

 ([LVWHQFH GHV VROXWLRQV                           

 $QDO\VH GHV VROXWLRQV                            

 ,QWpJUDWLRQ QXPpULTXH                            

 ([HPSOHV                                       

 0RGHV JOLVVDQWV FODVVLTXHV                         

 0RGHV JOLVVDQWV G¶RUGUH VXSpULHXU                     

 %LEOLRJUDSKLH                                     

&KDSLWUH  'pYHORSSHPHQWV GH 9ROWHUUD SRXU OHV V\VWqPHV

QRQ OLQpDLUHV HQ WHPSV GLVFUHW                              

6DOYDWRUL 0 21$&2 HW 'RURWKpH 1250$1'&<527


 ,QWURGXFWLRQ                                     

 &RQWH[WH                                    

 &ODVVHV G¶pTXDWLRQV DX[ GLIIpUHQFHV                    

 )RQFWLRQQHOOHV HQWUpHpWDW HW HQWUpHVRUWLH                   

 &DV OLQpDLUH                                  

 &DV QRQ OLQpDLUH PRQRYDULDEOH                       

 4XHOTXHV RXWLOV PDWKpPDWLTXHV                          

 'pULYpH GH /LH                                

 6pULH GH /LH                                  

 ([SRQHQWLHOOH WHQVRULHOOH                          

 6pULHV GH 9ROWHUUD HW FDOFXO GHV QR\DX[                     

 ([SUHVVLRQ GHV QR\DX[ GH 9ROWHUUD                    

 &DV GHV V\VWqPHV OLQpDLUHV                         

 &DV GHV V\VWqPHV ELOLQpDLUHV                        

 &DV GHV V\VWqPHV DIILQHV RX OLQpDLUHV DQDO\WLTXHV           

 4XHOTXHV UpVXOWDWV GH UpDOLVDWLRQ                         

 &DV GHV V\VWqPHV OLQpDLUHV                         

 8Q UpVXOWDW GH UpDOLVDWLRQ QRQ OLQpDLUH                  

 8Q SRLQW GH YXH JpRPpWULTXH                           

 6\VWqPHV OLQpDLUHV HW LQYDULDQFH                      

 6\VWqPHV QRQ OLQpDLUHV LQYDULDQFH HW GpFRPSRVLWLRQV

ORFDOHV                                         

 %LEOLRJUDSKLH                                     

&KDSLWUH  (TXDWLRQV GLIIpUHQWLHOOHV j UHWDUG                    

9ODGLPLU % . 2/0$1296.,, HW -HDQ3LHUUH 5,&+$5'


 ,QWURGXFWLRQ                                     

 &ODVVHV G¶pTXDWLRQV GLIIpUHQWLHOOHV IRQFWLRQQHOOHV               

 (TXDWLRQV j UHWDUGV SRQFWXHOV                        


Table des matières 15

 (TXDWLRQV UHWDUGpHV JpQpUDOHV UHWDUGV GLVWULEXpV            

 1RWDWLRQV FRPSOpPHQWDLUHV                         

 /H SUREOqPH GH &DXFK\ SRXU OHV ('5                     

 0pWKRGH SDV j SDV                                  

 6WDELOLWp GHV V\VWqPHV j UHWDUGV                          

 1RWLRQ G¶pTXLOLEUH SRXU XQH ('5                     

 'pILQLWLRQV UHODWLYHV j OD VWDELOLWp GHV ('5               

 6WDELOLWp GHV V\VWqPHV OLQpDLUHV VWDWLRQQDLUHV              

 3UHPLqUH PpWKRGH GH /LDSRXQRY                     

 &DV GHV UHWDUGV IDLEOHV                            

 0pWKRGH GLUHFWH GH /LDSRXQRY                       

 6WDELOLWp HW pTXDWLRQV GH 5LFFDWL                      

 3ULQFLSH GH FRPSDUDLVRQ                          

 ([HPSOH G¶DSSOLFDWLRQ                            

 &RPSOpPHQWV ELEOLRJUDSKLTXHV                          

 %LEOLRJUDSKLH                                     

&KDSLWUH  6\VWqPHV j SDUDPqWUHV GLVWULEXpV                   

-HDQ3LHUUH % $%$5< HW ,UqQH =$0%(77$.,6


 ,QWURGXFWLRQ                                     

 /H FDGUH IRQFWLRQQHO                               

 (VSDFHV YHFWRULHOV QRUPpV GH GLPHQVLRQ LQILQLH            

 2SpUDWHXUV VXU GHV HVSDFHV YHFWRULHOV GH GLPHQVLRQ

LQILQLH                                         

 2SpUDWHXUV VXU GHV HVSDFHV GH +LOEHUW                  

 7KpRULH VSHFWUDOH                                  

 &DV JpQpUDO  OHV RSpUDWHXUV IHUPpV                   

 &DV GHV RSpUDWHXUV FRPSDFWV                       

 7KpRULH GHV VHPLJURXSHV                            

 1RWLRQ GH VHPLJURXSH                           

 /H SUREOqPH GH &DXFK\                          

 0pWKRGHV G¶DSSUR[LPDWLRQ                           

 6\VWqPHV OLQpDLUHV  OD PpWKRGH GHV IRQFWLRQV SURSUHV        

 6\VWqPHV QRQ OLQpDLUHV  OD PpWKRGH GHV UpVLGXV SRQGpUpV       

 0LVH HQ °XYUH GH OD PpWKRGH GH FROORFDWLRQ SDU SRLQWV       

 %LEOLRJUDSKLH                                    

,QGH[                                              
17

Avant-propos

Cet ouvrage fait suite au livre Algèbre et analyse pour l'automatique paru
dans cette même collection. Même si leurs dates de parution dièrent, ces deux
ouvrages ont été conçus simultanément et leur ensemble pourrait s'intituler
 Outils mathématiques pour l'automatique .
La problématique fondamentale de l'automatique est celle de la conception,
de la mise en ÷uvre et de l'exploitation des moyens permettant à l'homme
de maîtriser le comportement de systèmes complexes, naturels ou articiels.
Science des systèmes1 , elle constitue donc une discipline transversale à de nom-
breux domaines d'application : elle intervient ainsi dans les sciences pour l'in-
génieur, celles de l'information et de la communication, celles du vivant...
Cependant, si les concepts sur lesquels elle se fonde (rétroaction, modéli-
sation, système dynamique, état, signal, optimalité...) présentent une ecacité
pratique indéniable, leur apprentissage comme leur développement nécessitent
d'accéder à un bagage d'outils mathématiques assez variés. Ceci constitue une
caractéristique de la discipline : il sut pour s'en convaincre d'interroger les
étudiants de licences et maîtrises IEEA, des écoles d'ingénieurs ou des forma-
tions permanentes. Tous lui accordent une place à part (en bien ou en mal !)
liée à son niveau de théorisation relativement exigeant.
La question se pose alors de dénir une  boîte à outils mathématiques  as-
sez riche et susamment compacte, à laquelle puissent faire appel les étudiants
en formation initiale, mais également les doctorants et chercheurs conrmés.
Notre but a donc été de réunir une variété susante d'outils mathématiques
impliqués dans le domaine de l'automatique, en un minimum de pages et à un
niveau susamment poussé. Le lecteur familier de ces disciplines (et de la
recherche en général) imaginera aisément la gageure d'un tel objectif ! Car il
est bien certain que de tels outils sont en constante évolution et que la seule
possibilité réaliste était d'en donner une  photographie instantanée  portant
sur des besoins relativement stabilisés.

1 Le concept de  système , entendu en tant qu'outil pour la modélisation et l'utilisation

de la complexité, implique la prise en compte conjointe de plusieurs points de vue : opé-


rations créant une dynamique temporelle, auto-évolution de ces opérations par rétroaction,
prise en compte de l'environnement, émergence d'une nalité, avec non-séparabilité de ces
diérents aspects. On peut considérer que l'automatique contribue directement à l'étude de
ces questions.
18 Mathématiques pour les systèmes dynamiques

Après avoir établi un bilan des concepts mathématiques nécessaires, la so-


lution retenue a donc été de les présenter en deux livres traitant deux aspects
complémentaires de façon relativement indépendante :
 un premier ouvrage, déjà mentionné, a rassemblé les éléments d'analyse,
d'algèbre et d'optimisation : Analyse (Topologie - Dérivations et inté-
grations  Fonctions à variable complexe  Séries et fonctions ortho-
gonales), Algèbre et polynômes (Structures algébriques  Polynômes 
Quasi-polynômes), Matrices (Formulaire de calcul matriciel  Equations
matricielles classiques  Faisceaux matriciels  Matrices polynomiales et
rationnelles) et Optimisation (en dimension nie ou non) ;
 le présent ouvrage concerne les outils mathématiques pour les systèmes
dynamiques : Mathématiques pour les signaux et systèmes (Distributions,
transformées de Laplace, de Fourier, en z  Calcul opérationnel de Mi-
kuzi«ski  Probabilités et calcul stochastique) et Systèmes dynamiques
(Géométrie diérentielle  Equations diérentielles ordinaires  Algèbre
diérentielle  Equations diérentielles avec discontinuités  Equations
aux diérences  Equations diérentielles à retards  Systèmes à para-
mètres distribués).
Cette solution en deux volumes indépendants nous a semblé constituer un
compromis ecace entre, d'une part, une concision trop importante qui aurait
privé l'ouvrage de son intérêt pour un public exigeant, et d'autre part, une
exhaustivité aussi gourmande en place qu'inaccessible.
Sur la base de ce découpage, nous avons fait appel à des auteurs spécialistes
de chacun des domaines, gardant une vue d'ensemble sur la discipline et ayant
aussi une bonne expérience pédagogique. Ainsi, chaque chapitre fait-il référence
à diérents domaines d'utilisation en automatique. Bien sûr, ces exemples res-
tent volontairement réduits puisqu'ils ne constituent qu'un échantillonnage de
certains thèmes traités dans la collection  Automatique  dirigée par Claude
Foulard, dans le cadre plus général du Traité  Information, Commande, Com-
munication .
Par ailleurs, nous espérons que ce livre, volontairement ouvert, ne se limitera
pas au seul public  automaticien  mais pourra être une source d'information
pour d'autres utilisateurs de mathématiques. C'est en tous cas dans cette in-
tention qu'il a été conçu.
Pour conclure, je souhaite remercier ici tous les auteurs qui ont accepté
de contribuer à cet ouvrage : la relecture et l'unication de leurs diérentes
contributions m'ont permis de constater, avec plaisir, la grande variété des
connaissances exposées dans ces dix chapitres.

Jean-Pierre Richard
35(0,Ê5( 3$57,(

0DWKpPDWLTXHVSRXUOHVVLJQDX[
HWV\VWqPHV
Chapitre 1

Transformées intégrales et distributions

1.1. Motivations

Les transformées de Fourier et de Laplace sont des outils usuels d'analyse


des systèmes linéaires. De façon à comprendre l'adéquation de ces outils, cette
section de motivations considère brièvement une description informelle1 des
systèmes linéaires et des signaux entrées et sorties associés.
Soit u(t) une grandeur réelle (scalaire ou vectorielle) dont la dépendance
par rapport au temps est considérée comme donnée (u(t) est appelé signal
d'entrée) et soit y(t) une grandeur réelle (scalaire ou vectorielle, appelée signal
de sortie) dont la dépendance par rapport au temps est déterminée par la
connaissance du signal d'entrée et par la donnée d'un opérateur N spéciant
les caractéristiques du système considéré. L'opérateur N transforme les signaux
de l'espace des entrées U en signaux de l'espace des sorties Y (U et Y sont
supposés être des espaces vectoriels, au moins), de telle sorte qu'à toute entrée
u(t) ∈ U corresponde une sortie notée :

y(t) = N (u(t)) ∈ Y. (1.1)


On supposera en général que le système considéré est continu , c'est-à-dire qu'à
toute suite {un }n≥1 convergeant vers 0 dans U , correspond une suite {yn }n≥1
convergeant vers N (0) dans Y .
Etant donnée la très grande variété de signaux d'entrées possibles, il peut
sembler opportun de les décomposer en signaux élémentaires dont les réponses
correspondantes soient bien connues. Or, dans le cas des systèmes linéaires
et stationnaires, il est aisé de montrer que les exponentielles complexes sont
fonctions propres de l'opérateur N , c'est-à-dire :

N est = H(s)est , (1.2)
où s ∈ C est un nombre complexe quelconque et H est une fonction de s appe-
lée réponse isomorphe ou fonction de transfert. De cette observation naît l'idée
1
Par description informelle, nous entendons une description où toutes les hypothèses tech-
niques concernant la nature des signaux d'entrées ne sont pas spéciées.

Chapitre rédigé par Laurent Lefèvre .


22 Mathématiques pour les systèmes dynamiques

de décomposer la plus large classe possible de signaux comme combinaisons


linéaires2 d'exponentielles complexes, puis d'utiliser la linéarité de l'opérateur
N pour reconstruire la réponse à un signal d'entrée donné, comme combinaison
linéaire des réponses élémentaires. Cette idée est à la base de l'analyse fréquen-
tielle. En eet, la réponse du système à une fréquence donnée intervient par
l'intermédiaire de la fonction exponentielle :
eiωt = cos (ωt) + i sin (ωt) , (1.3)
où ω ∈ R (la pulsation) est un nombre réel. Pour ce cas particulier (s = iω), on
obtient une réponse isomorphe de la forme H(iω), appelée réponse en fréquence.
L'idée de décomposition élémentaire du signal d'entrée peut également être
exploitée pour caractériser la réponse de systèmes linéaires autonomes dans le
domaine temporel. A cet eet, dénissons l'échelon unité comme suit :

1 pour t > 0, 0 pour t < 0,
1+ (t) , 1 (1.4)
2 pour t = 0,

et notons y1+ (t) la réponse à cette entrée (réponse indicielle ). La dérivée de


l'échelon unité est nulle en tout point, hormis en t = 0 où elle n'existe pas.
Cette dérivée ne peut donc être considérée comme une fonction : il s'agit d'une
distribution , qui est appelée impulsion de Dirac et notée δ(t). La réponse à
δ(t), notée h(t), est la réponse impulsionnelle (elle aussi peut n'avoir de sens
que dans le cadre de la théorie des distributions). Or, pour les systèmes linéaires
stationnaires, la réponse à la dérivée d'un signal est la dérivée de la réponse au
signal (dans la mesure où ces dérivées ont un sens). Nous pouvons déduire :
dy1+ (t)
= h(t). (1.5)
dt

Dès lors que cette réponse impulsionnelle est connue, il est possible de cal-
culer la réponse à un signal d'entrée quelconque u(t) sous la forme [ZAD 63] :
Z t
y(t) = h(t − τ )u(τ )dτ , (1.6)
0

ces développements n'ayant ici encore de sens que dans le cadre de la théorie
des distributions. L'intégrale (1.6) est appelée intégrale de Duhamel (ou encore
de Carson, ou de superposition ). Elle est un exemple de produit de convolution
entre deux fonctions et explique en grande partie l'intérêt des transformées pour
l'étude des systèmes linéaires stationnaires. En eet, comme nous le verrons par
la suite, au produit de convolution (1.6) dans le domaine temporel, correspond
un simple produit de fonctions dans le domaine fréquentiel (ou de Laplace).
2
Il s'agit de sommes dans le cas des séries de Fourier ou d'intégrales dans le cas des
transformées de Fourier et de Laplace.
Transformées intégrales et distributions 23

Ainsi, l'étude de ce type de relations entrées-sorties est-elle considérablement


facilitée par le biais des transformées intégrales.
Les quelques développements qui précèdent montrent que le cadre des es-
paces de fonctions classiques doit être considérablement élargi pour que puissent
être dénies avec précision, et sans ambiguïté, les notions nécessaires à l'étude
de la réponse des systèmes linéaires stationnaires. C'est pourquoi, dans ce cha-
pitre, après avoir passé en revue quelques notions élémentaires sur les transfor-
mées de Fourier et de Laplace, une large part sera consacrée à la théorie des
distributions et aux résultats concernant leurs transformées.
Remarquons que seul le caractère linéaire et stationnaire de l'opérateur N
entre en jeu pour dénir une représentation intégrale de Duhamel et son cor-
respondant dans le domaine de Laplace. La nature de la réalisation du système
linéaire n'intervient ni dans l'énoncé, ni dans la démonstration du résultat. C'est
pourquoi ces représentations s'appliquent aussi bien aux systèmes d'équations
diérentielles ordinaires (en abrégé, EDO) qu'aux équations aux dérivées par-
tielles (en abrégé, EDP), aux équations diérentielles à retards, aux équations
intégro-diérentielles ou aux équations diérentielles d'ordre non entier (ou
fractionnaire).
Notons encore que la nature des espaces U et Y choisis détermine également
l'existence d'une représentation de Duhamel et les propriétés de la réponse im-
pulsionnelle associée. Par exemple, dans le cas où les signaux entrées sont res-
treints à l'espace des fonctions déclinantes (ou  à décroissance rapide , voir
paragraphe 1.4.2), la réponse impulsionnelle peut être comprise au sens d'une
distribution tempérée. Dans le cas où les entrées sont des fonctions continues à
support compact, on parlera pour la réponse impulsionnelle de mesure de Ra-
don. Si, par contre, les signaux d'entrée et de sortie doivent rester dans l'espace
des fonctions continues et bornées, alors l'opérateur N linéaire et stationnaire
possédera une représentation de Duhamel du type :
Z t
y(t) = u(τ )dg(t − τ ), (1.7)
0

où g est une fonction à variation bornée dénie sur R+ , non décroissante (la
mesure dg peut donc comprendre des impulsions de Dirac), si et seulement si
l'opérateur N possède la propriété de mémoire évanescente [BOY 85].
Ainsi, les distributions apparaissent naturellement comme le cadre théorique
approprié pour l'étude des systèmes linéaires et des signaux associés. De plus,
la représentation de Duhamel nous montre que les transformées de Fourier et
de Laplace peuvent être un outil performant pour l'analyse de tels systèmes.
Nous verrons que ces deux approches (théorie des transformées et distributions)
sont aussi le cadre naturel d'étude des problèmes d'échantillonnage de signaux
continus, quelle que soit la nature du système dont ils sont issus.
24 Mathématiques pour les systèmes dynamiques

1.2. Transformation de Fourier

Comme cela a déjà été mentionné, la transformée de Fourier d'une fonc-


tion est une décomposition de cette fonction en fonctions élémentaires, de type
exponentielle complexe. Plutôt que de ne considérer que les fonctions d'une va-
riable scalaire (généralement, le temps), il est possible de dénir la transformée
de Fourier de fonctions à n variables réelles de la manière suivante.
Dénition 1. La transformée de Fourier d'une fonction u ∈ L1 (Rn ) est dénie
sur Rn par : Z
b(η) ,
(Fu) (η) = u u(ξ)e−2iπξη dξ,
Rn

où ξη , hξ, ηiRn .
La transformée ub est ainsi bien dénie car :
−2iπξη
e = 1, ∀ξ, η ∈ Rn . (1.8)
La présence du facteur d'échelle 2π est optionnelle, mais simplie un certain
nombre de développements.
Dans la suite, nous utiliserons intensivement l'espace de Schwartz des fonc-
tions à décroissance rapide, notamment pour dénir les distributions, mais aussi
pour étendre la dénition de transformée de Fourier aux fonctions de carré in-
tégrable.
Dénition 2. Soit α , (α1 , . . . , αn ) ∈ Nn un multi-indice. Nous utiliserons
pour les multi-indices les conventions de notation suivantes :
|α| , α1 + . . . + αn , ∀α ∈ Nn ,
ξα , ξα1 . . . ξ n , ∀α ∈ N , ∀ξ ∈ R ,
1 αn n n

α1 αn
∂ ∂
∂ α = ∂1α1 . . . ∂nαn , α1 . . . αn , ∀α ∈ Nn , ∀ξ ∈ Rn .
∂ξ 1 ∂ξ n
Avec ces notations, l' espace de Schwartz sur Rn (espace des fonctions décli-
nantes) est déni par :
( )

S (Rn ) , u ∈ C ∞ (Rn ) : ∀α, β ∈ Nn , sup ξ α ∂ β u(ξ) < ∞ . (1.9)
ξ∈Rn

Les fonctions de cet espace sont aussi appelées fonctions à décroissance


rapide. Etant donnée la régularité et la décroissance de ces fonctions, il est
facile de démontrer les propriétés qui suivent de la transformée de Fourier dans
S (Rn ).
Proposition 1. Soient une fonction u ∈ S (Rn ) et un multi-indice α ∈ Nn .
Alors F ((−2iπξ)α u) = ∂ α F (u) et F (∂ α u) = (−2iπξ)α F (u).
Transformées intégrales et distributions 25

Ainsi, dans S (Rn ), la transformée de Fourier échange les dérivations et les


multiplications par des puissances. Cette propriété explique l'intérêt de cette
transformée non seulement dans la résolution d'équations diérentielles (pour
lesquelles on préfère cependant, en général, la transformée de Laplace ou de
Mikusi«ski), mais également en théorie des équations aux dérivées partielles.
Ces équations se traduisent en eet par une équation algébrique donnant la
transformée de Fourier de la solution.
Dénition 3. Soient u : Rn → C, a ∈ Rn et λ ∈ R0 (R privé de 0). L'opération
de translation est dénie par τ a u(ξ) , u(ξ − a), celle de réexion par ŭ(ξ) ,
u(−ξ) et celle de dilatation par ∂λ u(ξ) , u(ξ/λ).
Il est alors aisé de démontrer les propriétés suivantes de la transformée de
Fourier dans L1 (Rn ) (et donc aussi dans S (Rn )).
Proposition
R 2. SoientR u, v ∈ L1 (Rn ) , a ∈ Rn et λ ∈ R0 . On a alors :
(i) Rn
b(ξ)v(ξ)dξ = Rn u(ξ)b
u v (ξ)dξ ;
(ii) F (τ a u) = e−2iπa· F (u) ;
(iii) F (∂λ u) = |λ|n ∂1/λ F (u) ;
(iv) F ŭ(ξ) = ub(−ξ).
Une autre propriété fondamentale de la transformée de Fourier est la formule
d'inversion énoncée dans la proposition suivante [WIL 95].
Théorème 1. La transformation de Fourier F : S (Rn ) → S (Rn ) est une bi-
jection linéaire telle que (F ◦ F ) (u) = ŭ (dilatation dénie en 3), ∀u ∈ S (Rn ).
Cette propriété fondamentale établit l'existence d'une correspondance bi-
univoque entre les fonctions de S (Rn ) et leurs transformées. Elle permet, par
exemple, de transformer certains problèmes diérentiels dans le domaine tem-
porel en problèmes algébriques dans le domaine fréquentiel puis, à l'aide de
tables de transformées, d'utiliser la solution fréquentielle pour déterminer la
solution temporelle. La même démarche peut par ailleurs s'appliquer aussi bien
pour les EDO (équations diérentielles ordinaires) que pour les EDP (équations
aux dérivées partielles), puisque cette formule d'inversion est valable pour la
transformée dans Rn .
Munissons l'espace S (Rn ) du produit scalaire dans L2 (Rn ) et de la norme
associée. La proposition 2 (i ) et la formule d'inversion de Fourier permettent
de conclure que, ∀u, v ∈ S (Rn ) :
Z
hb
u, b
v i2 = b(ξ)b
u v (ξ)dξ = hu, vi2 , (1.10)
Rn

identité appelée égalité de Plancherel (ou, parfois, de Parseval ). Elle traduit le


caractère isométrique de la transformation de Fourier dans L2 (Rn ) (voir plus
loin pour l'extension à L2 (Rn ) de cette transformée). Nous avons vu que le
produit de convolution est une représentation possible des systèmes linéaires
26 Mathématiques pour les systèmes dynamiques

stationnaires. Le produit de convolution de deux fonctions u, v ∈ S (Rn ) peut


être facilement déni en observant que :
|u(ξ − η)v(η)| ≤ kuk∞ |v(η)| . (1.11)
Dès lors, le membre de gauche de (1.11) vit dans L1 (Rn ) et la dénition qui
suit a un sens.
Dénition 4. Le produit de convolution de u et v ∈ S (Rn ) est déni par :
Z
(u ∗ v) (ξ) , u(ξ − η)v(η)dη.
Rn

Les propriétés qui suivent justient l'utilité de la transformation de Fourier


dans l'analyse des systèmes linéaires stationnaires représentés par des opéra-
teurs de convolution entrée-sortie.
Proposition 3. Si u, v ∈ S (Rn ), alors :
(i) u ∗ v ∈ S (Rn ) ;
(ii) F (u ∗ v) = ubvb;
(iii) F (uv) = ub ∗ vb.
Jusqu'à présent, nous avons déni la transformée de Fourier dans L1 (Rn ) et
dans S (Rn ). Cependant, dans l'étude des signaux, l'espace L2 (Rn ) joue un rôle
fondamental, notamment parce que sa norme dénit souvent l'énergie contenue
dans un signal. C'est en outre un espace de Hilbert réexif, ce qui rend son
utilisation fort commode. L'extension de la transformée de Fourier à L2 (Rn )
se fait à l'aide d'un résultat de densité bien connu (voir une démonstration
dans [WIL 95]).
Dénition 5. L'espace des fonctions tests de n variables réelles est déni par :
D (Rn ) , {u ∈ C ∞ (Rn ) : suppt (u) est un compact de Rn }, où suppt (u) est le
support de la fonction u :
suppt (u) , {ξ ∈ Rn : u(ξ) 6= 0} . (1.12)
Théorème 2. L'espace des fonctions tests D (Rn ) est dense dans l'espace
Lp (Rn ) pour tout p ≥ 1.
Comme l'espace des fonctions déclinantes contient cet espace des fonctions
tests, le résultat de densité s'applique aussi à S (Rn ). De plus, l'égalité de
Plancherel garantit la continuité de la transformation de Fourier :
F : S (Rn ) → S (Rn ) ⊂ L2 (Rn ) , (1.13)
et, dès lors, il existe un et un seul prolongement de cette transformation à l'es-
pace L2 (Rn ) (par un résultat classique de densité, voir notamment [RIC 01]).
C'est ce prolongement unique que nous dénissons comme transformée de Fou-
rier d'une fonction de L2 (Rn ). Si u ∈ L2 (Rn ) ∩ L1 (Rn ), alors les dénitions
par prolongement et dans L1 (Rn ) (dénition intégrale) sont équivalentes.
Transformées intégrales et distributions 27

Des propriétés précédemment établies pour la transformation de Fourier


des fonctions déclinantes peuvent ainsi s'étendre aux fonctions de L2 (Rn ), par
densité et grâce à la continuité de la transformée de Fourier, du produit scalaire
ou de la norme dans L2 (Rn ). Par exemple, l'égalité de Plancherel montre que la
transformation de Fourier est une isométrie de L2 (Rn ). Il est ainsi aisé d'établir
la proposition suivante.
Proposition 4. Pour toutes fonctions u, v ∈ L2 (Rn ), on a :
(i) (FR ◦ F ) (u) = ŭ ; R
(ii) Rn ub(ξ)v(ξ)dξ = Rn u(ξ)b v (ξ)dξ ;
R
(iii) hb
u, vbi2 = Rn u v (ξ)dξ = hu, vi2 ;
b(ξ)b
(iv) kuk2 = kb uk2 .
Lorsque la fonction u est un signal dépendant seulement de la variable temps
(u = u(t)), la transformation de Fourier en donne une  décomposition en
fréquence  (voir équation (1.3) ). En pratique, il est souvent souhaitable de
n'eectuer cette décomposition que sur une bande de fréquence limitée, c'est-
à-dire de restreindre la transformée de Fourier à un intervalle de pulsations
[−Ω, +Ω] , Ω ∈ R+ . Appelons u b (ω) la transformée de Fourier du signal u(t)
non restreint et reconstruisons le signal temporel correspondant à la restriction
à de cette transformée, c'est-à-dire, d'après le théorème d'inversion de Fourier
(théorème 1) :
Z +Ω
uΩ (t) , b (ω) e2iπωt dω.
u (1.14)
−Ω

En permutant les ordres d'intégration (formule de Fubini [RIC 01]), on obtient :


Z +∞ Z +Ω
uΩ (t) = u(τ ) e2iπω(t−τ ) dωdτ (1.15)
−∞ −Ω
Z +∞
sin (2Ω(t − τ ))
= u(τ ) dτ ,
−∞ π(t − τ )

avec en particulier, pour la fonction échelon unité u(t) = 1+ (t) :


Z +∞
sin (2Ω(t − τ ))
uΩ (t) = dτ (1.16)
0 π(t − τ )
Z
1 1 2πΩt sin τ
= + dτ
2 π 0 τ
1 1
= + Si (2πΩt) ,
2 π
où la fonction Si est le sinus intégral. La valeur de la fonction uΩ (t) est re-
présentée à la gure 1.1. Notons que, pour Ω croissant, l'abscisse du premier
maximum positif (1/2Ω) décroît. En un certain sens, la fonction se rapproche
ainsi de l'échelon unité. Cependant, en ce premier maximum, la fonction vaut
28 Mathématiques pour les systèmes dynamiques

environ 1.09, indépendamment de la valeur de Ω. Ce phénomène a reçu le nom


de phénomène de Gibbs. Il peut être généralisé à toute fonction comportant un
nombre ni de discontinuités de première espèce, pour lesquelles la convergence
de uΩ (t) n'est pas uniforme.

0.8

0.6

0.4

0.2

-1 0 1 2 3

Figure 1.1. Fonction uΩ (t) pour Ω = 1 et Ω = 10

Remarquons que nous avons pris quelques libertés par rapport à la dénition
de transformée de Fourier telle que nous l'avons formulée jusqu'ici. En eet,
la fonction u(t) = 1+ (t) n'est ni dans S (Rn ), ni dans aucun espace Lp (Rn ) ,
p ≥ 1, atteint par densité. Ainsi, la restriction à un spectre borné [−Ω, +Ω]
de la transformée ub (ω) n'a pas encore reçu de sens précis. Nous verrons plus
loin que, pour dénir correctement celle-ci, nous aurons besoin de la théorie
des distributions. Nous allons conclure cette section consacrée à la transformée
de Fourier par un résultat fréquemment utilisé : un théorème d'échantillonnage
pour les signaux à spectre borné.
Les signaux à spectre borné jouent un rôle particulier dans les applications
où le choix est souvent fait de ne travailler que sur une bande de fréquence
déterminée. Par dilatation, il est toujours possible de se ramener
 aux signaux
à spectre inclus dans l'intervalle fondamental I , − 12 , + 21 (dont le complé-
mentaire dans R sera noté R \ I).
Dénition 6. L' espace des signaux L2 (R) à spectre borné est déni par :
b(ω) = 0 p.p. dans R \ I} .
BL2 , {u ∈ L2 (R) : u
Transformées intégrales et distributions 29

Ce sous-espace est muni du produit scalaire usuel dans L2 (R).


Ce sous-espace de L2 (R) jouit de quelques propriétés très intéressantes.
Tout d'abord, il s'agit d'un sous-espace fermé (il est donc complet). Ensuite,
les signaux de L2 (R) à spectre borné sont en fait continus et kuk∞ ≤ kuk2 . La
suite {τ k sinc}k∈Z , où τ k est l'opérateur de translation par un nombre entier k
et où la fonction sinc est le sinus cardinal déni par :
 sin πt
πt , t 6= 0,
sinc (t) , (1.17)
0, t = 0,

est une base hilbertienne de BL2 [WIL 95]. Dès lors, cette base hilbertienne
peut être utilisée pour décomposer toute fonction à spectre borné, ce qui est
formellement établi par le théorème suivant [WIL 95].
Théorème 3 (d'échantillonnage). ∀u, v ∈ BL2 , ∀k ∈ N, ∀t ≥ 0, on a :
(i) u(k) = P hu, τ k sinciL2 ;
(ii) u(t) = k∈N u(k) sinc (t − k), série convergeant uniformément, dans L2 ;
P
(iii) kuk22 = k∈N |u(k)|2 ;
P
(iv) hu, viL2 = k∈N u(k)v(k).

1.3. Transformation de Laplace

La transformation de Laplace est certainement la plus utilisée dans l'ana-


lyse des systèmes dynamiques décrits par des EDO (équations diérentielles
ordinaires) à coecients constants. Comme la transformation de Fourier, elle
substitue à ces équations diérentielles un ensemble d'équations algébriques
linéaires. Elle n'est donc pratiquement utilisée que pour les fonctions d'une
variable scalaire : le temps.
Dénition 7. Soit u une fonction mesurable dénie sur R. La transformée de
Laplace de cette fonction, lorsqu'elle existe, est dénie par :
Z +∞
L(u)(s) , u(t)e−st dt,
−∞

où s ∈ C est une variable complexe telle que l'intégrale converge.


Comme la plupart des systèmes dynamiques décrits par des EDO linéaires à
coecients constants sont intégrés à partir d'un temps initial (que l'on convient
de prendre égal à t = 0), la transformée de Laplace unilatère est plus souvent
utilisée dans ce cas. Elle est dénie par :
Z +∞
L(u)(s) = u(t)1+ (t)e−st dt, (1.18)
−∞
30 Mathématiques pour les systèmes dynamiques

où s ∈ C est une variable complexe telle que l'intégrale converge. Dans la litté-
rature consacrée aux systèmes linéaires continus, la dénition plus restreinte qui
suit de la transformée de Laplace unilatère est la plus fréquemment rencontrée.
Dénition 8. Une fonction u dénie sur R+ est dite transformable au sens
de Laplace s'il existe un nombre β ∈ R pour lequel e−β· u(·) ∈ L1 (R+ ). Dans
ce cas, sa transformée de Laplace unilatère est dénie par :
Z +∞
L(u)(s) , u(t)e−st dt,
0

pour s ∈ C+
β , {s ∈ C : Re (s) ≥ β}.
Exemple 1. La fonction exponentielle u(t) = eλt , où λ ∈ C, est telle que
pour tout β ∈ R avec β > Re (λ), e−β· eλ· ∈ L1 (R+ ). On a donc, pour tout
s ∈ C+
Re(λ) , {s ∈ C : Re (s) > Re (λ)} :
Z +∞
1
L(u)(s) , eλt e−st dt = . (1.19)
0 s−λ

La fonction constante u(t) = 1+ (t) est telle que pour tout β > 0, e−β· 1+ (·) ∈
L1 (R+ ). On a donc, pour tout s ∈ C+ 0 :
Z +∞
1
L(u)(s) , 1+ (t)e−st dt = . (1.20)
0 s

Comme le montrent ces deux exemples, l'intégrale dénissant la transformée


de Laplace au sens de la dénition 8 n'est en général convergente que pour la
variable complexe s appartenant à un demi-plan ouvert du plan complexe,
délimité à gauche par une droite parallèle à l'axe imaginaire dont l'abscisse est
appelée abscisse de convergence. Le demi-plan à droite de cette abscisse est
appelé, quant à lui, domaine de convergence. En séparant la partie réelle et la
partie imaginaire de s (c'est-à-dire en posant s = σ + jω) et en considérant le
cas d'un signal u causal 3 , il vient :
Z +∞ 
L(u)(s) , u(t)e−σt e−iωt dt (1.21)
0
Z +∞ 
= 2π u(2πt)e−2πσt e−2πiωt dt
0
h i
= 2πF ∂ 2π
1 u(·)e−σ· (ω).

Cette dernière propriété illustre un des attraits fondamentaux de la transfor-


mation de Laplace par rapport à celle de Fourier : elle peut être convergente
3 Un signal u, déni sur R, est dit causal si u(t) = 0, pour tout t < 0.
Transformées intégrales et distributions 31

pour des fonctions dont la transformée de Fourier n'est pas convergente au


sens habituel (intégrale de fonctions mesurables). C'est le cas pour toutes les
fonctions dont le domaine de convergence de la transformée de Laplace n'inclut
pas l'axe imaginaire. Il faut, dans ce cas, avoir recours aux distributions (voir
ci-après) pour dénir la transformée de Fourier de telles fonctions.
La relation (1.21) permet également d'étendre de nombreuses propriétés des
transformées de Fourier aux transformées de Laplace, notamment la formule
d'inversion de Fourier. En eet, pour un signal causal u et pour tout σ dans le
domaine de convergence, on a :
Z +∞
1
u(2πt)e−2πσt = L(u)(σ + iω)e+2πiωt dω, (1.22)
2π −∞

et donc :
Z ∞
1
u(t) = L(u)(σ + iω)e+(σ+iω)t dω (1.23)
2π ∞
Z σ+i∞
1
= L(u)(s)e+st dω.
2πi σ−i∞

Cette intégrale est parfois appelée intégrale de Bromwhich-Wagner et peut être


calculée par les techniques habituelles d'intégration d'une fonction de variable
complexe, notamment le théorème des résidus [RIC 01]. La fonction L(u)(s)
étant holomorphe dans un demi-plan complexe droit (domaine de convergence),
il est naturel que la valeur de l'intégrale (1.23) soit indépendante de l'abscisse σ
de la droite d'intégration dans le domaine de convergence (il n'y a pas de pôle à
l'intérieur du contour d'intégration formé par cette droite et par le  demi-cercle
à l'inni  à droite).
Dans le cas des systèmes d'EDO linéaires à coecients constants, les signaux
étudiés sont le plus souvent des combinaisons linéaires de fonctions élémen-
taires (fonctions exponentielles, sinusoïdales et polynomiales), causales (c'est-
à-dire multipliées par un échelon unité). Dans le domaine de Laplace, leurs
transformées sont des fractions rationnelles. Le calcul de ces transformées et
leur inversion s'eectuent alors par consultation d'un dictionnaire de transfor-
mées, éventuellement après décomposition préalable du signal temporel étudié
en combinaison linéaire de fonctions élémentaires, ou de la fraction ration-
nelle correspondante dans le domaine de Laplace en fractions simples. Le plus
souvent, le domaine de convergence des transformées utilisées n'est même pas
mentionné, puisque l'on sait explicitement qu'il s'agit d'un demi-plan complexe
laissant à sa gauche tous les points singuliers éventuels.
La relation (1.21) entre les transformées de Fourier de Laplace entraîne une
grande similitude entre leurs propriétés fondamentales. Nous allons ci-après
établir ces propriétés pour la transformée de Laplace de fonctions d'une variable
32 Mathématiques pour les systèmes dynamiques

réelle (application la plus courante de ces transformées) et non plus de plusieurs


variables réelles, comme nous l'avons fait pour la transformée de Fourier.
Proposition 5. Si la fonction u(t) dénie pour t ∈ R+ est transformable au
sens de Laplace et si elle est diérentiable sur R+ , alors :
du
L( )(s) = sL(u)(s) − u(0).
dt
Si, de plus, u(t) est k fois diérentiable sur R+ , alors :

dk u X di u
k−1
L( )(s) = s k
L(u)(s) − (0)sk−1−i .
dtk i=0
dt i

Cette propriété de la transformée de Laplace unilatère se démontre facile-


ment par induction. Le cas k = 1 s'obtient en procédant à l'intégration par
parties. Cette propriété de la transformée de Laplace et sa linéarité permettent
de substituer un système d'équations algébriques linéaires à un système d'EDO
linéaires à coecients constants. Une fois trouvée la solution de ce problème
algébrique, il n'y a plus qu'à procéder à l'inversion de celle-ci (en utilisant
par exemple des tables de transformées, comme le tableau 1.1) pour trouver
la solution correspondante dans le domaine temporel. De plus, le recours à la
transformée de Laplace unilatère introduit de façon systématique les conditions
initiales du problème diérentiel et conduit ainsi à sa solution globale.
Remarquons que les domaines de convergence d'un signal et de sa dérivée
(lorsqu'elle existe) sont généralement identiques, sauf dans le cas où l'abscisse
de convergence du signal est nul. Dans ce cas, l'opération de dérivation peut,
pour un pôle simple, éliminer le point singulier s = 0 (multiplication par s).
La dénition du produit de convolution de deux fonctions de S (R) (voir
la dénition 4) peut être étendue au cas de deux fonctions dans L1 (R). La
proposition qui suit justie cette possibilité [SCH 93].
Proposition 6. Soient u ∈ L1 (R) et v ∈ Lp (R) avec 1 ≤ p < ∞. Alors le
produit de convolution de u et v :
Z
(u ∗ v) (t) , u(t − η)v(η)dη,
R

est bien déni comme fonction de Lp (R) et :


ku ∗ vkp ≤ kuk1 kvkp .

Dans le cas où les signaux u et v sont de plus causaux, on a :


Z Z t
(u ∗ v) (t) = u(t − η)v(η)dη = u(t − η)v(η)dη.
R 0
Transformées intégrales et distributions 33

u(t) L(u)(s) Remarques


1
1+ (t) s
tm 1
(m−1)! 1+ (t) sm m∈Z
1
eat 1+ (t) s−a a∈C
tm eat 1 m∈Z
(m−1)! 1+ (t) (s−a)m a∈C
sin ωt 1
ω 1+ (t) s2 +ω2 ω∈R
cos (ωt) 1+ (t) s
s2 +ω2 ω∈R
s cos φ+ω sin φ
cos (ωt − φ) 1+ (t) s2 +ω2 ω, φ ∈ R
t sinωωt 1+ (t) s
(s2 +ω 2 )2
ω∈R
s2 −ω 2
t cos (ωt) 1+ (t) (s2 +ω 2 )2
ω∈R
tν eat 1
Γ(ν−1) 1+ (t) (s−a)ν ν, a ∈ R
√eat
1 (t) √1 a∈R
πt +
√ s−a
erf√ at √1
a
1+ (t) s s+a
a>0

cos(2 at) a
e− s
√ 1+ (t) √ a>0
πt
√ s
sin(2 at) e− s
a
√ 1+ (t) 3 a>0
πt s2
sin at
t 1+ (t) arctan a
s a∈R

Tableau 1.1. Quelques transformées de Laplace unilatères

Au vu de la proposition 6, le produit de convolution de deux signaux u et


v transformables au sens de Laplace (transformée unilatère) est transformable
au sens de Laplace et son domaine de convergence contient l'intersection des
domaines de convergence des deux signaux u et v. Comme celle de Fourier,
la transformée de Laplace traduit le produit de convolution dans le domaine
temporel en un simple produit de fonctions dans le domaine de Laplace et faci-
lite ainsi grandement l'analyse des systèmes linéaires stationnaires décrits par
leur réponse impulsionnelle. En eet, pour de tels systèmes, la réponse forcée
à un signal d'entrée est le produit de convolution du signal et de sa réponse
impulsionnelle (voir équation (1.6)). Ces considérations sont formalisées dans
la proposition qui suit (voir une démonstration dans [DOE 74]).
Proposition 7. Soient u, v deux signaux dénis sur R+ et transformables au
sens de Laplace. Alors, u ∗ v est transformable au sens de Laplace et :

L(u ∗ v)(s) = L(u)(s)L(v)(s).

De plus, si s, p ∈ C sont tels que p et s − p appartiennent aux domaines de


34 Mathématiques pour les systèmes dynamiques

convergence respectifs de L(v)(s) et de L(u)(s), alors :


Z σ+i∞
1
L(uv)(s) = L(u)(s − p)L(v)(p)dp,
2πi σ−i∞

où σ est la partie réelle de la variable d'intégration.


Notamment, si les conditions de convergence permettent d'annuler s, on a :
Z ∞ Z σ+i∞
1
u(t)v(t)dt = L(u)(−p)L(v)(p)dp, (1.25)
0 2πi σ−i∞

qui est un équivalent, pour la transformée de Laplace, de la relation de Parseval.


Il semble donc qu'il y ait moyen, comme dans le cas de la transformée de Fourier,
d'établir une isométrie entre les fonctions de L2 (R+ ) et leurs transformées.
Ceci est eectivement le cas, mais nécessite
 la dénition préalable d'un espace
de Hardy que nous noterons H2 C+ 0 .
Dénition 9. L'espace de Hardy H2 des fonctions d'une variable complexe à
valeurs dans Cn est déni par :
 n 2
o
H2 C+ +
0 , f : C0 → C : f est holomorphe et kf kH2 < ∞ ,
n

où :  Z ∞ 
2 1 2
kf kH2 , sup kf (σ + iω)kCn dω .
σ>0 2π ∞

L'espace H2 C+ 0 ainsi déni est un espace de Banach (il est complet, muni
de la norme k·kH2 , voir [KAW 72]). Cependant,

il est nécessaire de pouvoir dé-
nir un produit scalaire dans H2 C+ 0 pour établir une isométrie de cet espace
avec L2 (R+ ). Pour cela, la proposition
 suivante [KAW 72] fait remarquer que
les fonctions de l'espace H2 C+ 0 peuvent être représentées par leurs valeurs
sur l'axe imaginaire.

Proposition 8. Pour chaque fonction f ∈ H2 C+0 , il existe une unique fonc-
tion fe ∈ L2 (−i∞, +i∞) telle que :
Z +∞ 2

lim+ f (σ + iω) − fe(iω) n dω = 0.
σ→0 −∞ C

De plus, l'application f 7→ fe est linéaire, injective et préserve la norme.



En choisissant pour chaque fonction de H2 C+ 0 ce représentant unique dans
L2 (−i∞, +i∞), nous pouvons donc dénir sans ambiguïté le produit scalaire
de deux fonctions f et g de H2 C+ 0 par :
Z +∞ D E
1
hf, giH2 = fe(iω) , ge (iω) dω. (1.26)
2π −∞ Cn
Transformées intégrales et distributions 35

Comme
 corollaire immédiat de la proposition 8, nous pouvons déduire que
H2 C+
0 muni de ce produit scalaire est un espace de Hilbert. Il est maintenant
possible de formaliser l'observation faite à partir de l'équation (1.25). C'est
l'objet du théorème suivant.
Théorème 4 (de Paley-Wiener).  La transformée de Laplace est une isomé-
trie entre L2 (R+ ) et H2 C+ 
0 . Ainsi notamment, pour tout u, v de L2 (R+ ),
+
on a : L(u), L(v) ∈ H2 C0 et hu, viL2 = hL(u), L(v)iH2 .
Cette isométrie est fort utile, par exemple pour évaluer le gain L2 d'un
système linéaire stationnaire représenté par une convolution. De même que
celle de Fourier, la transformée de Laplace possède des propriétés intéressantes
de transformation des opérateurs de translation et de dilatation (dénition 3).
Proposition 9. Soient u une fonction transformable au sens de Laplace, a ∈
R, λ ∈ R0 et s0 ∈ C. On a alors :
(i) L (τ a u) = e−sa L (u) ;
(ii) L (∂λ u) = |λ| ∂1/λ L (u) ;
(iii) L (e−s0 t u) = τ s0 L (u) .
La première de ces propriétés permet de déterminer la fonction de transfert
d'un système caractérisé par un retard de transmission. Elle est également fort
utile pour la conversion de données échantillonnées à intervalles de temps régu-
liers. Les propriétés (ii ) et (iii ) aectent en général le domaine de convergence.
Elles sont utilisées surtout pour élargir les dictionnaires de transformées.
Il est possible de déterminer les valeurs initiale et nale d'une fonction u(t),
dénie sur R+ et à valeur dans Rn , à partir de l'expression de sa transformée
de Laplace. En eet, on a d'après la propriété 5 :
du
sL(u)(s) = L( )(s) + u(0+ ). (1.27)
dt
Ceci suppose que u(t) soit diérentiable sur R+ et, en particulier, que :

lim u(t) = u(0+ ), (1.28)


t→0+

existe. On obtient alors, en considérant les limites Re (s) → ∞ et Re (s) → 0+ ,


pour autant que s = 0 appartienne au domaine de convergence :

u(0+ ) = lim sL(u)(s), (1.29)


Re(s)→∞

u(∞) = lim sL(u)(s). (1.30)


Re(s)→0+

Lorsque l'axe imaginaire est la frontière du domaine de convergence, la relation


(1.30) peut être ou ne pas être vériée, comme le montrent les deux exemples
qui suivent.
36 Mathématiques pour les systèmes dynamiques

Exemple 2. (i) La transformée de Laplace de l'échelon unité 1+(t) est la fonc-


tion 1
s et son domaine de convergence est le demi-plan complexe ouvert droit
Re (s) > 0. En appliquant la formule (1.30), on trouve :
1
lim s = lim 1+ (t).
Re(s)→0+ s t→∞

(ii) La transformée de Laplace de sin (ωt) 1+ (t) est la fonction s2 +ω


ω
2 et son

domaine de convergence est le demi-plan complexe ouvert droit Re (s) > 0. En


appliquant la formule (1.30), on trouve :
ω
lim s = 0,
Re(s)→0+ s2 + ω 2

alors que la fonction sin (ωt) 1+ (t) n'a pas de limite pour t → ∞.

1.4. Distributions

1.4.1. Motivations
Nous avons été confrontés au problème de la généralisation de la notion
de fonction en abordant la question de la réponse impulsionnelle d'un système
linéaire stationnaire. Celle-ci nécessite le plus souvent de considérer l'impulsion
de Dirac qui doit être vue plutôt comme une forme linéaire (faisant correspondre
à une fonction u(ξ) la valeur de cette fonction en ξ = 0) que comme une
fonction.
Nous avons également été confronté au problème de la dérivation de cer-
taines fonctions non diérentiables au sens usuel (fonctions non continues, par
exemple), notamment à travers le prisme de la multiplication de leurs transfor-
mées de Fourier par des puissances du type (−2iπξ)α , α ∈ Nn .
Les transformées de Fourier et de Laplace, quant à elles, posent des pro-
blèmes de convergence. Un grand nombre de fonctions intéressantes, telle la
fonction constante 1, ne possèdent pas de transformées de Fourier, au sens
usuel de la transformée d'une fonction.

1.4.2. Structures de convergence, espace dual et distributions


La théorie des distributions apporte une solution élégante et précisément
formulée à l'ensemble de ces problèmes. Les espaces de distributions sont, en
général, des espaces duaux d'espaces de fonctions très étroits, notamment des
Transformées intégrales et distributions 37

espaces D (Rn ) et S (Rn ) que nous avons dénis plus haut. La première ques-
tion qui se pose alors est de dénir une notion de convergence  raisonnable 
sur ces espaces. Pour ce faire, nous avons recours à la notion de structure de
convergence.
Dénition 10. Soit X un espace vectoriel sur K (avec K = R ou C), χ ⊆ X N
un sous-espace vectoriel de l'ensemble des suites de points de X . Alors, χ dénit
une structure de convergence sur X s'il existe une application (appelée limite)
de χ dans X qui, à toute suite {un }n≥1 , fait correspondre un point u de X (on
notera {un }n≥1 7→ u), avec :
(i) {u, . . . , u, . . .} 7→ u ;
(ii) {un }n≥1 7→ u ⇒ ∀ sous-suite {unk }k≥1 7→ u ;

{un }n≥1 7→ u 
(iii) {vn }n≥1 7→ v ⇒ {λ(un + vn )}n≥1 7→ λu + λv .

λ∈K
L'ensemble χ est donc le domaine de cette application  limite , ou encore
l'ensemble des suites qui convergent (au sens particulier déni par la structure
de convergence).
Dénition 11 (Convergence faible). Soit X un espace de Hilbert, muni du
produit scalaire h·, ·iX à valeurs dans K (R ou C). Une suite {un }n≥1 ⊂ X
converge faiblement vers u, dans X , si :

∀v ∈ X : hun , viX → hu, viX , (1.31)


au sens de la convergence usuelle dans K.
Dénition 12 (Convergence dans D (Rn )). Une suite de fonctions {un}n≥1
de l'espace des fonctions tempérées D (Rn ) converge vers u dans D (Rn ) si :
(i) il existe un compact K ⊂ Rn telle que suppt (un ) ⊂ K, ∀n ≥ 1 (voir
(1.10) pour la dénition du support suppt) ;
(ii) ∀α ∈ Nn : k∂ α (un − u)k∞ → 0.
D
On note la convergence dans D (Rn ) : {un }n≥1 → u.
Dénition 13 (Convergence dans S (Rn )). Une suite de fonctions {un}n≥1
de l'espace de Schwartz S (Rn ) converge vers u dans S (Rn ) si ∀α, β ∈ Nn :
β α S
x ∂ (un − u) → 0. On note {un }
∞ n≥1 → u la convergence de cette suite
dans S (Rn ).
Remarquons que u ∈ D (Rn ) implique u ∈ S (Rn ) et que :
D S
{un }n≥1 → u ⇒ {un }n≥1 → u. (1.32)
Dénition 14 (Convergence dans K (Rn )). On dénit l' espace des fonc-
tions continues à support compact par :
K (Rn ) , {u ∈ C (Rn ) : suppt (u) est un compact de Rn } .
38 Mathématiques pour les systèmes dynamiques

Une suite de fonctions {un }n≥1 de K (Rn ) converge vers u dans K (Rn ) si :
(i) il existe un compact K ⊂ Rn telle que suppt (un ) ⊂ K, ∀n ≥ 1 ;
(ii) kun − uk∞ → 0.
D
On désigne la convergence de cette suite dans D (Rn ) par {un }n≥1 → u.
Dénition 15 (Convergence ponctuelle dans X 0). Soit X un espace vec-
toriel sur K, à structure de convergence. On dénit X 0 , l' espace dual de X ,
par :
X 0 , {f : X → K : f est linéaire et continue} , (1.33)
et on désigne alors la valeur de f en u par (f, u). On dit qu'une suite de
fonctions {fn }n≥1 de X 0 converge vers f dans X 0 lorsque :
∀u ∈ X : (fn , u) → (f, u) . (1.34)
Il s'agit donc de la convergence ponctuelle dans X 0 .
D
Il est intéressant de constater que la convergence {un }n≥1 → u est l'une
des plus exigentes rencontrées en analyse et qu'en conséquence, la convergence
associée dans l'espace dual D0 (convergence ponctuelle dans D0 ) est l'une des
plus faibles rencontrées en analyse.
La construction d'espaces de distributions consiste précisément à prendre
l'espace dual X 0 d'espaces de fonctions X susamment régulières, munis
d'une structure de convergence. On parlera d'espace des distributions D0 (Rn ),
d'espace des distributions tempérées S 0 (Rn ) et d'espace des mesures de Radon
K0 (Rn ). Ensuite, les applications linéaires continues dans X sont transposées
de manière à dénir les applications linéaires continues dans X 0 . Cette construc-
tion assez simple est susante pour répondre aux motivations que nous avons
posées à la section précédente. Rappelons tout d'abord la dénition d'applica-
tion linéaire continue.
Dénition 16 (Application linéaire continue). Soient X et Y deux espaces
vectoriels munis chacun d'une structure de convergence sur K et L : X → Y
une application linéaire. L'application L est continue si :
X Y
∀ {un }n≥1 ⊂ X : un → 0 ⇒ Lun → 0.

Dans le cas d'espaces X et Y normés et si la structure de convergence choisie


est la convergence en norme, c'est-à-dire :

(1.35)
X
un → 0 ⇔ lim kun kX = 0,
n→∞
Y
(L, un ) → 0 ⇔ lim kLun kX = 0,
n→∞

alors il s'agit de la notion usuelle d'application linéaire continue entre deux


espaces normés.
Transformées intégrales et distributions 39

La tansposition d'une application linéaire continue se dénit de manière très


naturelle dans les espaces duaux.
Dénition 17 (Transposition d'une application linéaire). Soient X et
Y deux espaces vectoriels munis de leurs structures de convergence et soit une
application linéaire continue L : X → Y . L'application linéaire transposée
L0 : Y 0 → X 0 , notée L0 ou LT , est dénie de manière telle que :

∀f ∈ Y 0 : (L0 f, u) , (f, Lu) , ∀u ∈ X.

Le lecteur vériera facilement que l'application transposée L0 est ainsi bien


dénie et elle-même linéaire et continue. Ce principe de transposition est le
moteur de la généralisation aux espaces de distributions de type X 0 de toutes les
applications linéaires continues de X dans lui-même. Il va nous permettre, par
exemple, de dénir la dérivation ou la transformée de Fourier d'une distribution.
Laurent Schwartz est à la source de la théorie simple et élégante des distri-
butions présentée ici et formulée par lui à la n de la seconde guerre mondiale.
Bien que les distributions aient été utilisées bien avant, notamment par Heavi-
side qui fait déjà largement usage de la dérivée de la fonction échelon unité vers
1890, la théorie des distributions de Schwartz fournit un cadre rigoureux (et
donc les résultats correspondants) et renouvelé à l'étude de l'analyse de Fou-
rier et des équations aux dérivées partielles. Ces deux domaines connaîtront
dès lors un essor spectaculaire, renforcé dans le cas de la théorie des équations
aux dérivées partielles, par l'introduction des espaces de Sobolev d'ordre entier
(Sobolev, 1938), puis non entier. Les travaux de Schwartz sur les distributions
sont présentés dans [SCH 66].

1.4.3. Distributions tempérées


L'espace de Schwartz S (Rn ), plus large que D (Rn ), permet d'analyser des
fonctions qui n'ont pas un support compact. Comme nous l'avons vu au début
de ce chapitre, son utilisation simplie considérablement l'étude de la transfor-
mée de Fourier4 . Nous le privilégierons dans la suite de ce chapitre.
Dénition 18 (Distributions tempérées). L' espace des distributions tem-
pérées est déni par :
S 0 (Rn ) , {f : S (Rn ) → C : f est linéaire et continue} .

C'est le dual de l'espace de Schwartz. Des formes à valeurs complexes ont été
choisies pour plus de généralité.
4 La simplication provient du caractère isométrique de la transformée de Fourier dans cet

espace et du fait que la propriété de dérivation F (∂ α u) = (−2iπξ)α F (u) rend fondamentale


l'utilisation de la condition de décroissance rapide.
40 Mathématiques pour les systèmes dynamiques

Nous avons déjà étudié un certain nombre d'applications linéaires et conti-


nues de S (Rn ) dans lui-même. Elles sont reprises ci-après.
Proposition 10. Avec les conventions associées aux multi-indices (voir dé-
nition 2), les opérateurs qui suivent sont des opérateurs linéaires et continus
de S (Rn ) dans lui-même :
(i) l'opérateur de dérivation ∂ γ , pour γ ∈ Nn ;
(ii) l'opérateur de translation τ a , pour a ∈ Rn ;
(iii) l'opérateur de dilatation ∂λ , pour λ ∈ R\{0}.
Démonstration : le caractère linéaire de ces opérateurs est évident. La continuité
se montre à l'aide de la dénition de S (Rn ). Par exemple, pour la dérivation,
S
un → 0 implique :

∀α, β ∈ Nn , sup ξ α ∂ β (∂ γ un (ξ)) = sup ξ α ∂ β+γ un (ξ) < ∞. (1.36)
ξ∈Rn ξ∈Rn

Le cas de la transformée de Fourier est plus subtil. Nous avons vu qu'il


s'agit d'une bijection linéaire de S (Rn ) dans lui-même, qui est une isométrie
lorsque S (Rn ) est muni du produit scalaire dans L2 (Rn ). La démonstration de
la proposition suivante se trouve, par exemple, dans [WIL 95].
Proposition 11. La transformée de Fourier dans l'espace S (Rn ) muni de la
structure de convergence dénie dans l'exemple 13 est une application continue.
Dénir un opérateur de multiplication des fonctions u de S (Rn ) par une
fonction g donnée est une idée qui paraît a priori intéressante. En eet, la
transposition de cet opérateur permettrait de construire un grand nombre de
distributions à partir d'une distribution f donnée, par simple application de la
formule (gf, u) , (f, gu), c'est-à-dire à l'aide de la multiplication dans S (Rn ).
La diculté réside ici dans la dénition d'une classe, la plus large possible, de
fonctions g qui dénissent un opérateur de multiplication continu dans S (Rn ).
On remarquera en particulier qu'il ne sut pas de prendre g ∈ C ∞ (Rn ) pour
avoir :
sup ξ α ∂ β (gu(ξ)) < ∞, ∀α, β ∈ Nn , ∀u ∈ S (Rn ) . (1.37)
ξ∈Rn

Une solution apportée par Schwartz à ce problème est la dénition de l'espace


des fonctions tempérées.
Dénition 19 (Fonctions tempérées). L' espace des fonctions tempérées
est déni par :
 
∀α ∈ Nn , ∃c ≥ 0, ∃m
∞ n
OM (R ) , g ∈ C (R )
n m∈ N : .
|∂ g(ξ)| ≤ c 1 + kξk2Rn , ∀ξ ∈ Rn .
α

Les fonctions de OM (Rn ) et toutes leurs dérivées présentent donc une crois-
sance polynomiale à l'inni, ce qui permet de capturer de nombreux exemples
intéressants.
Transformées intégrales et distributions 41

Exemple 3. Les fonctions sin(t) et cos(t) sont des fonctions de OM (R) car,
comme |∂ α sin(t)| ≤ 1, ∀α ∈ N, la condition de la dénition 19 est vériée pour
c = 1 et m = 0.
Exemple 4. Les polynômes de degré k de la forme :
X
g(ξ) = c α ξ α , c α ∈ Rn , (1.38)
|α|≤k
α∈Nn

sont des fonctions de OM (Rn ) car pour γ ∈ Nn et |γ| = p, on a :


 m
|∂ γ g(ξ)| ≤ c 1 + |ξ|2 , (1.39)
avec 2m ≥ k − p et c susamment grande. Il en va d'ailleurs de même pour
les polynômes d'ordre non entier α ∈ Rn et |α| ≤ k ∈ R+ .
Exemple 5. Les fonctions de S (Rn ) sont des fonctions de OM (R) car :

∀α, β ∈ Nn , ξ α ∂ β (gu(ξ)) ≤ cα,β , ∀ξ ∈ Rn , (1.40)
et donc :
∀β ∈ Nn , ∂ β (gu(ξ)) ≤ c0,β , ∀ξ ∈ Rn . (1.41)
La condition de la dénition 19 est vériée pour c = c0,β et m = 0.
La dénition de fonction tempérée assure que le produit d'une fonction u ∈
S (Rn ) par une fonction g ∈ OM (Rn ) est bien une fonction de S (Rn). La forme
m
particulière de la majoration a été choisie de manière à ce que c 1 + |ξ|2
soit de classe C ∞ (Rn ).
Proposition 12. Soit g ∈ OM (Rn ). L'opérateur de multiplication déni par :
Λg : S (Rn ) → S (Rn ) : u 7→ gu est continu.
Démonstration : la démonstration repose sur la formule de Leibnitz qui donne
le résultat de la dérivation d'un produit de fonctions. Elle est de nature es-
sentiellement calculatoire et les développements complets peuvent être trouvés,
par exemple, dans [SCH 66].
Proposition 13. Si v ∈ S (Rn ), alors l'opérateur de convolution par v, déni
par :
(v ∗ ·) : S (Rn ) → S (Rn ) : u 7→ v ∗ u,
est une application continue dans S (Rn ).
Démonstration : la continuité de l'opérateur de convolution dans S (Rn ) est
une conséquence directe de la continuité des opérateurs de transformation de
Fourier, de multiplication, de dilatation. Il sut de constater que, d'après les
propriétés de la transformée de Fourier dans S (Rn ), on a :
v ∗ u = (F ◦ F ◦ F ◦ F) (v ∗ u) (1.42)
= (F ◦ F ◦ F) (bb)
vu
= (∂−1 ◦ F ) (bb) .
vu
42 Mathématiques pour les systèmes dynamiques

Comme vb ∈ S (Rn ) ⊂ OM (Rn ), il s'ensuit que la convolution peut se décom-


poser en 4 applications linéaires continues. Elle est donc continue.
Ayant constaté les propriétés de linéarité et de continuité d'une série d'opé-
rateurs linéaires et continus dans S (Rn ), nous allons pouvoir les transposer
dans S (Rn ), à l'aide de la dénition 17. Pour nous guider dans la dénition
de ces opérations transposées, nous pouvons en particulier étudier les formes
linéaires fϕ : S (Rn ) → C qui ont une représentation intégrale :
Z
(fϕ , u) , ϕ(ξ)u(ξ)dξ, (1.43)
Rn

où ϕ est une fonction susamment régulière pour que les intégrales dénies plus
bas aient un sens (c'est le cas notamment si ϕ ∈ S (Rn )). Il est certain qu'il
s'agit d'une famille de distributions pour lesquelles les dénitions d'opérateurs
transposés doivent être valables. On a pour les distributions de cette famille :

1. Pour a ∈ Rn :
Z
(fϕ , τ a u) , ϕ(ξ)u(ξ − a)dξ (1.44)
Rn
Z
= ϕ(ξ + a)u(ξ)dξ
ZR
n

= (τ −a ϕ) (ξ)u(ξ)dξ.
Rn

2. Pour λ ∈ R\{0} :
Z
ξ
(fϕ , ∂λ u) , ϕ(ξ)u( )dξ (1.45)
Rn λ
Z
n
= |λ| ϕ(λξ)u(ξ)dξ
Rn
Z  
n
= |λ| ∂ λ1 ϕ (ξ)u(ξ)dξ.
Rn

3. Pour γ ∈ Nn :
Z
(fϕ , ∂ u) ,
γ
ϕ(ξ)∂ γ u(ξ)dξ (1.46)
Rn
Z
|γ|
= (−1) ∂ γ ϕ(ξ)u(ξ)dξ
Rn
Z  
|γ|
= (−1) ∂ γ ϕ (ξ)u(ξ)dξ.
Rn
Transformées intégrales et distributions 43

4. Pour g ∈ OM (Rn ) :
Z
(fϕ , Λg u) , ϕ(ξ)g(ξ)u(ξ)dξ (1.47)
ZR
n

= (Λg ϕ) (ξ)u(ξ)dξ.
Rn

5. Pour v ∈ S (Rn ) :
Z Z 
(fϕ , u ∗ v) , ϕ(ξ) u(ξ − η)v(η)dη dξ (1.48)
Rn
ZR
n
Z 
= ϕ(ξ) u(−θ)v(ξ + θ)dθ dξ
Rn Rn
Z Z 
= v(ξ + θ)ϕ(ξ)dξ u(−θ)dθ
Rn Rn
Z Z 
= v(ξ − θ)ϕ(ξ)dξ u(+θ)dθ
ZR Rn
n

= (∂−1 v ∗ ϕ) (ξ)u(ξ)dξ.
Rn

6. Enn, on a également (voir propriété 4) :


Z
(fϕ , F u) , ϕ(η) (F u) (η)dη (1.49)
ZR
n

= (F ϕ) (η)u(η)dη.
Rn

A l'aide des calculs qui précèdent, nous pouvons donc proposer les transpo-
sitions des opérateurs concernés dans S 0 (Rn ).
Dénition 20. Par transposition, on dénit, pour tout f ∈ S 0 (Rn ) et pour
tout u ∈ S (Rn ), les opérateurs :
(i) τ a , a ∈ Rn tel que (τ a f, u) = (f, τ −a u), 
(ii) ∂λ , λ ∈ R\{0} tel que (∂λ f, u) = |λ|n f, ∂1/λ u ,
(iii) ∂ γ , γ ∈ Nn tel que (∂ γ f, u) = (−1)|γ| (f, ∂ γ u),
(iv) Λg , g ∈ OM (Rn ) tel que (Λg f, u) = (f, Λg u),
(v) (· ∗ v), v ∈ S (Rn ) tel que (f ∗ v, u) = (f, (∂−1 v) ∗ u),
(vi) F , tel que (Ff, u) = (f, F u).
Ce sont des opérateurs linéaires et continus de S 0 (Rn ) dans lui-même.
On remarquera en particulier que toute distribution tempérée f possède une
transformée de Fourier et est inniment diérentiable au sens des distributions.
Il s'agit là bien-sûr d'un avantage décisif de ce cadre théorique pour l'analyse
fréquentielle et l'étude du comportement des systèmes linéaires dans le domaine
temporel, ou dans le domaine des transformées de Fourier.
44 Mathématiques pour les systèmes dynamiques

Nous avons déni plus haut des distributions tempérées fϕ par des intégrales
sur Rn (voir (1.43)), à l'aide de fonctions ϕ  susamment régulières . Ce
caractère  susamment régulier  est précisé par la proposition suivante, dont
une preuve se trouve par exemple dans [SCH 66].
Proposition 14. S'il existe 1 ≤ p < ∞ et 0 ≤ m entiers tels que :
−m
ϕ(ξ) 1 + kξk2Rn ∈ Lp (Rn ) ,

alors la forme fϕ dénie par (1.43) est une distribution tempérée.


Ce résultat peut être complété par un résultat d'unicité de la représentation
intégrale des distributions dénies de cette manière [SCH 66].
Proposition 15. Si ϕ et ψ vérient toutes deux la condition de la proposition
14 et dénissent la même distribution tempérée, c'est-à-dire sont telles que :
Z Z
∀u ∈ S (Rn ) : ϕ(ξ)u(ξ)dξ = ψ(ξ)u(ξ)dξ,
Rn Rn

alors ϕ = ψ presque partout dans Rn .


Nous observons que, par le caractère très restreint de l'espace S (Rn ), la
classe des fonctions qui permettent de dénir des distributions par représenta-
tion intégrale est très grande. Elle contient notamment tous les espaces Lp (Rn ),
p ≥ 1, ainsi que OM (Rn ) et C (Rn ). Cependant, il existe des distributions tem-
pérées qui ne sont pas dénies par des fonctions ϕ. Ainsi, l'impulsion de Dirac
dénie par :
δ : S (Rn ) → C : u 7→ (δ, u) = u(0) (1.50)
est bien une forme linéaire et continue, c'est-à-dire une distribution tempérée.
Cependant, il n'existe aucune fonction ϕ dans l'ensemble des fonctions vériant
l'hypothèse de la proposition 14, telle que :
Z
u(0) = ϕ(ξ)u(ξ)dξ, ∀u ∈ S (Rn ) . (1.51)
Rn

1.4.4. Transformées de Fourier de distributions


La dénition par transposition de la transformée de Fourier dans S 0 (Rn )
conduit naturellement à la généralisation des propriétés de cette transformée
dans S (Rn ). Nous allons brièvement les passer en revue. Pour la suite, nous uti-
liserons la notation ξ pour désigner les arguments des fonctions et distributions
et la notation η pour les arguments de leurs transformées de Fourier.
Proposition 16. La transformée de Fourier est une bijection linéaire continue
de S 0 (R) dans lui-même. Elle satisfait de plus la relation F ◦ F = ∂−1 .
Transformées intégrales et distributions 45

Démonstration : la bijectivité résulte du fait que F ◦ F ◦ F ◦ F = I. Par


conséquent F ◦ F = (F ◦ F)−1 est une bijection et F aussi.

Proposition 17. Soit f une distribution tempérée. On a alors :


(i) F (τ a f ) = e−2iπaη F (f ), pour a ∈ Rn ,
(ii) F (∂λ f ) = |λ| ∂1/λ F (f ), pour λ ∈ R\{0},
n

(iii) F (∂ f ) = (2iπη)α F (f ), pour α ∈ Nn ,


α

(iv) F (v ∗ f ) = F (v) F (f ), pour v ∈ S (Rn ) ,


(v) F (vf ) = F (v) ∗ F (f ), pour v ∈ S (Rn ) .

Démonstration : ces résultats se démontrent simplement en appliquant la for-


mule de transposition. Il faut cependant noter que e−2iπaη et (−2iπη)α sont
bien des fonctions de OM (Rn ) et que les multiplications ci-dessus ont donc un
sens. La démonstration du point (v ) fait appel au caractère injectif de la trans-
formée de Fourier : on a F (F (vf )) = ∂−1 (vf ) et F (F (v) ∗ F (f )) = ∂−1 (vf ).
Le caractère injectif de F achève la démonstration.
Il est intéressant de constater que le point (ii) de la proposition ci-dessus lie
l'étalement d'une fonction et de sa transformée de Fourier : en eet, lorque λ
diminue en se rapprochant de 0, la fonction ∂λ f est de plus en plus concentrée,
alors que sa transformée de Fourier ∂d b
λ f = |λ| ∂1/λ f est de plus en plus étalée.
n

A la limite, ∂λ f converge (au sens des distributions) vers l'impulsion δ , par-


faitement concentrée, et sa transformée de Fourier ∂d λ f converge (au sens des
distributions) vers la fonction constante 1 (voir proposition suivante), parfai-
tement étalée. Calculons à présent la transformée de Fourier de la distribution
de Dirac et quelques formules dérivées.

Proposition
R 18. En notant 1 la distribution dénie par 1 : S (Rn ) → C :
u 7→ Rn u(ξ)dξ, on obtient :
(i) bδ = 1 et b1 = δ,
(ii) F (∂ α δ) = (−2iπη)α et F ((2iπξ)  ) = (−1) ∂ δ , pour
α |α| α
α ∈ Nn ,
(iii) F (τ a δ) = e −2iπaη
et F e +2iπaξ
= τ a δ , pour a ∈ R .
n

R
Démonstration : il sut de remarquer que (bδ, u) = (δ, ub) = ub(0) = Rn
u(ξ)dξ,
puis d'appliquer les résultat de la proposition 17.
On peut notamment calculer à l'aide de cette propriété la transformée de
Fourier d'un développement polynomial :

 
X  X cα
F
 cα ξ α 
= (−1)|α| ∂ α δ, (1.52)
(2iπ)|α|
|α|≥1 |α|≥1
α∈Nn α∈Nn
46 Mathématiques pour les systèmes dynamiques

où cα ∈ Rn , ainsi que celle d'une série trigonométrique :


 
X  X
F
 cα e−2iπaα ξ 
= cα τ aα δ. (1.53)
|α|≥1 |α|≥1
α∈Nn α∈Nn

Il est également possible de calculer la transformée de Fourier d'une série d'im-


pulsions de Dirac. Un telle série est de la forme :
X
τ k δ, (1.54)
k∈Z

et est appelée peigne de Dirac. Pour calculer sa transformée de Fourier, nous


avons besoin d'un résultat préliminaire (démontré dans [WIL 95], par exemple).
Lemme 1 (Formule de Poisson). Soit u : R → C telle qu'il existe une
constante c > 0 pour laquelle :
|u(ξ)| < c(1 + |ξ|)−2 et u(η)| < c(1 + |η|)−2 .
|b
Alors, on a : X X
u(ξ − k) = b(k)e2iπkξ ,
u ∀ξ ∈ R.
Proposition 19. Le peigne de Dirac est une distribution tempérée égale à sa
k∈N k∈N

transformée de Fourier. On a :
!
X X X
F τ kδ = τ kδ = e2iπkη , η ∈ R. (1.55)
k∈N k∈N k∈N

Démonstration : par dénition :


!
X X X −1 
τ k δ, u = u (k) ≤ 1 + k2 1 + ξ 2 u(ξ) < ∞. (1.56)

k∈Z k∈Z k∈Z

La série est donc convergente et elle dénit une forme linéaire et continue
dans C. Il s'agit donc bien d'une distribution tempérée. Par continuité de la
transformation de Fourier et par la proposition précédente, il vient :
!
X X X
F τ kδ = F (τ k δ) = e2iπkη . (1.57)
k∈Z k∈Z k∈Z

Enn, pour conclure, nous avons recours à la formule de Poisson. Elle est ap-
plicable pour u dans S (Rn ) et montre que :
! ! ! !
X X X
τ k δ, u = b
τ k δ, u , F τ kδ ,u . (1.58)
k∈Z k∈Z k∈Z
Transformées intégrales et distributions 47

Le peigne est donc bien sa propre transformée.


P
Il est intéressant de remarquer que la série k∈Z e2iπkξ ne converge pas au
sens de la convergence ponctuelle dans C, car chaque terme de la série est de
module égal à un. Cependant, elle converge bien au sens des distributions vers
le peigne de Dirac. Le noyau de Poisson déni par :
X
Pr (ξ) = r|k| e2iπkξ pour r < 1, (1.59)
k∈Z

est, lui, une série convergente (convergence absolue et uniforme). Il peut être
utilisé pour approcher le peigne de Dirac. En eet, on a la convergence suivante
au sens des distributions :
S0
X
lim− Pr (ξ) = e2iπkξ . (1.60)
r→1
k∈Z

Cette approximation du peigne de Dirac est illustrée sur la gure 1.2.

2.5

1.5

-2 -1 0 1 2

Figure 1.2. Noyau de Poisson Pr (ξ) pour r = 0.5 et r = 0.7

Les distributions permettent également d'évaluer la transformée de Fourier


des fonctions de la forme :
1
fp (ξ) , , ξ ∈ Rn , 0 < p < n. (1.61)
kξkpRn
48 Mathématiques pour les systèmes dynamiques

La fonction fp n'est jamais intégrable (au sens L1 ) dans Rn . En eet, en coor-


données polaires, on obtient :
fp (ξ)dξ = rn−1 r−p dr = rn−p−1 dr, (1.62)
et pour que cette fonction soit intégrable sur Rn , il est nécessaire d'avoir simul-
tanément p > n (fonction mesurable pour r → ∞) et p < n (fonction mesurable
au voisinage de r = 0). Dès lors, la dénition intégrale de la transformée de
Fourier ne peut être appliquée. Cependant, le cas simple p = 0 donne f0 = 1
et fb0 = δ et nous montre qu'il peut être fondé de chercher la transformée de
Fourier au sens des distributions de la fonction de type puissance fp (ξ), comme
suit (démonstration dans [WIL 95]).
Proposition 20. Pour 0 < p < n, la fonction fp : Rn → R+ : ξ 7→ |ξ|1p admet
pour transformée de Fourier (au sens des distributions) une fonction du type :
1
fbp (η) = cn,p n−p ,
|η|
où cn,p > 0 est une constante réelle dépendant uniquement des paramètres n
(dimension de l'espace Rn ) et p (puissance non entière, en général).
En conséquence, on observe que la fonction |ξ|1n/2 est également un point
xe de la transformée de Fourier, au sens des distributions, dans Rn .

1.4.5. Caractérisation des espaces de Sobolev


Les espaces de Sobolev sont couramment utilisés dans la recherche de solu-
tions aux problèmes diérentiels, qu'il s'agisse d'EDO ou d'EDP. Nous n'abor-
derons dans cette section que la caractérisation des espaces de Sobolev néces-
saire au développement de la section suivante, qui concerne l'application de
la théorie des distributions et de la transformée de Fourier à la résolution des
problèmes diérentiels elliptiques.
La dénition usuelle des espaces de Sobolev fait intervenir des dérivations
d'ordre entier.
Dénition 21 (Sobolev d'ordre entier). Soit m entier positif. L' espace de
Sobolev d'ordre m sur Rn est déni par :
Hm (Rn ) , {u ∈ L2 (Rn ) : ∀α ∈ Nn , |α| ≤ m ⇒ ∂ α u ∈ L2 (Rn )} .

L'espace de Sobolev Hm (Rn ) est en général muni du produit scalaire :


X Z
hu, viHm , ∂ α u(ξ)∂ α v(ξ)dξ, (1.63)
|α|≤m Rn
Transformées intégrales et distributions 49

et de la norme associée :
q
kukHm , hu, uiHm . (1.64)

Dans ce cas, il s'agit d'un espace de Hilbert. Lorsqu'on cherche la solution


d'un problème diérentiel d'ordre m (voir section suivante), il est naturel de
la rechercher dans un tel espace, puisqu'il est déni de manière à ce que les
dérivées présentes dans le problème diérentiel existent. De plus, sa structure
d'espace de Hilbert facilite considérablement l'étude de ses propriétés (et donc
d'éventuelles solutions recherchées dans cet espace).
L'espace Hm comprend notamment des fonctions qui permettent de dénir
des distributions tempérées par représentation intégrale (voir proposition 14)
et qui peuvent être identiées à ces distributions. Cette observation incite à
plonger l'espace de Sobolev dans l'espace des distributions tempérées. C'est le
sens du théorème suivant.
Théorème 5. L'espace Hm (Rn ) est caractérisé par la dénition équivalente :
  m/2 
0 2
Hm = u ∈ S : 1 + |η| b (η) ∈ L2 .
u

Démonstration : la démonstration fait appel à la propriété de la transformée


de Fourier dans S 0 qui permute dérivation et multiplication. Pour des dévelop-
pements complets voir par exemple [WIL 95].
Cette caractérisation suggère à son tour d'élargir la dénition de Hm aux
ordres non entiers.
Dénition 22 (Sobolev d'ordre non entier). Soit s ∈ R. On dénit
l' espace de Sobolev d'ordre s :
  m/2 
2
Hs (Rn ) , u ∈ S 0 (Rn ) : 1 + |η| b (η) ∈ L2 (Rn ) ,
u

et on munit cet espace du produit scalaire et de la norme associée :


Z  
2
hu, viHs , 1 + |η| b (η) vb (η)dη,
u
Rn
q
kukHs , hu, uiHs .
Exemple 6. L'impulsion δ est une distribution tempérée de S 0 (R). Elle satis-
fait bδ = 1. En conséquence :
s s
1 + η2 b2 (η) = 1 + η 2
u , (1.65)
et on a donc δ ∈ Hs (R) pour s < − 21 .
50 Mathématiques pour les systèmes dynamiques

Remarque 1. Par application directe de la dénition, on a pour r < s :


S (Rn ) ( Hs (Rn ) ( Hr (Rn ) ( S 0 (Rn ) . (1.66)

Remarque 2. Dans la section suivante, nous utiliserons la notation Hsloc . Cet


espace peut être construit à l'intérieur de D0 (Rn ) en observant que :
f ∈ D0 (Rn ) , g ∈ D (Rn ) ⇒ f g ∈ S 0 (Rn ) , (1.67)

où la distribution tempérée f g est dénie par :


(f g, u) , (f, gu) , ∀u ∈ S (Rn ) . (1.68)
On dénit alors :
Hsloc (Ω) , {f ∈ D0 (Ω) : ∀g ∈ D (Ω) : f g ∈ Hs (Rn )} , (1.69)
où Ω est un ouvert de Rn (par exemple Rn tout entier).

1.4.6. Application aux problèmes aux limites elliptiques


La théorie des distributions a produit des apports considérables à la théorie
des équations aux dérivées partielles (EDP). Ce type d'applications semble en
général peu connu des théoriciens des systèmes continus. Nous allons donc, dans
cette section, illustrer cet apport par l'étude de quelques exemples. Considérons
tout d'abord le problème diérentiel :

−∆u + λu = f,
(1.70)
λ > 0, f ∈ S 0 (Rn ) ,

où ∆u désigne le laplacien de u. Puisque f est une distribution, il semble naturel


de chercher une solution u dans S 0 (Rn ). Ayant démontré le caractère bijectif de
la transformée de Fourier dans S 0 (Rn ), nous pouvons sans diculté transposer
ce problème diérentiel en un problème  algébrique . En eet, on obtient au
sens des distributions :
   
c + λb
−∆u
2
u (η) = 4π 2 |η| + λ u b
b(η) = f(η), (1.71)

dont l'unique solution est :

fb(η)
b (η) =
u 2 ∈ S 0 (Rn ) , (1.72)
4π 2 |η| + λ
Transformées intégrales et distributions 51

 −1
car 4π2 |η|2 + λ ∈ OM (Rn ). On déduit de la nature bijective de la trans-
formée de Fourier que :
!
−1 fb(η)
u (ξ) = F 2 ∈ S 0 (Rn ) . (1.73)
4π 2 |η| + λ

Une remarque importante et non triviale sur ce problème est que la condition
u ∈ S 0 (Rn ) constitue une condition aux limites. En eet, dans S 0 (Rn ), l'unique
solution au problème homogène −∆u + λu = 0 est u = 0. Mais les fonctions :

ui (ξ) = e± λξi
, (1.74)
pour i = 1, . . . , n , ainsi que leurs combinaisons linéaires, sont solutions du pro-
blème homogène. Les fonctions ui dénissent bien des distributions de D0 (Rn )
car les fonctions de D (Rn ) ont un support compact. Mais elles ne dénissent
pas des distributions dans S 0 (Rn ). D'ailleurs, elles ne vérient pas la condition
ui (ξ)(1 + kξk2Rn )−m ∈ Lp (Rn ) de la proposition 14. Ainsi, le problème (1.70)
admet-il une innité de solution dans D0 (Rn ), mais une seule dans S 0 (Rn ).
Ayant montré l'existence et l'unicité de la solution du problème diérentiel
(1.70) dans D0 (Rn ) et ayant construit cette solution (voir équation (1.73)), il
est naturel de s'interroger sur sa régularité. En eet, une solution au sens des
distributions est un résultat élégant, mais une fonction susamment régulière
serait une solution plus  praticable  du problème diérentiel. Avec la caracté-
risation des espaces de Sobolev formulée à la section précédente, nous disposons
d'un outil remarquablement simple et puissant pour aborder ce problème.
Proposition 21. Le problème diérentiel :

−∆u + λu = f,
λ > 0, f ∈ Hs (Rn ) ,
admet une seule solution u ∈ S 0 (Rn ), donnée par :
!
fb(η)
u (ξ) = F −1 2 .
4π 2 |η| + λ
De plus, u ∈ Hs+2 (Rn ).
Démonstration : on a :
 
2
  s+2 1 + |η|   s2
b
1 + |η|2 1 + |η|2
2
|b
u (η)| = f (η) . (1.75)
4π 2 |η|2 + λ
  s2   −1
Or 1 + |η|2 fb(η) ∈ L2 car f ∈ Hs et 1 + |η|2 4π2 |η|2 + λ est bor-
née sur Rn . Dès lors, le membre de gauche de (1.75) est dans L2 , ce qui conclut
la démonstration.
52 Mathématiques pour les systèmes dynamiques

La démarche que nous avons suivie pour résoudre le problème (1.70) peut
être généralisée au cas des équations elliptiques.
Dénition 23. Pour α ∈ Nn , on dénit l'opérateur diérentiel Dα de S 0 (Rn )
dans lui-même par :
−|α|
Dα = (2iπ) ∂α.
A tout polynôme d'ordre p ∈ N à coecients complexes dα ∈ Cn de la forme :
X
P (η) , dα η α ,
|α|≤p
α∈Nn

on associe l'opérateur diérentiel linéaire P (D) de S 0 (Rn ) dans lui-même, dé-


ni par : X
P (D) , dα Dα .
|α|≤p
α∈Nn

On appelle le polynôme P (η) le symbole de l'opérateur P (D). On dénit l' ordre


de P (D) comme le plus grand entier p tel que :
X
|dα | > 0.
|α|=p

On dénit le symbole principal d'un opérateur diérentiel P (D) d'ordre p, noté


Pp (η), par :
X
Pp (η) , dα η α .
|α|=p

L'opérateur diérentiel P (D) est alors dit elliptique si son symbole principal
Pp (η) ne s'annule qu'en η = 0.
Les dénitions de ces opérateurs diérentiels sont posées de manière à
simplier l'écriture des transformées de Fourier. On a en eet, pour tout
u ∈ S 0 (Rn ) :

d
D b(η),
αu = ηαu (1.76)
P\
(D)u = P (η)b
u(η). (1.77)

Passons en revue quelques exemples d'opérateurs diérentiels linéaires, de


façon à déterminer s'ils sont elliptiques.
Exemple 7. (1) L'opérateur laplacien déni par :
 
∆ = ∂ (2,0,...,0) + ∂ (0,2,...,0) + · · · + ∂ (0,0,...,2) (1.78)
Transformées intégrales et distributions 53

correspond au symbole :
2 
P (η) = (2iπ) η 21 + η 22 + · · · + η 2n (1.79)
2
= −4π2 |η| .

Il s'agit donc d'un opérateur elliptique d'ordre 2.


(2) L'opérateur de Cauchy-Riemann5 est déni par :
 
L = ∂ (1,0) + i∂ (0,1) , (1.80)

et correspond au symbole :
P (η) = (2iπ) (η 1 + iη 2 ) (1.81)
= (2π) (iη 1 − η 2 ) .

Il s'agit donc d'un opérateur elliptique d'ordre 1.



(3) L'opérateur des ondes déni par Lu = (2iπ)−1 ∂ (2,0) − ∂ (0,2) u corres-
pond au symbole P (η) = (2iπ) η21 − η22 et est un opérateur d'ordre 2 mais non
elliptique car son symbole principal P2 (η) = P (η) s'annule pour η = 0 mais
aussi pour η1 = η2 6= 0.
Il est possible de généraliser la démarche que nous avons suivie pour résoudre
l'EDP (1.70) à des opérateurs diérentiels linéaires plus généraux. L'existence,
l'unicité et la construction de la solution dans S 0 (Rn ) s'obtiennent de la même
manière. La question de la régularité de cette solution est plus délicate. Ce-
pendant, pour les problèmes diérentiels elliptiques, on peut faire usage du
théorème ci-dessous (voir sa démonstration dans [WIL 95], par exemple).
Théorème 6 (de régularité elliptique). Soit P (D) un opérateur diérentiel
elliptique d'ordre m, Ω un ouvert de Rn et u ∈ D0 (Rn ). Si P (D)u ∈ Hsloc (Ω)
alors u ∈ Hs+mloc
(Ω). Si de plus P (D)u ∈ C ∞ (Ω) alors u ∈ C ∞ (Ω).
Les applications de ce résultat à l'analyse numérique des problèmes dié-
rentiels elliptiques sont très importantes. Supposons que un soit une suite de
solutions approchées telles que P (D)un → 0 et un → u, mais dont on ne peut
établir la convergence qu'en un sens très faible (convergence au sens de D0 ). Par
continuité de l'opérateur P (D) dans D0 , on obtient P (D)u = 0. Si l'opérateur
P (D) est elliptique, on pourra conclure du théorème précédent que u ∈ C ∞ (Ω)
et que u est une solution au sens classique (solution forte) de P (D)u = 0.
Examinons maintenant les exemples précédents d'opérateurs diérentiels.
Exemple 8. (1) Comme le laplacien est un opérateur elliptique, toute fonction
harmonique solution de ∆u = 0 est de classe C ∞ . De plus, si une suite de
5
Cet opérateur est utilisé pour caractériser les fonctions holomorphes d'une variable com-
plexe. Si f (x + iy) = u(x, y) + iv(x, y), alors f est holomorphe si et seulement si Lf = 0.
54 Mathématiques pour les systèmes dynamiques

fonctions harmoniques converge au sens des distributions, alors la limite ne


peut être qu'une fonction harmonique.
(2) Comme l'opérateur de Cauchy-Riemann est un opérateur elliptique,
toute fonction holomorphe solution de l'équation de Cauchy-Riemman est de
classe C ∞ . Si une suite de fonctions holomorphes converge au sens des distri-
butions, alors la limite ne peut être qu'une fonction holomorphe.
2 2
(3) Les solutions de l'équation des ondes ∂∂tu2 = ∂∂zu2 sont de la forme
u(t, z) = u1 (t + z) + u2 (t − z) , où les fonctions u1 et u2 ne sont en géné-
ral que de classe C 2 . Le théorème de régularité ne s'applique pas dans ce cas
puisque l'opérateur des ondes n'est pas elliptique.

1.5. Bibliographie
[BOY 85] Boyd S., Chua L., Fading memory and the problem of approximating
nonlinear operators with Volterra series, IEEE Trans. on Circuits and
Systems, vol. 32, n 11, p. 1150-1161, 1985.

[DOE 74] Doetsch G., Introduction to the theory and application of Laplace trans-
form, Springer Verlag, 1974.
[KAW 72] Kawata T., Fourier analysis in probability theory, Academic Press, 1972.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[SCH 93] Schwartz L., Analyse - tome 4 : théorie de la mesure et applications,
Hermann, 1993.
[SCH 66] Schwartz L., Théorie des distributions, Hermann, 1966.
[WIL 95] Willem M., Analyse harmonique réelle, Hermann, 1995.
[ZAD 63] Zadeh L., Desoer C., Linear system theory, McGraw-Hill, 1963.
Chapitre 2

Calcul opérationnel de Mikusi«ski

L'eet de la condition de compatibilité (...) contribue à la préservation de


la théorie ancienne et familière, non pas en raison d'un quelconque avantage
inhérent  parce qu'elle serait par exemple, mieux fondée dans l'observation que
la nouvelle, ou qu'elle serait plus élégante  mais parce qu'elle est ancienne et
familière. P. Feyerabend, Contre la méthode, Seuil, 1979.

Pour traiter de façon simple et rapide les systèmes d'équations diéren-


tielles, Heaviside, en 1893 [HEA 93], a introduit le calcul opérationnel basé
sur la manipulation, semi-intuitive, de l'opérateur de dérivation p =d/dt. Pour
combler le manque de rigueur de cette méthode qui pouvait conduire à des
conclusions erronées, la transformation de Laplace a été utilisée comme justi-
cation théorique et base du calcul opérationel [HLA 69]. Cependant, comme
le souligne Kailath [KAI 80], la transformation de Laplace réserve quelques
skeletons-in-the-closet. Sans entrer dans les détails, on peut formuler quelques
remarques :
 le calcul de la transformée de Laplace d'une fonction demande la connais-
sance de cette fonction pour toutes les valeurs réelles de son argument ;
 certaines fonctions, comme par exemple exp(t2 ), n'admettent pas de
transformée de Laplace (remarquons au passage que, pour des raisons
purement typographiques, nous noterons indiéremment la fonction ex-
ponentielle exp(t) ou et ) ;
 on ne peut manipuler, dans une même relation, l'argument d'une fonction
et la variable complexe de Laplace ;
 cette variable complexe ne peut servir d'opérateur de dérivation que dans
certaines conditions et par analogie ;
 le calcul opérationnel qui en découle ne peut être utilisé, sauf cas parti-
culiers, que sur des équations diérentielles à coecients constants.
Le calcul opérationnel de Mikusi«ski [MIK 59], dont on peut trouver un
exposé détaillé dans [ERD 71, YOS 84] avec des présentations légèrement dif-
férentes, constitue une alternative élégante à la transformation de Laplace sans
en présenter les inconvénients. Ce calcul est basé sur une opération naturelle

Chapitre rédigé par Frédéric Rotella.


56 Mathématiques pour les systèmes dynamiques

propre aux systèmes linéaires : la convolution. Cela permet d'ores et déjà de


discerner la raison essentielle pour laquelle ce calcul, qui rejoint et consolide le
point de vue de Heaviside, constitue un outil fondamental dans la modélisation
par transfert d'un système linéaire : plutôt que de partir d'une transformation
(Laplace, Carson, Mellin ou autres) et de s'apercevoir a posteriori de propriétés
jouant un rôle similaire à celui d'une dérivation, le calcul de Mikusi«ski part
d'une propriété caractérisant une certaine classe de comportements linéaires.

2.1. L'anneau de convolution des signaux à temps continu

L'importance de l'opération de convolution (voir chapitre 1) pour traduire


le comportement linéaire d'un phénomène a été soulignée par bien des auteurs :
on pourra, sans être limitatif, consulter [DAU 88, DES 75, GOH 70, KAI 80].
Cette particularité, qui a été initialement utilisée par Poisson puis par Dirichlet
ou Volterra [LAC 93], vient essentiellement du théorème de Riesz ([RIC 01]
chapitre 2) ou de la particularisation des fonctions de Green [ZWI 98] pour
certains systèmes. Elle a même été étendue au cas des systèmes non linéaires
[SCH 89].
Considérons l'ensemble C des fonctions f = {f (t)} à valeurs réelles dénies
sur [0, ∞) et intégrables sur tout sous-intervalle borné de [0, ∞). Cet ensemble
comprend les fonctions continues par morceaux et, sauf cas particuliers que
nous mentionnerons, il n'y aura pas lieu de distinguer le cas des fonctions
continues. Les développements suivants pourraient être envisagés dans le cas des
fonctions à valeurs complexes. D'autre part, les intégrales qui seront considérées
devraient l'être, en toute généralité, au sens de Lebesgue. Cependant, pour ne
pas alourdir le texte, la présentation adoptée sera celle d'intégrales de Riemann
et les fonctions seront à valeurs réelles. En résumé, on peut considérer C comme
l'ensemble des signaux réels à temps continu.
En ce qui concerne la notation adoptée, {f (t)} désigne la fonction f alors
que f (t) désigne la valeur réelle prise par f à l'instant t. Par exemple, il y aura
lieu de distinguer le réel α de {α} qui est la fonction constante de valeur α
pour tout t. Ainsi nous emploierons les écritures équivalentes :

(∀t ≥ 0, a(t) = b(t)) ⇔ ({a(t)} = {b(t)}) ⇔ (a = b) , (2.1)

que nous remplacerons par a(t) = b(t) lorsqu'aucune confusion n'est à craindre,
car en toute rigueur cette égalité n'est valable qu'à l'instant t. La fonction
constante particulière h = {1} présentera pour nous une certaine importance,
la notation h rappelant la fonction de Heaviside.
Calcul opérationnel de Mikusi«ski 57

Lorsque l'on munit l'ensemble C des lois :


 somme : f + g = {f (t) + g(t)} ,
 produit de convolution :
Z t  Z t 
fg = f (x)g(t − x)dx = f (t − x)g(x)dx , (2.2)
0 0

on obtient l'anneau commutatif de convolution . Si l'on ajoute la multiplication


par un scalaire : αf = {αf (t)} , cela conduit à la structure d'algèbre puisque
C muni de la somme et de cette mutiplication externe est un espace vectoriel
(chapitre 5 de [RIC 01]). Cependant le calcul opérationnel de Mikusi«ski sera
essentiellement basé sur la structure d'anneau et ses propriétés.
Comme le produit de convolution est associatif, nous pouvons noter :
∀n ∈ N, n > 1, f n = f n−1 f = f f n−1 .

2.1.1. L'opérateur d'intégration


A partir de la dénition du signal h, on a :
 
tn−1
∀n ∈ N, n ≥ 1, h = n
, (2.3)
(n − 1)!
ce qui, compte tenu des propriétés de la fonction eulérienne Γ (chapitre 2 de
[RIC 01]), peut être généralisé sous la forme :
 
tα−1
∀α, Re(α) > 0, hα = . (2.4)
Γ(α)
Théorème 1. ∀α, β, Re(α) > 0, Re(β) > 0, hα hβ = hα+β .
Pour tout f de C, on a :
Z t 
hf = f (x)dx , (2.5)
0

et h apparaît ainsi comme l'opérateur d'intégration du signal {f (t)} . De façon


plus générale, pour tout α tel que Re(α) > 0, on a :
 Z t 
1
α
h f= x f (t − x)dx ,
α−1
(2.6)
Γ(α) 0
 Z t 
1
= (t − x) α−1
f (x)dx ,
Γ(α) 0

qui est l'intégrale de Riemann-Liouville d'ordre α pour f. Ainsi, hα correspond-


t-il à l'opérateur d'intégration fractionnaire d'ordre α [RIC 01].
58 Mathématiques pour les systèmes dynamiques

2.1.2. Diviseurs de zéro

Le signal nul 0 = {0} est l'élément neutre de l'anneau de convolution.


Le théorème de Titchmarsh, ci-après, montre que l'anneau de convolution est
intègre, c'est-à-dire qu'il ne possède pas de diviseurs de zéro.
Théorème 2 (de Titchmarsh). ∀f, g ∈ C, f g = 0 =⇒ f = 0 ou g = 0.
Ce résultat est une forme faible du théorème suivant (appelé également
théorème de Titchmarsh [GOH 70]).
Théorème 3. Soient f et g deux fonctions absolument intégrables sur [0, 1].
Si f g = 0 pour tout t dans (0, 1), alors il existe α dans [0, 1] tel que f et g
soient nulles presque partout respectivement sur [0, α] et [0, 1 − α].
Cela montre que l'intégrité ne peut être assurée si l'on s'intéresse à un
domaine ni.

2.2. Le corps des opérateurs

L'anneau de convolution étant intègre, on peut l'étendre sous la forme


d'un corps algébrique : le corps O des quotients de convolution ou opérateurs.
D'après le théorème de Titchmarsh, l'équation de convolution :

af = b,

où a 6= 0 et b sont dans C, admet au plus une solution, notée f = ab , qui est


le quotient de convolution de b par a. Mais, dans certains cas, par exemple
lorsque b(0) 6= 0, cette solution ne peut appartenir à C.
Par le procédé algébrique usuel (chapitre 5 de [RIC 01]), on construit le
corps des quotients de convolution de C, dans lequel l'équation de convolution
précédente a toujours une solution ab , avec b et a dans C et a 6= 0. Cet en-
semble, noté O, est composé des classes d'équivalence par rapport à la relation
d'équivalence :
b d
= ⇔ ad = bc.
a c

On peut munir cet ensemble, dont les éléments seront appelés opérateurs,
fonctions généralisées [ERD 71] ou hyperfonctions [YOS 84], des lois :
 addition : ab + dc = ad+bc
ac ;
 multiplication par un scalaire α : α ab = αb
a ;
 produit (de convolution) : ab dc = ac
bd
;
Calcul opérationnel de Mikusi«ski 59

qui lui confèrent une structure d'algèbre dont l'élement neutre est 0 = {0} b et
l'élément unité, u = bb , avec dans les deux cas b 6= 0. On peut alors poser :

 a −1 b
, (si ab 6= 0). (2.7)
b a

De plus, comme on peut écrire hf = hf, on obtient l'identication f = hf


h
qui indique que C O.
Remarque 1. On peut étendre l'équation de convolution af = b au cas où a
et b sont dans O (a = nd et b = xy , n, d, x, y dans C et ndy 6= 0). On est alors
ramené par équivalence à l'équation de convolution : nyf = dx, où ny et dx
sont dans C.

2.2.1. Multiplication par un scalaire

Jusqu'à présent la notation retenue pour la multiplication par un scalaire


laissait planer une confusion possible sur le sens de αf, qui ne devait pas être
assimilé à {α} f. Il est maintenant temps de dénir plus proprement cette
opération. L'opérateur de multiplication par un scalaire α, que nous noterons
[α] , doit réaliser l'opération f 7→ {αf (t)} . En particulier, il doit satisfaire
l'équation [α] h = {α} , ce qui donne :

{α}
[α] = .
h

Théorème 4. ∀α, β ∈ C, ∀f ∈ O :

 [α] + [β] = [α + β] ;
[α] [β] = [αβ] ; (2.8)

[α] f = {αf (t)} .

La dernière relation indique bien que [α] est l'opérateur cherché et la


deuxième, que u = [1] .
Comme toute ambiguïté est levée, lorsque aucune confusion ne sera possible
et de façon à simplier les formules, nous écrirons  la plupart du temps α,
y(0), y (k) (T ) à la place de [α] , [y(0)] , y (k) (T ) . D'autre part, comme on peut
identier α à [α], on a C ⊂ O.
60 Mathématiques pour les systèmes dynamiques

2.2.2. L'opérateur de dérivation, p


Soit p l'opérateur1 déni comme solution de l'équation de convolution :

h2 f = h,

c'est-à-dire p = hh2 . De cette équation, on déduit également ph = hh = [1] . On


peut donc écrire p = h−1 et le résultat suivant nous indique que p peut être
considéré comme l'opérateur de dérivation.
Théorème 5. Si f, continue sur [0, ∞), possède une dérivée localement inté-
grable, alors : n o
pf = f (1) (t) + [f (0)] .

Ce résultat se généralise, si f (n) est localement intégrable, sous la forme :

X
n−1
pn f = f (n) + f (i) (0)pn−i−1 ,
i=0
  
où f (n) = f (n) (t) et, en toute rigueur, f (i) (0) désigne f (i) (0) .
En présence d'une discontinuité de première espèce, le théorème précédent
doit légèrement être modié. Soit f une fonction présentant une discontinuité
de première espèce en x et soit s(x) le saut en cette discontinuité :

s(x) = lim f (x + ) − lim f (x − ε);


&0 ε&0

on a alors :
pf = f (1) + [f (0)] + s(x)phx ,
où hx représente l'échelon de Heaviside retardé de x (voir paragraphe 2.3.1).
A partir de l'opérateur hα d'intégration fractionnaire d'ordre α, déni pré-
cédemment, on peut construire l'opérateur de dérivation fractionnaire, pα ,
Re(α) > 0, comme la solution de l'équation de convolution :

hn+α f = hn ,

où n est un entier tel que Re(α) + n > 0, ce qui donne :


hn
pα = . (2.9)
hn+α
1
Habituellement, l'opérateur de dérivation est noté s, mais pour ne pas le confondre avec la
variable complexe de Laplace, nous utilisons p comme Heaviside l'avait initialement proposé.
Calcul opérationnel de Mikusi«ski 61

Cette construction rejoint celle proposée pour la dérivée fractionnaire à


partir de l'intégrale de Riemann-Liouville (chapitre 2 de [RIC 01]). Cela permet
également de montrer facilement que :

∀α, β, Re(α) > 0, Re(β) > 0, pα pβ = pα+β ,

l'extension au cas Re(α) < 0 étant fournie par :


 
−α tα−1
p =h =α
. (2.10)
Γ(α)

2.3. Fonctions d'opérateurs

Nous nous limitons ici à des fonctions d'opérateurs dépendant d'une seule
variable réelle x ∈ I ⊂ R. Une fonction d'opérateur, ou fonction opération-
nelle, f (x), est une application qui à tout x de I fait correspondre l'opé-
rateur f (x), c'est-à-dire qu'il existe deux fonctions a(x) et b(x) de C telles
que a(x)f (x) = b(x). Lorsque f (x) est elle-même dans C, on pourra noter
f (x) = {f (x, t)} . Cette notion est particulièrement importante lorsque l'on
utilise le calcul opérationnel dans le traitement des équations aux dérivées par-
tielles (paragraphe 2.5.4).
On peut dénir une notion de convergence sur les fonctions d'opérateurs,
qui bien-sûr ici ne pourra être qu'une convergence au sens faible vis-à-vis de
la convergence uniforme dans C, puisque f (x) ne peut être dénie que par
l'intermédiaire du produit de convolution. Par exemple, en considérant α réel,
nous avons déjà rencontré l'opérateur d'intégration hα , déni pour α > 0 par
(2.10) et qui a été étendu à α < 0 par :

hn+α
∀α ∈ R, n ∈ N, n + α > 0, hα = . (2.11)
hn

On peut montrer que hα est continue pour tout α au sens de la convergence


des fonctions d'opérateurs et que hn h0 = hn . Par continuité, on pose donc :

h0 = p0 = [1] . (2.12)

La notion de continuité et de convergence permet également de dénir,


lorsque x évolue sur N, la notion de suite ou de série de fonctions d'opérateurs.
Nous n'allons pas détailler ici cet aspect, mais regarder d'autres conséquences
des fonctions d'opérateurs tout aussi importantes pour le calcul opérationnel.
62 Mathématiques pour les systèmes dynamiques

2.3.1. L'opérateur de retard


Soit hx l'échelon de Heaviside retardé de x, x > 0. On a h0 = h et on peut
dénir, pout tout α dans C :

x = h
α−1
hx ,
qui lorsque Re(α) > 0, s'écrit comme le signal hα décalé de x :
( )
0 si 0 ≤ t < x,
hα = (t−x)α−1 . (2.13)
x
Γ(α) si x ≤ t.
Théorème 6. ∀α, β ∈ C, ∀x, y > 0, hα β α+β
x hy = hx+y .
D'après la dénition précédente, on peut dénir l'opérateur h0x = h−1 hx =
phx . Il vérie les propriétés suivantes :
 h00 = [1] ;
 h0x+y = h0x h0y ;
 0 −1
 hx = h0−x ;  
0 si 0 ≤ t < x
 pour f dans C, h0x f = .
f (t − x) si x ≤ t
Cette dernière propriété montre que h0x est l'opérateur de retard de x.

2.3.2. Dérivation et intégration


Soit f (x) une fonction d'opérateur et a une fonction de C telle que af (x)
soit dans C. Alors, on dénit :
 la dérivée de f (x) :
 
dn f (x) −1 ∂ n af (x, t)
= a ; (2.14)
dxn ∂xn
 l'intégrale de f (x) :
Z (Z )
β β
−1
f (x)ϕ(x)dx = a af (x, t)ϕ(x)dx , (2.15)
α α

où ϕ(x) est une fonction de [α, β] dans R absolument intégrable.


Ces opérations vérient toutes les règles usuelles de dérivation et d'intégra-
tion et sont indépendantes du choix de a. A titre d'exemple, pour tout α de C,
pour tout x ≥ 0 et en notant ()0 la dérivée par rapport à x, on a :
0
x ) = −hx
(hα α−1
.
Calcul opérationnel de Mikusi«ski 63

Or, on peut écrire que hα−1


x x . On obtient donc
= hα−1 hx = h−1 hα hx = h−1 hα
l'équation diérentielle vériée par l'opérateur hαx :
0
x ) = −phx ,
(hα α

dont la condition initiale est hα0 = hα . La solution s'écrit sous la forme :


α −px

x = h e .

Nous verrons dans le paragraphe suivant d'autres équations diérentielles


opérationnelles qui seront utiles pour la résolution d'équations aux dérivées
partielles. Auparavant, regardons une conséquence de ce résultat.
P
Théorème 7. Pour tout x ≥ 0, (1 − e−xp)−1 = n≥0 e−nxp.
En notant .c la partie entière, ce théorème permet d'écrire que, pour toute
fonction f de C, on a :
k
t
X
x
(1 − e−xp )−1 f = {f (t − nx)} . (2.16)
n=0

Comme pour les intégrales


R
usuelles,

on peut dénir les intégrales impropres
R +∞
de fonctions d'opérateurs α+∞ , −∞ et −∞ lorsque les limites ont un sens.
R∞
Théorème 8. Pour toute f dans C telle que 0
h0x f (x)dx existe, on a :
Z ∞
h0x f (x)dx = f.
0

Comme on peut écrire h0x = e−px , on obtient la relation :


Z ∞
f= e−px f (x)dx, (2.17)
0

qui permet d'écrire la forme opérationnelle d'une fonction (transformable au


sens de Laplace) en tant que transformée de Laplace. Ce résultat réalise le lien
du calcul opérationnel de Mikusi«ski avec la transformée de Laplace : on peut
ainsi utiliser directement les tables de transformées (tableau 1.1, chapitre 1) et
bénécier de tous ses avantages sans en avoir les inconvénients.

2.3.3. Equations diérentielles d'opérateurs


Considérons l'équation diérentielle :
y 0 (x) = wy(x), (2.18)
64 Mathématiques pour les systèmes dynamiques

où y(x) est une fonction d'opérateurs et w un opérateur. Si cette équation


possède une solution non identiquement nulle, w est un logarithme et la solu-
tion satisfaisant à la condition initiale y(0) = 1 est la fonction exponentielle
exp(wx). Cette fonction vérie la propriété :
exp(wx) exp(wz) = exp(w(x + z)),
et on peut donc écrire :
[exp(wx)]−1 = exp(−wx),

dont e−px est un cas particulier déjà rencontré, tout comme p qui est un
logarithme conduisant, pour x > 0, à :
  2 
√ x x
e− px
= √ exp − . (2.19)
2 πt 3 4t

Dans le cas de l'équation diérentielle avec second membre :


y 0 (x) = wy(x) + f (x), (2.20)
où f (x) est dans C, la solution opérationnelle satisfaisant à la condition initiale
y(x0 ) = y0 , s'écrit de manière habituelle :
Z x
y(x) = y0 exp(w(x − x0 )) + exp(w(x − z))f (z)dz. (2.21)
x0

Ces quelques points indiquent que les équations diérentielles de fonctions


opérationnelles peuvent être traitées comme des équations diérentielles ordi-
naires usuelles.

2.4. Processus générateur d'un signal

Chercher un processus générateur associé à une fonction donnée consiste à


écrire cette fonction à l'aide des opérateurs h ou p. Comme h = p−1 , ils peuvent
être écrits indiéremment en h, ou en p.

2.4.1. Signaux transformables au sens de Laplace


Nous avons mentionné précédemment que si un signal f admet une trans-
formée de Laplace (monolatère) F (s), alors on peut prendre directement :
f = F (p),
Calcul opérationnel de Mikusi«ski 65

et il sut d'utiliser les tables de transformées de Laplace (tableau 1.1 ou


[HLA 69, SPI 78]), pour obtenir, sans aucun calcul, le processus générateur
correspondant.

2.4.2. Fractions rationnelles en p

Toute fraction rationnelle en p, F (p), peut être décomposée en éléments


simples sous la forme :
X
n X
mi
cij
F (p) = E(p) + , (2.22)
i=0 j=1
(p − αi )j

où E(p) représente la partie entière (polynomiale) de F (p).


P
Si E(p) = rk=0 ek pk = {e(t)} = e, alors pour tout l > r, on a h−l (hl e) =
{0} , indiquant que pour tout t > 0, e(t) = 0. En ce qui concerne les autres
termes, on a : p {eαt } = {αeαt } + 1 = [α] {eαt } + 1, de sorte que l'on peut
écrire :
 1
eαt = .
p−α

De façon plus générale, on peut montrer, par exemple par récurrence, que
l'on a pour tout n entier :
 
tn−1 eαt 1
= , (2.23)
(n − 1)! (p − α)n
et on peut ainsi associer un signal à tout processus générateur qui s'écrit sous
la forme d'une fraction rationelle en p (ou h).

2.4.3. Fonctions analytiques


Lorsque le signal f est analytique, on peut l'écrire sous la forme :
 
X t i
{f (t)} = f (i) (0) , (2.24)
 i! 
i≥0
n o
et l'utilisation de hn = tn−1
(n−1)! , pour n > 0, permet de lui associer le proces-
sus générateur : X
f= f (i) (0)hi+1 . (2.25)
i≥0
66 Mathématiques pour les systèmes dynamiques

A titre d'exemple, si l'on considère exp(t2 ), on a :


exp(t2 ) = h(1 + 2h2 + 12h4 + 120h6 + · · · ).

P
Réciproquement, on peut utiliser le résultat suivant : si la série i≥0 xi z i
P
converge pour une valeur z0 de z, alors la série i≥0 xi hi dénit l'opérateur :
X  
ti−1
[x0 ] + xi . (2.26)
(i − 1)!
i≥1

2.5. Calcul opérationnel

Comme cela a été expliqué dans le chapitre précédent, le calcul opérationnel


consiste à remplacer des équations diérentielles par des équations plus simples
à résoudre,
 analyser ou manipuler. Dans cette section, nous noterons y (i) =
y (t) la i-ième dérivée de y = {y(t)} par rapport au temps.
(i)

2.5.1. Equations diérentielles ordinaires à coecients constants


Considérons l'équation diérentielle :
( )
X
n
(i)
ai y (t) = {f (t)} , (2.27)
i=0
P
que l'on peut noter ni=0 ai y (i) = f, avec an 6= 0 et les conditions initiales
y (i) (0) = yi pour i = 0, . . . , n − 1. Comme on a :

X
k−1
k = 1, . . . , n, y (k) = pk y − yi pk−i−1 ,
i=0

on peut donc écrire l'équation diérentielle sous la forme opérationnelle d'une


équation de convolution :
D(p)y = f + NCI (p),
Pn
où D(p) = i=0 ai pi et NCI (p) est un polynôme de degré inférieur à n qui
dépend des conditions initiales. La solution de cette équation s'écrit donc :
f NCI (p)
y= + . (2.28)
D(p) D(p)
Calcul opérationnel de Mikusi«ski 67

Pour obtenir l'expression analytique {y(t)} de cette solution, deux cas sont
à envisager :
 soit on connaît le processus générateur associé à f, alors on obtient le
processus générateur de y qu'il sut d'exprimer ;
 soit on part de f (t) et, par décomposition en éléments simples de D(p) :
X
r X
mi
dij X
r
D(p) = , mi = n,
i=0 j=1
(p − αi )j i=0

on obtient :
XX r m Z t
f i
τ j−1 eαi τ
= dij f (t − τ ) dτ . (2.29)
D(p) i=0 j=1 0 (j − 1)!
Exemple 1. Soit l'équation diérentielle :
∀t ≥ 0, y (2) (t) − 4y(t) = e2t , avec y(0) = 1, y (1) (0) = 1/4. (2.30)

Comme e2t = (p − 2)−1 , on peut écrire :
1 1
(p2 − 4)y = + + p,
p−2 4
1 1 p
y= 2
+ 2 ,
4 (p − 2) (p − 4)

et, d'après la forme des processus générateurs, on obtient pour (2.30) :


 
1 2t
{y(t)} = te + cosh 2t . (2.31)
4
Exemple 2. Soit l'équation diérentielle :
2
∀t ≥ 0, y (1) (t) − y(t) = (2t − 1)et , avec y(0) = 2. (2.32)

Notons au passage2
que l'on ne peut ici utiliser le formalisme de Laplace du fait
de la fonction et . L'utilisation du calcul opérationnel conduit à :
1 hn 2
o i
y= (2t − 1)et + 2
p−1
Z t  n o
2 2
= e(t−x) (2x − 1)ex dx + 2et = et + et . (2.33)
0

Exemple 3. Soit l'équation diérentielle :


∀t ≥ 0, y (2) (t) + y(t) = f (t), avec y(0) = y(T ) = 0, (2.34)
68 Mathématiques pour les systèmes dynamiques

pour laquelle on pose provisoirement y (1) (0) = α. On obtient :


f α
y= + = {sin t} f + {α sin t}
p2 + 1 p2 + 1
Z t 
= sin(t − x)f (x)dx + α sin t .
0

Pour satisfaire à la condition terminale y(T ) = 0, α doit vérier :


Z T
sin(T − x)f (x)dx + α sin T = 0.
0

Lorsque sin T 6= 0, la valeur de α est déterminée de façon unique ; par contre,


lorsque sin T = 0, la solution précédente ne résoudRT
l'équation diérentielle
(2.34), indépendamment de la valeur de α, que si 0 f (x) sin xdx = 0.

2.5.2. Equations intégrales de convolution


Considèrons les équations intégrales de première espèce :
Z t
∀t ≥ 0, h(t − x)y(x)dx = f (t), (2.35)
0

et de deuxième espèce :
Z t
∀t ≥ 0, y(t) + h(t − x)y(x)dx = f (t), (2.36)
0

qui sont des cas particuliers d'équations intégrales de Volterra. Le calcul opé-
rationnel permet une écriture sous les formes respectives ky = f (pour (2.35))
et (1 + k)y = f (pour (2.36)).
Cela conduit aux solutions : y = fk (pour (2.35)) et y = 1+k
f
(pour (2.36)),
qui peuvent être des fonctions ou des opérateurs, mais qui dans tous les cas
sont uniques.
Exemple 4. Soit l'équation intégrale :
Z t
∀t ≥ 0, sin(t − x)y(x)dx = αt + t2 , (2.37)
0

pour laquelle on utilise {sin t} = 1
p2 +1 et αt + t2 = αh2 + 2h3 . On obtient :

y = (p2 + 1)(αh2 + 2h3 ) = α + 2 + αt + t2 . (2.38)
Si α = 0, y est dans C, par contre si α 6= 0, y est un opérateur.
Calcul opérationnel de Mikusi«ski 69

2.5.3. Equations à retard


L'utilisation de l'opérateur de retard permet de traiter les équations dié-
rentielles linéaires où apparaissent des termes retardés.
Exemple 5. Considérons l'équation diérentielle (avec w > 0) :
∀t ≥ 0, y (1) (t) − y(t − w) = f (t), (2.39)
avec la condition initiale, pour 0 ≤ t ≤ w, y(t − w) = g(t). En considérant g
dénie par :  
g(t) si t ≤ w,
g=
0 si t > w,
on peut écrire :

0 si t ≤ w,
y(t − w) − g(t) =
y(t − w) si t > w,
soit {y(t − w)} − g = e−wp y. Comme d'autre part, y (1) = py − y(0), avec
y(0) = g(w), l'équation (2.39) se met sous la forme :
(p − e−wp )y = f + g + g(w),
soit :
y = (1 − e−wp h)−1 h(f + g + g(w)),
et, en utilisant : X
(1 − e−wp h)−1 = e−wpn hn ,
n≥0

on obtient la solution de (2.39) :


X
y= e−wpn hn+1 (f + g + g(w)). (2.40)
n≥0

2.5.4. Equations aux dérivées partielles


Nous ne verrons le principe du calcul opérationnel que sur l'équation des
ondes, mais un traitement analogue peut être appliqué aux autres types d'équa-
tions aux dérivées partielles (en abrégé, EDP) linéaires, comme par exemple
l'équation de la chaleur ou celle des télégraphistes. Notons que, dans ce cadre,
le calcul opérationnel de Mikusi«ski a été utilisé dans [FLI 97, FLI 99], pour
résoudre de façon élégante des problèmes de platitude. Nous ne considérons ici
que le cas où le domaine spatial du problème est borné. Dans le cas contraire
(domaine pouvant être considéré comme inni) on peut envisager, sur les mêmes
principes, de construire un calcul  doublement  opérationnel par rapport à
la variable temporelle et par rapport à la variable spatiale [ROT 96].
70 Mathématiques pour les systèmes dynamiques

Exemple 6. Soit l'équation des ondes unidimensionnelle :


yxx (x, t) = ytt (x, t), x ∈ [α, β] , (2.41)
munie des conditions initiales, y(x, 0) = ϕ(x), yt (x, 0) = φ(x) et des conditions
limites y(α) = {y(α, t)} = a, y(β) = {y(β, t)} = b. L'utilisation du calcul
opérationnel conduit à écrire que la solution y(x) = {y(x, t)} est une fonction
d'opérateur solution de l'équation diérentielle :
y 00 (x) = p2 y(x) − pϕ(x) − φ(x),
avec les conditions terminales : y(α) = a, y(β) = b. Plaçons-nous dans le cas
(i) où α = 0, β = L, a = 0, ϕ(x) = φ(x) = 0. On obtient alors l'équation
diérentielle :
y 00 (x) − p2 y(x) = 0, avec y(0) = 0, y(L) = b,
dont la solution s'écrit :
exp − e−xp
y(x) = b.
eLp − e−Lp
Comme on a la relation :
exp − e−xp X
−Lp
= e−((2k+1)L−x)p − e−((2k+1)L+x)p ,
e −e
Lp
k≥0

la solution devient :
X
y(x) = e−((2k+1)L−x)p b − e−((2k+1)L+x)p b,
k≥0

soit :
X
y(x, t) = (b(t − (2k + 1)L + x) + b(t − (2k + 1)L − x)) . (2.42)
k≥0

Cette expression traduit la superposition de deux signaux : un signal direct


et un signal rééchi. Les autres cas : (ii) b = 0, ϕ(x) = φ(x) = 0 ; (iii)
φ(x) = 0, a = b = 0 ; et (iv) ϕ(x) = 0, a = b = 0 pourraient être traités de
façon similaire et la solution générale construite par superposition des solutions
élémentaires obtenues dans chaque cas.

2.6. Systèmes et transferts

2.6.1. Opérateur de transfert


Lorsque le comportement d'un système linéaire peut être décrit par une
équation de convolution :
s = σe,
Calcul opérationnel de Mikusi«ski 71

où s et e, e 6= 0, représentent respectivement les signaux de sortie et d'entrée du


système (que nous prendrons pour le moment dans C) et où σ est l'opérateur
solution de l'équation précédente, soit σ = se . Par hypothèse, cet opérateur σ est
indépendant du couple (s, e) : ainsi, pour tout autre couple sortie-entrée (y, u),
nous aurons la relation : su = ey et σ = es = uy est l'opérateur de transfert du
système. Contrairement à l'usage, nous n'appelons pas σ fonction de transfert,
car suivant les développements précédents, cet opérateur peut très bien ne pas
être dans C. Il sut, pour s'en convaincre de penser à la multiplication scalaire
qui traduit l'eet d'un gain.
Considérons les processus générateurs des signaux d'un couple entrée-sortie
particulier non trivial (s, e) d'un système :
Ns (p) Ne (p)
s= , e= . (2.43)
Ds (p) De (p)

Notons que ceci est toujours possible puisque les entrées et sorties d'un
système, en tant que signaux, sont nécéssairement solutions d'une équation de
convolution. D'autre part, nous avons pris le parti de les exprimer à l'aide de
l'opérateur p, mais on aurait tout aussi bien pu choisir h.
On obtient alors :
Ns (p) Ne (p)
=σ , (2.44)
Ds (p) De (p)
qui conduit, en posant N (p) = Ns (p)De (p) et D(p) = Ne (p)Ds (p), à l'équation
de convolution N (p) = D(p)σ, correspondant à l'opérateur de transfert du
système :
N (p)
σ= .
D(p)

Remarquons que cette dernière expression n'est qu'une écriture. En eet,


pour un couple entrée-sortie (y, u) du système, l'écriture :
N (p) N (p)
y= u, ou bien {y(t)} = {u(t)} ,
D(p) D(p)

que l'on peut représenter par le schéma fonctionnel suivant (où les parenthèses
sont omises mais elles devraient y être en toute rigueur) :

u(t) - N (p) - y(t)


D(p)
72 Mathématiques pour les systèmes dynamiques

correspond en fait à la relation :

D(p)y = N (p)u.

Si l'on note cette relation de convolution sous la forme :


 
  y
D(p) −N (p) = 0,
u

cela relie l'opérateur de transfert d'un système à la notion de générateur d'un


système de Blomberg et Yrilen [BLO 83] ou à celle de représentation AR de
Willems [WIL 86], propre à tout système linéaire, invariant temporellement et
complet.
Nous ne nous étendrons pas sur ce point, mais en utilisant les opérations
dénies sur le corps des quotients de convolution, l'ensemble des opérateurs de
transferts scalaires est fermé pour les opérations de somme, produit et multi-
plication par un scalaire. Ces opérations correspondent aux opérations usuelles
de mise en parallèle, mise en série et multiplication par un gain sur les sys-
tèmes. Le calcul opérationnel ainsi déni conserve toute sa cohérence. On peut
alors utiliser toutes les propriétés algébriques pour la commande des systèmes
linéaires et même envisager, comme il a été proposé dans [DES 80], d'utili-
ser un sous-corps de O, le corps des opérateurs stables. De façon plus précise,
l'opérateur de transfert d'un système est déni sous la forme :
 −1
N (p) D(p)
σ= , (2.45)
∆(p) ∆(p)

où ∆(p) est un polynôme dont les zéros sont à partie réelle négative.

2.6.2. Quelques cas particuliers


(p)
A partir de l'opérateur de transfert d'un système, N
D(p) , la sortie en réponse
à une entrée e est obtenue par le produit de convolution :

N (p)
s= e,
D(p)

qui peut être traité comme dans le cas des équations diérentielles. On peut
cependant distinguer plusieurs cas particulièrement importants.
Calcul opérationnel de Mikusi«ski 73

Transmittance isochrone

La transmittance isochrone ou réponse fréquentielle est obtenue lorsque :


1 
e= = ejωt ,
p − jω
ce qui donne :
N (p) 1 X(p) [α(ω)]
s= = + , (2.46)
D(p) p − jω D(p) p − jω
où X(p) est un processus générateur issu de la décomposition en éléments
(jω)
simples de s et dont l'expression n'a pas à être précisée ici, et α(ω) = N D(jω) .
Lorsque le signal associé au processus générateur X(p)
D(p) tend vers 0 (on peut
parler de stabilité asymptotique du système) alors, lorsque t → ∞, s(t) tend
asymptotiquement vers le signal associé au processus générateur [α(ω)]
p−jω , soit :
n o
ρ(ω)ej(ωt+ϕ(ω)) ,

où ρ(ω) = |α(ω)| et ϕ(ω) = arg(α(ω)). La transmittance isochrone, obtenue en


posant p = jω dans l'opérateur de transfert permet, par les quantités ρ(ω) et
ϕ(ω), de construire des représentations fréquentielles des systèmes.

Gain statique

Pour e = h (ce qui correspond à poser ω = 0 dans le paragraphe précédent)


on obtient la réponse indicielle :
N (p) Y (p)
s= h= + [α] h, (2.47)
D(p) D(p)
où Y (p) est un processus générateur dont l'expression n'a pas à être précisée
(0) Y (p)
ici, et α = ND(0) . Lorsque le signal associé au processus générateur D(p) tend
vers 0, alors, lorsque t → ∞, s(t) tend asymptotiquement vers le signal associé
au processus générateur [α] h, soit :
 
N (0)
,
D(0)
(0)
où la quantité N
D(0) représente le gain statique du système et peut être directe-
ment obtenue par :
   
N (p) N (p)
α= = ph = (ps)p=0 .
D(p) p=0 D(p) p=0
74 Mathématiques pour les systèmes dynamiques

On vient donc de montrer le résultat suivant, bien connu : si s correspond


à un processus générateur asymptotiquement stable, alors :
s
s(∞) = lim ps = lim . (2.48)
p→0 h→∞ h

2.6.3. Systèmes multi-entrées multisorties


Pour traiter le cas des systèmes à plusieurs entrées et plusieurs sorties, on
peut considérer les signaux à valeurs sur Cn , f = [f1 , . . . , fn ]T , avec pour
i = 1, . . . , n, fi ∈ C. Pour ne pas alourdir les notations, on considèrera que la
sortie s et l'entrée e du système linéaire sont dans Cn . Par superposition et
linéarité, il existe une matrice M de On×n telle que :
s = M e,

où M = [mij ] et les mij = ndijij sont les opérateurs de transferts élémentaires dé-
nis par les n2 relations : dij si = nij ej , (i, j) ∈ {1, . . . , n}2 . Nous ne détaillerons
pas non plus cet aspect du calcul opérationnel, mais comme les numérateurs
et dénominateurs de M appartiennent à l'anneau C, on peut appliquer à M
toutes les opérations utilisables sur les matrices rationnelles [RIC 01, ROT 95].
On peut donc construire, par des opérations algébriques, des factorisations
droite et gauche de l'opérateur matriciel M :
 factorisation droite : M = Nd Dd−1 ;
 factorisation gauche : M = Dg−1 Ng ;
où Nd , Ng , Dd , Dg sont dans On×n . Ces factorisations sont irréductibles si
(Nd , Dd ) et (Ng , Dg ) sont premières entre elles.
Ces factorisations correspondent en fait aux relations de convolution :
 Dg s = Ng e, pour la factorisation gauche ;
 s = Nd z, Dd z = e, pour la factorisation droite.

2.7. Cas des signaux à temps discret

En utilisant l'opérateur de retard déni dans le cadre des signaux à temps


continu, Mikusi«ski a traité la résolution des équations de récurrence en les
transformant en équations à temps continu. Dans ce qui suit, nous allons voir
brièvement que la construction utilisée pour le temps continu peut être adaptée
lorsque le temps est discret, c'est-à-dire lorsqu'il évolue sur N et non plus sur
[0, ∞).
Calcul opérationnel de Mikusi«ski 75

2.7.1. Anneau et quotients de convolution


On considère maintenant l'ensemble D des signaux à temps discret, c'est-à-
dire des suites, a = {ak } , à valeurs réelles et dénies pour k entier. Encore une
fois, on pourrait raisonner sans restriction sur les suites complexes. Parmi ces
suites on peut distinguer les signaux particuliers :

ri = rki = (1 si k = i et 0 sinon) , (2.49)
qui forment une base de D :
X
∀a ∈ D, a= ai r i . (2.50)
i∈N

Remarque 2. Si l'on remplace formellement ri par z −i , on retrouve la notion


de transformée en z de la suite a [JUR 64], avec de légères mais importantes
diérences : c'est qu'ici, nous avons une égalité et non un isomorphisme et
qu'aucune condition de convergence n'est exigée.
Munissons
nP D de lao somme, a + b = {ak + bk } et du produit de convolution,
: nous obtenons une structure d'anneau commutatif.
k
ab = j=0 aj bk−j
Comme le théorème de Tichmarsch est également valable, ab = 0 ⇒ a = 0 ou
b = 0, on peut construire le corps des quotients de convolution ou corps des
opérateurs discrets OD . Les éléments de OD sont les solutions des équations
de convolution af = b où a 6= 0 et b sont dans D, soit f = ab .
En particulier, en posant r = r1 , on obtient :
 
b0 = 0,
ar = b = (2.51)
bk = ak−1 , pour k > 0,

c'est-à-dire que r représente l'opérateur de retard [KUƒ 79] et la notation pré-


cédente ri , pour i > 0, est compatible avec le produit de convolution : ri+1 = ri r
pour i ≥ 0. Nous verrons dans quelques lignes qu'elle l'est également pour i = 0.
P
En conséquence de cette remarque, l'écriture a = i∈N ai ri constitue la
notion de processus générateur des signaux discrets et, compte tenu de la re-
lation établie avec la transformée en z , ces processus générateurs peuvent être
obtenus, dans le cas de signaux admettant une transformée en z , en utilisant
directement les tables de transformées en z [JUR 64] et en posant z −1 = r.

2.7.2. Quelques opérateurs


La multiplication par un scalaire α conduit à l'opérateur correspondant [α]
et on a [1] = u, élément neutre de la convolution discrète. Si l'on procède à
76 Mathématiques pour les systèmes dynamiques

la convolution r0 a, on obtient bien sûr a, ce qui implique que l'on peut poser
r0 = [1].
En prenant la solution de l'équation de convolution :

r2 f = r, (2.52)

on dénit l'opérateur d'avance q = r


r2 et l'on a qr = u.
Soit b le signal de D construit à partir du signal a par b = {a1 , a2 , . . .} .
Dans ces conditions, on a :
rb = a − [a0 ],
dont on déduit que pour tout a de D, on a la relation :

qa = {ak+1 } + [a0 ]q. (2.53)

On pourrait également dénir d'autres opérateurs, comme par exemple :


 l'opérateur de sommation numérique, I :
 
Xk 
Ia = ak , (2.54)
 
j=0

que l'on peut relier à r par l'identité : Ia − rIa = a, soit I = (1 − r)−1 .


On peut montrer que I est dans D et est égal au signal constant égal à 1 ;
 l'opérateur aux diérences, δ , solution de l'équation de convolution :

I 2 δ = I, (2.55)

soit δ = I −1 = 1 − r. Cet opérateur est aussi dans D et est égal au signal


{1, −1, 0, 0, . . .}.

2.7.3. Calcul opérationnel


Le calcul opérationnel est utilisé à deux niveaux : la résolution des équations
de récurrence et la manipulation des opérateurs de transferts. Comme ce dernier
point est strictement identique à ce que nous avons vu pour le temps continu,
nous ne le développerons pas. Nous allons juste regarder rapidement un exemple
simple de traitement d'équation de récurrence.
Exemple 7. Considérons l'équation de récurrence :
k ∈ N, yk+1 − αyk = ak, avec α ∈ R, y0 = β. (2.56)
Calcul opérationnel de Mikusi«ski 77

L'utilisation du calcul opérationnel conduit à écrire cette équation sous la


forme :
(q − α)y = βq + a,
et à la solution :
y = (1 − αr)−1 (β + ar).

Comme on peut montrer que (1 − αr)−1 = αk , on obtient :
 
 0 pour k = 0
y = βα k
+ Pk .
j=0 α ak−j−1 pour k > 0
j

De même que dans le cas des signaux à temps continu, le calcul opérationnel
de Mikusi«ski constitue une base rigoureuse permettant l'emploi des propriétés
algébriques pour la commande des systèmes linéaires à temps discret [KUƒ 79,
KUƒ 91].

2.8. Bibliographie
[BLO 83] Blomberg H., Ylinen R., Algebraic theory for multivariable linear sys-
tems, Academic Press, 1983.
[DAU 88] Dautray R., Lions J.L., Analyse mathématique et calcul numérique, t.
6, Masson, 1988.
[DES 75] Desoer C.A., Vidyasagar M., Feedback systems : input-output proper-
ties, Academic Press, 1975.
[DES 80] Desoer C.A., Liu R.W., Murray J., Saeks R., Feedback system
design : the fractional representation approach to analysis and synthesis,
IEEE Trans. on Aut. Control, vol. 25, n◦ 3, p. 399-412, 1980.
[ERD 71] Erdélyi A., Calcul opérationnel et fonctions généralisées, Dunod, 1971
(trad. de Operational calculus and generalized functions, Holt, Rinehard
and Winston, 1962).
[FLI 97] Fliess M., Mounier H., Rouchon P., Rudolph, J., Systèmes linéaires
sur les opérateurs de Mikusi«ski et commande d'une poutre exible,
ESAIM Proc., vol. 2, p. 183-193, 1997.
[FLI 99] Fliess M., Mounier H., Tracking control and π -freeness of innite di-
mensional linear systems, in Dynamical systems, control, coding and com-
puter vision, Picci G., Gilliam D.S., Eds, p. 45-68, Birkhaüser, 1999.
[GOH 70] Gohberg M.G., Kren, Theory and applications of Volterra operators
in Hilbert space, American Mathematical Society, 1970.
[HEA 93] Heaviside O., Electromagnetic theory, I-III, London, 1893.
[HLA 69] Hladik J., La transformation de Laplace, Masson, 1969.
[JUR 64] Jury E.I., Theory and application of the z -transform method, John Wiley,
1964.
[KAI 80] Kailath, Linear systems, Prentice Hall, 1980.
78 Mathématiques pour les systèmes dynamiques

[KUƒ 79] Ku£era V., Discrete linear control : a polynomial approach, Wiley Inter-
sciences, 1979.
[KUƒ 91] Ku£era V., Analysis and design of discrete linear control systems, Pren-
tice Hall, 1991.
[LAC 93] Lachand-Robert T., Analyse harmonique, distributions, convolution,
Techniques de l'ingénieur, T. AF1, A142, Dunod, 1993.
[MIK 59] Mikusi«ski J., Operational calculus, Pergamon Press, 1959.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[ROT 96] Rotella F., Zambettakis I., Mikusi«ski operational calculus for distri-
buted parameter systems, IEEE-SMC Conf. CESA'96, p. 975-979, 1996.
[ROT 95] Rotella F., Borne P., Théorie et pratique du calcul matriciel, Technip,
1995.
[SCH 89] Schetzen M., The Volterra and Wiener theories of nonlinear systems,
Krieger Publisihng Company, 1989.
[SPI 78] Spiegel M.R., Formules et tables de mathématiques, Mac Graw-Hill,
1978.
[WIL 86] Willems J.C., From time series to linear systems, Automatica, part I :
vol. 22, n◦ 5, p. 560-580, 1986, part II : vol. 22, n◦ 6, p. 675-694, 1986,
part III, vol. 23, n◦ 1, p. 87-115, 1987.
[YOS 84] Yosida K., Operational calculus : a theory of hyperfunctions, Springer
Verlag, 1984.
[ZWI 98] Zwillinger D., Handbook of dierential equations, Academic Press, 1998.
Chapitre 3

Probabilités et éléments de calcul stochastique

3.1. Dénitions générales

Nous donnons dans cette section quelques éléments succincts de la théorie


des probabilités : celle-ci est fondée sur la théorie de la mesure et le lecteur se
reportera avec prot aux livres [RIC 01, SCH 93]. Cette section introductive
contient essentiellement des dénitions ; nous présenterons des illustrations de
ces diérentes notions dans la suite du chapitre.

3.1.1. Espace de probabilité


Soit un espace abstrait Ω, appelé space des épreuves. Un élément ω de Ω
est appelé une épreuve ou réalisation : ω correspond au résultat d'une expé-
rience aléatoire. L'ensemble Ω est souvent appelé l'ensemble des épreuves ou des
réalisations. L'espace Ω dépend bien entendu de l'expérience aléatoire que l'on
cherche à modéliser. Nous verrons des exemples dans la suite. Nous considérons
sur cet ensemble d'épreuves un ensemble de parties F , muni d'une structure
de tribu.
Dénition 1 (Tribu). Une tribu F est un ensemble de parties de Ω vériant
les propriétés suivantes :

1. Ω ∈ F ,
2. si A ∈ F , alors Ac ∈ F , où Ac est le complémentaire de A, Ac , Ω \ A =
{x ∈ Ω, x 6∈ A} (stabilité par passage au complémentaire),
S
3. si (An , n ∈ N) est une suite de parties de Ω, alors, n∈N An ∈ F (stabilité
par réunion dénombrable).
Un élément d'une tribu s'appelle un événement (en théorie de la mesure, de
tels éléments sont appelés ensembles mesurables).
Deux événements A et B sont dits incompatibles si A ∩ B = ∅. L'ensemble
vide ∅ est appelé l'événement impossible . A l'inverse, Ω est l'événement certain.

Chapitre rédigé par Eric Moulines, Jamal Najim et Pierre Priouret.


80 Mathématiques pour les systèmes dynamiques

Le couple (Ω, F), constitué d'un ensemble d'épreuves et d'une tribu d'événe-
ments, est un espace probabilisable. L'ensemble P(Ω) des parties de Ω est une
tribu (tribu discrète ) sur Ω qui contient n'importe quelle tribu F de Ω. De
même, l'ensemble {∅, Ω} est aussi une tribu (tribu grossière ) contenue cette
fois dans toutes les tribus dénies sur Ω.
Remarquons que l'intersection d'une famille quelconque de tribus est une
tribu et que toute classe de parties A de Ω est contenue dans la tribu discrète
P(Ω). Cela nous permet de dénir la notion suivante.

Dénition 2 (Tribu engendrée, σ(A)). La tribu engendrée par une classe


de parties A de Ω, notée σ(A) est la plus petite tribu contenant A.
La tribu engendrée σ(A) est aussi l'intersection de toutes les tribus conte-
nant A.
La notion de tribu borélienne est liée à la structure  topologique  de
l'ensemble de base : c'est la tribu engendrée par l'ensemble des ouverts de la
topologie. Nous considérerons dans ce chapitre uniquement la tribu borélienne
de Rd , en commençant par le cas le plus simple de la droite réelle R.

Dénition 3 (Tribu borélienne). La tribu borélienne ou tribu de Borel de


R est la tribu engendrée par la classe des intervalles ouverts de R. On la note
B(R). Un élément de cette tribu est appelé une partie borélienne ou un borélien.

Tout intervalle ouvert, fermé, semi-ouvert, appartient à B(R). Il en est de


même de toute réunion nie ou dénombrable d'intervalles (ouverts, fermés, ou
semi-ouverts). La tribu B(R) est aussi la tribu engendrée par l'une des quatre
classes suivantes d'ensembles :

I = {] − ∞, x], x ∈ R}, I 0 = {] − ∞, x]; x ∈ Q},


J = {] − ∞, x[, x ∈ R}, J 0 = {] − ∞, x[; x ∈ Q},

et, de façon similaire, la tribu borélienne B(Rd ) de Rd est la tribu engendrée


Q
par les rectangles ouverts di=1 ]ai , bi [.
Le théorème suivant sera d'un usage constant dans la suite.

Théorème 1 (Classe monotone). Soient C ⊂ M ⊂ P(Ω). On suppose que :


 C est stable par intersection nie,
 Ω ∈ M et pour A, B ∈ M, A ⊂ B implique que B \ A ∈ M,
 M est stable par limite croissante.
Alors, σ(C) ⊂ M.
Probabilités et calcul stochastique 81

3.1.2. Probabilité
Dénition 4 (Probabilité). On appelle probabilité sur (Ω, F ), une applica-
tion P : F → [0, 1], qui vérie les propriétés suivantes :

1. P(Ω) = 1,
2. (σ-additivité) si (An , n ∈ N) est une suite d'éléments de F deux à deux
disjoints (c'est-à-dire : Ai ∩ Aj = ∅ pour i 6= j ), alors :
! ∞
[ X
P Ai = P(Ai ). (3.1)
n∈N i=0

On vérie les propriétés suivantes, An , A et B étant des événements :

1. si A ⊂ B , alors P(A) ≤ P(B),


2. P(Ac ) = 1 − P(A),
3. P(A ∪ B) = P(A) + P(B) − P(A ∩ B),
4. si An % B, alors P(An ) % P(A),1
5. si An & A, alors P(An ) & P(A),
S P
6. P( n An ) ≤ n P(An ).
Dénition 5 (Ensemble négligeable, propriété P-p.s.). On dit qu'un en-
semble A ⊂ Ω est P-négligeable (ou plus simplement négligeable, s'il n'y a pas
d'ambiguïté sur la mesure de probabilité) s'il existe un ensemble B ∈ F tel
que A ⊂ B et P(B) = 0. Une propriété est dite P-presque sûre (en abrégé,
P-p.s.), si la propriété est vériée sur un ensemble dont le complémentaire est
P-négligeable.
Remarquons que les ensembles négligeables ne sont pas nécessairement des
éléments de la tribu F .
Dénition 6 (Espace de probabilité). Le triplet (Ω, F , P) dénit un space
de probabilité.
Dénition 7 (Tribu complète). On dira que la tribu F est c omplète si tous
les ensembles négligeables de Ω sont éléments de F .
Il est facile de construire une tribu F 0 qui contient F et d'étendre P à
F 0 de telle sorte que F 0 soit complète pour l'extension de P. Pour éviter des
complications techniques inutiles, nous supposerons désormais que toutes les
tribus que nous manipulerons sont complètes.
1 Dans tout ce chapitre, la notation % désigne la limite par valeurs inférieures, c'est-à-

dire : lim , lim ou, pour des ensembles : lim , lim . La notation & est
xn %x xn → x An %A An → A
xn ≤ x An ⊆ A
dénie similairement, avec xn ≥ x ou An ⊇ A.
82 Mathématiques pour les systèmes dynamiques

Rappelons pour conclure ce paragraphe deux résultats techniques d'usage


constant.
Dénition 8 (π−système). On appelle π−système une famille d'ensembles
stable par intersection nie.
Théorème 2 (π−système). Soient µ et ν deux probabilités sur (Ω, F ) et
soit C ⊂ F un π−système contenant Ω. On suppose que pour tout C ∈ C ,
µ(C) = ν(C). Alors µ(A) = ν(A) pour tout A ∈ σ(C).
Dénition 9 (Algèbre). Soit E un ensemble. Une famille E0 de sous-
ensembles de E est appelée algèbre si (i) E ∈ E0 , (ii) F ∈ E0 ⇒ F c ∈ E0
et (iii) F, G ∈ E0 ⇒ F ∪ G ∈ E0 .
A la diérence des tribus, nous ne supposons pour les algèbres que la stabilité
par union nie (et non innie dénombrable). Une fonction d'ensembles µ dénie
sur E0 est dite σ−additive si, pourStoute union dénombrable
S d'éléments
P Fn ∈ E0 ,
Fn ∩ Fm = ∅ si n 6= m telle que n Fn ∈ E0 , on a µ ( n Fn ) = n µ(Fn ).
Théorème 3 (d'extension de Carathéodory). Soit E0 une algèbre sur un
ensemble E et µ0 : E0 → R+ une fonction σ−additive telle que µ0 (E) < ∞.
Alors, il existe une unique mesure µ sur E , σ(E0 ) telle que µ = µ0 sur E0 .
Exemple 1. Pour illustrer ce théorème, rappelons la construction de la mesure
de Lebesgue sur l'intervalle [0, 1] (voir [RIC 01] pages 53-55). Soit C l'ensemble
des parties de [0, 1] pouvant s'écrire sous la forme d'une union nie d'intervalles
ouverts à gauche et fermés à droite :
F ∈C ⇔ F =]a1 , b1 ] ∪ · · · ∪]ar , br ].
On vérie facilement que C est une algèbre. La tribu engendrée par C , σ(C) =
B([0, 1]), est la tribu borélienne sur [0, 1]. Pour F ∈ F0 considérons :
X
λ0 (F ) = (bi − ai ).
i

On vérie que λ0 est une fonction positive et additive. On peut démontrer que
λ0 est σ−additive, c'est-à-dire que S
pour toute union dénombrable
P d'ensembles
Fi ∈ F0 disjoints 2 à 2 et tels que i Fi ∈ F0 , on a λ0 (F ) = i λ0 (Fi ) (cette
partie de la preuve n'est pas immédiate). Le théorème de Carathéodory permet
de montrer que λ0 a une extension unique λ sur B([0, 1]), appelée mesure de
Lebesgue sur [0, 1].

3.1.3. Variables aléatoires


Dénitions

Soient (Ω, F) et (E, E) deux espaces probabilisables et f une application de


Ω dans E . L'image réciproque d'une partie A de E par f est la partie de Ω
Probabilités et calcul stochastique 83

notée f −1 (A) dénie par :


f −1 (A) = {ω ∈ Ω : f (x) ∈ A} . (3.2)

Les propriétés suivantes, où A et les ensembles Ai sont des parties quel-


conques de F et I est un ensemble ni, dénombrable, ou inni non dénombrable,
se vérient immédiatement :
c
f −1 (E) = Ω, f −1 (∅) = ∅, f −1 (Ac ) = f −1 (A) , (3.3)
! !
[ [ \ \
f −1 Ai = f −1 (Ai ), f −1 Ai = f −1 (Ai ).
i∈I i∈I i∈I i∈I

Si A est une classe quelconque de parties de E , on note f −1 (A) la classe de


parties de Ω dénie par : f −1 (A) = f −1 (A) : A ∈ A . Il découle immédiate-
ment des propriétés précédentes que si E est une tribu de E , alors f −1 (E) est
une tribu de Ω.
Dénition 10 (Variable aléatoire, v.a.). Soient (Ω, F ) et (E, E) deux
espaces probabilisables et X une application de Ω dans E . On notera
R+ l'ensemble des¯ réels positifs et R = R ∪ {∞}.
On dit que X est une v.a. (variable aléatoire) à valeurs dans (E, E) si la tribu
X −1 (E) est contenue dans F , ce qui revient à dire que X −1 (A) ∈ F pour tout
ensemble A ∈ E . On dit que X est une v.a. :
 réelle lorsque E = R̄ et E = B(R̄) (la tribu borélienne de R̄) ;
 positive lorsque E = R̄+ et E = B(R̄+ ) (l'ensemble des v.a. positives sera
noté F + ) ;
 vectorielle (ou un vecteur aléatoire) lorsque E = R̄d et E = B(R̄d ) ;
 discrète lorsque le cardinal de l'ensemble E est ni ou dénombrable, la
tribu E étant choisie comme l'ensemble des parties de E (soit : E = P(E)).
Dénition 11 (Tribu engendrée par une famille de v.a.). Soit (Xi , i ∈ I)
une famille de v.a. à valeurs dans (E, E), I étant un ensemble quelconque, non
nécessairement dénombrable.On appelle tribu engendrée par (Xi , i ∈ I) la plus
petite tribu X de Ω qui soit telle que toutes les v.a. Xi soient X -mesurables.
A titre d'illustration, soit Y : Ω → (R, B(R)) une v.a. Alors σ(Y ), la tribu
engendrée par la v.a. Y, est la tribu engendrée par la famille des ensembles
Y −1 (B), où B ∈ B(R) est un ensemble borélien, soit :

σ(Y ) , Y −1 (B), B ∈ B(R) .

Une v.a. Z : Ω → R est σ(Y )−mesurable si et seulement s'il existe une


fonction borélienne f : R → R telle que Z = f (Y ) (voir, par exemple, [WIL 91]
page 36). De même, si Y1 , · · · , Yn : Ω → R sont des v.a., nous avons :

σ(Y1 , . . . , Yn ) = σ Yk−1 (Bk ), Bk ∈ B(R), k = 1, . . . , n ,
84 Mathématiques pour les systèmes dynamiques

et Z : Ω → R est σ(Y1 , · · · , Yn ) mesurable si et seulement s'il existe une fonction


borélienne f : Rn → R telle que Z = f (Y1 , · · · , Yn ).
Dénition 12 (Limites inférieure et supérieure). Soit {Xn} une suite de
v.a. de (Ω, F) → (R̄, B(R)). On appelle limite supérieure et limite inférieure
de la suite de v.a. {Xn }n≥1 les applications suivantes :
limsupn Xn (ω) , lim & sup Xm (ω) = inf sup Xm (ω), (3.4)
n m≥n n m≥n

liminf n Xn (ω) , lim % inf Xm (ω) = sup inf Xm (ω). (3.5)


n m≥n n m≥n

Notons que les applications limsupn Xn et lim inf n Xn dénies ci-dessus sont
a priori à valeurs dans R̄, même si les v.a. Xn sont à valeurs dans R.
Proposition 1. Soit {Xn}n∈N une suite de v.a. sur (Ω, F ) à valeurs dans
(R, B(R)). On a les propriétés suivantes :
(a) supn Xn et inf n Xn sont des v.a.,
(b) limsupn Xn et liminf n Xn sont des v.a.,
(c) l'ensemble {ω ∈ Ω : limsupn Xn (ω) = liminf n Xn (ω)} ∈ F .
T
Démonstration : pourS (a), on utilise le fait que {supn Xn ≤ x} = n {Xn ≤ x}
et {inf n Xn < x} = n {Xn < x}. (b) s'obtient par application répétée de (a).
Pour (c), notons Y = limsupn Xn et Z = liminf n Xn . Comme Y et Z sont des
v.a., Y − Z est une v.a., ce qui conclut la preuve.

Espérance d'une variable aléatoire

Nous rappelons succinctement dans le paragraphe suivant quelques éléments


de théorie de l'intégration. Le lecteur trouvera plus de développement dans le
livre [RIC 01], chapitre 2.
Dénition 13 (v.a. étagée). On dit qu'une v.a. X dénie sur (Ω, F ) et à
valeurs dans (R̄, B(R̄)) est étagée si elle ne prend qu'un nombre ni de valeurs
dans R. On notera eF + l'ensemble des v.a. étagées positives.
Cet ensemble eF + n'est pas un espace vectoriel, mais il est stable par addi-
tion et par multiplication par les réels positifs (eF + est un cône). Etant donnés
des nombres a1 , . . . , an de R+ et des ensembles A1 , . . . , An ∈ F , on obtient une
v.a. positive X ∈ eF + en posant :
X
n
X= a k IA , Ak ∈ F , (3.6)
k=1

où IA est la fonction indicatrice de A :



1 α ∈ A,
IA (α) = (3.7)
0 α∈6 A.
Probabilités et calcul stochastique 85

Il est clair que cette fonction ne peut prendre qu'un nombre ni de valeurs,
qui sont les sommes d'un nombre quelconque de ai . Il y a évidemment de
multiples façons d'écrire (3.6). Inversement, toute v.a. X ∈ eF + s'écrit sous la
forme (3.6) et admet même une écriture (3.6) canonique qui est unique. Soit X
l'ensemble des valeurs prises par X , et soit pour a ∈ X , Aa = X −1 ({a}). Les
ensembles Aa ∈ F constituent une partition nie de Ω et on a :
X
X= aIA . (3.8)
a∈X

Dénition 14 (Espérance d'une v.a. étagée positive). Soit P une proba-


bilité sur (Ω, F). On appelle espérance par rapport à la probabilité P de la v.a.
étagée X ∈ eF + admettant la décomposition canonique (3.8), le nombre de R+
suivant, noté E[X] : X
E[X] = aP[Aa ].
a∈X

Par exemple, l'intégrale de la v.a. constante X = a ≥ 0 vaut a. Si A ∈ F ,


l'espérance de la v.a. X = IA vaut P(A). La proposition suivante découle de
façon immédiate de la construction précédente.
Proposition 2. Soient X , Y deux éléments de eF + et deux constantes a, b ≥ 0.
Alors, on a :
∀a, b ≥ 0, aX + bY ∈ eF + ; (3.9)
∀a, b ≥ 0, E[aX + bY ] = aE[X] + bE[Y ]; (3.10)
X ≤ Y ⇒ E[X] ≤ E[Y ]. (3.11)

Les deux lemmes suivants sont à la base de la théorie de l'intégration.


Lemme 1. Soient Xn, Yn ∈ eF + deux suites croissantes telles que lim %
Xn = lim % Yn . Alors, lim % E[Xn ] = lim % E[Yn ].
Lemme 2. Toute v.a. positive X ∈ F + est limite d'une suite croissante de
fonctions étagées Xn ∈ eF + .
Démonstration : il sut de considérer la suite : Xn (ω) =
Pn2n −1 k
2n I{k/2 ≤X(ω)<(k+1)/2 } + nIAX(ω)≥n .
n n
k=0

Le lemme 2 montre qu'il existe une suite Xn ∈ eF + telle que Xn % X; la


monotonicité de l'espérance assure que E[Xn ] est une suite croissante et, donc,
que cette suite a une limite α. Le lemme 1 montre que cette limite ne dépend
pas du choix de la suite {Xn }. On a en particulier :

X
n
n2
k
α = lim % P({ω : k/2n ≤ X(ω) < (k + 1)/2n }) + nP({ω : X(ω) ≥ n}).
2n
k=0
86 Mathématiques pour les systèmes dynamiques

Dénition 15 (Espérance d'une v.a. positive). Soit X ∈ F + une v.a.


positive. On appelle espérance de X par rapport à la probabilité P le nombre
suivant de [0, ∞] : Z
E[X] = XdP = lim % E[Xn ],
n

où {Xn } est une suite croissante de v.a. étagées positives telle que limn %
Xn = X .
On montre aisément que, pour X ≥ 0 :
E[X] = sup E[Y ], (3.12)
Y ∈eF + Y ≤X

cette dernière relation (3.12) étant souvent utilisée comme dénition de l'espé-
rance. On a alors le théorème suivant.
Théorème 4.  Si (a, b) ∈ R+ , et X, Y ∈ F + , on a : E[aX + bY ] =
aE[X] + bE[Y ].
 Si X, Y ∈ F + et si X ≤ Y , on a E[X] ≤ E[Y ].
 (Convergence monotone) Soit {Xn }n∈N une suite croissante de v.a.
de F + et soit X = limn Xn . Alors, limn E[Xn ] = E[X].
 (Lemme de Fatou) Si {Xn } est une suite de v.a. de F + , alors :
E [liminf n Xn ] ≤ liminf n E[Xn ]. (3.13)
Remarque 1. Si X ∈ F + est une v.a. positive, alors :
∀X ∈ F + , E[X] < +∞ ⇒ X < +∞ P-p.s.
En eet, remarquons que P{X = +∞} = lima→∞ P{X ≥ a}. Or a 1{X≥a} ≤
X . Par suite P{X ≥ a} ≤ E[X]
a −−−→ 0, ce qui entraîne P{X = +∞} = 0.
a→∞
Exemple 2. Soit (Zk ) une suite de v.a. positives ;
P P
 alors E [ k Zk ] = E[Zk ] ≤ ∞ (application de la convergence monotone
et P
de la linéarité de l'espérance),
P
 si E[Zk ] < ∞, alors Zk est ni P-p.s. et donc Zk → 0 P-p.s.
Il nous reste à dénir l'espérance des v.a. réelles de signe quelconque. Pour
cela, on utilise le fait qu'une v.a. réelle est toujours la diérence de deux v.a.
positives, cette décomposition n'étant bien sûr pas unique. Nous utilisons dans
la suite la décomposition canonique en partie positive et partie négative, qui
sont les v.a. dénies par :
X + , X ∨ 0 et X − , (−X) ∨ 0,
où a∨b = max(a, b). On vérie aisément que X = X + −X − et |X| = X + +X − .
Cette décomposition est minimale dans le sens où, pour toute autre décompo-
sition de X de la forme X = Y − Z avec Y ∈ F + et Z ∈ F + , nous avons
Y ≥ X + et Z ≥ X − .
Probabilités et calcul stochastique 87

Dénition 16 (Espérance, v.a. intégrable). On dit que la v.a. X est inté-


grable si E [|X|] < ∞, ce qui équivaut à E[X + ] < ∞ et E[X − ] < ∞. Dans un
tel cas, on appelle espérance de X par rapport à la probabilité P le nombre de
[0, ∞[ :
E[X] = E[X + ] − E[X − ].
On note L1 l'espace des v.a. intégrables :
L1 = L1 (Ω, F, P) = {X mesurable , E [|X|] < ∞} (3.14)
Il est facile de voir que L1 est un espace vectoriel (car E|X+Y | ≤ E|X|+E|Y |
et l'espérance est monotone) et que X 7→ E[X] est une forme linéaire positive.
Par construction, si X ∈ L1 , alors |E[X]| ≤ E [|X|].
La propriété suivante découle directement du lemme de Fatou et fait partie
des résultats fondamentaux de la théorie de la mesure et de l'intégration.
Proposition 3 (Convergence dominée). Si, pour tout n ≥ 1, |Xn (ω)| ≤
Y (ω) (P-ps), si Y ∈ L1 et si Xn → XP-p.s., alors :
lim E[|Xn − X|] = 0. (3.15)
n→∞

En particulier, limn→∞ E[Xn ] = E[X].


Pour rappel, la notation P-p.s. renvoie à la dénition 5. Nous admettrons le
résultat suivant.
Théorème 5. Soit X une v.a. de (Ω, F ) dans (E, E) et P une probabilité sur
(Ω, F). La formule PX (A) , P(X −1 (A)) dénit une probabilité sur (E, E), ap-
pelée probabilité image de P par X . Cette probabilité vérie, pour toute fonction
f positive mesurable :
Z Z
f ◦ X(ω)dP(ω) = f (x)dPX (x).
Dénition 17 (Loi d'une variable aléatoire). On appelle loi de X la pro-
babilité image de P par X . C'est donc une probabilité, notée PX , sur (E, E).
La loi d'une variable aléatoire réelle est donc une probabilité sur (R, B(R)).
On dénit souvent la loi d'une variable aléatoire en spéciant une densité par
rapport à une mesure positive [SCH 93] sur (E, E). Plus précisément, soit µ
une mesure positive et soit g une fonction mesurable positive, telle que :
Z
g(x)dµ(x) = 1. (3.16)
E

Pour A ∈ E , on dénit PX comme suit :


Z
PX : E → [0, 1], PX (A) = g(x)dµ(x). (3.17)
A

On vérie alors que PX donnée par (3.17) dénit bien une probabilité sur (E, E).
Nous donnons ci-dessous quelques exemples élémentaires.
88 Mathématiques pour les systèmes dynamiques

 La mesure de Lebesgue sur [0, 1] est une probabilité, que l'on appelle
généralement loi uniforme sur [0, 1]. Plus généralement, pour a < b, on
appelle loi uniforme sur [a, b], la mesure de probabilité (b−a)−1 I[a,b] (x)dx,
où IA est l'indicatrice de l'ensemble A (voir (3.7)).
 La mesure sur R de densité pX (x) = π−1 (1 + x2 )−1 R∞ dx par rapport à la
mesure de Lebesgue est une probabilité sur R, car −∞ pX (x)dx = 1. On
remarque que le moment d'ordre 1 de cette mesure est inni. Cette loi
est appelée loi de Cauchy standard.
 La mesure de densité :
 
1 (x − µ)2
pX (x) = √ exp − ,
σ 2π 2σ 2
par rapport à la mesure de Lebesgue est une probabilité. Cette densité
est appelée laR densité gaussienne . La moyenne de cette loi est µ et sa
variance est (x − µ)2 pX (x) dx = σ 2 .
Dénition 18 (Fonction de répartition). La fonction de répartition de la
v.a. réelle X est la fonction FX : R → [0, 1], dénie par :
FX (x) = PX (] − ∞, x]) = P(X ≤ x). (3.18)
La fonction de répartition est une
T fonction croissante, continue à droite : on
remarque en eet que ] − ∞, x] = ] − ∞, xn ], pour toute suite décroissante xn ,
telle que limn→∞ xn = x. La propriété (5) de la dénition 4 implique donc que
FX (x) = limn→∞ F (xn ) et donc, plus généralement, que limh→0+ FX (x + h) =
FX (x). Un raisonnement similaire montre que la fonction de répartition admet
en chaque point une limite à gauche : limh→0− FX (x + h) = PX (] − ∞, x[) =
FX (x−). Remarquons aussi que :
lim FX (x) = 0 et lim FX (x) = 1.
x→−∞ x→∞

La fonction de répartition FX caractérise la loi PX , puisque, pour tout


intervalle ]a, b] (b > a), on a :
PX (]a, b]) = FX (b) − FX (a),
et qu'une mesure borélienne sur R est déterminée de façon unique par la donnée
des mesures de tels intervalles. Il apparaît que la fonction de répartition d'une
variable aléatoire réelle caractérise la loi de celle-ci. Par conséquent, la fonction
de répartition est un  outil pratique  pour manier la loi d'une v.a. réelle.

3.1.4. Quelques inégalités utiles


L'inégalité élémentaire suivante, appelée inégalité de Markov, joue un rôle
fondamental.
Probabilités et calcul stochastique 89

Proposition 4 (Inégalité de Markov). Soit Z une v.a et g : R → [0, ∞]


une fonction borélienne croissante. Alors, pour tout c > 0 :
E[g(Z)] ≥ E[g(Z)I(Z ≥ c)] ≥ g(c)P[Z ≥ c]. (3.19)
En particulier, pour g(x) = |x|, nous avons P[|X| ≥ c] ≤ E[|X|]/c pour tout
X ∈ L1 .
Rappelons qu'une fonction c : G → R, où G est un intervalle ouvert de R,
est dite convexe si, pour tout x, y ∈ G et tout p, q , p + q = 1, on a :
c(px + qy) ≤ pc(x) + qc(y).
A titre d'exemple, les fonctions |x|, x2 , eθx sont des fonctions convexes.
Proposition 5 (Inégalité de Jensen). Soit c : G → R une fonction convexe
sur un sous-intervalle ouvert de R et soit X une variable aléatoire vériant
E [|X|] < ∞, P[X ∈ G] = 1, et E [|c(X)|] < ∞. Alors, on a :
E [c(X)] ≥ c(E[X]). (3.20)

3.1.5. Moments d'ordre p, espaces Lp

Pour p > 0, on dit que X admet un moment d'ordre p, noté E|X|p , si |X|p
admet un moment d'ordre 1. Nous notons Lp l'espace des variables aléatoires
admettant un moment d'ordre p et, pour X ∈ Lp , kXkp = (E[|X|p ])1/p . Il
est facile de voir que k · kp est positive et vérie l'inégalité triangulaire. Ce
n'est toutefois pas une norme, car la relation kXkp = 0 entraîne seulement que
X = 0 P-p.s. On dit que k · kp est une semi-norme. Comme nous le verrons, il
est possible (mais pas toujours utile ni pratique), de  quotienter  l'espace par
la relation d'équivalence X ≡ Y ⇐⇒ X = Y P-p.s. Les semi-normes Lp sont
monotones dans le sens suivant.
Proposition 6. Soit 1 ≤ p ≤ r < ∞ et Y ∈ Lr . Alors, Y ∈ Lp et kY kp ≤
kY kr .
Cette dernière inégalité découle directement de l'inégalité de Jensen appli-
quée avec c(x) = xr/p . Soit X une v.a. à valeurs réelles. La borne essentielle
de X est dénie par :
kXk∞ = sup {a; P{ω : |X(ω)| > a} > 0} .
Proposition 7. Soit p ≥ 1. Nous avons (inégalité de Minkovski) :
kX + Y kp ≤ kXkp + kY kp . (3.21)
Soient p, q ≥ 1 tels que p−1 + q −1 = 1. Nous avons (inégalité de Hölder) :
kXY k1 ≤ kXkp kY kq . (3.22)
90 Mathématiques pour les systèmes dynamiques

La proposition suivante joue un rôle clef, en particulier lorsque p = 2.


Proposition 8. Soit p ∈ [1, ∞) et soit (Xn ) une suite de Cauchy dans Lp ,
c'est-à-dire :
lim sup kXr − Xs kp = 0.
k→∞ r,s≥k

Alors, il existe une variable aléatoire X ∈ Lp telle que Xr → X dans Lp ,


c'est-à-dire : kXr − Xkp → 0. De plus, on peut extraire de Xn une sous-suite
Yk = Xnk qui converge vers X P-p.s.
Démonstration : soit kn % ∞ une suite telle que :
∀(r, s) ≥ kn , kXr − Xs kp ≤ 2−n .
Nous avons, par monotonicité des semi-normes k · kp :
 
E |Xkn+1 − Xkn | ≤ kXkn+1 − Xkn kp ≤ 2−n ,
P 
ce qui implique que E n |Xkn+1 − Xkn | < ∞. Donc, la série de terme général
Un = (Xkn+1 − Xkn ) converge absolument P-p.s. et limn→∞ Xkn existe P-p.s.
Dénissons, pour tout ω ∈ Ω :
X(ω) , lim sup Xkn (ω).
X est une v.a. (en tant que limite supérieure d'une suite de v.a.) et Xkn → X
P-p.s. Soient r et n ∈ N tels que r ≥ kn ; pour tout m ≥ n, on a :
kXr − Xkm kp ≤ 2−n ,
et l'application du lemme de Fatou (3.13) montre que :
kXr − Xkp ≤ lim inf kXr − Xkm kp ≤ 2−n ,
m

ce qui prouve que (Xr − X) ∈ Lp et donc que X ∈ Lp ; de plus, cette relation


montre que Xr → X dans Lp .
Le résultat précédent montre que Lp peut être muni d'une structure d'espace
vectoriel normé complet par passage au quotient. Deux variables aléatoires X
et Y sont égales presque sûrement si P{ω : X(ω) = Y (ω)} = 1. L'égalité
presque sûre sur (Ω, F, P) dénit une relation d'équivalence sur l'ensemble des
v.a. à valeurs dans (E, E). Si X et Y sont deux éléments de la même classe
d'équivalence et si X admet un moment d'ordre p, alors E [|X|p ] = E [|Y |p ].
Lorsque l'on choisit un élément d'une classe d'équivalence, on dit que l'on
choisit une version de X . Dans la suite, nous utiliserons la même notation X
pour la v.a., la classe d'équivalence de X (l'ensemble des v.a. égales à X P-p.s.)
et n'importe quel autre élément de la classe d'équivalence de X (ou version
de la classe de X ). On appelle Lp (Ω, F , P) l'espace des classes d'équivalence
des variables admettant un moment d'ordre p. La proposition 8 montre que
Lp (Ω, F, P) est un espace vectoriel normé complet (ou encore, un espace de
Banach), lorsqu'on le munit de la norme kXkp = (E [|X|p ]])1/p .
Probabilités et calcul stochastique 91

3.1.6. Variance, covariance


Soit X une variable aléatoire admettant un moment d'ordre 2; alors X
admet un moment d'ordre 1 (l'inégalité de Hölder (3.22) entraîne que E [|X|] =
kXk1 ≤ kXk2). On pose alors :

var(X) , E[(X − E[X])2 ) = E[X 2 ] − E2 [X], (3.23)

quantité que l'on appelle la variance de X . De même, lorsque X, Y ∈ L2 , nous


pouvons dénir :

cov(X, Y ) , E [(X − E[X])(Y − E[Y ])] , (3.24)

quantité que l'on appelle la covariance de X et de Y . Les variables aléatoires


sont dites décorrélées si le coecient de covariance cov(X, Y ) est nul. Lorsque
X = (X1 , · · · , Xd ), d ∈ N, la matrice de covariance Γ(X) (ou matrice de
variance/covariance) est dénie comme la matrice d × d :
 
Γ(X) = E (X − E [X])(X − E [X])T , soit Γ(X)i,j = cov(Xi , Xj ). (3.25)

Les éléments diagonaux sont égaux à la variance des variables Xi ; les élé-
ments hors-diagonaux sont les coecients de covariance. La matrice de cova-
riance est une matrice symétrique (Γ(X) = Γ(X)T ) et semi-dénie positive. En
eet, pour tout d-uplets (a1 , a2 , · · · , ad ), nous avons :
 !2 
X
d X
E ai (Xi − E[Xi ]) = ai aj Γ(X)i,j ≥ 0.
i=1 i,j

Notons que, pour tout vecteur a (déterministe) :

Γ(X + a) = Γ(X),

et que, pour M une matrice (déterministe) p × d :

Γ(M X) = M Γ(X)M T .

Nous munissons l'espace L2 du produit scalaire :

< X, Y >, E[XY ]. (3.26)

Comme précédemment toutefois, ce produit scalaire n'induit pas une norme,


mais une semi-norme. Dénissons L2 l'espace quotient de L2 par la relation
92 Mathématiques pour les systèmes dynamiques

d'équivalence d'égalité P-p.s. Le produit scalaire déni ci-dessus s'étend direc-


tement à l'espace quotient, car pour toutes variables X̃ (resp. Ỹ ) de la classe
de X (resp. Y ), nous avons :
< X̃, Ỹ >=< X, Y > .

On vérie aisément que L2 muni de ce produit scalaire est un espace hilber-


tien. Cette propriété a un grand nombre de conséquences. Nous l'utiliserons en
particulier pour construire l'espérance conditionnelle.

3.1.7. Indépendance, mesures produits


Soient A et B deux événements. On dit que A et B sont indépendants si :
P(A ∩ B) = P(A)P(B).

Les propriétés élémentaires des probabilités montrent que les événements A et


B c , Ac et B , et Ac et B c sont aussi indépendants. En eet :

P(Ac ∩ B) = P(Ω ∩ B) − P(A ∩ B) = P(B) − P(A)P(B) = (1 − P(A))P(B).

Les tribus A = {∅, A, Ac , Ω} et B = {∅, B, B c, Ω} sont donc indépendantes, au


sens de la dénition suivante.
Dénition 19 (Indépendance de tribus). Soit (Bi , i ∈ I) une famille de
tribus. On dit que cette famille est indépendante si, pour tout sous-ensemble J
ni de I :  
\ Y
P Bj  = P(Bj ), ∀ Bj ∈ Bj . (3.27)
j∈J j∈J

Le lemme technique qui suit donne un critère plus  pratique  pour vérier
l'indépendance de tribus.
Lemme 3. Soient G et H deux sous-tribus de F et soit I et J deux π−systèmes
tels que G , σ(I) et H , σ(J ). Alors, les tribus G et H sont indépendantes si
et seulement si I et J sont indépendantes, c'est-à-dire :
P(I ∩ J) = P(I)P(J), ∀I ∈ I, J ∈ J .

Démonstration : supposons les familles I et J indépendantes et, pour I ∈ I


donné, considérons les mesures : H → P(I ∩H) et H → P(I)P(H). Ces mesures
sont dénies (Ω, H) et coïncident sur J . Le théorème 2 montre que ces deux
mesures coïncident sur H :
P(I ∩ H) = P(I)P(H), I ∈ I, H ∈ H.
Probabilités et calcul stochastique 93

Pour H donné dans H, les mesures G → P(G ∩ H) et G → P(G)P(H) sont


dénies sur G et coïncident sur I . Par le théorème 2, elles coïncident sur G et
donc P(G ∩ H) = P(G)P(H) pour tout G ∈ G et H ∈ H.
Proposition 9. Soit (Ci , i ∈ I) une famille de π−systèmes indépendants.
Alors, les tribus (σ(Ci ), i ∈ I) sont indépendantes.
Il résulte immédiatement de la dénition 19 que, si Bi0 est une sous-tribu de
Bi , la famille (Bi0 , i ∈ I) est une famille indépendante si (Bi , i ∈ I) l'est.
Proposition 10. Si la famille (Bi , i ∈ I) est indépendante et si (Ij , j ∈ J)
est une partition de I , alors la famille (σ(Bi ), i ∈ Ij , j ∈ J) est indépendante.
De cette dénition découlent toutes les notions d'indépendance dont nous
aurons besoin dans la suite.
Dénition 20 (Indépendance). Une famille d'événements (Ai , i ∈ I) est
indépendante si la famille de tribus (σ(Ai ), i ∈ I) l'est. Une famille de v.a.
(Xi , i ∈ I) est indépendante si la famille de tribus (σ(Xi ), i ∈ I) l'est. Une
v.a. X et une tribu G sont indépendantes si les tribus σ(X) et G le sont. Enn,
(Xi , i ∈ I) et (Yj , j ∈ J) sont indépendantes si les tribus (σ(Xi ), i ∈ I) et
(σ(Yj ), j ∈ J) le sont.
Exemple 3. Soient (X1 , X2 , X3 , X4 ) quatre v.a. indépendantes. Alors, les
couples (X1 , X2 ) et (X3 , X4 ) sont indépendants, puisque les tribus σ(X1 , X2 )
et σ(X3 , X4 ) le sont. Alors Y1 , f (X1 , X2 ) et Y2 = g(X3 , X4 ) (avec f, g boré-
liennes) sont indépendantes car σ(Y1 ) ⊂ σ(X1 , X2 ) et σ(Y2 ) ⊂ σ(X3 , X4 ).
Avant d'aller plus loin, rappelons quelques résultats sur les mesures produits.
Soient (E1 , B1 , ν 1 ) et (E2 , B2 , ν 2 ) deux espaces mesurés et ν 1 , ν 2 deux mesures
σ−nies [SCH 93]. Alors :

B1 ⊗ B2 , σ(A1 × A2 , A1 ∈ B1 , A2 ∈ B2 ), (3.28)
est une tribu sur E1 × E2 appelée tribu produit de B1 et de B2 et il existe une
unique mesure, notée ν 1 ⊗ ν 2 et dénie sur B1 ⊗ B2 , telle que :
ν 1 ⊗ ν 2 (A1 × A2 ) = ν 1 (A1 )ν 2 (A2 ), A1 ∈ B1 , A2 ∈ B2 .

Soit f une fonction borélienne positive ou bornée. La formule de Fubini


[RIC 01] implique :
Z Z Z 
f d(ν 1 ⊗ ν 2 ) = f (x1 , x2 ) dν 1 (x1 ) dν 2 (x2 )
Z Z 
= f (x1 , x2 ) dν 2 (x2 ) dν 1 (x1 ),

et ces résultats s'étendent directement pour le produit de n espaces. Le résultat


suivant résulte de ces rappels et du théorème de classe monotone.
94 Mathématiques pour les systèmes dynamiques

Théorème 6. Soient (X1 , . . . , Xn ) des v.a. à valeurs dans (Ei , Ei ), i ∈


{1, . . . , n}. Il y a équivalence entre les propositions suivantes :

1. les v.a X1 , · · · , Xn sont indépendantes ;


2. pour tout Ak ∈ Ek , on a :
Y
n
P[X1 ∈ A1 , · · · , Xn ∈ An ] = P[Xk ∈ Ak ] ;
1

3. pour tout Ak ∈ Ck , avec Ck π−système tel que σ(Ck ) = Ek , on a :


Y
n
P[X1 ∈ A1 , · · · , Xn ∈ An ] = P[Xk ∈ Ak ] ;
1

4. la loi du vecteur aléatoire (X1 , . . . , Xn ), notée P(X1 ,··· ,Xn ) , est égale au
produit des lois des v.a Xk :
P(X1 ,··· ,Xn ) = PX1 ⊗ · · · ⊗ PXn ;

5. pour toutes fonctions fk boréliennes positives (resp. bornées), on a :


Y
n
E [f1 (X1 ) . . . fn (Xn )] = E [fk (Xk )]]].
1
Exemple 4. Soient X, Y deux v.a. Alors, puisque σ([a, b[, a < b ∈ R) = B(R),
il résulte du théorème précédent que X et Y sont indépendantes si et seulement
si, pour tout a, b, c, d, on a :
P(a ≤ X < b, c ≤ Y < d) = P(a ≤ X < b)P(c ≤ Y < d),

et, dans ce cas, si E [|X|] < ∞, E [|Y |] < ∞, on a E[XY ] = E[X]E[Y ], résultat
que l'on utilise sans cesse en probabilité.

3.1.8. Fonction caractéristique, transformée de Fourier


Dans tout ce paragraphe, X désigne une variable aléatoire à valeurs dans
Rd . On note PX sa loi. L'application ΦX : Rd → C donnée par :
Z
ΦX (λ) = E[exp(i(λ, X))] = exp(i(λ, x))PX (dx),
Rd

où (u, v) désigne le produit scalaire usuel, s'appelle la fonction caractéristique


de X . La fonction caractéristique est la transformée de Fourier de la loi PX .
Donnons quelques propriétés élémentaires de la fonction caractéristique :
Probabilités et calcul stochastique 95

 ΦX (0) = 1 et |ΦX (λ)| ≤ 1 ;


 la fonction caractéristique est continue sur Rd (cette propriété est une
conséquence immédiate de la continuité de l'application λ 7→ exp(i(λ, X)
et du théorème de convergence dominée 3) ;
 lorsque la loi PX admet une densité g par rapport à la mesure de Lebesgue,
alors ΦX est la transformée de g (au sens usuel). Le théorème de Rieman-
Lebesgue implique que ΦX (λ) tend vers 0 lorsque λ → ∞.
Comme son nom l'indique, la fonction caractéristique  caractérise  la loi,
dans le sens suivant.
Théorème 7. Deux variables aléatoires à valeurs dans Rd ont même loi si et
seulement si ΦX = ΦY .
Corollaire 1. Les n variables aléatoires X = (X1 , · · · , Xn ) sont indépendantes
si et seulement si :
Y
n
∀λ1 , · · · , λn , ΦX (λ1 , · · · , λn ) = ΦXi (λi ).
i=1

3.1.9. Variables aléatoires gaussiennes

Dénition 21 (v.a. gaussienne standard). Une variable X est gaussienne


standard (ou standardisée) si la loi de X admet la densité (par rapport à la
mesure de Lebesgue) :
 2
1 x
f (x) = √ exp − . (3.29)
2π 2

Une variable aléatoire X est gaussienne de moyenne m et de variance σ2 , s'il


existe une variable gaussienne standard Z telle que X = m + σZ .
Lorsque σ > 0, X admet une densité par rapport à la mesure de Lebesgue
sur R, densité donnée par :
 
1 (x − m)2
fm,σ2 (x) = √ exp − , N (m, σ 2 ). (3.30)
2πσ 2σ 2

On note donc cette densité N (m, σ 2 ). Par abus de langage, nous appellerons
variable gaussienne de variance nulle une constante X = m P-p.s. Un calcul
élémentaire montre que, pour tout u ∈ R :
Z ∞  
1 x2 u2
√ exp(− ) exp(ux) dx = exp ,
−∞ 2π 2 2
96 Mathématiques pour les systèmes dynamiques

et donc, par prolongement analytique, la fonction caractéristique d'une variable


gaussienne standard est donnée par :
ΦX (u) = exp(−u2 /2). (3.31)
Notons que, si X est une variable aléatoire de fonction caractéristique ΦX (u),
la fonction caractéristique de la variable aléatoire Y = a + bX est donnée par :
ΦY (u) = exp(iua)φX (bu),

et par conséquent, la fonction caractéristique de la loi normale de moyenne m


et de variance σ 2 est donnée par :
ΦX (λ) = exp(iλm − λ2 σ 2 /2). (3.32)
On en déduit la proposition suivante.
Proposition 11. Soient d v.a. gaussiennes indépendantes {Xi , 1 ≤ i ≤ d}, de
moyenne mi et de variance σ 2i et soient ai ∈ R, i ∈ {1, · · · , d}. Alors la v.a.
Pd
Y = a1 X1 + · · · + ad Xd est gaussienne, de moyenne i=1 ai mi et de variance
Pd
i=1 ai σ i .
2 2

Démonstration : en utilisant le théorème 6, la fonction caractéristique de Y est


donnée par :
" #
Y
d X
d X
d
φY (λ) = φXk (ak λ) = exp iλ ak m k − a2k σ 2k λ2 /2 , (3.33)
k=1 k=1 k=1

et on conclut en utilisant la proposition 7.


Dénition 22 (Vecteur gaussien). Un vecteur aléatoire X = (X1 , . . . , Xd )
est dit gaussien si, pour tout vecteur a = (a1 , . . . , ad ) ∈ Rd , aX T = a1 X1 +
· · · + ad Xd est une v.a. gaussienne.
Cette dénition implique en particulier que chaque composante Xk est une
v.a. gaussienne. A l'inverse, le fait que toutes les variables Xk soient gaussiennes
ne sut pas pour assurer que le vecteur X est gaussien.
Par construction, la famille de lois gaussiennes est stable par transformation
linéaire. Plus précisément, on a le lemme suivant.
Lemme 4. Soit X un vecteur gaussien à valeurs dans Rd de moyenne m =
[m1 , . . . , md ]T et de matrice de covariance K = (Ki,j )i∈{1,...,r}, j∈{1,...,d} . Pour
tout b = [b1 , . . . , br ]T ∈ Rd et toute (r × d)−matrice M = (mi,j ), le vecteur
aléatoire Y = b + M (X − m) est un vecteur gaussien à valeurs dans Rr , de
moyenne b et de matrice de covariance M KM T .
En eet, pour tout vecteur a = [a1 , . . . , ar ]T ∈ Rr , (a, Y ) = (a, b) +
(M ∗ a, (X − m)) (où M ∗ est la matrice adjointe de M ) est une v.a. gaussienne.
Probabilités et calcul stochastique 97

Théorème 8. Soit X = [X1 , . . . , Xd ]T un vecteur aléatoire de moyenne m =


[m1 , . . . , md ]T et de matrice de covariance K = [Ki,j ]i∈{1,...,r}, j∈{1,...,d}. Le
vecteur X est gaussien si et seulement si sa fonction caractéristique s'écrit :
 
Xd
1 X d
φX (λ1 , . . . , λd ) = exp i λ i mi − λi λj Ki,j  . (3.34)
i=1
2 i,j=1

Ce théorème montre que la loi d'une v.a. gaussienne est entièrement déter-
minée par la donnée de sa moyenne et de sa matrice de covariance.
Lorsque la matrice de covariance K est inversible, la loi d'un vecteur aléa-
toire gaussien de moyenne m et de covariance K a une densité par rapport à
la mesure de Lebesgue sur Rd et cette densité est donnée par :
 
1 1
p(x; m, K) = √ d exp − (x − m)T K −1 (x − m) .
2π (det(K))1/2 2

La loi d'un vecteur gaussien étant entièrement spéciée par la donnée de sa


moyenne et de sa matrice de covariance, les notions d'indépendance et de dé-
corrélation sont confondues (propriété qui n'est pas vériée de façon générale),
ce qui s'exprime comme suit.
Théorème 9 (Décorrélation). Soit Y = [Y1T , . . . , YnT ]T un vecteur gaussien
((d1 + · · · + dn ) × 1). Les vecteurs Yi (di × 1, i ∈ {1, · · · , n}) sont indépen-
dants si et seulement si, pour tous vecteurs ai (di × 1, i ∈ {1, · · · , n}), on a
cov[aTi Yi , aTj Yj ] = 0, pour tous i 6= j ∈ {1, . . . , n}.

3.2. Théorèmes limites

Les théorèmes limites sont au c÷ur même de la théorie des probabilités.


Nous ne donnons ici que quelques dénitions et énoncés essentiels, en nous
limitant aux notions que nous utiliserons dans la suite. Le lecteur se reportera
à [RES 98] ou [WIL 91] pour plus de détails. Introduisons tout d'abord les
diérents modes de convergence.
Soit (Xn , n ∈ N) une famille de v.a. dénies sur un espace de probabilité
P 1/2
(Ω, F, P) et à valeurs dans (Rd , B(Rd)). On note |x| = 2
la norme
d
x
k=1 k
euclidienne. Soit nalement X une v.a. dénie sur (Ω, F , P) et à valeurs dans
(Rd , B(Rd )).
Dénition 23 (Convergence p.s.). La suite. Xn converge presque sûrement
vers X (on note : Xn →p.s. X ) si :
n o
P ω : lim Xn (ω) = X(ω) = 1.
n→∞
98 Mathématiques pour les systèmes dynamiques

De façon équivalente, Xn →p.s. X si et seulement si :


 
[ 
lim P {|Xk − X| ≥ δ} =0 pour tout δ > 0.
n→∞  
k≥n
Dénition 24 (Convergence dans Lr ). Soient Xn et X des v.a. appartenant
à Lr . La suite Xn converge dans Lr vers X (on note : Xn →Lr X ) si :
lim E [|Xn − X|r ] = 0.
n→∞
Dénition 25 (Convergence en probabilité). On dit que la suite de v.a.
Xn converge en probabilité vers X (on note Xn →P X ) si :
lim P{|Xn − X| ≥ δ} = 0pour tout δ > 0.
n→∞
Dénition 26 (Convergence en loi). On dit que la suite de v.a. Xn à valeurs
dans Rd converge en loi (ou en distribution) vers X (on note Xn →d X ) si
l'une des trois conditions équivalentes est satisfaite :
1. pour toute fonction f continue bornée Rd → R :
lim E [f (Xn )] = E [f (X)] ;
n→∞

2. pour tout λ , [λ1 , . . . , λd ] :


lim E [exp (i λ · Xn )] = E [exp (i λ · X)] ;
n→∞

3. pour tout pavé A = [a1 , b1 ] × · · · × [ad , bd ] tel que P(X ∈ ∂A) = 0 (où ∂A
désigne la frontière de A) :
lim P(Xn ∈ A) = P(X ∈ A).
n→∞

Le théorème suivant hiérarchise les diérents modes de convergence.


Théorème 10. 1. Si Xn →p.s. X , alors Xn →P X .
2. Si Xn →Lr X , alors Xn →P X .
3. Si Xn →P X , alors Xn →d X .
4. Si Xn →P X , alors on peut extraire une sous-suite (Xnk , k ∈ N), telle
que Xnk →p.s. X .
Les théorèmes suivants sont à la base des statistiques.
Théorème 11 (Loi forte des grands nombres). Soit (Xn , n ∈ N) une suite
de v.a. indépendantes et identiquement distribuées (i.i.d.)2 telles que E [|X1 |] <
∞. Alors :
1X
n
Xi →p.s. E[X1 ].
n i=1
2 c'est-à-dire ayant la même loi (dénition 17).
Probabilités et calcul stochastique 99

P
Ce théorème montre que la moyenne empirique n−1 ni=1 Xi d'une suite de
v.a. i.i.d. intégrables converge P-p.s. vers la moyenne théorique (espérance) de
ces variables.
Théorème 12 (Théorème de la limite centrale). Soit (Xn , n ∈ N) une
suite réelle de v.a. i.i.d. appartenant à L2 et telles que E[Xi ] = µ et E[(Xi −
µ)2 ] = σ 2 < ∞. Alors :

1 X
n
√ (Xi − µ) →d N (0, σ 2 ).
n i=1

Ce
Pthéorème permet d'évaluer la  vitesse  à laquelle la moyenne empirique
n−1
n
1 X i converge vers la moyenne E[X1 ] = µ. Ceci permet en particulier de
déterminer, en statistique, des intervalles de conance.

3.3. Espérance conditionnelle

3.3.1. Construction élémentaire


Dénition 27 (Probabilité et espérance conditionnelles). Soit (Ω, F , P)
un espace de probabilité. Soit B un événement tel que P(B) > 0. Pour A ∈ F ,
la probabilité conditionnelle de A sachant B est dénie par la quantité :
P(A ∩ B)
P(A|B) = , (3.35)
P(B)

et, pour une v.a. X ∈ L1 (intégrable), l' espérance conditionnelle de X sachant


B est dénie par : Z
1
E[X|B] = XdP. (3.36)
P(B) B

On remarque que la probabilité conditionnelle P(A|B) est l'espérance condi-


tionnelle de la fonction indicatrice d'ensemble IA . Il sut donc de considérer
l'espérance conditionnelle. L'espérance conditionnelle E[X|B] représente l'es-
pérance de la variable aléatoire X sachant que l'événement B est réalisé.
Exemple 5. Soit X une variable aléatoire à valeurs dans l'ensemble des entiers
naturels N. La loi de X est spéciée par la donnée des probabilités
P pi = P(X =
i), pour i ∈ N. La moyenne de X est donnée par P E[X] = i∈N ipi . Considérons
l'événement B = {X ≥ i0 }. Nous avons P(B) = i≥i0 pi que nous supposerons
non nul. L'espérance conditionnelle de X sachant B est donnée par :
P
ipi
E[X|B] = P 0
i≥i
,
i≥i0 pi
100 Mathématiques pour les systèmes dynamiques

qui correspond à la moyenne de X conditionnellement au fait que l'événement


B est réalisé.
Considérons maintenant la tribu B = {∅, Ω, B, B c } qui est la plus petite
tribu contenant B et supposons que X est intégrable. On appelle espérance
conditionnelle de X ∈ L1 sachant la tribu B la v.a. Y dénie par :
Y = E[X|B] = E[X|B]IB + E[X|B c ]IB c ,
qui est donc égale à l'espérance conditionnelle de X sachant B ou de X sachant
B c , suivant le résultat de l'expérience courante.
De façon générale, soit (Bk , k ≥ 0) une partition de Ω, telle que pour tout
k ≥ 0, Bk ∈ F et P(Bk ) > 0 et soit B la tribu engendrée par ces événements.
On appelle espérance conditionnelle de X sachant B la variable aléatoire :
X
Y = E[X|Bk ]IBk . (3.37)
k≥0

On remarque
R que Rla variable aléatoire Y est B -mesurable et que, pour tout
B ∈ B, B Y dP = B XdP . On a donc la caractérisation suivante.
Proposition 12. La variable aléatoire Y dénie par (3.37) est l'unique variable
aléatoire B -mesurable telle que :
Z Z
Y dP = XdP pour tout B ∈ B. (3.38)
B B

3.3.2. Généralisation
Nous avons construit précédemment l'espérance conditionnelle par rapport
à des événements de probabilité strictement positive. Notre objectif est main-
tenant conditionner par rapport aux valeurs prises par une v.a. Y , c'est-à-dire
de conditionner par rapport à des événements du type {Y = y} qui peuvent
être de probabilité nulle. Nous allons pour cela utiliser la caractérisation qui
nous est donnée par la proposition 12.
L'espace L2 , L2 (Ω, F, P), muni du produit scalaire < X, Y >, E[XY ],
est un espace hilbertien. Dans les espaces hilbertiens, il est possible de dénir
la projection d'un  vecteur  (ici, une variable aléatoire X ∈ L2 (Ω, F , P)) sur
les sous-espaces vectoriels fermés. Par sous-espace vectoriel fermé de L2 , nous
entendons un sous-espace vectoriel H tel que toute suite convergente d'éléments
de H a une limite dans H. Soit B une sous-tribu de F et dénissons :

HB , Z ∈ L2 (Ω, F, P), Z a un représentant B -mesurable .
HB est un sous-espace vectoriel fermé (pour preuve, HB est isomorphe à
L2 (Ω, B, P) et on applique la proposition 8). On a le résultat suivant.
Probabilités et calcul stochastique 101

Théorème 13. Soient (Ω, F, P) un espace de probabilité, B ⊂ F une sous-tribu


de F et X une v.a., X ∈ L2 (Ω, F , P). Il existe une unique (à une équivalence
près) variable aléatoire Y ∈ HB telle que :
   
E (X − Y )2 = inf E (X − Z)2 .
Z∈HB

Cette variable vérie, pour toute v.a. Z B -mesurable, E[XZ] = E[Y Z].
On note E[X|B] cette variable aléatoire (en gardant à l'esprit qu'elle est
dénie à une équivalence près : E[X|B] est une  version  de l'espérance condi-
tionnelle). Si Y est une v.a., alors l'espérance de X par rapport à Y , notée
E[X|Y ], est simplement l'espérance de X par rapport à la tribu engendrée par
Y.
La dénition précédente s'applique aux v.a X de L2 (Ω, F , P) : elle s'étend
aux v.a. positives et/ou intégrables, grâce au lemme suivant.
Lemme 5 (élémentaire d'unicité). Soient X et Y deux v.a. B -mesurables
toutes deux positives ou toutes deux intégrables, vériant :
Z Z
∀B ∈ B, XdP ≥ Y dP (respectivement =).
B B

Alors, X ≥ Y P-p.s. (respectivement X = Y P-p.s.).


Démonstration S : pour a < b, dénissons Fa,b , {X ≤ a < b ≤ Y } ∈ B . Puisque
{X < Y } = a,b∈Q Fa,b , il sut de prouver que ∀a, b ∈ Q, P(Fa,b ) = 0. Mais,
si P(Fa,b ) > 0, nous avons :
Z Z
XdP ≤ aP(Fa,b ) < bP(Fa,b ) ≤ Y dP,
Fa,b Fa,b

et nous aboutissons à une contradiction.


Théorème 14. Soit X une v.a. intégrable (respectivement positive). Il existe
une v.a. Y intégrable (respectivement positive) B -mesurable, telle que :
Z Z
∀B ∈ B, XdP = Y dP.
B B

Cette variable est unique à une équivalence près.


Démonstration : l'unicité découle du lemme 5. Montrons l'existence. On sup-
pose tout d'abord que X ≥ 0. Pour n ∈ N, dénissons Xn = min(X, n). On a
Xn ∈ L2 (Ω, F, P) et il existe donc une v.a. Yn ≥ 0, B -mesurable telle que :
Z Z
∀B ∈ B, Xn dP = Yn dP.
B B
102 Mathématiques pour les systèmes dynamiques

Par application de 5, Yn est P-p.s. une suite positive et croissante. En eet,


pour tout B ∈ B :
Z Z Z Z
Yn+1 dP = Xn+1 dP ≥ Xn dP = Yn dP.
B B B B

Dénissons Y = lim % Yn . Y est B -mesurable et, par application du théorème


de convergence monotone, pour tout B ∈ B , nous avons :
Z Z Z Z
Y dP = lim % Yn dP = lim % Xn dP = XdP.
B B B B

Notons que si X est intégrable, alors Y l'est aussi (prendre B = Ω). Pour
étendre le résultat au cas intégrable, nous allons prouver que, pour X, Y deux
v.a. positives intégrables, et pour a, b ∈ R, nous avons (linéarité de l'espérance
conditionnelle) :
E[aX + bY |F ] = aE[X|F ] + bE[Y |F ].

Il sut en eet de remarquer que, pour tout B ∈ B :


Z Z Z Z
E[aX + bY |F ]dP = (aX + bY )dP = a XdP + b Y dP
B
Z B
Z B
Z
=a E[X|B]dP + b E[Y |B]dP = (aE[X|B] + bE[Y |B])dP,
B B B

et on conclut en utilisant le lemme 5. Pour X ∈ L1 (Ω, F , P), nous posons


X = X + − X − et concluons en utilisant l'existence et la linéarité de l'espérance
conditionnelle pour les v.a. positives.
Proposition 13. 1. Soient X, Y ≥ 0 et a, b ≥ 0 (ou X, Y intégrables et
a, b ∈ R). Alors, E[aX + bY |B] = aE[X|B] + bE[Y |B].
2. Soient X, Y ≥ 0 (ou X, Y intégrables). Alors l'inégalité X ≤ Y P-p.s.
implique E[X|B] ≤ E[Y |B] P-p.s.
3. Soit X ≥ 0. Alors Y = E[X|B] vérie, pour toute v.a. Z positive B -
mesurable, E[XZ] = E[Y Z].
4. Soit X intégrable. Alors Y = E[X|B] vérie, pour toute v.a. Z bornée
B -mesurable, E[XZ] = E[Y Z].
Ces propriétés découlent de la dénition de l'espérance conditionnelle. La
proposition 14 rassemble quelques propriétés essentielles de cette espérance.
Proposition 14. Soit X ∈ L1 (Ω, F , P).
1. Soit G la tribu grossière : G = {Ω, ∅}. Alors, E[X|G] = E[X].
2. Soit X ≥ 0 (ou X intégrable) et soient G ⊂ B deux sous-tribus de F .
Alors, E[E[X|B]|G] = E[X|G].
Probabilités et calcul stochastique 103

3. Soit X indépendant de B. Alors E[X|B] = E[X].


4. Soient X ≥ 0 B -mesurable et Y une v.a. positive. Alors E[XY |B] =
XE[Y |B]. Ce résultat reste vrai si X est B -mesurable et Y et XY appar-
tiennent à L1 (Ω, F, P).

Démonstration : les fonctions mesurables par rapport à la tribu grossière


sont les fonctions constantes. Donc, G étant la tribu grossière,
R E[X|G] = c.
Par
R dénition de l'espérance conditionnelle, nous avons Ω E[X|G]dP = c =
Ω XdP = E[X], ce qui prouve la relation (1). Prouvons maintenant (2) dans
le cas où X ≥ 0 (le cas X intégrable se traitant de manière similaire).
Soit Z une v.a. G -mesurable bornée. Notons que Z est aussi B -mesurable.
Par dénition de l'espérance conditionnelle, on a : E [ E[ E[X|B]|G ]Z ] =
E [ E[X|B]Z ] = E [XZ] = E [ E[X|G]Z ] . Donc, pour toute v.a. Z B -mesurable
bornée, E [ E[ E[X|B]|G ]Z ] = E [ E[X|G]Z ], ce qui prouve la relation (2).
Soit maintenant X une v.a. indépendante de B . Alors, pour toute v.a. Z B -
mesurable bornée, on a : E [ E[X|B]Z ] = E [XZ] = E [X] E [Z] = E [ E[X]Z ] ,
ce qui prouve la relation (3). Considérons nalement la relation (4) dans le cas
où X et Y sont des v.a. positives (l'autre cas se traitant de manière similaire).
Notons que E[Y |B]X est B -mesurable. Pour Z v.a. bornée B -mesurable, on a :
E [ E[XY |B]Z ] = E{Y XZ} = E [ E[Y |B]XZ ] , ce qui prouve la relation (4).
Enn, citons quelques propriétés importantes de l'espérance conditionnelle.
Proposition 15. 1. (Convergence monotone conditionnelle) Soit
(Xn )n≥0 une suite de v.a., 0 ≤ Xn % X ; alors E[Xn |G] % E[X|G].

2. (Lemme de Fatou conditionnel) Soit (Xn )n≥0 une suite de v.a. po-
sitives ; alors E[lim inf Xn |G] ≤ lim inf E[Xn |G].
3. (Inégalité de Jensen conditionnelle) Soit c : R → R convexe telle
que E [|c(X)|] < ∞. Alors, E[c(X)|G] ≤ c(E[X|G]).
4. (Convergence dominée conditionnelle) Soit (Xn )n≥0 une suite de
v.a. telle que |Xn | ≤ V P-p.s., avec E[V ] < ∞ et Xn → X P-p.s. Alors,
E[Xn |G] → E[X|G] P-p.s.

5. (Contraction des normes) Pour p ≥ 1, kE[X|G]kp ≤ kXkp, en dé-


nissant kY kp , (E [|Y |p ])1/p .
6. Soient X une v.a. indépendante de la tribu B, Y une v.a. B -mesurable et
f (X, Y ) une fonction intégrable. Alors, on a : E[f (X, Y )|B] = φ(Y ), où φ
est la fonction déterministe dénie par φ(y) = E[f (X, y)]. En particulier,
E[f (X)|B] = E[f (X)] et E[f (Y )|B] = f (Y ).
104 Mathématiques pour les systèmes dynamiques

3.4. Processus aléatoires

3.4.1. Premières dénitions


Soient (Ω, F, P) un espace de probabilité et T un ensemble d'indices.
Dénition 28 (Processus aléatoire). On appelle processus aléatoire à va-
leurs (E, B) une famille (Xt , t ∈ T ) de v.a. à valeurs (E, B) indexées par
t ∈ T.
Dans la suite de ce chapitre, nous prendrons presque toujours T = R+ et, en
quelques occasions, T = N. Dans le premier cas, on parlera de processus à temps
continu et, dans l'autre cas, de processus à temps discret. Quant à (E, B), ce
sera en général (R, B(R)) (processus réel) ou (Rd , B(Rd )) (processus vectoriel).
Notons qu'en fait un processus est une application X : Ω × T → E, telle que,
pour tout t ∈ T, X(t, ·) soit une v.a. L'application t 7→ X(t, ω) s'appelle la
trajectoire associée à la réalisation ω. Pour les processus dénis sur T = R ou
R+ , il est intéressant d'étendre les notions fonctionnelles de continuité et de
limite à droite et à gauche, comme suit.
Dénition 29 (Processus à trajectoires continues). Soit T = R+ . On
dit que le processus X est à trajectoires continues (respectivement, continue
à droite, à gauche) P-p.s. si, pour tout ω 6∈ N , P(N ) = 0, t 7→ X(t, ω) est
continue sur T (respectivement, continue à droite, à gauche).

3.4.2. Répartitions nies


Soit (Xt , t ∈ T ) un processus. On note I l'ensemble des parties nies
ordonnées de T : si I ∈ I , I = {t1 < t2 < · · · < tn }. On note |I| le cardinal de
I et PI la loi du vecteur aléatoire (Xt1 , Xt2 , · · · , Xtn ). PI est une probabilité
sur (E |I| , E ⊗|I| ) caractérisée par :

PI (A1 × A2 × · · · × An ) = P(Xt1 ∈ A1 , Xt2 ∈ A2 , · · · , Xtn ∈ An ), Ak ∈ E.


(3.39)
Dénition 30 (Répartition nie). (PI , I ∈ I) est appelée la famille des
répartitions nies du processus X .
Soient J ⊂ I et ΠI,J la projection canonique de E |I| sur E |J| , ou encore :

ΠI,J ((tk , k ∈ I)) = (tk , k ∈ J). (3.40)

L'équation (3.39) implique que :

PI ◦ Π−1
I,J = PJ , (3.41)
Probabilités et calcul stochastique 105

c'est-à-dire que, pour tout ensemble A ∈ E ⊗|J| , PJ (A) = PI (Π−1 I,J (A)). Réci-
proquement, si l'on se donne une famille de probabilité (ν I , I ∈ I), la question
se pose de savoir si ce sont les répartitions nies d'un processus. Il est clair
que, pour cela, elles doivent a minima vérier les conditions de compatibilité
(3.41). En fait, cette condition est aussi susante. Nous introduisons à cette
n l'espace canonique. On pose :

Ω = E T , Xt (ω) = ωt , F = σ(Xt , t ∈ T ), (3.42)


FI = σ(Xt , t ∈ I), I ∈ I.

Soit ΠI la projection canonique de T sur I, ΠI (xt , t ∈ T ) = (x


 t , t ∈ I). On
dénit une probabilité PI sur (Ω, FI ) par PI (A) = ν I Π−1
I (A) . La condition
(3.41) implique que si J ⊂ I , on a FJ ⊂ FI et PI |FJ = PJ . Le problème est
de prolonger les probabilités PI sur (Ω, FI ) en une probabilité sur (Ω, F ) où
F = σ(FI , I ∈ I). Notons que ce prolongement est nécessairement unique
(voir le théorème 2). On dispose à ce sujet du théorème suivant.
Théorème 15 (de Kolmogorov). En temps discret (T = N), on suppose
que (E, E) est un espace mesurable quelconque et, en continu (T = R+ ), que
(E, E) est un espace polonais3 muni de sa tribu borélienne. Soit (ν I , I ∈ I) une
famille de probabilités vériant (3.41). Alors, il existe une probabilité unique P
sur (Ω, F) dénie par (3.42) telle que le processus (Xt , t ∈ T ) soit un processus
de répartitions nies (ν I , I ∈ I).
On appellera ce processus le processus canonique de répartitions nies
(ν I , I ∈ I) et la probabilité P ainsi construite, la loi du processus X . Cette loi
est donc entièrement déterminée par la donnée des répartitions nies.
Dénition 31 (Processus équivalents). Deux processus Xt et Yt sont dits
équivalents s'ils ont même loi (ou de façon équivalente, mêmes répartitions
nies).
Exemple 6 (Suite de v.a. indépendantes). Soit (ν n , n ∈ N) une suite de
probabilités sur (E, E). Pour I = {n1 < n2 < · · · < np ) on pose :

ν I = ν n1 ⊗ · · · ⊗ ν np . (3.43)

Il est clair que l'on dénit ainsi une famille (ν I , I ∈ I) compatible (c'est-à-dire
vériant la condition (3.41)). Donc, si Ω = E N , Xn (ω) = ω n et F = σ(Xn , n ∈
N), il existe une unique probabilité P sur (Ω, F ) telle que (Xn , n ∈ N) soit une
suite de v.a. indépendantes de loi ν n .

3 Espace métrique complet séparable.


106 Mathématiques pour les systèmes dynamiques

3.4.3. Processus gaussien

Dénition 32 (Processus gaussien). Un processus réel X = (Xt , t ∈ R) est


gaussien si, pour tout t1 < t2 < · · · < tn , (Xt1 , Xt2 , · · · , Xtn ) est un vecteur
gaussien.
Soit X un processus gaussien réel. Posons :

m(t) = E[X(t)] et Γ(s, t) = E[(Xs − m(s))(Xt − m(t))]. (3.44)

Par dénition, pour tout u = [u1 , . . . , un ]T ∈ Rn et tout t1 < . . . < tn , Yn =


P
i=1 ui Xti est une v.a. gaussienne et :
n

X
n X
n
E[Yn ] = ui E[Xti ], var(Yn ) = uj uk Γ(tj , tk ),
i=1 j,k=1

et donc :
 
 Xn X
n 
E[exp(iYn )] = exp i uk m(tk ) − 1/2 uj uk Γ(tj , tk ) .
 
k=1 j,k=1

La loi N (m, Γ) du processus X est entièrement déterminée par la donnée de


m(t) (la moyenne) et Γ(s, t), que l'on appelle la fonction de covariance (ou
auto-covariance ). Remarquons que :

Γ(s, t) = Γ(t, s). (3.45)

Puisque var(Yn ) > 0, on a aussi :


X
n
∀uk , ∀tk , uj uk Γ(tj , tk ) ≥ 0. (3.46)
j,k=1

Réciproquement, donnons-nous une fonction réelle m(t) et une fonction Γ(s, t)


vériant (3.45) et (3.46). A chaque n-uplet ordonné I = {t1 < · · · < tn },
on associe la probabilité ν I , Nn (mI , KI ), où mI est le vecteur (m × 1),
mI , (m(t1 ), · · · , m(tn )) et KI est la matrice (semi-dénie) positive (KI )j,k =
Γ(tj , tk ) (1 ≤ j, k ≤ n). La famille (ν I , I ∈ I) ainsi dénie est compatible et
l'on a établi le résultat qui suit.
Théorème 16. Soient m(t) et Γ(s, t) vériant (3.45), (3.46). Il existe un
processus gaussien réel (Xt , t ∈ R), unique à une équivalence près, tel que :

m(t) = E[Xt ], Γ(s, t) = E[(Xs − m(s))(Xt − m(t))].


Probabilités et calcul stochastique 107

3.5. Le mouvement brownien

3.5.1. Dénition

Pour modéliser le mouvement d'un grain de pollen dans un liquide, le bota-


niste écossais Brown (vers 1820) a introduit un processus aléatoire Xt à valeurs
dans R2 ayant des trajectoires  irrégulières , caractérisé de la façon suivante :
(i) les accroissements Xt2 − Xt1 , · · · , Xtn − Xtn−1 sont indépendants (le pro-
cessus n'a pas de  mémoire ), (ii) pour tout h ∈ R et tout 0 ≤ s < t, les v.a.
Xt+h − Xs+h et Xt − Xs ont les mêmes lois, (iii) les trajectoires sont continues.
Un tel processus est appelé un mouvement brownien. Au début du XXe siècle,
Louis Bachelier (1900) a observé qu'un tel processus à valeurs dans R per-
mettait de modéliser le cours d'un actif, après une transformation élémentaire.
Albert Einstein (1905), Norbert Wiener (1923) et Paul Levy (1925) ont été les
premiers à développer une théorie mathématique du mouvement brownien. Ses
utilisations sont multiples et touchent aujourd'hui l'ensemble des domaines des
sciences de l'ingénieur, de l'économétrie et de la nance.
On traitera dans la suite le mouvement brownien d-dimensionnel et, tout
d'abord, le cas d = 1. Observons tout d'abord que pour un tel processus nous
avons, pour 0 ≤ t < s :

2
X
n

Xt − Xs = Xs+2−n i(t−s) − Xs+2−n (i−1)(t−s) , (3.47)
i=1

et l'accroissement Xt − Xs est donc la somme d'un grand nombre de v.a indé-


pendantes de même loi (stationnarité des incréments) et de variance tendant
vers 0 lorsque n → ∞. Le théorème 12 montre que Xt − Xs suit une loi gaus-
sienne, c'est pourquoi on introduit la dénition suivante.

Dénition 33 (Mouvement brownien). Un processus réel (Xt , t ∈ R+ ) est


un mouvement brownien issu de 0 si :

1. pour tous t1 < · · · < tn , les v.a. Xt2 − Xt1 , · · · , Xtn − Xtn−1 sont indé-
pendantes ;

2. X0 = 0 et, pour t ≥ s ≥ 0, Xt −Xs est distribué suivant une loi gaussienne


Nd (0, (t − s)) (moyenne nulle, variance (t − s)) ;

3. Xt est P-p.s. à trajectoires continues.


108 Mathématiques pour les systèmes dynamiques

Supposons qu'un tel objet existe. Alors, pour tout t1 < · · · < tn :

Xt1 = Xt1 ,
Xt2 = Xt1 + (Xt2 − Xt1 ),
..
.
Xtn = Xt1 + (Xt2 − Xt1 ) + · · · + (Xtn − Xtn−1 ),

et donc le vecteur (Xt1 , · · · , Xtn ) est gaussien, c'est-à-dire que X est un pro-
cessus gaussien. On a alors m(t) = E[Xt ] = 0 et, pour 0 ≤ s < t :

Γ(s, t) = E[Xs Xt ] = E[Xs (Xs + (Xt − Xs ))] = E[Xs2 ] = s,

d'où Γ(s, t) = min(t, s). On notera dans la suite s ∧ t , min(t, s). Notons que
la fonction s ∧ t vérie (3.45) et (3.46) puisque, posant t0 = 0 :
 
X
n X
n X
j∧k X
n X
n
u j u k tj ∧ t k = uj uk (tl − tl−1 ) = (tl − tl−1 )  u2l  ≥ 0.
j,k=1 j,k=1 l=0 l=0 j=l
(3.48)
Ceci nous assure l'existence d'un processus gaussien réel (Xt , t ≥ 0) tel que
E[Xt ] = 0 et E[Xs Xt ] = s ∧ t. Pour 0 < s < t, la v.a. Xt − Xs est distribuée
suivant une loi gaussienne de moyenne nulle et de variance t − s. Pour t1 <
t2 < t3 < t4 , E [(Xt2 − Xt1 )(Xt4 − Xt3 )] = 0. Vu les propriétés des vecteurs
gaussiens, un tel processus vérie les conditions (1) et (2) de la dénition 33.
Dénition 34 (Modication d'un processus). Un processus (Yt , t ∈ R+ )
est une modication du processus (Xt , t ∈ R+ ) si P[Xt = Yt ] = 1, ∀t ∈ R+ .
Il est clair que la condition précédente implique que les deux processus ont
même loi. On s'intéresse tout particulièrement aux modications continues X ,
c'est-à-dire à l'existence de processus Y qui soient des modications du proces-
sus X et dont les trajectoires soient presque sûrement continues. Kolmogorov
a donné un critère simple permettant de montrer qu'un processus admet une
modication continue (voir [REY 91] pour la démonstration).
Théorème 17 (de Kolmogorov). Soit X = (Xt , t ∈ R+ ) un processus à
valeurs dans (Rd , B(Rd)). Supposons que pour tout s, t :

E [|Xt − Xs |α ] ≤ C|t − s|1+β ,

avec α, β > 0. Alors X admet une modication continue.


Soit X = (Xt , t ∈ R+ ) un processus gaussien réel centré de covariance
Γ(s, t) = s ∧ t. Pour 0 ≤ s < t l'accroissement (Xt − Xs ) est distribué suivant
une loi gaussienne de moyenne nulle et de variance (t−s) et donc l'accroissement
Probabilités et calcul stochastique 109


renormalisé (Xt − Xs )/ t − s est distribué suivant une loi gaussienne centrée
de variance unité. Ceci implique que :
" 4 #
 4
 2 Xt − Xs
E |Xt − Xs | = (t − s) E √ = 3(t − s)2 , (3.49)
t−s

car E[U 4 ] = 3 si U est une gaussienne centrée réduite. En appliquant le théo-


rème 17, on voit que le processus X admet une version continue. Ceci montre
l'existence du mouvement brownien réel, processus vériant la dénition 33.
On a établi au passage le résultat suivant.
Proposition 16. Soit X = (Xt , t ∈ R+ ) un processus réel à trajectoires
continues. Alors X est un mouvement brownien si et seulement si X est un
processus gaussien réel centré de covariance Γ(s, t) = s ∧ t.
Cette proposition, conséquence élémentaire de la discussion précédente, peut
être très utile, comme l'illustre la proposition suivante.
Proposition 17. Soit (Bt , t ∈ R+ ) un mouvement brownien issu de 0. Posons
Xt = Bt+s − Bs (pour s ≥ 0), Yt = cBt/c2 (c 6= 0) et Zt = tB1/t , t > 0, Z0 = 0.
Alors, Xt , Yt et Zt sont des mouvements browniens réels issus de 0.
Démonstration : pour Xt et Yt la vérication est immédiate. Quant à Zt c'est
un processus gaussien centré et sa fonction de covariance est donnée par :
E[Zt Zs ] = tsE[B1/s B1/t ] = ts(1/s ∧ 1/t) = s ∧ t.

Evidemment, Zt est continue sur ]0, ∞[. Il reste à montrer la continuité en 0 :


" #  
0 = E lim sup |Bt | = lim & E sup |Bs |
t&0 t&0 0<s≤t
  " #
= lim & E sup |Zs | = E lim sup |Zt | ,
t&0 0<s≤t t&0

d'où |Zt | → 0 P-p.s. quand t & 0.


Remarquons qu'en prenant c = −1, la proposition précédente montre que le
processus (−Bt , t ≥ 0) est un mouvement brownien standard : c'est la symétrie
du mouvement brownien.

3.5.2. Propriétés des trajectoires du mouvement brownien


L'étude des propriétés des trajectoires du mouvement brownien est l'objet
d'une vaste littérature. Le lecteur intéressé se reportera au livre [REY 91]. Si-
gnalons les propriétés suivantes, assez grossières mais essentielles. Soit {Bt }t≥0
110 Mathématiques pour les systèmes dynamiques

un mouvement brownien réel issu de 0. Nous avons :


|Bt |
lim = 0, P-p.s., (3.50)
t→∞ t
Bt Bt
lim sup √ = +∞, P-p.s., lim inf √ = −∞, P-p.s. (3.51)
t→∞ t t→∞ t
La relation précédente implique en particulier que lim supt→∞ Bt = +∞ P-p.s.
et lim inf t→∞ Bt = −∞ et donc que le mouvement brownien  passe par tous
les points  de R et ceci, une innité de fois.
Soit π , {0 ≤ t0 < · · · < tn = t} un partage de [0, t] et soit |π| = sup |ti+1 −
ti | le pas de π . Soit f : R+ → R et :
X
n−1
V1 (π, t, f ) = |f (ti+1 ) − f (ti )|, (3.52)
i=0
X
n−1
V2 (π, t, f ) = (f (ti+1 ) − f (ti ))2 . (3.53)
i=0

On appelle V1 (t, f ) , supπ V1 (π, t, f ) la variation totale de f , le suprémum


étant évalué sur l'ensemble des partages de [0, t]. De même, on appelle V2 (t, f ) ,
supπ V2 (π, t, f ) la variation quadratique de f .
Dénition 35 (Variation nie). f est à variations nies si, pour tout t > 0,
la variation totale V1 (t, f ) est nie.
Notons que, si la fonction f est localement lipshitzienne (c'est-à-dire, si pour
tout u, v ∈ [0, t], |f (u) − f (v)| ≤ K(t, f )|u − v|), alors f est à variations nies.
La variation quadratique de la fonction de f vérie :
X
V2 (π, t, f ) ≤ K 2 (t, f )|π| |ti+1 − ti | ≤ tK 2 (t, f )|π|,
i

et donc, lim|π|→0 V2 (π, t, f ) = 0 pour une fonction localement lipshitzienne. De


façon générale, supposons que la fonction f est continue et à variations nies. f
étant continue, f est uniformément continue sur tout ensemble compact, donc :
lim sup |f (u) − f (v)| = 0.
δ→0 |u−v|≤δ,|u|≤t,|v|≤t

On peut majorer la variation quadratique par :


X X
(f (ti+1 ) − f (ti ))2 ≤ sup |f (ti+1 ) − f (ti )| |f (ti+1 ) − f (ti )|. (3.54)
i

ce qui montre que limδ→0 supπ,|π|≤δ V2 (t, π, f ) = 0. Remarquons nalement


qu'une fonction continue n'est pas nécessairement à variations nies et qu'il
existe des fonctions continues f dont la variation quadratique vérie :
lim sup V2 (t, π, f ) = 0,
δ→0 π,|π|≤δ
Probabilités et calcul stochastique 111

et qui ne sont pas à variations nies (on pourra considérer par exemple la
fonction f (s) = s sin(1/s)).
Nous allons montrer dans la suite que, presque sûrement, la variation qua-
dratique des trajectoires du mouvement brownien ne tend pas vers 0, d'où l'on
déduira que, comme le mouvement brownien est à trajectoires continues, le
mouvement brownien n'est pas à variations nies.
Proposition 18. Soit (Bt , t ∈ R+ ) un mouvement brownien réel. Alors :
V2 (π, t, B) → t, dans L2 (Ω, F , P).
|π|→0

Pn−1
Démonstration : posons ρπ , i=0 (Bti+1 − Bti )2 . On a E[ρπ ] = t et :

  X X
n−1
E (ρπ − t)2 ) = var(ρπ ) = var[(Bti+1 -Bti )2 ] = 3 (ti+1 -ti )2 ≤ 3|π|t → 0.
i=0

De toute suite Xn convergeant vers t dans L2 , on peut extraire une sous-suite


convergeant vers t P-p.s. On peut donc choisir une suite πn de partage de
l'intervalle [0, t] telle que ρπn → t P-p.s. Pour une telle suite, la relation (3.54)
montre que V1 (πn , t, B) → ∞ P-p.s. et, donc, que le mouvement brownien n'est
à variations nies sur aucun intervalle.

3.6. Filtrations, processus adaptés

Soit (Xn , n ∈ N) un processus réel. Posons Fn0 = σ(X0 , · · · , Xn ). Il est


facile de voir que A ∈ Fn0 si et seulement s'il existe une fonction f telle
que A = {ω | f (X0 (ω), · · · , Xn (ω)) = 1}, c'est-à-dire que Fn0 est constituée
des événements dont on sait s'ils ont eu lieu ou non en connaissant les va-
leurs prises par les variables X0 , · · · , Xn . On appellera Fn0 la tribu des évé-
nements antérieurs à n. En général, à l'instant n, on connaît non seulement
les valeurs prises par X0 , · · · , Xn , mais aussi les valeurs prises par d'autres
processus, par exemple, Y0 , · · · , Yn , Z0 , · · · , Zn . Dans une telle situation, on
pourra avoir intérêt à considérer que la tribu des événements antérieurs à n est
σ(X0 , Y0 , Z0 , · · · , Xn , Yn , Z) , tribu plus  grosse  que Fn0 . C'est pourquoi on
tribu plus  grosse  que Fn0 . C'est pourquoi on introduit (on suppose toujours
T = N ou T = R+ ),
Dénition 36 (Espace de probabilité ltré). Soit (Ω, F , P) un espace de
probabilité. Une famille croissante (Ft , t ∈ T ) de sous-tribus de F s'appelle une
ltration et (Ω, Ft , F, P) un espace de probabilité ltré.
Dénition 37 (Processus adapté). On appelle processus adapté à valeurs
dans (E, E), un terme X = (Ω, Ft , F , (Xt )t∈T , P), où (Ω, Ft , F , P) est un espace
112 Mathématiques pour les systèmes dynamiques

de probabilité ltré et où, pour tout t ∈ T, Xt est une v.a. à valeurs dans (E, E),
Ft -mesurable.
Soit (Bt , t ∈ R+ ) un mouvement brownien réel issu de 0. Posons Ft0 =
σ(Bs , s ≤ t). On voit que la propriété (1) de la dénition 33 peut s'énoncer de
la façon suivante : pour tout 0 ≤ s < t, Bt − Bs est indépendante de Fs0 . Ceci
conduit à la dénition d'un F -mouvement brownien.
Dénition 38 (F−mouvement brownien). Un processus réel adapté X =
(Ω, Ft , F, (Bt )t∈T , P) est un F -mouvement brownien issu de 0 si :

1. pour tout 0 ≤ s < t, la v.a. Bt − Bs est indépendante de Fs ;


2. B0 = 0 et pour tout 0 ≤ s < t, l'incrément Bt − Bs est distribué suivant
une loi gaussienne centrée et de variance (t − s) ;
3. t → Bt est à trajectoires continues P-p.s.
Soit
R t X un processus adapté. On a souvent à considérer des v.a. de la forme
ξ = 0 f (Xs )ds. Pour que ξ soit une v.a. (c'est-à-dire, que l'on sache dénir
cette intégrale), le processus (s, ω) → X(s, ω) doit être mesurable sur le produit
T × Ω muni des ltrations appropriées. Pour que ξ soit Ft -mesurable, ce qui
est une contrainte plus forte, on est amené à renforcer cette hypothèse, ce qui
conduit à la dénition suivante.
Dénition 39 (Processus adapté progressif). Un processus adapté :
X = (Ω, Ft , F , (Xt )t∈R+ , P),

à valeurs dans (Rd , B(Rd )) est progressif ou progressivement mesurable si, pour
tout t ≥ 0, (s, ω) → X(s, ω) est mesurable de ([0, t] × Ω, B([0, t]) ⊗ Ft ) dans
(Rd , B(Rd )).
On vérie facilement que tout processus continu (respectivement continu
à droite ou continu à gauche) est progressivement mesurable. On dénit une
tribu sur R+ × Ω en posant :

P = {A ∈ R+ × Ω, le processus IA (t, ω) est progressif}. (3.55)


Alors, un processus X à valeurs dans Rd est progressivement mesurable si et
seulement si l'application (t, ω) 7→ X(t, ω) est P -mesurable. On appelle P la
tribu des ensembles progressifs.

3.6.1. Temps d'arrêt


Considérons un mouvement brownien réel (Bt , t ∈ R+ ) et pour a ∈ R, soit
τ (ω) = inf{t ≥ 0, Xt (ω) = a}. On sait déjà que P(τ < ∞) = 1. Donc τ est une
Probabilités et calcul stochastique 113

v.a. à valeurs dans R+ mais elle a une propriété supplémentaire, celle d'être en
quelque sorte adaptée à Bt , au sens suivant : si l'on connaît (Bs , s ≤ t), on
sait si {τ ≤ t} a eu lieu ou non. Ce type de v.a. sera appelé un temps d'arrêt.
Soit un espace de probabilité ltré (Ω, Ft , F , P). On suppose que T = N ou
R+ , T̄ = N̄ ou R̄+ (avec N̄ = N ∪ {+∞}, R̄+ = R+ ∪ {+∞}) et on pose :
F∞ = σ(Xt , t ∈ T ). (3.56)
Dénition 40 (Temps d'arrêt). On appelle temps d'arrêt toute v.a. τ à
valeurs T̄ telle que {τ ≤ t} ∈ Ft pour tout t ∈ T.
Dénition 41 (Tribu des événements antérieurs au temps d'arrêt).
Soit τ un temps d'arrêt. La tribu des événements antérieurs à τ est la tribu :
Fτ , {A ∈ F∞ , ∀t ∈ T, A ∩ {τ ≤ t} ∈ Ft }. (3.57)
On vérie immédiatement que (3.57) dénit une tribu, que τ = t (c'est-à-
dire constant) est un temps d'arrêt et qu'alors Fτ = Ft .
Proposition 19. 1. Si τ est un temps d'arrêt, τ est Fτ mesurable.
2. Si σ et τ ont des temps d'arrêt avec τ ≤ σ , alors Fσ ⊂ Fτ .
3. Si σ et τ sont des temps d'arrêt, alors σ ∧ τ est un temps d'arrêt.
Considérons tout d'abord le cas T = N. On remarque alors que τ est un
temps d'arrêt si et seulement si, pour tout n ∈ N, {τ = n} ∈ Fn et que
Fτ = {A ∈ F∞ , ∀n, A ∩ {τ = n} ∈ Fn }. Soient X = (Ω, Fn , F , Xn , P) un
processus adapté à valeurs dans (E, B) et X∞ une v.a. F∞ -mesurable. On
dénit une nouvelle v.a. Xτ en posant :
Xτ = Xn sur {τ = n}, n ∈ N̄. (3.58)
Alors, Xτ est Fτ -mesurable puisque :
{Xτ ∈ A} ∩ {τ = n} = {Xn ∈ A} ∩ {τ = n} ∈ Fn .
L'exemple-type de temps d'arrêt est alors, pour A ∈ E :
τ A (ω) = inf{n ≥ 0, Xn (ω) ∈ A}, (3.59)
où l'on convient que inf ∅ = +∞. En eet τ A est un temps d'arrêt car :
{τ A = n} = {X0 6∈ A, · · · , Xn−1 6∈ A, Xn ∈ A} ∈ Fn .
τ A s'appelle le temps d'atteinte de A et on voit que Xτ A représente, sur {τ A <
∞}, la valeur du processus lorsqu'il entre dans l'ensemble A.
Considérons maintenant le cas T = R+ . Il y a maintenant quelques
S pro-
blèmes techniques car on ne peut plus décomposer l'espace Ω = t∈R̄+ {τ =
t}. Soit X = (Ω, Ft , F, (Xt )t∈R+ , P) un processus adapté à valeurs dans
(Rd , B(Rd )) et soit X∞ une v.a. F∞ mesurable. On pose :
Xτ (ω) = Xτ (ω) (ω). (3.60)
114 Mathématiques pour les systèmes dynamiques

Proposition 20. Si X est progressif, alors Xτ est Fτ −mesurable.


Démonstration : il s'agit de montrer que, pour tout t et tout A ∈ B(Rd ), on a :
{Xτ ∈ A} ∩ {τ ≤ t} ∈ Ft . Soit Ωt , {τ ≤ t} et considérons :

(Ωt , Ft ) → ([0, t] × Ω, B([0, t]) ⊗ Ft ) → (Rd , B(Rd )),


ω 7→ (τ (ω), ω) 7→ Xτ (ω) (ω).

L'application composée ω 7→ Xτ (ω) (ω) est mesurable, ce qui signie que :


{ω ∈ Ωt , Xτ (ω) (ω) ∈ A} = {τ ≤ t, Xτ ∈ A} ∈ Ft .

Pour A ∈ B(Rd ), posons (avec la convention inf ∅ = ∞) :


τ A (ω) = inf{t ≥ 0, Xt (ω) ∈ A}, (3.61)
ce qui conclut la preuve.
Proposition 21. Si X est à trajectoires continues et si A est fermé, alors τ A
est un temps d'arrêt.
T S
Démonstration : on a en eet {τ A ≤ t} = n s<t,s∈Q+ {d(Xs , A) < 1/n}, où
d(x, A) est la distance de x à l'ensemble A, d(x, A) , inf y∈A d(x, y)}.
Si A est ouvert et même si X est à trajectoires continues, τ A n'est pas un
temps d'arrêt de la ltration Ft0 = σ(Xs , s ≤ t). En eet, soit (Xt , t ∈ R+ )
un processus à trajectoires continues et soit A un ensemble ouvert, il existe
des trajectoires ω1 et ω2 telles que Xs (ω 1 ) = Xs (ω 2 ) pour tout s ≤ t avec
Xs (ω1 ) ∈ A pour tout s ∈]t, t + ] et Xs (ω 2 ) 6∈ A pour s ∈]t, t + ]. Il ne sut
donc pas de considérer (Xs , s ≤ t) pour décider si {τ A ≤ t} ou non : on doit
connaître (Xs , s ≤ t + ), pour  > 0, arbitrairement petit. C'est pourquoi on
introduit :
Ft+ = ∩>0 Ft+ . (3.62)
Proposition 22. Si X est un processus à trajectoires continues à droite et si
A est ouvert, alors τ A est un temps d'arrêt de Ft+ .
T S
Démonstration : ∀ > 0, {τ A ≤ t} = n s<t+1/n,s∈Q {Xs ∈ A}.
Tout ceci montre l'intérêt de ce que l'on appelle une ltration standard. Une
ltration (Ft , t ∈ R+ ) est dite standard si toutes les tribus Ft contiennent les
négligeables de F∞ et si, pour tout t ≥ 0, Ft = Ft+ . Si (Bt , t ≥ 0) est un
mouvement brownien réel issu de 0 et si l'on pose :
Ft0 = σ(Bs , s ≤ t), N = {A ∈ F∞
0
, A négligeable},

on peut montrer que Ft = σ(Ft0 , N ) est une ltration standard.


Proposition 23. Supposons la ltration Ft standard. Alors, pour tout A ∈
B(Rd ), τ A est un temps d'arrêt.
Probabilités et calcul stochastique 115

3.7. Martingales

T désignera dans la suite indiéremment R+ ou N.


Dénition 42 (Martingale, surmartingale, sous-martingale). Soit X =
(Ω, Ft , F, (Xt )t∈R+ , P) un processus adapté tel que pour tout t, Xt est intégrable.

1. Xt est une martingale si pour tout s ≤ t, E[Xt |Fs ] = Xs , P-p.s.


2. Xt est une surmartingale si pour tout s ≤ t, E[Xt |Fs ] ≤ Xs , P-p.s.
3. Xt est une sous-martingale si pour tout s ≤ t, E[Xt |Fs ] ≥ Xs , P-p.s.
Notons que ces notions gardent un sens si l'on remplace  Xt intégrable 
par  Xt mesurable positif  : on parle alors de martingale positive, de surmar-
tingale positive et de sous-martingale positive. Si Xt est une martingale (res-
pectivement, une sous-, une sur-, martingale) alors E[Xt ] est constante (respec-
tivement, décroissante, croissante). Si Xt et Yt sont des surmartingales, Xt ∧ Yt
aussi. Il résulte immédiatement de l'inégalité de Jensen conditionnelle (propo-
sition 1) que si Xt est une martingale (respectivement, une sous-martingale) et
si f est une fonction convexe telle que f (Xt ) soit intégrable (respectivement,
une fonction convexe croissante), alors f (Xn ) est une sous-martingale. Ceci
implique en particulier que si Xt est une martingale et que |Xt |p est intégrable,
p ≥ 1, |Xt |p est une sous-martingale.
Exemple 7 (Martingale canonique). Soit ξ une v.a. intégrable (ξ ∈ L1 ) et
(Ft )t≥0 une ltration. Alors, Mt , E[ξ|Ft ] est une martingale, dite canonique.
En eet, pour 0 ≤ s ≤ t et en remarquant que Fs ⊂ Ft :
E[Mt |Fs ] = E[ E[ξ|Ft ] | Fs ] = E[ξ|Fs ] = Ms .
Exemple 8 (Somme de v.a. indépendantes). Soit (X
Pn , n ∈ N) une suite
de v.a. indépendantes intégrables. Posons : S0 = 0, Sn = ni=1 Xi , F0 = {∅, Ω}
et Fn = σ(X1 , X2 , · · · , Xn ). Nous avons :
E[Sn |Fn−1 ] = E[Sn−1 |Fn−1 ] + E[Xn |Fn−1 ] (3.63)
= Sn−1 + E[Xn ]. (3.64)
En eet, (3.63) est une conséquence élémentaire de la linéarité de l'espérance
conditionnelle. Sn−1 étant Fn−1 mesurable, on a E[Sn−1 |Fn−1 ] = Sn−1 P-p.s. ;
Xn est indépendant de Fn−1 , ce qui implique E[Xn |Fn−1 ] = E[Xn ] P-p.s. et
(3.64). On voit donc que si, pour tout i, on a E[Xi ] = 0, alors Sn est une
martingale. Si E[Xi ] ≥ 0 (respectivement, E[Xi ] ≤ 0), alors Sn est une sous-
martingale (respectivement, une surmartingale).
Exemple 9 (Produit de v.a. indépendantes). Soit X1 , X2 , · · · une suite
de variables aléatoires
Qn positives indépendantes, avec E[Xk ] = 1 ∀k ∈ N. Posons
M0 = 0, Mn = i=1 Xi , F0 = {∅, Ω}, Fn = σ(X1 , X2 , · · · , Xn ). Alors on a :
E[Mn |Fn−1 ] = E[Mn−1 Xn |Fn−1 ] = Mn−1 E[Xn |Fn−1 ],
116 Mathématiques pour les systèmes dynamiques

et Mn est une martingale (car E[Xn |Fn−1 ] = E[Xn ] = 1).


Exemple 10 (Mouvement brownien). Le mouvement brownien B = {Bt}
dans R est une martingale par rapport σ(Bs , s ≤ t). En eet, pour t ≥ s :
E[Bt |Fs ] = E[Bs + (Bt − Bs )|Fs ] = Bs .

Nous avons utilisé ici la relation E[Bt − Bs |Fs ] = E[Bs − Bt ] = 0, car Bt − Bs


est centrée et indépendante de Ft .
Exemple 11 (Transformation quadratique du mouvement brownien).
Posons Mt = Bt2 − t ; Mt est une martingale par rapport à la ltration naturelle
du mouvement brownien Bt . En eet, pour t ≥ s :
E[Bt2 |Fs ] = E[(Bs + Bt − Bs )2 |Fs ]
= E[(Bt − Bs )2 ] + 2Bs E[(Bt − Bs )|Fs ] + Bs2 = t + Bs2 − s.
Exemple 12 (Martingale exponentielle). Posons Mt = exp(λBt −
(λ2 /2)t). Mt est une martingale (dite exponentielle) par rapport à σ(Bs , s ≤ t).
Remarquons tout d'abord que, si ξ est une variable gaussienne centrée réduite
(moyenne nulle, variance unité), alors :
E[exp(λξ)] = exp(λ2 /2). (3.65)
Pour s < t, nous avons, d'après les propriétés de l'espérance conditionnelle :
E[exp(λBt − λ2 t/2)] = exp(λBs − λ2 t/2)E[exp(λ(Bt − Bs )|Fs ],
= exp(λBs − λ2 t/2)E[exp(λ(Bt − Bs ))],

car Bs est Fs -mesurable et (Bt − Bs ) est indépendant de Fs . On conclut en


utilisant la relation (3.65).
En théorie des martingales, il y a trois types de résultats : les théorèmes
d'arrêt, les inégalités maximales et les théorèmes de convergence. Ces résultats
sont tout d'abord établis pour T = N, qui contient les idées intéressantes, puis
étendus au cas T = R+ , qui pose des dicultés principalement techniques.
Pour le cas discret, on pourra consulter le livre [WIL 91] et, pour le cas général,
[REY 91]. Ici, nous nous contenterons de quelques démonstrations dans le cas
discret an de familiariser le lecteur avec ces objets et techniques.

3.7.1. Théorèmes d'arrêt


Proposition 24. Soient (Xt , t ∈ T ) une sous-martingale continue à droite et
τ un temps d'arrêt. Alors Xtτ = Xt∧τ est une sous-martingale (par rapport à
la même ltration).
Probabilités et calcul stochastique 117

Remarque 2. Dans le cas T = N, l'hypothèse de continuité est superue. En


eet, puisque |Xn∧τ | ≤ |X1 | + · · · + |Xn |, Xn∧τ est intégrable et on a :
E[Xn+1
τ
−Xnτ |Fn ] = E[(Xn+1 −Xn )I{τ ≥n+1} |Fn ) = I{τ ≥n+1} E[Xn+1 −Xn |Fn ] ≥ 0,

puisque {τ ≥ n + 1} = {τ ≤ n}c ∈ Fn .
Corollaire 2. Soient (Xt , t ∈ T ) une sous-martingale continue à droite P-p.s.
et τ un temps d'arrêt borné. Alors, E[Xτ ] ≥ E[X0 ].
Théorème 18. Soient (Xt , t ∈ T ) une sous-martingale continue à droite
P-p.s. et σ ≤ τ deux temps d'arrêt bornés. Alors, on a :

E[Xτ |Fσ ] ≥ Xσ P-p.s.

Démonstration : on suppose que T = N. Soient σ ≤ τ ≤ m et A ∈ Fσ . Alors,


puisque A ∩ {σ = k} ∈ Fk et en appliquant la proposition 24 :
Z m Z
X m Z
X Z
Xτ dP = Xτ ∧m dP ≥ Xτ ∧k dP = Xσ dP
A k=0 A∩{σ=k} k=0 A∩{σ=k} A

Les résultats énoncés ci-dessus restent vrais pour les surmartingales (res-
pectivement, les martingales), en changeant ≤ par ≥ (respectivement, par =).

3.7.2. Inégalités maximales


Proposition 25. 1. Pour (Xt , t ∈ T ) une surmartingale positive continue
à droite P-p.s., on a :
P[sup Xt > a] ≤ a−1 E[X0 ]. (3.66)
t∈T

2. Pour (Xt , t ∈ T ) une sous-martingale positive continue à droite P-p.s. :


P[sup Xs > a] ≤ a−1 E[Xt ]. (3.67)
s≤t

Démonstration : on suppose T = N. Soit τ a = inf{k ≥ 0, Xk > a}. τ a est un


temps d'arrêt. On a {maxk≤n Xk > a} = {τ a ≤ n} et, sur {τ a ≤ n}, Xτ a > a.
Donc, puisque Xn ≥ 0 :
aI{τ a ≤n} ≤ Xτ a I{τ a ≤n} ≤ Xn∧τ a . (3.68)
(1) Si Xn est une surmartingale, on déduit de (3.68) et du corollaire 2 que
aP(τ a ≤ n) ≤ E[Xn∧τ a ] ≤ E[X0 ]. (3.66) s'obtient en remarquant que {τ a ≤
n} % {sup Xn > a} par application du théorème de convergence monotone.
118 Mathématiques pour les systèmes dynamiques

(2) Si Xn est une sous-martingale, alors on a d'après (3.68) :


n Z
X
aP(τ a ≤ n) ≤ E[Xτ a I{τ a ≤n} ] = Xk dP
k=0 {τ a =k}
n Z
X Z
≤ Xn dP = Xn dP ≤ E[Xn ].
k=0 τ a =k τ a ≤n

On peut obtenir des inégalités maximales pour les moments, comme suit.
Théorème 19 (de Doob). Soit (Xt , t ∈ T ) une martingale (respectivement,
une sous-martingale positive) continue à droite, telle que supt E [|Xt |p ] < ∞,
p > 1, alors :
p
k sup |Xt |kp ≤ sup kXt kp . (3.69)
t p−1 t

3.7.3. Théorèmes de convergence


Théorème 20. Soit (Xt , t ∈ T ) une sous-martingale continue à droite P-p.s.
telle que supt∈T E [|Xt |] < ∞. Alors, Xt converge P-p.s. lorsque t → ∞ vers
une v.a. X∞ et E [|X∞ |] ≤ supt∈T E [|Xt |].
Démonstration : notons d'abord que la dernière armation résulte directement
du lemme de Fatou (3.13).
 On va établir la convergence dans le cadre suivant :
T = N et supn E Xn2 < ∞, c'est-à-dire pour des martingales
  discrètes bornées
dans L2 . Puisque Xn2 est une sous-martingale, on a E Xn2 % A < ∞. Notons
que E[Xn Xn+k ] = E[ Xn E[Xn+k |Fn ] ] = E[Xn2 ], ce qui implique :
 
E (Xn+k − Mn )2 = E[Xn+k
2
] − E[Xn2 ] ≤ A − E[Xn2 ]. (3.70)
On en déduit que Xn est une suite de Cauchy dans L2 et converge donc dans L2
et, a fortiori, dans L1 . En appliquant la proposition 25 (2) à la sous-martingale
(|Xn+k − Xn |, k ≥ 0), on a :

P( sup |Xn+k − Xn | > ) ≤ −1 E [|Xm+n − Xn |] ,


k≤m

d'où, en prenant la limite en m :


P(sup |Xn+k − Xn | > ) ≤ −1 sup E [|Xk+n − Xn |] .
k≥0 m≥0

La suite Xn converge dans L1 , donc limn→∞ P(supk≥0 |Xn+k − Xn | > ) = 0,


ce qui implique que supk≥0 |Xn+k − Xn | converge vers 0 P-p.s. et que Xn est
P-p.s. une suite de Cauchy, ce qui établit la convergence de Xn P-p.s.
Probabilités et calcul stochastique 119

Exemple 13 (Loi forte des grands nombres). Soient (Yn , n ∈ N) des


variables indépendantes et identiquement
Pn distribuées, telles que E Yn2 = σ2 <
∞ et E [Yn ] = 0. Posons : Xn = k=1 k Yk . Nous avons :
−1


!1/2
  X
E [|Xn |] ≤ (E Xn )1/2 = σ
2
k −2 ,
k=1

et donc supn E [|Xn |] < ∞. Xn est une martingale. L'application directe du


résultat
P∞précédent  montre que Xn converge P-p.s. vers une v.a. X∞ et E[X∞ ] ≤
2

σ 2
k=1 k
−2
. Cette propriété permet d'établir directement la loi forte
P des
grands nombres, par application du lemme 6 suivant
P [WIL 91]. En eet, Yi /i
converge P-p.s. et le lemme montre que n−1 ni=1 Yi converge.
Lemme 6 (de Kronecker). Soit (bn ) une suite de réels strictement positifs,
avec bn % ∞. Soit (xn ) une suite réelle et sn = x1 + x2 + · · · + xn . Alors :
X   
xn sn
converge ⇒ →0 .
bn bn

Enn, on a le résultat suivant, particulièrement agréable à utiliser car il n'y


a pas d'hypothèses à vérier.
Théorème 21. Soit (Xt , t ∈ T ) une surmartingale positive continue à droite
P-p.s. Alors, Xt converge P-p.s. vers X∞ ∈ [0, ∞] et E[X∞ ] ≤ E[X0 ].

3.8. Calcul stochastique

Soit B = (Ω, Ft , F, Bt , P) un mouvement brownien réel issu


R
de 0. Pour un
processus adapté φs , on aimerait pouvoir donner un sens à 0t φs dBs . Mais on
a vu que, P-p.s., Bt (ω) n'est pas à variations bornées. Nous ne pouvons donc
pas dénir cette intégrale trajectoire par trajectoire, comme la limite de :
X
φ(s, ω)(Bti+1 (ω) − Bti (ω)),

lorsque 0 = t0 < t1 < · · · < tn = t forment un partage de [0, t] et sup |ti+1 −


ti | → 0. K. Itô a proposé la méthode globale de construction qui suit.

3.8.1. Construction de l'intégrale stochastique

Comme d'habitude, certains processus  simples  peuvent être traités.


120 Mathématiques pour les systèmes dynamiques

Dénition 43 (Processus étagé). Un processus étagé est de la forme :


X
n
φt = Ui I[ti ,ti+1 [ (t), (3.71)
i=1

où 0 ≤ t1 < · · · < tn < ∞ et où les Ui sont des v.a. Fti −mesurables bornées.
On note E l'ensemble des fonctions étagées. Pour φ ∈ E , on pose :
Z t X
n
φs dBs = Ui (Bti+1 ∧t − Bti ∧t ). (3.72)
0 i=1
Rt Rt
Proposition 26. Soient φ ∈ E, Mt = 0
φs dBS et At = 0
φ2s ds. Alors, Mt et
Mt2 − At sont des martingales.
Démonstration : on utilise le lemme 7, dont la preuve est laissée en exercice.
Lemme 7. Soient X = (Ω, Ft , F , Xt , P) un processus intégrable et 0 ≤ t0 <
· · · < tn < tn+1 = ∞. Si, pour tout i et tous (s, t) vériant ti ≤ s < t ≤ ti+1 ,
on a E[Xt − Xs |Fs ] = 0, alors Xt est une martingale.
En appliquant ce lemme pour ti ≤ s < t ≤ ti+1 , nous avons :

1. Mt − Ms = Ui (Bt − Bs ) avec Ui , Fs −mesurable et :


E[Mt − Ms |Fs ] = Ui E[Bt − Bs |Fs ] = 0 P-p.s.,

et, par conséquent, Mt est une martingale ;


2. par dénition, At − As = Ui2 (t − s) et, d'autre part :
Mt2 −Ms2 = (Mt −Ms )2 +2Ms (Mt −Ms ) = Ui2 (Bt −Bs )2 +2Ms (Mt −Ms ).

Mt étant une martingale, E[Ms (Mt − Ms )] = E[Ms E[Mt − Ms |Fs ]] = 0 et :



E[Mt2 − At − (Ms2 − As )|Fs ] = Ui2 E[(Bt − Bs )2 |Fs ] − (t − s) = 0.

Notons que la proposition 26 implique que, pour tout φ ∈ E :


Z t 
E φs dBs = 0, 0 ≤ t ≤ ∞, (3.73)
0
"Z 2 # Z 
t t
E φs dBs =E φ2s ds , 0 ≤ t ≤ ∞. (3.74)
0 0

C'est cette dernière égalité remarquable (valable pour t = ∞) qui permet la


construction de l'intégrale stochastique. Rappelons que φ est progressif si et
seuelement φ est P -mesurable. On note :
 Z ∞  
2 +
L (P, R ) = φ progressif, E φ2s ds <∞ , (3.75)
0
Probabilités et calcul stochastique 121

et L2 (P, R+ ) les classes d'équivalence de L2 (P, R+ ) pour la relation : [φ ∼ ψ]


⇔ [φ = ψ (P ⊗ λ) -p.s.], où λ est la mesure de Lebesgue. Par conséquent :

L2 (P, R+ ) = L2 (Ω × R+ , P, P ⊗ λ). (3.76)


R
On munit donc L2 (P, R+ ) de la norme kφk2L2 (P,R+ ) = E 0∞ φ2s ds.
Lemme 8. L'ensemble des processus étagés E est dense dans L2 (P, R+ ).
Démonstration : soient f dénie sur R+ de carré intégrable sur R+ et :
(
0 si t ≤ 1/n, ou t ≥ n + 1/n,
Pn f (t) = R i/n
n (i−1)/n f (s)ds si i/n ≤ t < (i + 1)/n, ∀i ∈ {1, · · · , (n2 − 1)}.

L'inégalité de Cauchy-Schwartz montre que :


Z Z !2 Z
(i+1)/n i/n i/n
2 −1
(Pn f (t)) dt = n n f (s)ds ≤ f 2 (s)ds,
i/n (i−1)/n (i−1)/n

et donc que l'application Pn : L2 (R+ ) → L2 (R+ ) est linéaire contractante :


R∞ 1/2
kPn f k2 ≤ kf k2 , où kf k2 = 0 f 2 (s)ds pour f ∈ L2 (R+ ). Pour toute
fonction f ∈ L (R ) continue à support compact, on montre facilement que :
2 +

lim kf − Pn f k2 = 0. (3.77)
n→∞

Les fonctions continues à support compact étant denses dans l'ensemble des
fonctions de carré intégrable et l'application Pn étant contractante, (3.77) est
en fait vériée pour toute fonction f ∈ L2 (R+ ).
Soit maintenant φ ∈ L2 (P, R+ ). Dénissons :

(Pn φ)(t, ω) = (Pn φ(., ω))(t).

Par construction, Pn φ est un processus étagé : Pn φ ∈ E . Notons :


Z +∞
Un (ω) = ((Pn φ)(t, ω) − φ(t, ω))2 dt.
0

L'équation (3.77) montre que Un (ω) → 0 P-p.s. et :

Un (ω) ≤ 2(kPn φ(., ω)k2 + kf (., ω)k22 ) ≤ 4kφ(., ω)k22 ,


 
et E kφ(., ω)k22 < ∞ par hypothèse. Le théorème 3 montre que :
Z ∞ 
2
E (Pn φ(t, ω) − φ(t, ω)) dt ] → 0,
0
122 Mathématiques pour les systèmes dynamiques

et on voit donc que l'application :


Z ∞
I : E → L2 (Ω, F , P), φ 7→ φs dBs ,
0

est une isométrie. Elle se prolonge de façon unique en une isométrie de


L2 (P, R+ ) dans L2 (Ω, F, P). Vu son importance, rappelons la construction
de ce prolongement. Soit φ ∈ L2 (P, R+ ). Il existe φn ∈ E telles que
kφ − φn kL2 (P,R+ ) → 0. I(φn ) est une suite de Cauchy de L2 puisque :
kI(φn ) − I(φm )k2 = kφn − φm kL2 (P,R+ ) .
Soit X = lim I(φ) dans L2 . Cette v.a. ne dépend pas du choix de la suite φn
convergeant vers φ car, si ψ n converge vers φ dans L2 (P, R+ ), alors :
kI(φn ) − I(ψ n )k2 = kφn − ψ n kL2 (P,R+ ) → 0,

et X = lim I(ψ n ) dans L2 . X , I(φ) conduit à la proposition suivante.


Proposition 27 (Intégrale stochastique). Il existe une application linéaire
unique I : L2 (P, R+ ) → L2 (Ω, F , P) telle que :
h R 2 i

1. E[I(φ)2 ] = E 0 φ2s ds ;
2. si φ = U I[s,t[ où U est Fs -mesurable bornée, alors E[I(φ)] = 0 et :
I(φ) = U (Bt − Bs ).
R∞
I est appelée intégrale stochastique de φ et notée I(φ) = 0 φs dBs .
En remarquant que φψ = 1/4[(φ + ψ)2 − (φ − ψ)2 ], on obtient :
Z ∞ 
2 +
∀φ, ψ ∈ L (P, R ), E[I(φ)I(ψ)] = E φs ψ s ds . (3.78)
0

3.8.2. Continuité de l'intégrale stochastique


On dénit :
 Z t  
2 2
L (P) , φ progressif, ∀t > 0 E φs ds < ∞ ,
0

et L2 (P) les classes de L2 (P) pour la relation d'équivalence φ ∼ ψ si φ = ψ


P ⊗ λ P-p.s. Évidemment, si φ ∈ L2 (P) alors φI[0,t] ∈ L2 (P, R+ ) pour tout
t > 0 et on peut donc dénir :
Z t Z ∞
Xt = φs dBs = I[0,t] (s)φs dBs . (3.79)
0 0
Probabilités et calcul stochastique 123

Il est important de remarquer que, pour chaque t, Xt est une classe de L2 ,


c'est-à-dire que Xt n'est dénie qu'à une équivalence près. Il se pose donc le
problème de choisir harmonieusement un représentant de cette classe. C'est
l'objectif du théorème qui suit.
Théorème 22. Soit φR ∈ L2(P). Il existe une martingale continue Mt telle
que, pour tout t, Mt = 0t φs dBs P-p.s.
R 
Démonstration : on choisit φn ∈ E telle que E 0n (φs − φns )2 ds ≤ 2−n , ce qui
implique, pour tout t ≤ n :
Z t 
2
E (φns − φn+1
s ) ds ≤ 21−n . (3.80)
0
R
On pose Mtn = 0 φs dBs qui est, par construction, une martingale continue.
t

En appliquant l'inégalité de Doob, on a alors :


 2  
E sup |Msn+1 − Msn | ≤E sup |Msn+1 − Msn |2
s≤t s≤t
Z 
  t
≤ 4E |Mtn+1 − Mtn |2 = 4E (φn+1
s − φ n 2
s ) ds ≤ 23−n .
0
P 
Ceci implique que, pour tout t, on a : E n sups≤t |Msn+1 − Msn | < ∞. On
en déduit que, pour tout t ≥ 0, Msn converge uniformément sur [0, t] P-p.s.
Il existe donc un processus continu
Rt
Mt tel que Mtn converge P-p.s. vers Mt
R
lorsque n → ∞ et, vu que Mt → 0 φs dBs dans L2 , on a Mt = 0t φs dBs P-p.s.
n

Enn, puisque Mtn → Mt dans L2 , Mt est une martingale.


Rt
Dorénavant, pour φ ∈ L2 (P), 0 φs dBs désigne la version continue de l'inté-
grale stochastique. Le lemme 8 et la proposition 26 conduisent à la proposition
suivante.
R R
Proposition 28. Soient φ, ψ ∈ L2 (P), Mt = 0t φs dBs , Nt = 0t ψs dBs .
Alors : Z t
Xt = M t Nt − φs ψ s ds,
0
est une martingale. Si τ est un temps d'arrêt borné :
Z τ 
E[Mτ Nτ ] = E φs ψ s ds .
0
Exemple 14. Pour illustrer la construction ci-dessus, nous allons démontrer
que tout mouvement brownien (Bt , t ∈ R+ ) issu de 0 (B0 = 0) vérie :
Z t
1 2 1
Bs dBs = B − t. (3.81)
0 2 t 2
124 Mathématiques pour les systèmes dynamiques

Nous allons tout d'abord chercher à déterminer un processus élémentaire dont


la limite soit précisément le processus Bs . L'idée naturelle consiste bien entendu
à  discrétiser  le processus, c'est-à-dire à découper l'intervalle [0, t] suivant
une grille régulière et à approcher Bs par un processus constant sur tous les
(n)
intervalles de cette grille. Posons tk =Ptk = k2−n pour 0 ≤ k ≤ 2n t, et tk = t
pour k > 2 t. En dénissant φn (s) = k≥0 Btk 1[tk ,tk+1 [ (s), on voit que :
n

Z  " #
t XZ tk+1
1X
2 2
E (φn (s) − Bs ) ds = E (Btk − Bt ) dt = (tk+1 −tk ) → 0,
0 tk 2
k k

et donc, que la suite de processus φn converge dans L2 (P) vers B . Par dénition
de l'intégrale stochastique, nous avons :
Z t X
Bs dBs = lim Btk (Btk+1 − Btk ).
0 n→∞
k

Notons que : Bt2j+1 − Bt2j = (Btj+1 − Btj )2 + 2Btj (Btj+1 − Btj ) et donc, que :
X 1 2 1X
Btk (Btk+1 − Btk ) = B − (Btk+1 − Btk )2 .
2 t 2
k k
P
On conclut en montrant que k (Btk+1 − Btk )2 → t dans L2 . Remarquons
que, par dénition, les variables {Btk+1 − Btk } sont des variables gaussiennes
indépendantes de moyenne nulle et de variance 2−n . Par suite :
 !2 
X  
E (Btk+1 − Btk )2 − E (Btk+1 − Btk )2 =
k
" #
X h  2 i
2 2
E E (Btk+1 − Btk ) − E (Btk+1 − Btk ) ≤ 2−n+1 .
k

Ce calcul explicite est assez fastidieux et on imagine mal comment il pourrait


s'étendre à des situations plus compliquées. Nous verrons dans la suite des
techniques de calcul systématiques (formule d'Itô) permettant d'évaluer plus
facilement les intégrales stochastiques.

3.8.3. Martingales locales


Dénition 44 (Martingales locales). Un processus (Xt , t ∈ R+ ) est une
martingale locale s'il existe une suite croissante de temps d'arrêt τ n % ∞ telle
que Ztn = Xτ n ∧t − X0 soit une martingale.
Probabilités et calcul stochastique 125

Remarque 3. Supposons de plus que Xt soit continue et que X0 = 0. Posons :


σ n = inf{t ≥ 0, |Xt | ≥ n}.
Il est clair que σ n % ∞ (une fonction continue est bornée sur tout intervalle
[0, T ], T < ∞) et que Xt∧σn ≤ n. Xt∧τ n ∧σn est donc une martingale bornée et
σ n ∧ τ n % ∞. Ainsi, dans ce cas, on peut toujours choisir la suite τ n de telle
sorte que la suite Mtτ n soit bornée.
On note M0c,loc l'ensemble des martingales locales continues nulles en 0.
Proposition 29. Si X ∈ M0c,loc est à variations nies, alors X = 0 P-p.s.
Démonstration : rappelons que Vt = supπ sumπ={t1 <···<tp } |Xti+1 − Xti |. Consi-
dérons : τ n = inf{t ≥ 0, |Xt | + |Vt | ≥ n}. Alors Xtn ≤ n et Vtn ≤ n. Par
suite, si 0 = t0 < t1 < · · · < tp = t est un partage de [0, t] dont le pas est
|π| = sup |ti+1 − ti | → 0, nous avons :
" #
X hX i
E[(Xtn )2 ] =E ((Xtni+1 )2 − (Xtni )2 ) =E (Xtni+1 − Xtni )2
i
 X 
≤ E sup |Xtni+1 − Xtni | |Xtni+1 − Xtni | ≤ n E[sup |Xtni+1 − Xtni |] → 0,
|π|→0

où la dernière inégalité est une conséquence du théorème 3 de convergence


dominée (sup |Yti+1 − Yti | →|π|→0 0 car Yt est continue et Yt est borné). Par
conséquent, Xtn = 0 presque sûrement. Il en va de même pour Xt .
On pose :
 Z t 
0
L (P) = φ progressif, ∀t ≥ 0, φ2s ds < ∞ P-p.s. , (3.82)
0

et on note L0 (P) les classes d'équivalence de L0 (P) pour la relation d'équiva-


lence : [φ ∼ ψ] ⇔ [φ = ψ (P ⊗ λ) -p.s.]. Soit :
 Z t 
2
τ p = inf t, φs ds ≥ p .
0

Notons que φs I[0,τ p [ (s) ∈ L (P) (φs I[0,τ p [ (s) est progressif et borné) et posons :
2

Z t
Mtp = φs I[0,τ p [ (s)dBs . (3.83)
0

On vérie immédiatement que, si {t < τ p }, Mtp = Mtp+1 P-p.s. On peut donc


dénir sans ambiguïté :
Mt = Mtp si t < τ p .
Par construction, Mt est un processus continu (les processus Mtp étant continus
pour tout p, en tant qu'intégrales stochastiques de processus de L2 (P)). On a
donc établi le théorème qui suit.
126 Mathématiques pour les systèmes dynamiques

Théorème 23. Il existe une application linéaire J : L0R


(P) → M0c,loc telle que,

pour tout φ ∈ L0 (P) et tout temps d'arrêt τ vériant E φ2s ds < ∞, on ait :
τ
0
Z t
[J(φ)]t∧τ = φs I[0,τ [ (s)dBs , P-p.s. (3.84)
0

R
Évidemment, on notera encore [J(φ)]t = 0t φs dBs . On prendra toutefois
R
garde à ce que 0t φs dBs n'est plus nécessairement une v.a. intégrable. Nous
concluons la discussion précédente par un résultat de localisation.
Proposition
Rt
30. Soit φ ∈ L0 (P) et A ∈ F0 . Supposons que φ ≡ 0 sur A.
Alors, 0 φs dBs = 0 P-p.s. sur A.
Démonstration : supposons que φ ∈ L2 (P). Alors :
" Z 2 # " "Z 2 ##
t t
E IA φs dBs = E IA E φs dBs |F0
0 0
 Z t   Z t 
2 2
= IA E φs ds|F0 = E IA φs ds = 0,
0 0
RT
et donc 0 φs dBs = 0 P-p.s. sur A. Si φ ∈ L0 (P), on se ramène au cas précédent
R
en introduisant les temps d'arrêt τ p = inf{t, 0t φ2s ds ≥ p}.

3.8.4. Mouvement brownien d-dimensionnel.


Un mouvement brownien d-dimensionnel issu de 0 est un processus à va-
leurs dans (Rd , B(Rd ))), les composantes de ce vecteur étant des mouvements
browniens réels issus de 0 et indépendants. On note Bt = (Bt1 , · · · , Btd ). Il ré-
sulte immédiatement de la dénition des mouvements browniens réels et des
propriétés des vecteurs gaussiens que, pour 0 < s < t, Bt − Bs est un vecteur
gaussien centré, de matrice de covariance (t − s)Id , où Id est la matrice identité
d × d. De plus, (Bt − Bs ) est indépendant de σ(Bs , s ≤ t), ce qui conduit à la
dénition suivante.
Dénition 45 (Mouvement brownien d-dim.). Un processus (Bt , t ≥ 0)
à valeurs Rd est un mouvement brownien d-dimensionnel issu de 0 si :

1. Bt − Bs est indépendant de Fs ;
2. B0 = 0 et Bt − Bs suit une loi gaussienne Nd (0, (t − s)Id );
3. Bt est presque sûrement à trajectoires continues.
Lemme 9. Soit Bt = (Bt1 , · · · , Btd ) un mouvement brownien à valeurs Rd issu
de 0. Alors, pour tout i 6= j , Bti Btj est une martingale.
Probabilités et calcul stochastique 127

Démonstration : soit s < t. Alors :

Bti Btj = (Bsi + Bti − Bsi )(Bsj + Btj − Bsj )


= Bsi Bsj + (Bti − Bsi )Bsj + Bsi (Btj − Bsj ) + (Bti − Bsi )(Btj − Bsj ),

d'où l'on déduit : E[Bti Btj |Fs ] = Bsi Bsj .


Nous allons maintenant étendre au cas vectoriel la dénition des dié-
rentes classes de processus introduites dans le cas scalaire. On note |x| =
P 1/2 Pd
d
i=1 x2i la norme euclidienne d'un vecteur de Rd et < x, y >= i=1 xi yi
le produit scalaire. On dénit :
 Z t  
L2d (P) = φ progressif à valeurs dans R , ∀t > 0, E
d 2
|φs | ds < ∞ ,
0
(3.85)
 Z t 
0 2
Ld (P) = φ progressif à valeurs dans R , ∀t > 0,
d
|φs | ds < ∞ , (3.86)
0

et L2d (P) et L0d (P) les classes d'équivalence correspondantes. Evidemment, si


φ = (φ1 , · · · , φd ) ∈ L2d (P) (respectivement L0d (P)), chaque composante φi ∈
L2 (P) (respectivement L0 (P)). On pose donc, pour chaque φ ∈ L0d (P) :
Z t d Z
X t
Mt = < φs , dBs >= φks dBsk . (3.87)
0 k=1 0

Mt est une martingale locale vectorielle et, si φ ∈ L2d (P), Mt est une martingale
de carré intégrable.
R R
Proposition 31. Soient φ, ψ ∈ L0 (P), Mt = 0t φs dBsi , Nt = 0t ψs dBsj , i 6= j .
Alors Mt Nt ∈ M0c,loc . Si φ, ψ ∈ L2 (P), Mt Nt est une martingale continue.
Démonstration : on se ramène au cas où φ, ψ sont des processus étagés et on
conclut en appliquant le lemme 9.
La proposition précédente montre de plus que, pour φ ∈ L2d ( P) :
"Z 2 # "Z 2 # Z 
t X
d t t
E < φs , dBs > = E φks dBsk =E |φs |2 ds .
0 k=1 0 0

3.9. Espaces gaussiens

Dénition 46 (Espace gaussien). Un espace gaussien (centré) est un sous-


espace fermé de L2 (Ω, F, P) constitué de v.a. gaussiennes centrées.
128 Mathématiques pour les systèmes dynamiques

Proposition 32. Soit X = (Xt , t ∈ T ) un processus aléatoire gaussien. Le


sous-espace vectoriel de L2 (Ω, F , P) engendré par les variables (Xt , t ∈ T ) est
un espace gaussien, noté H(X).
La démonstration découle immédiatement du lemme suivant.
Lemme 10. Soit (Xn , n ∈ N) une suite de v.a. réelles gaussiennes centrées. Si
Xn converge vers X dans L2 (Ω, F , P), alors X est une v.a. gaussienne centrée.
Démonstration : puisque Xn converge vers X dans L2 , alors σ 2n = E[Xn2 ] →
σ 2 = E[X 2 ]. Par conséquent, φXn (t) = exp(−σ 2n t2 /2) → exp(−σ 2 t2 /2) et Xn
converge en loi vers une loi gaussienne centrée de variance σ 2 . Comme Xn
converge vers X dans L2 , X a pour distribution N1 (0, σ2 ).
Soit (Bt , t ∈ R+ ) un mouvement brownien à valeurs dans Rd issu de 0. On
note H(B) l'espace gaussien engendré par les variables (Bti , 1 ≤ i ≤ d, t ≥ 0)
et on pose :  Z 

L2d = f borélienne, |f (t)|2 dt < ∞ . (3.88)
0
R
Proposition 33. L'application Φ : L2d → H(B), f 7→ 0∞ < f (t), dBt > est
un isomorphisme.
Démonstration : pour toute fonction f ∈ L2d , il existe une suite de fonctions
P
de la forme : fn (t) = ki=1 ank I[tnk ,tnk+1 [ (t), telle que kfn − f k2 → 0. On a
Φ(fn ) ∈ H(B) et il sut d'appliquer le lemme 10 pour avoir Φ(f ) ∈ H(B).
Réciproquement, soit X ∈ H(B). On a X = lim Xn dans 2
R ∞ L (Ω, F , P), où Xn est
une combinaison linéaire des Bt . Du fait que Bt = 0 I[0,t[ (s)dBsi , Xn admet
i i

la représentation Xn = Φ(fn ), où fn est une fonction étagée appartenant à L2d .


De ce fait, et parce que fn et fm sont déterministes, on a :
Z +∞  Z +∞
 2
 2
E |Xn − Xm | =E (fn (t) − fm (t)) dt = (fn (t) − fm (t))2 dt,
0 0

soit encore :

kfn − fm kL2 (R+ ) = kΦ(fn ) − Φ(fm )kL2 (Ω,F ,P) .

La convergence de Xn − φ(fn ) entraîne que la suite fn est une suite de Cauchy


et, donc, qu'elle converge vers f dans L2d . Par identication de la limite, il vient
Rt
X = 0 < f (t), dBt >, ce qui termine la preuve.

3.10. Processus d'Itô

Dénition 47 (Processus d'Itô). Soit B = (Ω, Ft , F , Bt , P) un mouvement


brownien à valeurs Rd issu de 0. On appelle processus d'Itô d-dimensionnel
Probabilités et calcul stochastique 129

tout processus X de la forme :


Z t Z t
Xt = X0 + < φs , dBs > + αs ds, (3.89)
0 0

où X0 est FR0 -mesurable, φ ∈ L0d (P) et αs est un processus progressif tel que,
pour tout t, 0t |αs |ds < ∞ P-p.s.
Nous utiliserons de façon équivalente la notation diérentielle :
X
d
dXt =< φt , dBt > +αt dt = φkt dBtk + αt dt. (3.90)
k=1
Remarque 4. La décomposition (3.89) est unique. En eet, si l'on considère
une seconde décomposition :
Z t Z t
Xt = X0 + < ψ s , dBs > + β s ds,
0 0

alors, en vertu de la proposition 30, on a :


Z t Z t Z t Z t
< φs , dBs > − < ψ s , dBs >= β s ds − αs ds = 0.
0 0 0 0
Exemple 15.  Le processus Xt = |Bt |2 , où Bt est un mouvement brow-
nien d-dimensionnel issu de 0 est un processus d'Itô. En eet, en utilisant
les résultats obtenus pour l'exemple 14, nous avons :
X
d d Z
X t
2
|Bt | = 2(Btk )2 = Bsk dBsk + dt. (3.91)
k=1 k=1 0

Par suite, |Bt |2 est un processus d'Itô avec :


φs = (φ1s , · · · , φds ) = (Bs1 , · · · , Bsd ), αs = d.
 Le processus Xt = Bt1 Bt2 , où Bt = (Bt1 , Bt2 ) est un mouvement brownien
dans R2 , est un processus d'Itô. Remarquons en eet que :
1 
Xt = (Bt1 + Bt2 )2 − (Bt1 − Bt2 )2 .
4
D'autre part, √12 (Bt1 + Bt2 ) et √12 (Bt1 − Bt2 ) sont deux mouvements brow-
niens réels indépendants (on remarque en eet que : E[(Bt1 + Bt2 )(Bs1 −
Bs2 )] = t ∧ s − t ∧ s = 0). Par conséquent, en utilisant (3.91), nous avons :
Z t
(Bt1 + Bt2 ) = (Bs1 + Bs2 )(dBs1 + dBs2 ),
0
Z t
(Bt1 − Bt2 ) = (Bs1 − Bs2 )(dBs1 − dBs2 ),
0
130 Mathématiques pour les systèmes dynamiques

et donc : Z t 
1
Xt = Bs2 dBs1 + Bs1 dBs2 .
2 0

Soit Ut un processus adapté à trajectoires continues et Xt un processus d'Itô


donné par (3.90). On dénit la notation intégrale :
Z t d Z
X t Z t
Us dXs = φks Us dBsk + αs Us ds. (3.92)
0 k=1 0 0
Rt Rt
Dénition
R
48 (Crochet).R Soient Xt = X0 + 0
α ds et
< φs , dBs > +
0 s
β s ds, deux processus d'Itô. On dénit le crochet
t t
Yt = Y0 + 0 < ψ s , dBs > + 0
de X et Y par :
d Z
X t
≺ X, Y t = φks ψ ks ds.
k=0 0

Soient Bti et Btj , 1 ≤ i, j ≤ d les composantes d'un mouvement brownien


d-dimensionnel. Notons que Bti est un processus d'Itô, avec φis = ei le i-ième
vecteur coordonnée et αis = 0. Par conséquent :
≺ B i , B j t = δ i,j t, (3.93)
où δ i,j est le symbole de Kronecker. On note simplement : ≺ X t ,≺ X, X t .
On voit facilement que l'application (X, Y ) 7→≺ X, Y t est bilinéaire. De plus,
dès que X (ou Y ) est à variations nies, ≺ X, Y t = 0. On peut montrer que :
 si X, Y sont des martingales locales, ≺ X, Y t est l'unique processus à
variations nies tel que Xt Yt − ≺ X, Y t soit une martingale locale ;
 P
si 0 = t0 < t1 < · · · < tn = t est un partage de [0, t] de pas |π|, alors
i=1 (Xti+1 − Xti )(Yti+1 − Yti ) converge en probabilité vers ≺ X, Y t
n

lorsque le pas |π| du partage tend vers 0.


Théorème 24 (Formule d'Itô). Soit Xt = (Xt1 , · · · , Xtd ) un processus d'Itô
d-dimensionnel et soit f ∈ C 2 (Rd ). Alors, f (Xt ) est un processus d'Itô et :
d Z
X d Z
t
∂f 1 X t ∂2f
f (Xt )−f (X0 ) = (Xs )dXsk + (Xs )d ≺ X j , X k s .
0 ∂xk 2 0 ∂xj ∂xk
k=1 j,k=1
(3.94)
Démonstration : commençons par quelques remarques permettant de simplier
la preuve. On peut en eet supposer que :

1. |X0 | ≤ M (en utilisant la proposition 30) ;


2. pour tout t ≥ 0, |Xt | ≤ M (en introduisant un temps d'arrêt τ p =
inf{t, |Xt | ≥ p} et en travaillant sur le processus arrêté) ;
Probabilités et calcul stochastique 131

3. la fonction f est deux fois continûment diérentiable à support compact


(f ∈ Ck2 ), car |Xt | ≤ M ;
4. f (x1 , · · · , xn ) = P (x1 , · · · , xn ) où P est un polynôme : en eet, pour
toute fonction f ∈ C 2 , il existe une suite de polynômes convergeant vers f
uniformément et dont les dérivées d'ordre 1 et 2 convergent uniformément
vers les dérivées correspondantes de f .

Il sut donc de montrer (3.94) pour f (x1 , x2 ) = x1 x2 , grâce au lemme 11.


Lemme 11. Soient X et Y deux processus d'Itô, alors :
Z t Z t
Xt Yt − X0 Y0 = Xs dYs + Ys dXs + ≺ X, Y t , (3.95)
0 0

et, en particulier :
Z t
Xt2 − X02 = 2 Xs dXs + ≺ X t . (3.96)
0

Démonstration : on remarque que (3.96) implique (3.95), en écrivant :


1 
Xt Yt = (Xt + Yt )2 − (Xt − Yt )2 ,
4
et il sut donc de montrer (3.96). On a Xt = X0 + Mt + Vt , avec :
Z t Z t
Mt = < φs , dBs >, At , |φs |2 ds,
0 0
Z t Z t
Vt = αs ds, |V |t , |αs |ds.
0 0

On peut supposer que X0 = 0 et |Mt | + At + |V |t ≤ K . Notons que Mt2 − At


est une martingale. Soit π un partage générique de l'intervalle [0, t], π = {0 =
t0 < t1 < t2 < · · · < tn = t}, de pas |π| = sup |ti+1 − ti |. On a (x2 − x1 )2 =
x22 − x21 − 2x1 (x2 − x1 ), d'où :
X X
(∆X(ti ))2 = Xt2 − X02 − 2 X(ti )∆X(ti ).
P
Le
P terme (∆X(ti ))2 tend vers At (lemme 13) ci-dessous et le terme
X(ti )∆X(ti ) tend vers ≺ X t (lemme 12), d'où le résultat.
Établissons maintenant les résultats techniques qui viennent d'être évoqués.
Lemme 12. Soit Kt un processus adapté continu borné, alors :
X Z t
Kti ∆X(ti ) → Ks dXs dans L2 , où ∆X(ti ) = X(ti+1 ) − X(ti ).
|π|→0 0
132 Mathématiques pour les systèmes dynamiques

P
Démonstration : en notant Ktπ = i Kti I[ti ,ti+1 [ (t), nous avons :
X Z t
Kti ∆X(ti ) = Ksπ dXs .
0

Les processus Ksπ , αs et Ks étant continus et bornés, nous avons :


Z t Z t
Ksπ αs ds → Ks αs ds P-p.s. et dans L2 .
0 |π|→0 0

Par ailleurs :
"Z 2 # Z 
t t
2 2
E (Ksπ − Ks ) < φs , dBs > =E (Ksπ − Ks ) |φs | ds ,
0 0

et, comme ci-dessus, le second terme tend vers 0 lorsque |π| → 0.


Lemme 13.
X Z t
(∆X(ti ))2 → At = |φs |2 ds dans L2 . (3.97)
|π|→0 0

Démonstration : par dénition, Xt = X0 + Mt + Vt . Donc :


X X X X
(∆Xti )2 = (∆Mti )2 + 2 ∆Mti ∆Vti + (∆Vti )2 .

Les deux derniers termes de cette somme tendent vers 0 dans L2 . En eet, le
processus t 7→ Vt étant continu :
X X Z t
2
(∆Vti ) ≤ sup |∆Vti | |∆Vti | ≤ sup |∆Vti | |αs | ds → 0.
0 |π|→0

De même, la continuité de M implique :


X X Z t

∆Vti ∆Mti ≤ sup |∆Mti | |∆Vti | ≤ sup |∆Mti | |αs |ds → 0.
0 |π|→0

Ces variables
P étant bornées, elles convergent aussi dans
P L . Il reste à montrer
2

que : (∆M (ti )) → At dans L . Comme At = ∆A(ti ), on doit montrer


2 2
|π|→0
que δ π → 0, où :
 X 2  X 2
2
δπ = E [(∆M (ti )) − ∆A(ti )] = (∆M (ti ))2 − At . (3.98)
2

Remarquons que t 7→ Mt2 −At est une martingale par construction, impliquant :
hX i
δπ , E [(∆M (ti ))2 − ∆A(ti )]2 ,
Probabilités et calcul stochastique 133

 
et, en utilisant les relations (a+ b)2 ≤ 2a2 + 2b2 et E (∆M (ti ))2 = E [∆A(ti )] :
hX i hX i
δ π ≤ 2E (∆M (ti ))4 + 2E (∆A(ti ))2
hX i hX i
≤ 2K 2 E (∆M (ti ))2 + 2KE ∆A(ti )
hX i hX i
≤ 2K 2 E ∆A(ti ) + 2KE ∆A(ti ) ≤ 2(K 2 + K)E[At ],

et donc δ π ≤ K̄ (At étant borné). On en déduit :


X 2 
2
E (∆M (ti )) ≤ 2K̄. (3.99)

Par suite, en utilisant l'inégalité de Cauchy-Schwartz :


h X i h X i
δ π ≤ 2E sup(∆M (ti ))2 (∆M (ti ))2 + 2E sup ∆A(ti ) ∆A(ti )
 X 2 
 4
 2
≤ 2E sup(∆M (ti )) E (∆M (ti )) + 2KE [sup ∆A(ti )] .

Mt et At étant continues et bornées, on a :


 
E sup(∆M (ti ))4 →|π|→0 0 et E [sup ∆A(ti )] →|π|→0 0,

et l'on conclut en appliquant (3.99).


En notation diérentielle, la formule d'Itô (3.94) s'écrit, avec Yt = f (Xt ) :
X
d
∂f 1 X ∂2f
d
dYt = (Xt ) + (Xt )d ≺ X j , X k t . (3.100)
∂xk 2 ∂xj ∂xk
k=1 j,k=1
Rt
Exemple 16 (Carré du brownien). Considérons l'intégrale It = 0
Bs dBs .
Nous avons déjà montré par un calcul direct (voir exemple 14) que It = Bt2 /2 +
t/2. Posons Xt = Bt et g(x) = x2 /2. Notons que It = g(Xt ). En appliquant la
formule d'Itô (sous sa forme diérentielle (3.100)), nous obtenons :
∂g 1 ∂2g 1
dYt = dBt + 2
d ≺ B t = Bt dBt + dt,
∂x 2 ∂x 2
ce que l'on peut écrire de façon plus suggestive en notation diérentielle :
 
1 2 1
d B = Bt dBt + dt.
2 t 2

On voit apparaître ici la diérence entre le calcul diérentiel usuel et le calcul


diérentiel stochastique.
134 Mathématiques pour les systèmes dynamiques

Exemple 17 (Martingale exponentielle). Soit φs ∈ L0d (P) et posons :


Z t Z t 
1 2
Zt = exp < φs , dBs > − |φs | ds .
0 2 0

On a donc : Zt = f (Xt ), avec f (x) = ex et Xt déni par :


Z t Z t
1
Xt = < φs , dBs > − |φs |2 ds.
0 2 0

Une application directe de la formule d'Itô (3.94) montre que :


1
dZt = f 0 (Xt )dXt + f 00 (Xt )d ≺ X t
2
1 1
= Zt < φt , dBt > − Zt |φt |2 dt + Zt |φt |2 dt = Zt < φt , dBt >,
2 2
ce que l'on peut écrire, de façon équivalente :
Z t
Zt = 1 + Zs < φs , dBs > .
0

Enh particulier,
 R est une martingale locale. Si de plus, pour tout t ∈ [0, T ],
(Zt )i
E exp 2 0 |φs | ds < ∞, alors on peut montrer (théorème de Novikov) que
1 t 2

(Zt ) est une martingale sur [0, T ].

3.11. Equations diérentielles stochastiques (EDS)

Dans toute cette section, B = (Ω, Ft , F , Bt , P) désigne un mouvement brow-


nien à valeurs dans Rd issu de 0.

3.11.1. Introduction
L'évolution de nombreux systèmes physiques est décrite par une équation
diérentielle ordinaire (EDO, voir chapitre 5) de la forme :
dx(t) = b(x(t))dt, (3.101)
mais, dans certaines circonstances, ces systèmes physiques sont perturbés par
un bruit aléatoire. Une façon de prendre en compte ces perturbations consiste
à rajouter à (3.101) un terme perturbateur de la forme σdBt , où σ caractérise
la  puissance  du bruit. Ceci conduit à une équation d'évolution de la forme :
dx(t) = b(x(t))dt + σdBt . (3.102)
Probabilités et calcul stochastique 135

La puissance du bruit peut elle-même dépendre de l'état à l'instant t :


dx(t) = b(x(t))dt + σ(x(t))dBt . (3.103)
Cependant, le mouvement brownien n'étant pas diérentiable, il faut prendre
garde que cette équation n'est pas dénie au sens du calcul diérentiel clas-
sique : il faut donner un sens à (3.103). Au vu de la discussion précédente, il
est naturel de dénir x(t) comme la solution de :
Z t Z t
x(t) = x(0) + b(x(s))ds + σ(x(s))dBs . (3.104)
0 0

Une équation de la forme (3.103) ou (3.104) s'appelle une équation diéren-


tielle stochastique (en abrégé, EDS ). Ce sont ces équations que nous étudierons
dans la suite de ce chapitre. Comme nous traitons les EDS vectorielles, nous
aurons besoin de quelques notations et dénitions complémentaires. On munit
Rm × Rd (espace des matrices réelles m × d) de la norme euclidienne :
 1/2
X
|M | =  m2i,j  , M = (mi,j ) ∈ Rm × Rd .
i,j

Si Rσs est un processus progressif à Rvaleurs dans Rm × Rd et tel que, pour tout
t, 0 |σ s |2 ds < ∞ P-p.s., on dénit 0 σ s dBs composante par composante par :
t t

Z t  d Z
X t
s dBs , i ∈ {1, · · · , m}.
σ i,j j
σ s dBs =
0 i j=1 0

C'est un processus à valeurs (R , B(Rm )). Notons que l'on a encore :


m
" Z 2 # Z t 
t
E σ s dBs = E |σ s |2 ds . (3.105)
0 0
Dénition 49 (Solution d'une EDS). On considère un champ de matrices
(t, x) 7→ σ(t, x) et un champ de vecteurs (t, x) 7→ b(t, x) que l'on suppose
B(R+ ) × B(Rd )−mesurable. On appelle solution de l'EDS :
dXt = b(t, Xt )dt + σ(t, Xt )dBt , X0 = η ∈ Rm , η F0 -mesurable, (3.106)
tout processus Xt à valeurs dans R tel que, pour tout t : m
Z t Z t
2
|σ(s, Xs )| ds < ∞, |b(s, Xs )|ds < ∞ P-p.s.,
0 0
et vériant :
Z t Z t
Xt = η + b(s, Xs )ds + σ(s, Xs )dBs P-p.s. (3.107)
0 0

Il nous reste maintenant à trouver des conditions réalistes sous lesquelles


des EDS de la forme (3.106) admettent des solutions au sens de (3.107).
136 Mathématiques pour les systèmes dynamiques

3.11.2. Solution des EDS : cas lipshitzien


Théorème 25. Supposons que, pour tous x, y ∈ Rd et tout t ≤ T, on ait :
|b(t, x) − b(t, y)| + |σ(t, x) − σ(t, y)| ≤ A(T )|x − y|, (3.108)
|b(t, x)| + |σ(t, x)| ≤ A(T )(1 + |x|). (3.109)
Alors, pour tout η ∈ L2 (F0 ), l'équation (3.106) a une solution unique L2m (P).
Cette solution a une version presque sûrement continue en t, qu'on notera Xtη .
Démonstration : on xe T > 0 et on note :
( "Z # )
T
H= φ progressif à valeurs Rm , E |φs |2 ds < ∞ . (3.110)
0

H = L2 (Ω × [0, T ], P, P ⊗ λ), H est donc un espace de Banach pour la norme


 hR i1/2
T
kφkH = E 0 |φs |2 ds . On pose, pour φ ∈ H :
Z t Z t
(U φ)t = η + b(s, φs )ds + σ(s, φs )dBs . (3.111)
0 0
 
En utilisant (3.109), on montre que sup0≤t≤T E |U (φ)t |2 < ∞ :
Z 2 Z Z
 t   t  T  
E σ(s, φs )dBs = E |σ(s, φs )|2 ds ]A2 (T ) (1 + E |φs |2 )ds < ∞.
0 0 0

Nous avons de même :


 2 
Z T Z T
 

E  b(s, φs )ds  ≤ A(T )2 (1 + E |φs |2 )ds < ∞,
0 0

et donc φ 7→ U φ dénit une application de H → H . On a alors, pour φ, ψ ∈ H ,


pour t ≤ T et sous la condition (3.108) :
h i
E |(U φ)t − (U ψ)t |2
Z t  Z t 
2 2
≤ 2t E |b(s, φs ) − b(s, ψs )| ds + 2E |σ(s, φs ) − σ(s, φs )| ds
0 0
Z t  
≤ K(T ) E |φs − ψ s |2 ds.
0

On dénit, pour φ ∈ H :
"Z #
T
−ct 2
kφkc = E e |φs | ds . (3.112)
0
Probabilités et calcul stochastique 137

k.kc est évidemment une norme équivalente à k.k et on a, pour φ, ψ ∈ H :


Z T
 
k(U φ) − (U ψ)k2c = E |U φt − U ψ t |2 e−ct dt,
0
Z Z
T t  
≤ K(T ) E |φs − ψ s |2 e−cs e−c(t−s) ds dt,
0 0
Z T e−cs Z
  T
≤ K(T ) E |φs − ψ s |2 e−c(t−s) dt
0
|s {z }
≤ 1c

K(T )
≤ kφ − ψk2c .
c
En choisissant c assez grand, on a K(T )/c < 1. U : H → H est alors une
application contractante et on conclut grâce au théorème du point xe.
Lemme 14 (Point xe). Soit B un espace de Banach, U : B → B une
application contractante, c'est-à-dire telle que kU (x) − U (y)k ≤ ρkx − yk avec
ρ < 1. Alors il existe un unique x tel que U (x) = x.
Il faut noter que Xtη , la solution continue de (3.106) de donnée initiale η,
n'est pas une solution  trajectoire par trajectoire , mais une solution globale.
Nous avons toutefois le résultat suivant, conséquence de (3.111).
Corollaire 3. Sous les hypothèses du théorème 25, Xtη = Xtη P-p.s. sur η = η0 .
0

Exemple 18 (EDS linéaires). Nous développerons au paragraphe 3.11.5 une


théorie générale des EDS linéaires. Nous présentons ici le cas simple suivant :
b(s, x) = b1 x + b0 , σ(s, x) = σ 0 + σ 1 x,
dXt = (b1 Xt + b0 )dt + (σ 0 + σ 1 Xt )dBt , X0 = η ∈ L2 (F0 ).
On vérie aisément que b(s, x) et σ(s, x) satisfont les hypothèses du théorème 25
pour tout T . Cette EDS admet donc une solution  globale  sur tout intervalle
[0, T ], T > 0 et pour tout choix des constantes bi et σ i . Le choix particulier
b0 = 0 et σ 0 = 0 correspond à l' équation de Langevin (1908), utilisée pour
modéliser la  vélocité  d'une particule brownienne. En notation diérentielle,
cette équation est de la forme :
dXt = bXt + σdBt
et peut être donc interprétée comme la perturbation de l'équation diérentielle
linéaire ẋ = bx intervenant, par exemple, dans les équations du mouvement
en mécanique classique. Sa solution, pour une condition initiale η, est donnée
par : Z t
Xt = ebt η + e(t−s)b σdBs .
0
On se reportera au théorème 28 pour la démonstration.
138 Mathématiques pour les systèmes dynamiques

Exemple 19 (Mouvement brownien géométrique). On considère l'équa-


tion diérentielle stochastique suivante sur R (γ et ρ ∈ R) :
Z t Z t
Xt = η + γ Xs ds + σ Xs dBs . (3.113)
0 0

Les hypothèses du théorème 25 sont vériées (b(t, x) = γx, σ(t, x) = σx) et


l'EDS (3.113) a une solution. Considérons tout d'abord le cas où γ = 0 :
dXt = σXt dBt , X0 = η. (3.114)
2
Nous avons déjà démontré (voir l'exemple 17) que Zt = exp(λBt − λ2 t) vérie :
dZt = λZt dBt , Z0 = 1. L'unicité des solutions des EDS montre que (3.114) a
pour solution :
λ2
Xt = η exp(σBt − t). (3.115)
2
Considérons maintenant le cas σ = 0 :
dXt = γXt dt, X0 = η.
Il s'agit ici d'une équation diérentielle ordinaire (seule la condition initiale
est aléatoire). Cette équation admet comme solution explicite :
Xt = η eγt . (3.116)
Cherchons maintenant la solution de (3.113) dans le cas général. Le procédé
que nous allons utiliser est assez général. Remarquons que les deux solutions
particulières que nous avons trouvées sont de la forme Xt = f (t, Bt ), où
(t, x) 7→ f (t, x) est une fonction C ∞ → R2 . Supposons maintenant que les
solutions de l'équation (3.113) sont de cette forme et cherchons alors à identi-
er la fonction f . On note :

fi (t, x) = f (x1 , x2 ) (x1 ,x2 )=(t,x) , i = 1, 2,
∂xi
∂2
fij (t, x) = f (x1 , x2 ) ((x1 ,x2 )=(t,x) , i, j = 1, 2.
∂xi ∂xj
La formule d'Itô montre que :
Z t Z t
1
Xt = η + (f1 (s, Bs ) + f22 (s, Bs ))ds + f2 (s, Bs )dBs . (3.117)
0 2 0

En identiant les termes de ce développement avec (3.113), nous aboutissons


au système d'équations :
1
γf (t, x) = f1 (t, x) + f22 (t, x), (3.118)
2
σf (t, x) = f2 (t, x). (3.119)
Probabilités et calcul stochastique 139

En dérivant l'équation (3.119) par rapport à x, on a : σ 2 f (t, x) = f22 (t, x) et


le système (3.118)-(3.119) peut se réécrire de façon plus simple :
(c − σ 2 /2)f (t, x) = f1 (t, x), σf (t, x) = f2 (t, x).
Nous allons chercher à résoudre ce système sous la forme f (t, x) = g(t)h(x).
Les équations précédentes se réécrivent alors :
(c − σ 2 /2)g(t) = g 0 (t), σh(x) = h0 (x).
Ces deux équations diérentielles admettent des solutions explicites :
g(t) = g(0) exp((c − σ 2 /2)t), h(x) = h(0) exp(σx).
La solution de (3.113) est donc donnée par :
Xt = f (t, Bt ) = η exp[(c − σ 2 /2)t + σBt ].
Ce processus est appelé le mouvement brownien géométrique. Il est utilisé en
mathématique nancière pour modéliser le prix d'un actif risqué (risky asset).
De façon intuitive, dXt /Xt = cdt + σdBt est le retour relatif (relative return)
de l'actif risqué sur une période élémentaire dt. Ce retour relatif est fonction
d'une tendance cdt perturbée par un terme de bruit σdBt . c > 0 est appelé le
taux d'intérêt (mean rate of return), et σ la volatilité.
Il est possible de généraliser ce modèle et de considérer le processus :
Z t Z t
Xt = η + c(s)Xs ds + σ(s)Xs dBs , t ∈ [0, T ].
0 0

On montre, par des arguments similaires, que la solution de cette EDS est :
Z t Z t 
2
Xt = η exp (c(s) − 1/2σ (s)]ds + σ(s)dBs , t ∈ [0, T ].
0 0

3.11.3. Dépendance en fonction des conditions initiales


Nous commençons par deux résultats techniques.
Lemme 15. 1. Soit (bt ) un processus à valeurs dans Rm . On a, pour p ≥ 1 :
 Z p  Z t 
s
E sup
bu du ≤t E
p−1
|bu | du .
p
(3.120)
s≤t 0 0

2. Soit (σt ) un processus progressif à valeurs Rm × Rd . On a, pour p ≥ 2 :


 Z p  Z t 
s
E sup σ u dBu ≤ Kp (t)E |σ u |p du . (3.121)
s≤t 0 0
140 Mathématiques pour les systèmes dynamiques

Démonstration : (1) on a, en appliquant l'inégalité de Jensen :


 Z p  "Z p # Z t 
s t
E sup bu du ≤E |bu | du ≤ tp−1 E |bu |p du .
s≤t 0 0 0

(2) En travaillant composante


Rt
par composante, on peut se ramener au cas
d = 1. On pose Mt = 0 σ s dBs . On peut supposer que Mt est bornée (en
introduisant un temps d'arrêt). Mt est une martingale
 et l'inégalité maximale de
Doob (théorème 19) montre que : E sups≤t |Ms |p ≤ cp E [|Mt |p ] . Appliquons
maintenant la formule d'Itô à la fonction f (x) = |x|p :
Z Z
t
p(p − 1) t
|Mt |p = f 0 (Ms )σ s dBs + |Ms |p−2 sign(Ms )σ 2 (s) ds.
0 2 0
Ceci implique :
 Z t 
E [|Mt | ] ≤ Ap E sup |Ms |
p p−2
σ 2s ds ,
s≤t 0
   p−2 " Z p #! p2
p t 2 2
≤ Ap E sup |Ms |p
E σ s ds (Hölder)
s≤t 0
 Z t  p2
p−2
≤ Āp (t) (E [|Mt | ]) p p
E |σ s | ds
p
,
0
p−2
d'où le résultat, en divisant par (E [|Mt | ]) p . p

Lemme 16 (de Gronwall). Si f ≥ 0 est intégrable sur [0, T ], alors on a :


 Z 
t  
∀t ∈ [0, T ], f (t) ≤ a + b f (s) ds ⇒ f (t) ≤ aebt .
0

Démonstration : on a, par substitutions successives :


Z t Z t Z s
f (t) ≤ a + b f (s) ds ≤ a + bat + b ds f (u) du
0 0 0
X
n Z X
n Z
(bt)k (t − v)n t
(bt)k tn t
≤a +b f (u)n+1
dv ≤ a + bn+1 f (u) dv,
0
k! 0 n! 0
k! n! 0
n R
d'où le résultat, du fait que : bn+1 tn! 0t f (u) dv −−−−→ 0.
n→∞
Proposition 34. Sous les hypothèses du théorème 25, on a, pour p ≥ 2 :
 
E sup |Xsη − η| p
≤ C1 (p, t)(1 + E[|η|p ]), ∀η ∈ Lp , (3.122)
s≤t
 
0
E sup |Xsη − Xsη |p ≤ C2 (p, t)E [|η − η 0 |p ] , ∀η, η 0 ∈ Lp . (3.123)
s≤t

La première inégalité entraîne que si η ∈ Lp , il en va de même pour Xtη .


Probabilités et calcul stochastique 141

0
Démonstration : posons X = X η et X 0 = X η :
Z Z
 s s
|Xs − η|p ≤ 2p−1 | σ u (Xu ) dBu |p + | bu (Xu ) du|p .
0 0

En appliquant le lemme 15, nous avons donc :


   Z t  Z t 
E sup |Xs − η| p
≤ C1 E |σ s (Xs )| ds + E
p
|bs (Xs )| ds ,
p
s≤t 0 0

et, en utilisant l'équation (3.109), il vient :


  Z t
E sup |Xs − η|p ≤ C2 (1 + E [|Xs |p ]) ds, (3.124)
s≤t 0
E [|Xt |p ] = E [|η + Xt − η|p ] ≤ C3 (E [|η|p ] + E [|Xt − η|p ])
Z t
≤ C4 (1 + E [|η|p ]) + C5 E [|Xs |p ] ds,
0

d'où, en appliquant le lemme de Gronwall : E [|Xt |] ≤ C6 (1 + E [|η|p ]), que l'on


reporte dans (3.124). La première inégalité (3.122) est ainsi démontrée. Pour
(3.123), on utilise (a+ b + c)p ≤ 3p−1 (ap + bp + cp ). Soit 4b = b(s, Xs )− b(s, Xs0 )
et soit 4σ = σ(s, Xs ) − σ(s, Xs0 ). Alors, en appliquant le lemme 15 :
    Z s 
E sup |Xs − Xs0 |p ≤3 p−1 0 p
E [|η − η | ] + E sup | 4b ds| p
s≤t s≤t 0
 Z s 
+E sup | 4σ dBs | p
s≤t 0
 Z t  Z t 
≤ C1 E [|η − η 0 |p ] + E |4b|p ds + E |4σ|p ds ,
0 0
Z t
≤ C2 E [|η − η 0 |p ] + C3 E [|Xs − Xs0 |p ] ds,
0
Z t  
0 p 0 p
≤ C2 E [|η − η | ] + C3 E sup |Xu − Xu | ds.
0 u≤s
 
Vu (3.123), f (t) = E sups≤t |Xs − Xs0 |p est nie et, en lui appliquant le lemme
de Gronwall, on obtient : E sups≤t |Xs − Xs0 |p ≤ C ∗ E [η − η0 |p ] . La seconde
inégalité, (3.123), est ainsi démontrée.
Si l'on applique la proposition 34 à η = x et η0 = x0 , on obtient pour p ≥ 2 :
 
0
E sup |Xsx − Xsx |p ≤ C(p, t)|x − x0 |p . (3.125)
s≤t

Le théorème de Kolmogorov (théorème 17) admet la généralisation suivante.


142 Mathématiques pour les systèmes dynamiques

Théorème 26 (de Kolmogorov généralisé). Soit (Ztx , t ≥ 0, x ∈ Rm ) une


famille de v.a. continues en t pour tout x, vériant pour tous x, y ∈ Rm :
 
E sup |Zs − Zs | ≤ a(t, q)|x − y|m+ , q > 1,  > 0.
x y q
s≤t

Alors, il existe un processus Z(t, x) continu en (t, x) tel que, pour tout x,
Z(t, x) = Ztx P-p.s.
Ce théorème et (3.125) impliquent qu'il existe un processus Xt (x) continu en
(t, x) et solution, pour tout x, de (3.106) avec η = x comme condition initiale.
C'est cette solution que nous choisirons dorénavant.
Proposition 35. Pour tout η ∈ L2 (F0 ), on a Xtη = Xt (η) P-p.s. pour tout t
(on pourra se reporter à la page 137 pour la dénition précise de Xtη ).
Démonstration : si η est étagée, ceci résulte directement du corollaire 3. Si
η ∈ L2 (F0 ), on choisit η étagée telle que η n → η dans L2 et P-p.s. ; alors,
d'après la proposition 34, Xtηn → Xtη dans L2 et, d'après la continuité en x,
on a Xt (η n ) → Xt (η), donc Xtη = Xt (η) P-p.s. La continuité en t montre que
cette égalité est vraie P-p.s. pour tout t.

3.11.4. Caractère markovien des solutions


On sait que, pour s xé, (Bt+s − Bs , t ≥ 0) est encore un mouvement brow-
nien issu de 0. On peut donc considérer, pour t ≥ s, la solution de l'équation
diérentielle stochastique :
Z t Z t
Xt = η + b(u, Xu )du + σ(u, Xu )dBu . (3.126)
s s

Notons que si η = x, cette solution ne dépend que de σ(Bu − Bs , s < u ≤ t).


Théorème 27. Pour s ≥ 0 et b, σ des fonctions vériant (3.108)-(3.109), il
existe Xt (x, s) processus continu en (t, x) et σ(Bu − Bs , s < u ≤ t)-mesurable,
tels que pour tout η ∈ L2 (F0 ), Yt = Xt (η, s) soit l'unique solution de :
Z t Z t
Yt = η + b(u, Yu )du + σ(u, Yu )dBu , t ≥ s. (3.127)
s s
Proposition 36. s ≤ t ≤ t + h ⇒ Xt+h (η, s) = Xt+h (Xt (η, s), t) P-p.s.
Cette proposition montre que, pour prédire Xt+h (η, s) connaissant Xu (η, s)
pour u ≤ t, il sut de connaître Xt (η, s). Autrement dit, le processus aux
instants postérieurs à t ne dépend du processus aux instants antérieurs à t
que par la valeur du processus à l'instant t. Cette propriété remarquable est la
propriété de Markov.
Probabilités et calcul stochastique 143

Démonstration : soit ξ u = Xu (η, s). On a, pour u ≥ t :


Z u Z u
ξu = η + b(v, ξ v ) dv + σ(v, ξ v ) dBv
s s
Z t Z t Z u Z v
=η+ b(v, ξ v ) dv + σ(v, ξ v ) dBv + b(v, ξ v ) dv + σ(v, ξ v ) dBv ,
s
Z u s
Z u t t

= Xt (η, s) + b(v, ξ v ) dv + σ(v, ξ v ) dBv ,


t t

et l'unicité des solutions implique que ξ u = Xu (Xt (η, s), t), u ≥ t.

3.11.5. Equations diérentielles stochastiques linéaires


Nous étudions dans cette partie les EDS linéaires, dénies par :
dXt = (F (t)Xt + f (t)) dt + G(t) dBt , X0 = η, (3.128)
où t 7→ F (t) et t 7→ G(t) sont des fonctions continues à valeurs dans Rd×d ,
t 7→ f (t) est une fonction continue à valeurs dans Rd , Bt est un brownien
d-dimensionnel et η est F 0 -mesurable.
On vérie facilement que les hypothèses du théorème 25 sont satisfaites. Il y
a donc existence et unicité de la solution. Intéressons-nous d'abord à la solution
de l'équation déterministe matricielle associée, qui est linéaire non autonome4 :
Φ̇(t) = F (t)Φ(t). (3.129)
Pour toute condition initiale (t0 , Φ0 ), elle admet une solution unique non singu-
lière Φ(t; t0 , Φ0 ) dénie sur tout intervalle [t0 , t0 + T ]. Les solutions de (3.129)
sur [t0 , t0 + T ] forment un espace vectoriel. Dans le cas autonome F (t) = F ,
elles sont données par : Φ(t; t0 , Φ0 ) = Φ0 eF (t−t0 ) .
Considérons maintenant la solution Φ(t) , bΦ(t; 0, Id ) de (3.129) pour la
condition initiale t0 = 0 et Φ0 = Id . Cherchons une solution de (3.128) sous la
forme Xt = Φ(t)Ct , où Ct est un processus d'Itô. On doit avoir :
dXt = Φ̇(t)Ct dt + Φ(t) dCt
= F (t)Xt dt + f (t) dt + G(t) dBt .

En identiant ces représentations et puisque Φ̇(t)Ct = Ft Ct , nous obtenons :


Φ(t) dCt = f (t) dt + G(t) dBt ,
dCt = Φ−1 (t)f (t) dt + Φ−1 (t)G(t) dBt ,
4
Le lecteur se référera au chapitre 5 pour les notions relatives aux EDO déterministes et
à leur stabilité.
144 Mathématiques pour les systèmes dynamiques

et, nalement :
 Z t Z t 
Xt = Φ(t) η + Φ−1 (s)f (s) ds + Φ−1 (s)G(s) dBs . (3.130)
0 0

On vérie a posteriori, grâce à la formule d'Itô, que (3.130) satisfait (3.128).


De même qu'en dimension 1, on dit qu'un processus (Xt , t ≥ 0) à va-
leurs dans Rd est gaussien si, pour tout 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , le vecteur
(Xt1 , · · · , Xtn ) est gaussien. Ceci implique que, pour tout uk ∈ Rd :

X
n
Yn = uTk Xtk , (3.131)
k=1

est une v.a. gaussienne. Posons alors :

m(t) = E[Xt ], K(s, t) = Γ(Xs , Xt ) = E[(Xs − m(s))(Xt − m(t))T ]. (3.132)

On a évidemment K(s, t) = K T (t, s) et la v.a. Y n vérie :


X
n X
m
E[Y n ] = uTk m(tk ), var(Y n ) = uTj K(tj , tk )uk .
k=1 j,k=1

On a donc :
" !#  
X
n X
n
1 X
n
E exp i uTk Xtk = E i uTk m(tk ) − uTj K(tj , tk )uk  ,
2
k=1 k=1 j,k=1
(3.133)
ce qui montre que la loi du processus (Xt , t ≥ 0) est entièrement déterminée
par la donnée de la moyenne t 7→ m(t) et de la fonction de covariance (s, t) 7→
K(s, t).
Proposition 37. Si η suit une loi gaussienne, le processus Xt déni par
(3.130) est gaussien.
Démonstration
R t −1
: considérons l'espace H(B) (voir section 3.9). Les composantes
de Φ(t) 0 Φ (s)G(s) dBs sont dans H(B). De plus, elles sont indépendantes
Rt
de F0 . Comme η est F0 -mesurable gaussienne et Φ(t) 0 Φ−1 (s)f (s) ds est dé-
terministe, ceci implique que Xt est un processus gaussien.
On considère le processus Xt déni par (3.130). Calculons la moyenne m(t)
et la fonction de covariance K(s, t), dénis par (3.134). On a :
 Z t 
−1
m(t) = Φ(t) m(0) + Φ (s)f (s) ds , (3.134)
0
Probabilités et calcul stochastique 145

et si l'on pose V (t) = K(t, t), il vient :


 Z s 
−1 −T
K(s, t) = Φ(s) V (0) + Φ (u)G(u)G(u) Φ T
(u) du Φ(u), s ≤ t,
0
(3.135)
Z tZ s
V (t) = Φ(t)V (0)Φ(t)T + Φ(t) Φ−1 (u)G(u)G(u)T Φ−T (u) du Φ(t)T .
0 0
(3.136)
On en déduit facilement des systèmes d'équations diérentielles vériées par
les fonctions t 7→ m(t), t 7→ V (t) et t 7→ K(s, t) :
ṁ(t) = F (t)m(t) + f (t), m(0) = E[η], (3.137)
V̇ (t) = F (t)V (t) + V (t)F (t) + G(t)G (t), V (0) = E[ηη ],
T T
(3.138)
T

∂K
(s, t) = K(s, t)F T (t), t > s, K(s, s) = V (s), K(s, t) = K T (t, s). (3.139)
∂t
Ces équations n'admettent en général pas de solution explicite. Si l'on suppose
maintenant que l'équation linéaire est à coecients constants :
F (t) ≡ F, G(t) ≡ G, f ≡ 0, (3.140)
on a alors Φ(t) = etF et :
Z t
Xt = etF η + e(t−s)F GdBs , (3.141)
0
 Z t 
V (t) = etF V (0) + e−sF GGT (e−sF )T ds et F, (3.142)
0
V̇ (t) = F V (t) + V (t)F T + GGT , V (0) = E[ηη T ]. (3.143)

Supposons de plus que F est une matrice de Hurwitz : alors il existe M < ∞
et λ > 0 tels que |etF | ≤ M e−λt pour tout t > 0. On cherche à savoir sous quelle
condition le processus Xt est stationnaire, c'est-à-dire que pour tout h > 0 et
tout 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn :
(Xt1 +h , · · · , Xtn +h ) et (Xt1 , · · · , Xtn ) ont même loi.
On doit alors avoir V (t) = V (0) = V et V̇ (t) = 0 pour tout t. La condition
(3.144) implique l'équation de Liapounov suivante :
F V + V F T = −GGT , (3.144)
qui, dans ce cas, a une solution unique dénie positive (voir pages 214 ou
335). On conclut que la solution de condition initiale η qui a pour distribu-
tion Nd (0, V ) est stationnaire.
R∞
Il est possible d'expliciter cette solution puisque
(3.142) montre que : V = 0 esF GGT esF ds. On a donc établi le théorème
T

qui suit.
146 Mathématiques pour les systèmes dynamiques

Théorème 28 (de Langevin).


1. L'équation : dXt = F Xt dt + GdBt , X0 = η a pour solution :
Z t
tF
Xt = e η + e(t−s)F GdBs . (3.145)
0

2. Si la matrice F est de Hurwitz et si η est RF0 -mesurable et distribuée sui-


vant une loi gaussienne Nd (0, V ), où V = 0∞ esF GGT esF ds est l'unique
T

solution de l'équation de Liapounov (3.144), alors le processus (Xt ) est


gaussien centré de covariance K(s, t) = V e(t−s)F .
Exemple 20 (Modèle de Vasicek). Considérons l'équation diérentielle :
dXt = c[µ − Xt ]dt + σdBt .

où c, µ et σ sont des constantes positives. Cette équation est utilisée pour mo-
déliser un processus qui uctue autour d'une moyenne µ. Lorsque Xt s'écarte
de µ, le terme de dérive (µ − Xt )dt  rappelle  le processus Xt vers sa valeur
moyenne. L'intensité de cette force de rappel est ajustée par la constante c. Le
troisième paramètre σ mesure l'ordre de grandeur des uctuations autour de la
moyenne µ. Ce processus est un cas particulier d'EDS linéaire homogène. La
solution est donnée explicitement par (3.145) :
Z t
Xt = ηe−ct + µ(1 − e−ct ) + σe−ct ecs dBs .
0

Si η est une variable gaussienne F0 -mesurable, alors Xt est un processus


gaussien. Lorsque µ = 0, le processus Xt est appelé processus de Ornstein-
Uhlenbeck. On calcule aisément sa moyenne et sa variance :
E[Xt ] = E[η 0 ]e−ct + µ(1 − e−ct ),
σ2
var(Xt ) = (1 − e−2ct ).
2c
Lorsque t → ∞, la v.a. Xt converge en loi vers une v.a. gaussienne
N (µ, σ 2 /(2c)).

3.12. Bibliographie
[BIL 95] Billingsley P., Probability and measure, 3e édition, John Wiley and Sons,
1995.
[BIL 99] Billingsley P., Convergence of probability measure, Wiley series in Pro-
bability and Statistics, 2e édition, 1999.
[DUR 91] Durett R., Probability : theory and examples, Brookscole, 1991.
Probabilités et calcul stochastique 147

[DUR 96] Durret R., Pinsky M., Stochastic calculus : a practical introduction,
Probability and Stochastic Series, CRC, 1996.
[FEL 68] Feller W., An introduction to probability theory and its application, John
Wiley & Sons, 1968.
[HOR 91] Horn R., Johnson C., Topics in matrix analysis, Cambridge University
Press, 1991.
[KAR 97] Karatzas I., Shreve S., Brownian motion and stochastic calculus, Gra-
duate texts in mathematics, Springer-Verlag, 2e édition, 1997.
[OKS 98] Oksendal B., Stochastic dierential equations, Universitext, Springer,
1998.
[RES 98] Resnick S., Probability path, Springer-Verlag, 1998.
[REV 97] Revuz D., Probabilité, Herman, Paris, 1997.
[REY 91] Revuz D., Yor M., Continuous martingales and Brownian motion, Sprin-
ger, 1991.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[SCH 93] Schwartz L., Analyse - tome 4 : théorie de la mesure et applications,
Hermann, 1993.
[WIL 91] Williams D., Probability with martingales, Cambridge Mathematical Text-
books, 1991.
'(8;,Ê0( 3$57,(

6\VWqPHVG\QDPLTXHV
Chapitre 4

Outils de géométrie diérentielle

Ce chapitre est consacré à l'étude des concepts et outils de base de la géo-


métrie diérentielle, introduits en théorie de l'automatique non linéaire depuis
les années 1970 (voir par exemple [ISI 89, NIJ 90]). La géométrie diérentielle
repose sur l'étude des variétés diérentielles. Dans son principe, une variété
diérentielle V de dimension n est un espace dans lequel chaque point peut
être repéré par n réels au moyen d'un système de coordonnées locales, système
qui n'est en général pas valable sur toute la variété.

4.1. Notion de variété diérentielle

La surface de la terre est en bonne approximation une sphère S 2 , surface


de l'espace R3 : S 2 = {(x, y, z) ∈ R3 tels que x2 + y 2 + z 2 = r2 }. On re-
présente naturellement la terre par un ensemble de cartes qui dénissent un
atlas géographique. Chaque carte peut alors être vue comme un homéomor-
phisme (c'est-à-dire une bijection bicontinue) d'une certaine région de la terre
sur une partie de R2 . Nous pouvons généraliser ces notions : si V est un espace
topologique de dimension n, on introduit les dénitions suivantes.
Dénition 1 (Carte locale). On appelle carte locale sur V , tout homéomor-
phisme u déni par : u : U ⊂ V → Ω ∈ Rn , où U est un ouvert de V , appelé
domaine de la carte locale. Les composantes ui de u constituent ce que l'on
appelle un système de coordonnées locales, c'est-à-dire un moyen de lire dans
les cartes. Cette carte locale est notée (U, u).
Dénition 2 (Atlas). On appelle atlas sur V , toute famille (Ui , ui , Ωi )i∈I ,
telle que V = ∪i∈I Ui . L'atlas est de dimension n si les ui (Ui ∩ Uj ) sont des
ouverts de Rn .
Si Ui ∩ Uj 6= ∅, alors se pose le problème des changements de cartes et du
recollement de celles-ci (voir gure 4.1).
Dénition 3. Si Ui ∩ Uj 6= ∅, on appelle changements de cartes les homéo-
morphismes uji : ui (Ui ∩ Uj ) → uj (Ui ∩ Uj ), uji = uj ◦ (ui )−1 .
Il est clair (voir sur la gure 4.1) que uij = (uji )−1 .

Chapitre rédigé par Brigitte d'Andréa-Novel.


152 Mathématiques pour les systèmes dynamiques

U j

U
i

V u
u
j

u

ji

Ω i
j

Figure 4.1. Atlas et changements de cartes.

Ces changements de cartes sont des applications entre des ouverts de Rn :


on peut donc parler de leur diérentielle. On dira qu'un atlas est de classe C r
si les changements de cartes sont des diéomorphismes de classe C r .
Dénition 4 (Variété diérentielle). Une variété diérentielle V de di-
mension n et de classe C r , notée V (n, r), est la donnée d'un atlas de dimension
n et de classe C r .
Exemple 1. Rn est trivialement une variété diérentielle de dimension n et
de classe C ∞ . Il n'y a dans ce cas qu'une carte, qui est globale et donnée par
les coordonnées habituelles de Rn .
y
N

p x
0 1
qN qS

Figure 4.2. Le cercle et les projections stéréographiques


Exemple 2. Le cercle unité S 1 d'équation x2 + y 2 = 1 est une variété dié-
rentielle de dimension 1 et de classe C . Soient N le pôle nord et S le pôle

sud (voir la gure 4.2). On peut considérer comme cartes les deux projections
Géométrie Diérentielle 153

stéréographiques : PN dénie sur S 1 − {N } et PS sur S 1 − {S}, respectivement


par PN (p) = qN et PS (p) = qS . L'intersection des domaines des deux cartes
est S 1 − {N, S} et le changement de cartes est donné par :
PS ◦ PN−1 : R ? → R? ,
qN 7→ qS = q1N .
(4.1)

On peut généraliser cette construction à la sphère S n−1 :


S n−1 = {(x1 , · · · , xn ) ∈ Rn tels que x21 + · · · + x2n = 1}.
Exemple 3. Le cylindre de révolution p
dans R3 d'équation x2 + y 2 = 1 (gure
4.3) et le tore T 2 = S 1 × S 1 d'équation ( x2 + y 2 − r)2 + z 2 = ρ2 , ρ < r (gure
4.4) sont des variétés diérentielles de dimension 2 et de classe C ∞ .
z

Figure 4.3. Le cylindre de révolution dans R3

Figure 4.4. Le tore dans R3


La notion de coordonnées locales permet de parler d'application diéren-
tiable entre deux variétés, comme précisé dans la dénition suivante.
Dénition 5. Soit V1 (n, k) et V2 (m, k) deux variétés de classe C k . Une appli-
cation f : V1 → V2 . est de classe C r (r ≤ k) si, pour tout x dans V1 , il existe
une carte locale (U1 , u1 ) telle que x ∈ U1 , une carte locale (U2 , u2 ) telle que
f (x) ∈ U2 , ces deux cartes étant telles que u2 ◦ f ◦ (u1 )−1 soit de classe C r .
154 Mathématiques pour les systèmes dynamiques

Montrons que cette dénition est indépendante du choix des cartes. Soient
deux autres cartes : en x, (Û1 , û1 ) et en f (x), (Û2 , û2 ). On a :
û2 ◦ f ◦ (û1 )−1 = û2 ◦ (u2 )−1 ◦ u2 ◦ f ◦ (u1 )−1 ◦ u1 ◦ (û1 )−1 .

Or, u1 ◦ (û1 )−1 et û2 ◦ (u2 )−1 sont de classe C r , donc û2 ◦ f ◦ (û1 )−1 aussi.

4.2. Espace tangent

Dans la suite de ce chapitre, nous supposerons que les variétés sont de classe
C ∞ . On notera Fx l'ensemble des fonctions numériques de classe C ∞ dénies
sur un voisinage de x inclus dans V . On notera Cx l'ensemble des courbes
paramétrées de classe C ∞ passant par x. On rappelle que σ ∈ Cx est une
application C ∞ d'un intervalle I ⊂ R dans V , telle que σ(t0 ) = x, où t0 désigne
la variable initiale, en général le temps (et c'est ce qui sera considéré dans la
suite). Soit alors une courbe paramétrée σ ∈ Cx , on introduit la notion de
vecteur tangent comme suit.
Dénition 6 (Vecteur tangent). On appelle vecteur tangent à la courbe
paramétrée σ au point x, une application notée Xx :
d
Xx : Fx → R telle que Xx f = (f ◦ σ)(t) |t0 . (4.2)
dt
Xx f est donc la dérivée de f dans la direction de la courbe σ en t = t0 .
Proposition 1. Xx satisfait les propriétés suivantes :
i) Xx est une application linéaire de Fx dans R ;
ii) Xx (f.g) = (Xx f ).g(x) + f (x).(Xx g), ∀ f, g ∈ Fx .
La preuve est immédiate et résulte des propriétés de l'opérateur de dériva-
tion dt
d
. On peut montrer de manière tout aussi simple le théorème suivant.
Théorème 1. L'ensemble des applications Xx de Fx dans R est un espace
vectoriel pour les lois :
i) (Xx + Yx )f = (Xx f ) + (Yx f ), ∀f ∈ Fx ;
ii) (λXx )f = λ(Xx f ), ∀λ ∈ R.
Remarque 1. Ceci justie l'emploi du terme de  vecteur  tangent.
Explicitons à présent Xx f en coordonnées locales. Soit (U, u1 , u2 , · · · , un )
un système de coordonnées locales et x un point de U . Soit σ une courbe
paramétrée de Cx et f un élément de Fx . On a le schéma de la gure 4.5. Plus
précisément, on peut écrire :
d d X ∂(f ◦ u−1 )
n
d(ui ◦ σ)
(f ◦ σ)(t) = ((f ◦ u−1 ) ◦ (u ◦ σ))(t) = (u ◦ σ(t)) (t).
dt dt i=1
∂ui dt
Géométrie Diérentielle1 155

u−1 f
Rn - U - R
¾
u
6
σ

I⊂R

Figure 4.5. Coordonnées locales omises par abus de notation

On commet le plus souvent l'abus de notation suivant, consistant à  ou-


blier  les cartes :
∂(f ◦ u−1 ) ∂f
= , σ j (t) = uj ◦ σ(t),
∂ui ∂ui
ce qui permet d'écrire :
d X ∂f n
dσ i
(f ◦ σ)(t) |t0 = (x) (t0 ).
dt i=1
∂ui dt

Avec ces notations, soit σ ui la courbe de V dénie en termes de coordonnées


locales par :  i
σ ui (t) = ui (x) + t,
σ jui (t) = uj (x) si i 6= j.
 
Notons que les ui sont des éléments de Fx . On constate que ∂
∂ui est un
x
vecteur tangent à σ ui au point x, pour tout i. En eet :
nX ∂f  
d dσ kui ∂f ∂
(f ◦ σ ui )(t) |t0 = |x (t0 ) = (x) = f.
dt ∂uk dt ∂ui ∂ui x
k=1

De même, on a le théorème fondamental qui suit.


Théorème 2. L'espace vectoriel des vecteurs tangents au point x à la variété
V a pour base :      
∂ ∂ ∂
, ,··· . (4.3)
∂u1 x ∂u2 x ∂un x

Démonstration : soit σ une courbe telle que σ(t0 ) = x et soit Xx un vecteur


tangent au point x à σ. Alors :
 
Xn j X n j
 
d ∂f dσ dσ ∂
Xx f = (f ◦ σ)(t) |tO = ( )(x)( )(t0 ) =  ( )(t0 )  f,
dt j=1
∂u j dt j=1
dt ∂u j x
156 Mathématiques pour les systèmes dynamiques

 
et, donc, la famille des ∂
∂ui , i = 1, · · · , n est génératrice.
x
P  
Soit nj=1 αj ∂
∂uj une combinaison linéaire nulle et soit σ la courbe
x
dénie par :
σ j (t) = uj (x) + αj t , j = 1, · · · , n.
P  
On montre facilement que le vecteur nj=1 αj ∂u∂ j est tangent à σ en x. On
x
a alors :
 
X n   Xn
 ∂  ∂ui
αj ui = αj (x) = αi = 0 ∀i = 1, · · · , n.
j=1
∂u j x j=1
∂u j

 
La famille des ∂
∂ui , i = 1, · · · , n est libre et constitue donc une base.
x
Nous sommes en mesure à présent de dénir l'espace tangent en x.
Dénition 7 (Espace tangent). L'ensemble des vecteurs tangents en x à la
variété diérentielle V , noté Tx V , se nomme l'espace tangent en x à V . Les
P
nombres αj sont appelés les composantes du vecteur nj=1 αj ∂u∂ j relative-
x
ment au système de coordonnées locales (u1 , · · · , un ).
Remarque 2. Tx V peut donc être vu comme l'espace des dérivations, c'est un
espace vectoriel isomorphe à Rn .
Dénition 8 (Fibré tangent). L'union disjointe des espaces tangents consti-
tue ce que l'on appelle le bré tangent de V :

T V = ∪x∈V Tx V. (4.4)

On peut montrer que T V a une structure de variété diérentielle de classe


C r−1 et de dimension 2n [SPI 79].
Remarque 3. On peut se faire une image simple du bré tangent. Considérons
un point de la sphère S 2 . Les vecteurs tangents à toutes les courbes paramétrées
passant par x engendrent le plan R2 . En chaque point on reconstruit l'espace
vectoriel R2 et la réunion disjointe de ces  vectorialisés , ∪x∈V {x} × R2 , est
le bré tangent de la sphère. Chaque {x} × R2 constitue une bre.

4.3. Champ de vecteurs et crochet de Lie

Nous sommes en mesure à présent d'introduire la notion importante de


champ de vecteurs sur une variété.
Géométrie Diérentielle 157

Dénition 9. Soit X une application X : V → T V qui, à x ∈ V , associe un


vecteur Xx de Tx V . Pour toute fonction f ∈ C ∞(V ), notons X.f : V → R la
fonction qui à x ∈ V associe Xx f . On dira que X est un champ de vecteurs
diérentiable, si pour tout f ∈ C ∞ (V ), X.f ∈ C ∞ (V ).
L'ensemble Ξ(V ) des champs de vecteurs sur V possède une structure de
C ∞ (V )-module [RIC 01] pour les lois dénies par :

(X + Y )x = Xx + Yx , ∀X, Y ∈ Ξ(V ),

(f X)x = f (x)Xx , ∀X ∈ Ξ(V ) ∀f ∈ C ∞ (V ).

En termes de coordonnées locales (U, u1 , · · · , un ), on peut écrire :


X
n  

X= Xi , (4.5)
i=1
∂ui

où les Xi sont des fonctions dénies sur U et sont appelées les composantes de
X relativement à (U, u1 , · · · , un ). X est de classe C r si ses composantes sont de
classe C r .
Remarque 4. Cette formulation (4.5) du champ de vecteurs X à l'aide de ses
composantes dans la base des dérivées directionnelles du premier ordre fait de
X un opérateur de dérivation du premier ordre.
Introduisons à présent un nouveau champ de vecteurs, obtenu par le crochet
de Lie de deux champs de vecteurs.
Proposition 2. Soient X et Y deux éléments de Ξ(V ). Il existe un unique
champ de vecteurs Z tel que :
∀f ∈ C ∞ (V ), Zf = X(Y f ) − Y (Xf ). (4.6)
Dénition 10 (Crochet de Lie). Le champ de vecteurs Z déni par (4.6)
est appelé crochet de Lie des champs de vecteurs X et Y . Il est noté [X, Y ].
En utilisant (4.5) et la proposition 2, on obtient aisément l'expression en
coordonnées locales du crochet [X, Y ], comme l'indique la proposition suivante.
Pn   P  
Proposition 3. Si X = i=1 Xi et Y = ni=1 Yi ∂u∂ i et si l'on note

∂ui
Z le crochet Z = [X, Y ], alors les composantes Zj de Z sont données par :
n 
X 
∂Yj ∂Xj
Zj = Xk − Yk . (4.7)
∂uk ∂uk
k=1

On peut aussi montrer facilement les propriétés suivantes du crochet de Lie.


Proposition 4. Soient X , Y et Z trois champs de vecteurs. Les égalités sui-
vantes sont satisfaites :
158 Mathématiques pour les systèmes dynamiques

i) (antisymétrie du crochet de Lie) [X, X] = 0 et [X, Y ] = −[Y, X],


ii) [X + Y, Z] = [X, Z] + [Y, Z],
iii) (identité de Jacobi) [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0.
Remarque 5 (Algèbre de Lie). Ξ(V ) muni du crochet de Lie comme  mul-
tiplication interne  est une algèbre de Lie, c'est-à-dire une algèbre antisymé-
trique vériant l'identité de Jacobi. [X, Y ] est aussi appelé le commutant des
deux champs de vecteurs X et Y .
Dénition 11 (Crochet itéré). Les crochets de Lie itérés sont dénis et
notés comme suit :

ad0X Y = Y, adiX Y = [X, adi−1


X Y ].

Introduisons à présent deux notions importantes, dérivées de celle de champ


de vecteurs : la notion de ot et celle de courbe intégrale.
Dénition 12 (Flot). On appelle ot associé au champ de vecteurs X , l'ap-
plication :
ϕt : V → V,
(4.8)
x 7→ ϕt (x) = Φ(t, x),

où Φ : R × V → V satisfait :

Φ(0, x) = x,
∂Φ
∂t (t, x) = X(Φ(t, x)).

Remarque 6. En fait, ϕt (x) = Φ(t, x) est le point de V atteint par le système


au bout du temps t, en partant de x à l'instant initial t = 0.
On a ainsi les relations :

ϕ0 = Id,
(4.9)
ϕt+s = ϕt ◦ ϕs .

Dénition 13 (Courbe intégrale). Les courbes intégrales du champ de vec-


teurs X sur V sont les solutions de l'équation diérentielle :

ẋ = X(x),

c'est-à-dire les applications ψ : I → R, où I ⊂ R est un intervalle non vide,


telles que :

(t) = X(ψ(t)) ∀t ∈ I.
dt
Géométrie Diérentielle 159

x Xx vecteur tangent en x
courbe integrale du
champ de vecteurs X

Figure 4.6. Courbes intégrales et vecteurs tangents d'un champ sur le cylindre

4.4. Espace cotangent, 1-formes diérentielles et distributions

Par dualité avec les notions d'espace tangent et de champ de vecteurs, on


introduit à présent les notions d'espace cotangent et de 1-forme diérentielle.
Dénition 14 (Espace, bré cotangent). On appelle espace cotangent en
x à V l'espace noté Tx∗ V , dual de l'espace tangent en x à V , Tx V . On pose
T ∗ V = ∪x∈V Tx∗ V , T ∗ V est le bré cotangent à la variété V .
Dénition 15 (Covecteur, 1-forme). Un covecteur en x à V est un élément
de l'espace cotangent Tx∗ V : c'est aussi la donnée d'une 1-forme diérentielle,
ou forme diérentielle de degré 1. Pour toute fonction h sur V , la diérentielle
de h en x, notée (dh)x est une 1-forme diérentielle dénie par :
< (dh)x , Xx >= Xx h , avec Xx ∈ Tx V. (4.10)

On introduit de même la base duale de l'espace tangent.


Proposition 5. Les diérentielles (du1 )x , · · · , (dun )x forment
 une base de
Tx V , la base duale de Tx V , c'est-à-dire la base duale de ∂u1 , · · · , ∂u∂ n .
∗ ∂
x x
Démonstration : soit (U, u1 , · · · , un ) un système de coordonnées locales et un
point x de U . On a :
     
∂ ∂ ∂ui
< (dui )x , >= ui = = δ ij ,
∂uj x ∂uj x ∂uj x

où δ ij désigne le symbole de Kronecker, ce qui termine la preuve.


Par conséquent, toute 1-forme diérentielle s'écrit de manière unique sous
la forme : n X
ω= ω i (u1 , · · · , un )dui , (4.11)
i=1

où les ω i sont des fonctions dénies sur U et sont appelées les composantes de
ω relativement au système de coordonnées locales.
160 Mathématiques pour les systèmes dynamiques

ω sera dite de classe C r si ses composantes sont de classe C r . Si h est une


fonction C ∞ sur V, on a :
   
∂ ∂h
< (dh)x , >= (x). (4.12)
∂ui x ∂ui

On retrouve donc la formule, bien connue, de la diérentielle exacte de h :


Xn
∂h
dh = dui . (4.13)
i=1
∂ui
Remarque 7. Pour plus de détails sur ces notions de formes diérentielles,
on pourra consulter [CAR 82].
Dénition 16 (Dérivée de Lie). Soit X un élément de Ξ(V ), h un élément
de F (V ). On appelle dérivée de Lie de h par rapport au champ X , la fonction
notée LX h : V → R et dénie par :
X
n
∂h
x 7→ LX h(x) =< (dh)x , Xx >= Xi (x)
(x). (4.14)
i=1
∂ui
Proposition 6. Si ψ : I → V est une courbe intégrale de X et si h est une
fonction C 1 sur V on a :
d
LX h(ψ(t)) = h(ψ(t)). (4.15)
dt
La dérivation de Lie apparaît donc comme la dérivation le long des courbes
intégrales du champ de vecteurs.
Démonstration :
d dψ
(h ◦ ψ)(t) = d(h ◦ ψ)(t).1 = dh(ψ(t)) = dh(ψ(t)) X(ψ(t))
dt dt
= < (dh)ψ(t) , Xψ(t) >= LX h(ψ(t)).
Dénition 17 (Intégrale première). On dit que h est une intégrale première
de X si LX h = 0, c'est-à-dire si h est constante le long des courbes intégrales
de X .
Introduisons à présent la notion de distribution de champs de vecteurs sur
une variété diérentielle V de dimension n.
Dénition 18 (Distribution). Un moyen simple de dénir une distribution
∆ de champs de vecteurs sur V , est de dire que ∆ est une application qui as-
signe de manière régulière à tout x de V un sous-espace ∆(x) de l'espace tangent
Tx V , engendré par un ensemble ni de champs de vecteurs {τ i , i = 1, · · · , m},
ce que l'on note ∆(x) = span{τ i (x) , i = 1, · · · , m}.
La dimension de ∆ au point x est la dimension dans Tx V du sous-espace
vectoriel engendré par l'application ∆ prise au point x.
La distribution ∆ sera dite non singulière sur un ouvert U de V si sa di-
mension est constante pour tout x dans U .
Géométrie Diérentielle 161

Dénition 19 (Involutivité). La distribution ∆ sera dite involutive si elle


est stable par le crochet de Lie, c'est-à-dire si, pour tous champs de vecteurs X
et Y dans ∆, le crochet [X, Y ] est encore un élément de ∆.
Une autre propriété intéressante d'une distribution est celle d'intégrabilité.
Dénition 20 (Intégrabilité). La distribution ∆ engendrée par les champs
de vecteurs {τ i , i = 1, · · · , m} est intégrable, s'il existe n − m fonctions αj
qui soient des intégrales premières des τ i , c'est-à-dire telles que :

Lτ i αj (x) = 0, i = 1, · · · , m et j = 1, · · · , n − m.

L'intégrabilité signie, entre autres, que le noyau de ∆ est engendré par les
covecteurs de degré 1 ou 1-formes diérentielles : dαj , j = 1, · · · , n − m qui
sont des diérentielles exactes (voir la dénition 16).
Le théorème suivant relie les concepts d'involutivité et d'intégrabilité. On
pourra consulter [ISI 89] pour une preuve.
Théorème 3 (de Frobenius). Une distribution ∆ est intégrable si et seule-
ment si elle est involutive.

4.5. Application à l'étude de la commandabilité

Nous allons à présent illustrer l'utilisation de ces notions et, en particu-


lier, celle du crochet de Lie pour l'étude de la commandabilité des systèmes
dynamiques non linéaires commandés de la forme :

X
m
ẋ = f (x) + gi (x)ui , (4.16)
i=1

où l'état x appartient à une variété V de dimension n, u de taille m ≤ n désigne


le vecteur des commandes, f est le champ de vecteurs décrivant la dynamique
autonome du système et gi , i = 1, · · · , m sont les champs de commande.
Avant d'introduire le concept de commandabilité, nous allons considérer
l'exemple suivant, qui met en évidence les diérentes directions dans lesquelles
peut évoluer un système non linéaire.
Exemple 4. Soit le système suivant, dans Rn :
ẋ = g1 (x)u1 + g2 (x)u2 , (4.17)

où u1 et u2 sont deux commandes scalaires. Remarquons que le champ de la


dynamique autonome (u1 = u2 ≡ 0) est nul. Appliquons au système (4.17) la
162 Mathématiques pour les systèmes dynamiques

suite de commandes en boucle ouverte suivante :


u1 = 1, u2 = 0 pour t ∈ [0, T [,
u1 = 0, u2 = 1 pour t ∈ [T, 2T [,
u1 = −1, u2 = 0 pour t ∈ [2T, 3T [,
u1 = 0, u2 = −1 pour t ∈ [3T, 4T [.

Si le système (4.17) était linéaire (c'est-à-dire si g1 et g2 étaient constants),


on aurait clairement :
x(4T ; x0 ) = x0 ,
autrement dit, l'état du système au temps 4T en partant de x0 à l'instant initial
serait égal à x0 . Or, dans le cas de champs de commande non linéaires, un
développement limité permet d'écrire (voir par exemple [NIJ 90]) :
x(4T ; x0 ) = x0 + T 2 [g1 , g2 ](x0 ) + o(T 3 ),

[g1 , g2 ](x0 ) désignant le crochet des champs de commande en x0 et o() étant


la notation classique d'un terme négligeable devant  :
lim −1 o() = 0.
→0

Ce petit exemple met donc en évidence le fait qu'un système non linéaire
peut évoluer selon les directions des champs de commande, mais aussi dans les
directions données par les crochets de Lie de ces champs. On comprend donc
que l' opérateur crochet de Lie  joue un rôle important dans l'étude de la
commandabilité des systèmes non linéaires. Donnons à présent les dénitions
de commandabilité.
Dénition 21 (Commandabilité locale). Le système (4.16) est localement
commandable en x0 si, pour tout voisinage U de x0 , l'espace accessible AU (x0 )
est aussi un voisinage de x0 :
AU (x0 ) = {y ∈ V / ∃ T ∈ R+ , ∃ u sur [0, T ] /
y = ϕT (x0 ) et ϕt (x0 ) ∈ U , ∀ t ∈ [0, T ]},
P
où ϕt désigne le ot du champ de vecteurs f + m i=1 gi ui .
Dénition 22 (Commandabilité faible). Le système (4.16) est localement
faiblement commandable en x0 si, pour tout voisinage U de x0 , l'espace acces-
sible AU (x0 ) contient un ouvert de V , ouvert qui ne contient pas nécessairement
x0 .
Remarque 8. Un système localement commandable est localement faiblement
commandable mais la réciproque est fausse, comme le montrera l'exemple 5.
Enonçons à présent le théorème suivant, qui donne un critère algébrique de
commandabilité locale faible (voir [ISI 89, NIJ 90] pour une preuve).
Géométrie Diérentielle 163

Théorème 4. Dans le cas où les champs de vecteurs sont analytiques, le sys-


tème (4.16) est localement faiblement commandable en x0 si et seulement si le
rang de l' idéal de Lie I(g1 , · · · , gm )(x0 ) engendré par les champs de commande
est égal à n. I est vu comme idéal de l'algèbre de Lie A(f, g1 , · · · , gm )(x0 ) en-
gendrée par le champ f de la dynamique autonome et les champs de commande
gi , i = 1, · · · , m.
Dans le cas de champs de vecteurs seulement C ∞ , cette condition de rang est
susante mais pas nécessaire.
Remarque 9.
 L'idéal de Lie I(g1 , · · · , gm )(x0 ) s'obtient en considérant les champs de
commande, les crochets de ces champs avec le champ f , les crochets de
tous ces champs obtenus entre eux, à nouveau recrochetés par f , etc.
 Le rang de I(x0 ) est inférieur ou égal à n puisque les éléments de I(x0 )
appartiennent à Tx0 V , espace vectoriel tangent à V en x0 , de dimension
n.
 L'élément de l'algèbre de Lie A(f, g1 , · · · , gm )(x0 ) qui ne soit pas élé-
ment de I(x0 ) est précisément le champ f de la dynamique autonome du
système.
Prouver qu'un système non linéaire ane en la commande de la forme (4.16)
est localement faiblement commandable s'avère assez simple, puisque l'on est
ramené à vérier un critère algébrique donné par le théorème 4. Par contre,
tester la commandabilité locale au sens de la dénition 21 est plus complexe.
Une condition susante existe par exemple dans [SUS 87].
Les conditions de commandabilité et commandabilité faible sont confondues
pour les systèmes linéaires, mais aussi pour les systèmes non linéaires dont le
champ f de la dynamique autonome est nul (comme dans le cas de (4.17)). Cela
provient essentiellement du fait que ces systèmes sont symétriques par rapport
à la commande, c'est-à-dire ẋ(x, −u) = −ẋ(x, u).
Pour clore ce chapitre, nous allons considérer trois exemples.
- Le premier illustre le fait qu'un système non linéaire peut être faible-
ment localement commandable sans être localement commandable (voir
remarque 8).
- Le second, pouvant décrire les équations en rotation d'un corps rigide, met
en évidence qu'un système non linéaire peut être faiblement commandable
alors que son linéarisé tangent (système approximé au premier ordre) n'est
pas commandable et donc, en particulier, qu'il ne vérie pas le critère de
Kalman de commandabilité des systèmes linéaires [AND 00].
- Enn, le troisième montre que le critère du rang de l'idéal de Lie donné
par le théorème (4) appliqué à un système linéaire, n'est autre précisément
que le critère de commandabilité de Kalman.
164 Mathématiques pour les systèmes dynamiques

Exemple 5. On considère, sur R2 , le système non linéaire suivant :


     
ẋ1 x22 0
= + u. (4.18)
ẋ2 0 1

Si l'on applique le théorème 4, on vérie aisément que ce système est localement


faiblement commandable en tout point x, l'idéal I(x) étant de rang 2, engendré
par les champs de vecteurs :
   
0 2
g= et [[f, g], g] = .
1 0
 
−2x2
Notons pour l'exercice que [f, g] = .
0
Par contre, (4.18) n'est pas commandable, puisque le sous-espace atteignable
depuis l'état (x1,0 , x2,0 )T est le demi-plan {(x1 , x2 ) / x1 ≥ x1,0 }, qui ne consti-
tue pas un voisinage de x0 .
Exemple 6. On considère sur R3 les équations d'Euler d'un corps rigide en
rotation, qui peuvent représenter de manière simpliée l'évolution d'un satel-
lite :      
ẋ1 a1 x2 x3 b1
 ẋ2  =  a2 x1 x3  +  b2  u, (4.19)
ẋ3 a3 x1 x2 0
où u est une commande scalaire, les ai , i = 1, · · · , 3 et b1 , b2 sont des constantes
non nulles qui dépendent des moments d'inertie principaux du corps rigide. On
pourra supposer sans restriction :
a1 b22 6= a2 b21 . (4.20)
En appliquant une nouvelle fois le théorème 4 on vérie que (4.19) est loca-
lement faiblement commandable en tout point x, l'idéal I(x) étant de rang 3,
engendré par les champs de vecteurs :
     
b1 0 2a1 a3 b1 b22
g =  b2  , g1 = [[f, g], g] =  0  et [[f, g1 ], g] =  2a2 a3 b21 b2  ,
0 2a3 b1 b2 0

qui constituent trois champs de vecteurs indépendants compte tenu de l'hypo-


thèse (4.20).
Par contre, le linéarisé tangent du système au point d'équilibre (x, u) = (0, 0)
s'écrit :
   
0 0 0 b1
ẋ = Ax + Bu , avec A =  0 0 0  et B =  b2  .
0 0 0 0
Géométrie Diérentielle 165

Ce système linéaire est clairement non commandable d'après le critère de Kal-


man, puisque le rang de la matrice de commandabilité [B; AB; A2 B] vaut 1.
Exemple 7. Soit le système dynamique linéaire sur Rn en représentation
d'état :
ẋ = Ax + Bu, (4.21)
où le vecteur de commande est de dimension m ≤ n. On notera Bi , i = 1, · · · , m
les colonnes de la matrice B . Appliquons le théorème 4 à (4.21). Le champ f
et les champs de commande gi s'écrivent ici :
f = Ax , gi = Bi , i = 1, · · · , m.

On a clairement les égalités suivantes :


[f, gi ] = [Ax, Bi ] = −ABi ,

[f, [f, gi ]] = [Ax, −ABi ] = A2 Bi ,


adnf Bi = (−1)n An Bi .
Or, d'après le théorème de Cayley-Hamilton, on sait que An est combinaison
linéaire des Ai , i = 1, · · · , n − 1. Par conséquent, le système linéaire est com-
mandable si et seulement si le rang de [B; AB; · · · ; An−1 B] est égal à n, ce
qui constitue bien le critère de commandabilité de Kalman pour les systèmes
linéaires.

4.6. Bibliographie
[AND 00] d'Andréa-Novel B., Cohen de Lara M., Cours d'automatique. Com-
mande linéaire des systèmes dynamiques, Presses de l'École des Mines, 2000.
[CAR 82] Cartan H., Cours de calcul diérentiel, Hermann Paris, Collection Mé-
thodes, 1982.
[ISI 89] Isidori A., Nonlinear control systems, Springer-Verlag, Second Edition,
1989.
[NIJ 90] Nijmeijer H., Van der Schaft A.J., Nonlinear dynamical control sys-
tems, Springer-Verlag, 1990.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[SPI 79] Spivak M., A comprehensive introduction to dierential geometry, Second
Edition, vol. 1, Publish or Perish, Inc. Houston, Texas, 1979.
[SUS 87] Sussmann H.J., A general theorem on local controllability, SIAM Journal
of Control and Optimization, vol. 25, n◦ 1, p. 158-194, janvier 1987.
Chapitre 5

Equations diérentielles ordinaires

5.1. Introduction

Le calcul innitésimal (diérentiel) a tout naturellement conduit les scienti-


ques à énoncer certaines lois de la physique en termes de relations entre, d'une
part, des variables dépendantes d'une autre variable indépendante (en général
le temps) et, d'autre part, leurs dérivées : il s'agit là d'équations diérentielles
ordinaires (en abrégé, EDO ). L'un des précurseurs dans ce domaine fut Isaac
Newton (1642-1727) qui, dans son mémoire de 1687 intitulé Philosophiae na-
turalis principiae mathematica (les lois mathématiques de la physique) écrit :
 Data aequatione quotcunque uentes quantitae involvente uxiones invenire
et vice versa  (en langage moderne, il parle d'équations diérentielles). Dès
lors, de nombreux modèles de la physique ont étés énoncés par l'intermédiaire
d'EDO (dont, au XVIIe siècle, les équations d'Euler-Lagrange pour les systèmes
mécaniques). Nous donnerons tout d'abord quelques exemples issus de divers
domaines des sciences pour l'ingénieur.

5.1.1. Biologie

Une boîte de Petri contient des bactéries qui se développent sur un substrat
nutritif. En notant x le nombre de bactéries, un modèle simplié, dit modèle
logistique, est donné par :
dx
= ax(xmax − x), (5.1)
dt

où a est une constante strictement positive et xmax est le nombre maximal


de bactéries pouvant survivre dans la boîte de dimension donnée. En eet,
lorsqu'il y a peu de bactéries : ẋ ∼ ax (croissance exponentielle) et, lorsque x
est proche de xmax , la croissance est fortement ralentie puisque ẋ ∼ 0. Un autre
exemple célèbre, le modèle proie-prédateur de Volterra-Lotka, sera évoqué dans
le paragraphe 5.4.1.

Chapitre rédigé par Wilfrid Perruquetti.


168 Mathématiques pour les systèmes dynamiques

5.1.2. Chimie
Les diérents bilans (de matière, thermodynamique) peuvent, sous leur
forme simpliée, s'exprimer par des EDO. On considère par exemple une cuve
alimentée en produits chimiques A et B de concentrations respectives cA et cB
par l'intermédiaire de deux pompes de débits volumiques respectifs u1 et u2 .
Dans cette cuve, un mélangeur homogénéise les deux produits, qui réagissent
selon la réaction :
k1
nA A + nB B  nC C,
k2
où nA , nB et nC sont les coecients stochiométriques de chacun des compo-
sants. Le mélange est sous-tiré par un orice de section s à la base de cette
cuve de section S = 1 m2 . Le bilan de matière conduit, en utilisant la relation
de Bernouilli, à :
dh p
S = u1 + u2 − 2sgh,
dt
où h est la hauteur du mélange dans la cuve et g, l'accélération de la pesanteur
(9.81 ms−2 ). Les lois de la cinétique donnent la relation (sous l'hypothèse d'une
cinétique de second ordre) :
vcin = −k1 cA cB + k2 c2C .
Ainsi, les conservations de chacun des composants donnent :
d(hcA ) p
= u1 cA0 − 2sghcA − nA vcin h,
dt
d(hcB ) p
= u2 cB0 − 2sghcB − nB vcin h,
dt
d(hcC ) p
= − 2sghcC + nC vcin h,
dt
avec cA0 = cA (entrant) et cB0 = cB (entrant) . En notant x = (h, hcA , hcB , hcC )T
le vecteur d'état, on obtient le modèle :
 √ √

 ẋ1 = u1 + u2 −q 2sg x1 ,

 (−k1 x2 x3 +k2 x24 )

 ẋ2 = u1 cA0 −
2sg
x1 x2 − nA ,
q x1
(5.2)
2sg (−k1 x2 x3 +k2 x24 )

 ẋ3 = u2 cB0 − x1 x3 − nB ,

 q x1
 2
 ẋ4 = − 2sg x4 + nC (−k1 x2 x3 +k2 x4 ) .
x1 x1

5.1.3. Electricité
On considère un système électrique constitué d'une résistance R, d'une in-
ductance L et d'une capacité C montées en triangle. On note respectivement
Equations diérentielles ordinaires 169

iX et vX le courant et la tension dans la branche comportant l'élément X . On


suppose que les éléments L et C sont parfaitement linéaires et que l'élément
résistif R obéit à la loi d'Ohm généralisée (vR = f (iR )). Les lois de Kircho
permettent d'obtenir :

L didtL = vL = vC − f (iL ),
(5.3)
C dvdtC = iC = −iL.

Si dans cette EDO, dite équation de Liénard, on considère le cas particulier


où f (x) = (x3 − 2µx), on abouti à l'équation de Van der Pol.

5.1.4. Electronique

Figure 5.1. Montage PI avec amplicateurs opérationnels

Le montage  PI  (proportionnel-plus-intégral) de la gure 5.1 a pour mo-


dèle, sous des hypothèses simplicatrices de linéarité :

dus due R4 R3 R1 C R6
Ti = k(ue + Ti ), Ti = , k= .
dt dt R5 R2 R4 R1 C

5.1.5. Electrotechnique

Pour un moteur pas à pas ayant au rotor n dents de polarité Nord et autant
de polarité Sud, les diérents bilans électromagnétiques (dans le repère dq , dit
170 Mathématiques pour les systèmes dynamiques

de Park) donnent :
did
Ld = vd − Rid + nLq ωiq ,
dt
diq
Lq = vq − Riq − nLd ωid − nmir ω,
dt
Cem = n(Ld − Lq )id iq + nmir iq + Kd sin(nθ),

où m et ir sont l'inductance et le courant ctif du rotor, générant le ux


(constant) mir dû à l'aimantation permanente ; id , iq , vd , vq sont les courants
et tensions du stator [COR 99]. Le bilan mécanique s'écrit :

= ω,
dt

J = Cem − Ccharge .
dt

5.1.6. Mécanique
Si un système mécanique est constitué de n éléments reliés entre eux par des
liaisons parfaites (sans frottement), on aura la position du système qui dépen-
dra de n paramètres indépendants (coordonnées généralisées notées q1 , . . . , qn ).
Pour écrire les équations d'Euler-Lagrange, il faut déterminer le lagrangien (dif-
férence entre l'énergie cinétique et l'énergie potentielle) :
L = Ec − Ep , (5.4)
le travail élémentaire de chaque force interne et externe Di , ainsi que le travail
des forces de frottement :
∂D
− dqi ,
∂ q̇i
donnant lieu à l'énergie dissipée D. On obtient alors le système d'équations
d'Euler-Lagrange :
d ∂L ∂L ∂D
( )− + = Di . (5.5)
dt ∂ q̇i ∂qi ∂ q̇i

Notons que l'énergie cinétique Ec = 12 q̇ T M (q)q̇ , où M (q) est une matrice


n × n symétrique dénie positive (voir dénition 34), dépend des qi et de leurs
dérivées q̇i , alors que l'energie potentielle Ep ne dépend que des qi . Pour un
2
pendule pesant d'angle θ avec la verticale, on a L = 12 ml2 θ̇ − mgl(1 − cos(θ)).
Si l'on néglige les frottements, ceci conduit à :
g
θ̈ = − sin(θ). (5.6)
l
Equations diérentielles ordinaires 171

Si de plus on tient compte d'un frottement sec, on peut voir apparaître une
discontinuité sur θ̈ (qui peut ne pas être dénie à vitesse nulle). Aussi, pour ce
type de modèle, on est amené à préciser la notion de solution et à donner des
conditions susantes d'existence et/ou d'unicité de solution : ceci sera l'objet
de la section 5.3, qui développera plus particulièrement les EDO du premier
ordre. Les EDO sous forme implicite seront abordées à la section 5.2. Au-delà
des conditions d'existence, il est important pour l'automaticien de pouvoir ca-
ractériser les comportements asymptotiques de ces solutions (la section 5.4
concernera les points d'équilibre, attracteurs étranges, etc. ; la section 5.5 trai-
tera du cas particulier des systèmes linéaires) et de disposer d'outils d'analyse
permettant de les localiser et de caractériser l'évolution temporelle des solu-
tions vers ces ensembles (sections 5.6, 5.7 et 5.8). Enn, de nombreux systèmes
physiques font intervenir, dans la description de leurs dynamiques au moyen
des EDO, des paramètres dont les variations peuvent conduire à des modica-
tions qualitatives des solutions (bifurcations et, parfois,  catastrophes ) : ceci
fera l'objet de la section 5.9.

5.2. Equations diérentielles ordinaires sous forme implicite

5.2.1. Dénitions
Une EDO sous forme implicite est une relation :
 
dy dk y
F t, y, , . . . , k = 0, y ∈ Rm , (5.7)
dt dt
où la fonction F est dénie sur un ouvert de R × Rm(k+1) à valeur dans Rm .
L'ordre de l'EDO est l'entier k correspondant à la dérivée d'ordre le plus élevé
apparaissant dans (5.7). Notons que (5.1), (5.2) et (5.6) sont des EDO d'ordres
respectifs 1, 1 et 2. Le théorème de la fonction implicite garantit que ce système
(5.7) de m équations peut se mettre (localement) sous forme explicite :
 
dk y dy dk−1 y
= G t, y, , . . . , , (5.8)
dtk dt dtk−1
à condition que :
det (JF ) 6= 0,
où JF est la matrice jacobienne de F c'est-à-dire la matrice constituée des
éléments aij =  ∂F i 
d k xj
, (i, j) ∈ {1, . . . , m}2 .

dtk

En particulier, soit F est une fonction de classe C 1 par rapport à chacune


de ses variables, telle que F (t, x, z) = 0 admette p racines en la variable z .
172 Mathématiques pour les systèmes dynamiques



∂z (t0 ,x0 ) ) 6= 0, alors il existera p solutions locales dites régulières,
Si det( ∂F

solutions de F (t, x, ẋ) = 0, x(t0 ) = x0 . Par contre, si det( ∂F
∂z (t0 ,x0 ) ) = 0, alors
on ne peut rien armer sans faire une étude approfondie et toute solution
sera dite singulière. Par exemple y : t 7→ t2 /4, est une solution singulière
.
de l'équation ẏ 2 − tẏ + y = 0 au voisinage de (y, y) = (0, 0). Par ailleurs,
y : t 7→ sin(arcsinh(t)) est une solution régulière de (1 + t2 )ẏ 2 + (−1 + y 2 ) = 0
au voisinage de (0, 0).

5.2.2. Quelques équations particulières


Equations de Lagrange et de Clairaut

Une EDO de la forme :


   
dx dx
x + tf +g = 0, (5.9)
dt dt
est dite de Lagrange. Lorsque f = Id, elle sera dite de Clairaut. De façon à
résoudre ce type d'équations, on cherche une représentation paramétrée des
solutions : pour cela, on pose dxdt = m et x = x(m), t = t(m), ce qui ramène la
résolution de (5.9) à celle de :
dt
(m + f (m)) + f 0 (m)t = −g 0 (m),
dm
qui est linéaire du premier ordre en t.
Exemple 1. La résolution de l'équation x + 2tẋ + ẋ3 =√ 0 se ramène à celle de
8
3
1 −3( m) +8C1
dt
3m dm + 2t = −3m2 , qui a pour solution t (m) = 8 √ 2 . Les solutions
( 3 m)
paramétrées de la première équation sont donc :
√ 8
1 √ 1 −3 ( 3 m) + 8C1
x(m) = − m3 − 2 3 mC1 , t (m) = √ 2 .
4 8 ( 3 m)

Equation de Bernouilli

Une EDO de la forme :


dx
+ f (t)x + g(t)xr = 0, (5.10)
dt
est dite de Bernouilli. Les cas r = 0 ou r = 1 sont triviaux. Dans le cas général,
on utilise le changement de variable y = x1−r , conduisant à la résolution de
Equations diérentielles ordinaires 173

l'EDO :
1 dy
+ f (t)y + g(t) = 0,
1 − r dt
qui est linéaire du premier ordre en y .
Exemple 2. La résolution de l'équation dx dt + sin(t)x + sin(t)x = 0, en posant
4

y = x , se ramène à celle de
−3
 − 3 dt + sin(t)y + sin(t) = 0, qui admet pour
1 dy

solution y (t) = −e3 cos t + C1 e−3 cos t .

Equation de Riccati

Certaines équations ne sont pas intégrables (c'est-à-dire que l'on ne peut


exprimer les solutions de façon explicite avec des fonctions de l'analyse). Par
exemple l'équation de Riccati :
dx
+ f (t)x + g(t)x2 + h(t) = 0,
dt
n'est pas intégrable si f, g, h (fonctions continues) ne satisfont pas certaines
relations particulières.

5.3. Equations diérentielles du premier ordre

Notons que, lorsque la variable y de l'équation implicite (5.7) appartient


à un ensemble plus général qu'un produit cartésien d'ouvert de R, alors en
 k−1
T
posant x = y, dy d y
dt , . . . , dtk−1 , l'équation explicite (5.8) peut se mettre sous
la forme :
dx
= f (t, x), t ∈ I, x ∈ X . (5.11)
dt
Dans cette équation : t ∈ I ⊂ R représente la variable temporelle, X est l'espace
d'état 1 . En pratique, l'espace d'état peut être borné : il reète les caractéris-
tiques physiques du système (bornitude des performances). De façon générale,
l'espace d'état est une variété diérentiable. Lorsque le vecteur x s'exprime à
l'aide d'une variable et de ses dérivées successives, X est aussi appelé espace de
phase. Cependant, certains auteurs ([ARN 88] p. 11) emploient indiéremment
les deux dénominations. Le vecteur x ∈ X correspondant est le vecteur d'état de
(5.11) (ou de phase par abus de langage). En pratique, il est construit à partir
des variables dont l'évolution régit celle du processus physique. x(t) est l'état
instantané à l'instant t. f : I × X → T X (espace tangent ), (t, x) 7→ f (t, x),
représente le champ de vecteurs. An de simplier la suite de l'exposé, on se
placera dans le cas où I × X est un ouvert de Rn+1 et T X est Rn .
1 Vocabulaire de l'automatique.
174 Mathématiques pour les systèmes dynamiques

5.3.1. Notion de solution


Lorsqu'on parle de solution, il faut préciser le problème associé : ici, pour les
EDO, il existe le problème aux conditions limites ou frontières2 et le problème
aux conditions initiales, (dit de Cauchy, en abrégé PC) :

 existe-t-il une fonction φ : I ⊂ R → X ⊂ Rn , t 7→ φ(t),
(PC) :
satisfaisant (5.11) avec la condition initiale suivante : φ(t0 ) = x0 ? 

On cherche une fonction du temps φ : t 7→ φ(t), qui soit susamment


régulière et dont la dérivée soit égale à presque tout instant3 à la valeur du
champ à cet instant et en ce point x = φ(t). Si f (u, φ(u)) est mesurable4 , alors
on peut exprimer φ(t) sous la forme :
Z t
φ(t) = φ(t0 ) + f (v, φ(v))dv, (5.13)
t0

l'intégration étant prise au sens de Lebesgue [RIC 01] et ce, même si t 7→ f (t, .)
n'est pas continue en t (cas intéressant en automatique, car pour ẋ = g(t, x, u)
un retour u = u(t) discontinu peut être envisagé). Ainsi, on cherchera des
fonctions au moins absolument continues5 par rapport au temps.

Solutions, portrait de phase

Dénition 1. On appelle solution de (5.11) passant par x0 à t0 , toute fonction


φ absolument continue dénie sur un intervalle non vide I(t0 , x0 ) ⊂ I ⊂ R
contenant t0 :
φ : I(t0 , x0 ) ⊂ I ⊂ R → X ⊂ Rn ,
t 7→ φ(t; t0 , x0 ),
notée plus simplement φ(t), satisfaisant (5.13) pour tout t ∈ I(t0 , x0 ) (ou, de
façon équivalente : φ̇ = f (t, φ(t)) presque partout sur I(t0 , x0 )) et telle que
φ(t0 ) = x0 .
2 Enoncé similaire au problème de Cauchy, mais pour lequel la condition initiale est rem-

placée par la donnée de n valeurs φσ(i) (ti ) aux instants ti donnés, i ∈ N = {1, . . . , n},
σ : N → N.
3 C'est-à-dire pour tous les temps t ∈ T \ M, M étant un ensemble de mesure nulle, avec

la notation ensembliste T \ M = {x ∈ T : x ∈ / M}.


4 Cette condition est vériée si, pour x xé, t 7→ f (t, x) est mesurable et pour t xé,

x 7→ f (t, x) est continue [RIC 01].


5
φ : [α, β] 7→ Rn est absolument P continue si ∀εP > 0, ∃δ(ε) > 0 :
∀ {]αi , β i [}i∈{1..n} , ]αi , β i [⊂ [α, β], n
i=1 (β i − αi ) ≤ δ(ε) ⇒
n
i=1 kφ(β i ) − φ(αi )k ≤ ε.
φ est absolument continue si et seulement s'il existe une fonction (Lebesgue intégrable) qui
soit presque partout égale à la dérivée de φ.
Equations diérentielles ordinaires 175

Exemple 3. En séparant ses variables, l'équation du modèle logistique (5.1)


devient :
dx
= dt,
ax(xmax − x)
qui permet de construire la solution au PC (5.1), x(0) = x0 :

φ : R → R,
x0 xmax
t 7→ φ(t; 0, x0 ) = . (5.14)
x0 + e−axmax t (xmax − x0 )
Dénition 2. La solution de (5.11) peut être représentée dans deux espaces :
 soit dans l'espace d'état étendu I × X ou espace du mouvement, dans ce
cas, on parle de mouvement ou de trajectoire,
 soit dans l'espace d'état X , dans ce cas, on parle d' orbite.
On appelle portrait de phase l'ensemble de toutes les orbites munies de leurs
sens de parcours temporel.
Bien souvent, par commodité on ne représente que les ensembles de points
d'accumulation vers lesquels les orbites convergent pour des temps très grands
(positifs ou négatifs). Par exemple, pour le système :
 
dx 1 − x21 − x22 −1
= x, t ∈ R, x ∈ R2 , (5.15)
dt 1 1 − x21 − x22

les éléments importants du portrait de phase sont l'origine et le cercle unité


C1 : si la condition initiale est diérente de l'origine, les orbites convergent vers
C1 ; sinon, l'état reste gé à l'origine (voir gure 5.2).

Figure 5.2. Cercle unité : simulation de (5.15)


176 Mathématiques pour les systèmes dynamiques

Existence

Le problème de Cauchy (PC) n'a pas forcément de solution et, parfois, peut
en avoir plusieurs. En eet, le système :
dx 1
= |x| 2 , x ∈ R, (5.16)
dt
x(0) = 0,
admet une innité de solutions dénies par :
ε ∈ R+ , φε : R → R,


 0 si t0 − ε ≤ t ≤ t0 + ε,
(t−t0 −ε)2
t 7→ φε (t) = 4 si t0 + ε ≤ t, (5.17)

 2
− (t−t04+ε) si t ≤ t0 − ε.

Figure 5.3. Innité de solutions au PC (5.16)

Ainsi, il se pose le problème de donner des conditions assurant l'existence


d'une ou de plusieurs solutions au problème de Cauchy.
Selon la régularité de la fonction f on distingue les cinq cas A, B, C, D, E
qui suivent.
Cas A) Si la fonction f est continue en x et éventuellement discontinue en t
(mais mesurable), alors il y a existence de solutions absolument continues.
Théorème 1 (de Carathéodory, 1918). [FIL 88] Supposons que :
A1) f soit dénie pour presque tout t sur un tonneau :
T = {(t, x) ∈ I × X : |t − t0 | ≤ a, kx − x0 k ≤ b} , (5.18)
Equations diérentielles ordinaires 177

A2) f soit mesurable en t pour tout x xé, continue en x pour t xé et telle
que, sur T , on ait kf (t, x)k ≤ m(t), où m est une fonction positive Lebesgue-
intégrable sur |t − t0 | ≤ a.
Alors, il existe au moins une solution (absolument continue) au problème de
Cauchy dénie sur au moins un intervalle [t0 − α, t0 + α], α ≤ a.
On peut même montrer l'existence de deux solutions, l'une dite supérieure
et l'autre, inférieure, telles que tout autre solution soit comprise entre ces deux
solutions [FIL 88, LAK 69].
Cas B) Si la fonction f est continue en (t, x), alors il y a existence de solutions
de classe C 1 .
Théorème 2 (de Peano, v.1886). [COD 55] Supposons que :
B1) f soit dénie pour tout t sur un tonneau T déni par (5.18),
B2) f soit continue sur T déni par (5.18).
Alors il existe au moins une solution au problème de Cauchy de classe C 1 dénie
sur au moins un intervalle [t0 − α, t0 + α], α = min(a, maxT kfb (t,x)k ).

Figure 5.4. Approximation d'Euler

La preuve est basée sur les approximations d'Euler. Ce sont les lignes poly-
gonales (voir la gure 5.4) dénies par :

 φ0 = x0 ,
φ (t) = φn (ti−1 ) + f (ti−1 , φn (ti−1 ))(t − ti−1 ), ti−1 < t ≤ ti ,
 n
ti = t0 + ni α, i = {0, . . . , n},

dont on montre qu'elles constituent une famille équicontinue de fonctions dé-


nies sur [t0 − α, t0 + α], convergente, dont on peut extraire une sous-suite φ0n
uniformément convergente vers une fonction continue φ (lemme d'Ascoli-Arzela
178 Mathématiques pour les systèmes dynamiques

[RIC 01]) qui vérie :


Z t
φ(t) = lim φ0n (t) = x0 + lim f (v, φ0n (v))dv
n→+∞ t0 n→+∞
Z t
dφ0n
+ lim (v) − f (v, φ0n (v))dv.
n→+∞ t0 dt

dφ0n
φ est donc solution de (5.13) puisque limn→+∞ dt (v) − f (v, φ0n (v)) = 0.

Prolongement de solution, unicité, solution globale

p Evidement, pour l'exemple (5.16), il y a existence de solution (f : x 7→


|x| est continue) mais pas unicité. Pour garantir l'unicité, il faut donc que la
fonction f soit  plus que continue  : par exemple il sut qu'elle soit localement
lipschitzienne en la seconde variable x, comme suit.
Dénition 3. f est dite localement lipschitzienne sur X si :

∀x0 ∈ X , ∃δ > 0 et k(t) intégrable :


∀(x, y) ∈ Bδ (x0 ) ⇒ kf (t, x) − f (t, y)k ≤ k(t) kx − yk .

f est dite globalement lipschitzienne sur X si :

∃k(t) intégrable : ∀(x, y) ∈ X 2 ,


kf (t, x) − f (t, y)k ≤ k(t) kx − yk .

Ces propriétés sont dites uniformes si k ne dépend pas de t.


Proposition 1. Toute fonction C 1 (I × X ) dont la norme de la jacobienne est
bornée par une fonction intégrable, est localement lipschitzienne. De plus, si X
est compact (fermé, borné), elle est globalement lipschitzienne.
Sous l'hypothèse f localement lipschitzienne en x, il se peut qu'une solution
φ dénie sur I1 puisse être prolongée sur un intervalle I2 ⊃ I1 , dénissant ainsi
une fonction φe dénie sur I2 ⊃ I1 et telle que φ e | I1 = φ. Aussi, an de ne pas
alourdir les notations, I(t0 , x0 ) =]α(t0 , x0 ), ω(t0 , x0 )[ désignera par la suite le
plus grand intervalle sur lequel on peut dénir une solution passant à t0 par x0
et qui ne puisse être prolongée : la solution sera dite maximale.
Cas C) Si la fonction f est localement lipschitzienne en x et éventuellement
discontinue en t (mais mesurable), alors il y a existence et unicité de solution
(maximale) absolument continue.
Théorème 3. Si, dans le théorème 1, l'hypothèse de continuité dans A2) est
remplacée par  f localement lipschitzienne sur kx − x0 k ≤ b , alors il existe
Equations diérentielles ordinaires 179

une unique solution (absolument continue) au problème de Cauchy dénie sur


I(t0 , x0 ) ⊃ {t ∈ I : |t − t0 | ≤ α}.
De même, si f est continue en (t, x) et localement lipschitzienne en x, alors il
existe une unique solution au problème de Cauchy de classe C 1 .
Les preuves de ces résultats sont basées sur les approximations de Picard-
Lindelöf :


 φ0 = x0 , Rt
φn+1 (t) = x0 + t0 f (v, φn (v))dv,

 t ∈ [t0 − α, t0 + α], α = min(a, b
maxT kf (t,x)k ),

dont on montre qu'elles convergent uniformément vers une solution. L'unicité


de la solution se démontre ensuite par contradiction.
Cas D) Si la fonction f est bornée en norme par une fonction ane, c'est-
à-dire que ∀(t, x) ∈ (I × X ) : kf (t, x)k ≤ c1 kxk + c2 (éventuellement presque
partout), alors en utilisant le lemme de Gronwall [RIC 01], on peut conclure
que toute solution au PC est dénie sur I .
Cas E) Si le système possède une propriété de  dissipativité  et si
f est
localement lipschitzienne, alors le PC admet une solution maximale unique
dénie pour tout t ≥ t0 (I = R, X = Rn ).
La propriété de dissipativité peut être exprimée sous la forme :  il existe
α ≥ 0, β ≥ 0, v ∈ Rn tels que pour tout t ∈ R et tout x ∈ Rn : < x −
v, f (t, x) >≤ α − β kxk2  ou bien, à l'aide de fonctions de Liapounov6 (voir
paragraphe 5.7.2), sous la forme  il existe V et W : Rn 7→ R+ continues, dénies
positives sur un compact A (c'est-à-dire : V (x) = 0 ⇔ x ∈ A), telles que pour
tout t ∈ R et tout x ∈ Rn \A 7 : < ∂V ∂x , f (t, x) >≤ −W (x).

Dépendance des conditions initiales

Théorème 4. Sous les hypothèses du théorème 3, la solution au problème de


Cauchy t 7→ φ(t; t0 , x0 ) dénie sur I(t0 , x0 ) est continue par rapport à chacun
de ses arguments.
En particulier, si t est susamment proche de t0 , alors φ(t; t0 , x0 ) est proche
de x0 . Cette proximité peut être étudiée pour des instants très grands : c'est
la question de la stabilité (voir paragraphe 5.4.2).
6 Alexander Mikhaïlovich Liapounov, mathématicien et physicien russe. Après des études

à l'université de Saint-Pétersbourg (où il est élève de P.L. Tchebychev), il est assistant puis
professeur à l'université de Kharkov. En 1902, il est nommé professeur à l'université de Saint-
Pétersbourg.
7 On notera A\B la diérence ensembliste de A et B : A\B = {x ∈ A : x ∈ / B}.
180 Mathématiques pour les systèmes dynamiques

5.3.2. Classication
Dénition 4. L'équation (5.11) est dite autonome si la variable temporelle
n'apparaît pas explicitement dans l'EDO :
dx
= g(x), t ∈ I, x ∈ X.
dt
Dans le cas contraire, elle est dite non autonome.
Si l'on connaît les solutions d'une EDO autonome passant à un instant
t donné par un point x donné, alors on obtient toutes les solutions passant
par ce même point à d'autres instants par simple translation temporelle des
premières. Donc, une EDO autonome ne peut servir qu'à modéliser des phéno-
mènes physiques indépendants du temps initial (chute d'un corps, etc.). Notons
au passage que la longueur de I(t0 , x0 ) ne dépend pas de l'instant initial.
Dénition 5. On dit qu'un champ de vecteurs non linéaire non autonome
f (t, x) est T −périodique s'il existe un réel T > 0 tel que pour tout t et pour
tout x : f (t + T, x) = f (t, x).
Dans ce cas, si l'on connaît les solutions pour un intervalle de longueur T ,
on aura toutes les autres par translation temporelle.

Cas linéaire autonome

Lorsque (5.11) est de la forme :


dx
= Ax + b,
dt
on dit qu'il s'agit d'une EDO linéaire autonome. Il existe alors une solution
unique au PC (puisque Ax + b est globalement uniformément lipschitzienne)
de la forme : Z 
t
x(t) = eA(t−t0 ) x0 + eAt e−Av dv b,
t0
P
ou encore x(t) = ri=1 eλi t pi (t) + c, avec λi les valeurs propres de A et pi (t) des
vecteurs de polynômes de degrés plus petits que l'ordre de multiplicité de la
valeur propre correspondante λi . La section 5.5 donne des résultats plus précis
lorsque b = 0.
Ce type de modèle caractérise des phénomènes pour lesquels :

1. l'instant initial n'a pas d'inuence sur l'évolution temporelle du vecteur


état (EDO autonome) ;
Equations diérentielles ordinaires 181

2. si b = 0 (respectivement, b 6= 0), alors une combinaison linéaire (respec-


tivement, convexe) d'évolutions est encore une évolution possible : ceci
traduit la linéarité du système.

Pour de tels systèmes, on peut noter que, au bout d'un temps inni, les
diérentes variables dénissant le vecteur x :

1. soit convergent vers un vecteur (le vecteur x évoluant vers un vecteur xe
dit  point d'équilibre ),
2. soit divergent (la norme de x devient inniment grande),
3. soit ont un comportement oscillatoire : lorsqu'on observe leurs évolu-
tions les unes en fonction des autres, elles évoluent sur une courbe fermée
(comme le cercle) : c'est ce qu'on appelle un cycle fermé (exemples : cycle
économique, population cyclique, masse attachée à un ressort, etc.).

Enn, si A et b dépendent du temps, le système est dit linéaire non autonome


(ou non stationnaire ) : en plus des comportements précités on retrouve la dé-
pendance des solutions à l'instant initial . Notons que lorsque A(t) est une fonc-
tion T −périodique continue sur R, on peut étudier formellement les solutions
grace à la théorie de Floquet [HAH 67] : il existe alors une transformation bijec-
tive P (t) T −périodique et continue, z(t) = P (t)x(t), telle que ż = M z + c(t),
avec M une matrice constante vériant M = Ṗ (t) + P (t)A(t)P (t)−1 et
c(t) = P (t)b(t).

Cas non linéaire autonome

Lorsque (5.11) est de la forme :


dx
= g(x), (5.19)
dt
on dit qu'il s'agit d'une EDO non linéaire autonome. On ne peut lui donner de
solution explicite, sauf dans des cas très particuliers. Outre les comportements
précités dans le cas linéaire autonome, on peut mentionner :

1. cycles limites : il s'agit de courbes fermées de X vers ou à partir desquelles


les trajectoires du système se dirigent ;
2. phénomène de chaos : ces comportements, régis par des EDO (déter-
ministes), sont en apparence aléatoires. Une des caractéristiques est la
sensibilité aux conditions initiales : deux conditions initiales très proches
donneront naissance à deux évolutions complètement diérentes (voir sec-
tion 5.9) ;
182 Mathématiques pour les systèmes dynamiques

3. attracteur étrange : il s'agit en général d'un ensemble de dimension non


entière, ce qui traduit une certaine  rugosité  de l'objet. Par exemple,
une surface est de dimension 2, un volume est de dimension 3, alors
qu'un ocon de neige ayant une innité de ramications est de dimension
non entière comprise entre 2 et 3. Lorsque les trajectoires se dirigent
vers (respectivement s'éloignent de) cet ensemble, il est dit  attracteur
(respectivement répulseur) étrange . Souvent la présence d'attracteurs
ou répulseurs étranges est un signe du chaos, cependant dans certains cas
le phénomène chaotique n'est que transitoire et disparaît au bout d'un
temps susamment long (voir paragraphe 5.9.3).

5.3.3. Notion de ot

Dans cette partie, on suppose l'existence et l'unicité de la solution (maxi-


male) au PC associé à (5.19), que l'on notera φ(t; t0 , x0 ). Si le champ est com-
plet, c'est-à-dire I(x0 ) = R, et si l'on connaît une solution pour un couple
(t0 , x0 ), alors on aura toutes les autres (pour x0 xé) par translation tempo-
relle. Considérons l'application qui, à toute condition initiale, associe sa solution
maximale à l'instant t :

Φtg : X → X ,
x0 7→ φ(t; 0, x0 ).

Dénition 6. Si le champ de vecteurs g de l'EDO (5.19) permet de générer une


solution maximale unique pour tout (t0 , x0 ) de R × X , dénie sur I(x0 ) = R
(respectivement sur [α, ∞[, sur [α, ω] avec α et ω nis), alors l'application
génératrice Φtg est appelée un ot (respectivement un semi-ot, un ot local).
D'après les hypothèses, Φtg est bijective, donc on a au moins un ot local.
La justication du choix de la notation Φtg devient évidente lorsqu'on calcule le
ot d'une EDO linéaire autonome homogène : ẋ = Ax, Φtg = eAt . Dans le cas
où g est de classe C k (respectivement C ∞ , analytique), le ot associé Φtg est un
diéomorphisme local de classe C k (respectivement C ∞ , analytique) pour tout
instant t où il est déni. En particulier, si le ot Φtg est déni pour tout t ∈ R,
alors il dénit un groupe à un paramètre de diéomorphismes locaux de classe
C k (respectivement C ∞ , analytique) (voir [ARN 88] p. 55 à 63) :

Φtg : x0 7→ Φtg (x0 ) est de classe C ∞ , (5.20)


Φtg ◦ Φsg = Φt+s
g , (5.21)
Φ0g = Id. (5.22)
Equations diérentielles ordinaires 183

On en déduit, ∀t ∈ R, ∀x0 ∈ X :
Φtg (x0 ) = Φ−t
−g (x0 ), (5.23)
Φtg ◦ Φ−tg = Φt−t
g = Id, (5.24)
t −1 −t
(Φg ) = Φg = Φt−g . (5.25)

La dualité caractérisée par (5.25) est importante puisque, si l'on connaît


le portrait de phase du système dynamique (5.19) pour les temps positifs,
son dual pour les temps négatifs s'obtient tout simplement en renversant
le sens de parcours des orbites : cette propriété est utilisée dans la mé-
thode du renversement des trajectoires (en anglais, trajectory reversing me-
thod ) permettant, en dimension deux (et parfois trois), de déterminer pré-
cisément la plupart des portraits de phase en alliant l'étude qualitative du
champ de vecteurs non linéaire à des simulations (pour plus de détails, voir
[CHI 88, CHI 89, GEN 84, GEN 85, PER 94]).
Le crochet de Lie (ou commutateur, voir chapitre 4) déni par :
 
∂g2 ∂g1
[g1 , g2 ] = g1 − g2 ,
∂x ∂x
permet de calculer la condition de commutativité de deux ots Φtg1 et Φsg2 .
Théorème 5. Soient g1 et g2 des champs de vecteurs C ∞ complets, dénis sur
X (par exemple Rn ). Alors :
∀t, ∀s, Φtg1 ◦ Φsg2 = Φsg2 ◦ Φtg1 ⇔ [g1 , g2 ] = 0.
Démonstration : soient x0 ∈ Rn et t, s > 0 donnés. Pour un champ de vecteurs
analytique X , on a ΦtX (y) = y + tX(y) + R(t, y), où R(t, y) représente un reste
s'annulant pour t → 0. On obtient donc :
∂g1
Φtg1 ◦ Φsg2 (x0 ) = x0 + (sg2 (x0 ) + tg1 (x0 )) + st g2 (x0 ) + R1 (t, s, x0 ),
∂x
∂g2
Φsg2 ◦ Φtg1 (x0 ) = x0 + (sg2 (x0 ) + tg1 (x0 )) + st g1 (x0 ) + R2 (t, s, x0 ),
∂x
et donc :
Φtg1 ◦ Φsg2 (x0 ) − Φsg2 ◦ Φtg1 (x0 ) = st[g2 , g1 ](x0 ) + R3 (t, s, x0 ).
Prenons t = s, alors l'implication est immédiate. Pour la réciproque, [g1 , g2 ] =
Φ−t ◦Φs ◦Φt (x0 )−Φsg1 (x0 )
0 ⇒ ∀x0 ∈ Rn : limt→0 ( g2 g1 g2t ) = 0. Soit la trajectoire x(t) =
g2 ◦ Φg1 ◦ Φg2 (x0 ), alors ẋ(t) = 0, donc Φg2 ◦ Φg1 ◦ Φg2 = Φg1 .
Φ−t s t −t s t s

En automatique, la non-commutativité des champs a une application très


importante puisqu'elle permet de caractériser l'atteignabilité (version locale de
la commandabilité) d'un système commandé du type ẋ = g1 (x) + g2 (x)u (voir
chapitre 4 et [ISI 89]).
184 Mathématiques pour les systèmes dynamiques

5.3.4. Comparaison de solutions, inégalités diérentielles


Dans cette partie, les inégalités vectorielles seront à comprendre composante
à composante et D est un opérateur de dérivation (dit de Dini ) : Dx(t) =
(Dx1 (t), . . . , Dxn (t)), où les dérivées Dxi (t) sont toutes dénies par l'une des
quatre limites suivantes :
xi (t + θ) − xi (t) xi (t + θ) − xi (t)
D+ xi (t) = lim inf , D+ xi (t) = lim sup ,
θ→0+ θ θ→0+ θ
D− xi (t) et D− xi (t) dénies de façon similaire pour les limites par valeurs
inférieures (θ → 0− ).
Soit S ⊂ I un ensemble de mesure nulle. On considère les relations dié-
rentielles suivantes :
Dx(t) ≤ f (t, x), t ∈ I\S, x ∈ X , (5.26)
dz
= f (t, z), t ∈ I\S, z ∈ X . (5.27)
dt

On se pose le problème de savoir sous quelles conditions les solutions de


(5.27) majorent celles de (5.26). Dans ce cas, (5.27) constituera un système
majorant de (5.26), dont l'utilisation est intéressante pour l'analyse des com-
portements des solutions d'une EDO (voir paragraphe 5.7.8). La contribution de
Waºewski [WAZ 50] (précédée de [KAM 32] et complétée par celle de Lakshmi-
kantham et Leela [LAK 69]) est certainement l'une des plus importantes puis-
qu'elle donne des conditions nécessaires et susantes pour que les solutions du
problème de Cauchy associé à (5.26) avec x0 donné à t0 , soient majorées par
la solution supérieure de (5.27) démarrant de z0 ≥ x0 à l'instant t0 .
Dénition 7. La fonction f : I × X → X ⊂ Rn , (t, x) 7→ f (t, x) est quasi
monotone non-décroissante en x si :
∀t ∈ I, ∀(x, x0 ) ∈ X 2 , ∀i ∈ {1, . . . , n},
[(xi = x0i ) et (x ≤ x0 )] ⇒ fi (t, x) ≤ fi (t, x0 ). (5.28)
Théorème 6. Supposons que :
1) f (t, x) vérie les hypothèses A1-A2 du théorème 1 d'existence de solution,
2) f (t, x) est quasi monotone non-décroissante en x presque partout en t
(∀t ∈ I\S ).
Alors, pour tout x0 ∈ X , les solutions du problème de Cauchy associé à (5.27)
vérient :
x(t) ≤ zsup (t), (5.29)
pour tout instant où les quantités x(t) et zsup (t) ont un sens, avec zsup (t) la
solution supérieure de (5.26) démarrant de z0 ∈ X , avec x0 ≤ z0 .
Equations diérentielles ordinaires 185

5.4. Quelques caractérisations de comportements

Sauf mention explicite, l'EDO considérée est (5.11), pour rappel :


dx
= f (t, x), t ∈ I, x ∈ X.
dt

5.4.1. Ensembles remarquables


Points d'équilibre

Pour certaines conditions initiales, le système reste  gelé , c'est-à-dire que


l'état n'évolue plus : on parlera alors de points d'équilibre.
Dénition 8. xe ∈ X est un point d'équilibre pour le système (5.19) si les
solutions φ(t; 0, xe ) de (5.19) sont dénies sur [0, +∞[ et vérient :
φ(t; 0, xe ) = xe , ∀t ∈ [0, +∞[.
Exemple 4. La solution au problème de Cauchy (5.1), x(0) = x0 , est donnée
par (5.14). Il est facile de vérier que x = 0 et x = xmax sont des points
d'équilibre.
On peut donner une dénition similaire pour (5.11) en tenant compte du fait
que les solutions dépendent alors de l'instant initial. Ainsi, un point peut n'être
d'équilibre que pour certains instants initiaux. Si xe est un point d'équilibre,
alors pour que le système reste en ce point il faut que la vitesse soit nulle,
c'est-à-dire que g(xe ) = 0. Cependant, cette condition seule n'est √pas susante
comme le montre l'étude de (5.16) : on a bien xe = 0 solution de x = 0, mais
il existe une innité de solutions qui quittent ce point (voir paragraphe 5.3.1).
Théorème 7. [GRU 87] xe est un point d'équilibre pour le système (5.19) si
et seulement si :

1. (5.19) admet une unique solution dénie sur [t0 , +∞[ au problème de
Cauchy,
2. g(xe ) = 0.
Par la suite, on considèrera que le point d'équilibre est l'origine : en eet,
l'étude de (5.19) au voisinage d'un point d'équilibre xe se ramène, par le chan-
gement de coordonnées y = x − xe , à l'étude de ẏ = g(y + xe ), ayant pour
équilibre (y = 0).
Exemple 5. Le système de Volterra-Lotka est un modèle simple de lutte de
deux espèces. En 1917, donc pendant la guerre, le biologiste Umberto d'Ancona
constata une augmentation du nombre de sélaciens (requins) dans la partie nord
186 Mathématiques pour les systèmes dynamiques

de la mer Adriatique. An d'expliquer ce phénomène, il t appel à son beau-


père, le mathématicien Vito Volterra, qui expliqua ce phénomène de la façon
suivante. Soit un volume d'eau inni (mer Adriatique par exemple), peuplé par
deux espèces : l'une, carnivore (C : sélaciens), dévorant l'autre, herbivore (H :
crevettes). Notons x et y les nombres respectifs d'individus des espèces (H) et
(C). Si l'espèce (H ) peuplait seule la mer, elle se développerait de façon ex-
ponentielle8 et la vitesse de croissance de l'espèce (H) serait : dx
dt = αx, avec
α > 0. Par contre, l'espèce (C) ne peut assurer seule son développement, ni
même sa survie, donc sa vitesse de variation serait : dy dt = −βy , avec β > 0.
Lorsque les deux espèces cohabitent, les carnivores (C) dévorent les herbivores
(H). En faisant l'hypothèse qu'à chaque rencontre d'un carnivore avec un her-
bivore, ce dernier est dévoré et que le nombre de rencontres est proportionnel
au produit des densités volumiques des deux espèces (donc, aussi à xy ), on peut
conclure que l'évolution des deux espèces est régie par le système diérentiel :

dt = αx − γxy
dx
(herbivores),
(5.30)
dt = −βy + δxy
dy
(carnivores),

avec α, β, γ, δ des réels positifs. Dans ce cas, les variables d'état s'introduisent
de façon naturelle : x, y . On peut a priori supposer que l'espace d'état est le
quart de plan R2+ . Le théorème 3 permet de garantir l'existence et l'unicité
des solutions et le théorème 7, l'existence de deux équilibres : (0, 0) et ( βδ , αγ ).
En séparant les variables selon : x(α−γy)dx dy
= y(−β+δx) , on peut montrer que
H(x, y) = [α ln(y) − γy] + [β ln(x) − δx] est une fonction constante le long
des solutions de (5.30). On montre ainsi que, pour toute condition initiale
strictement incluse dans le quart de plan strictement positif, les orbites du
système sont fermées. De plus les solutions sont dénies sur R : on obtient un
ot dont le portrait de phase est représenté sur la gure 5.5 (simulation pour
α = β = γ = δ = 1).
Les orbites sont centrées autour du point d'équilibre ( βδ , αγ ). Avant la guerre,
l'activité de la pêche était plus importante (on tient compte des prélèvements
de la pêche  −qx x  et  −qy y  dans (5.30), avec qx , qy positifs) : c'est-à-dire
que le couple de paramètres (α, −β) est remplacé par (α − qx , −β − qy ), donc
le point d'equilibre ( βδ , αγ ) est remplacé par ( β+q
δ , γ ). Ce qui explique un
y α−qx

déplacement du cycle vers le haut pendant la guerre, donc une augmentation


du nombre de célaciens.
Dénition 9. On classe les points d'équilibre xe de (5.19) en deux catégories :
1. les points hyperboliques (ou non dégénérés) : ce sont ceux pour lesquels
8
On fait ici l'hypothèse que son développement n'est limité ni par l'espace ni par la
quantité de nourriture.
Equations diérentielles ordinaires 187

Figure 5.5. Cycles pour l'équation de Volterra (5.30)

la jacobienne9 correspondante Jg (xe ) ne comporte aucune valeur propre


à partie réelle nulle (Jg (xe ) est aussi dite hyperbolique) ;
2. les points non hyperboliques (ou dégénérés) : ce sont ceux pour lesquels
la jacobienne Jg (xe ) possède au moins une valeur propre à partie réelle
nulle (Jg (xe ) est dite dégénérée).
Comme nous le verrons dans le paragraphe 5.6.2, cette distinction est im-
portante puisque, pour tout point hyperbolique, on peut connaître localement
le comportement des solutions, alors que ce n'est pas forcément le cas pour les
points non hyperboliques.

Orbites : périodiques, fermées, homocliniques et hétérocliniques

L'étude des systèmes non linéaires met en évidence des orbites particulières :
1. les orbites fermées qui sont une extension des points xes puisque, si on
laisse évoluer un système à partir d'une condition initiale appartenant à
cette orbite, alors il continuera à évoluer sur cette orbite ;

9 Si g est un champ de vecteur sur Rn , alors sa jacobienne au point x est la matrice
∂gi
∂xj
(x) .
188 Mathématiques pour les systèmes dynamiques

2. les orbites homocliniques et hétérocliniques qui relient des points d'équi-


libre.
Les dénitions suivantes sont inspirées de [ROU 73] (tome 1, pages 87-88,
tome 2, page 8), [HAL 91] (pages 113-117) et de [GUC 83].
Dénition 10. La solution φ(t; t0 , x0 ) est T -périodique (périodique de période
T ), si I(t0 , x0 ) = R et s'il existe un réel positif λ, tel que pour tout réel t on
ait φ(t + λ; t0 , x0 ) = φ(t; t0 , x0 ). Le plus petit réel positif λ noté T s'appelle
la période de la solution. Dans ce cas, l'orbite correspondante est une orbite
périodique de période T (ou orbite T -périodique).
Dénition 11. γ est une orbite fermée si γ est une orbite et une courbe de
Jordan, c'est-à-dire homéomorphe10 à un cercle.
Toute orbite correspondant à une solution T -périodique non triviale (non
identique à un point d'équilibre) est une orbite fermée. La réciproque est vraie
dans le cas de systèmes autonomes.
Exemple 6. Si l'on reprend l'équation de Van der Pol, c'est-à-dire l'équation
(5.3) avec f (x) = (x3 − 2µx), alors en posant iL = −x2 , vC = x1 , L = C = 1,
(5.3) devient :
dx1
= x2 ,
dt
dx2
= 2µx2 − x32 − x1 . (5.31)
dt
Ainsi, pour µ > 0, on peut montrer ([HIR 74] p. 211-227) l'existence d'une
orbite périodique γ représentée sur la gure suivante.
Dénition 12. Une orbite homoclinique est une orbite qui relie un point
d'équilibre à lui-même. Si une orbite relie deux points d'équilibre distincts, elle
est dite hétéroclinique.

Ensembles limites

Des notions plus précises ont étés introduites pour cerner les informations
pertinentes et rémanentes après dissipation d'un éventuel transitoire. C'est le
rôle des ensembles limites. Rappelons que I(t0 , x0 ) =]α(t0 , x0 ), ω(t0 , x0 )[ est
l'intervalle de dénition de la solution maximale associée à (t0 , x0 ).
Dénition 13. L' ensemble ω-limite par rapport à une condition initiale
(t0 , x0 ), noté Ωf (t0 , x0 ), est déni par :
Ωf (t0 , x0 ) = {y ∈ X : il existe une suite {ti } dans I(t0 , x0 ) :
lim ti = ω(t0 , x0 ) et lim φ(ti ; t0 , x0 ) = y}.
i →+∞ i →+∞

10
Un homéomorphisme est un morphisme continu. Ainsi, une courbe de Jordan est une
courbe obtenue par transformation continue à partir du cercle.
Equations diérentielles ordinaires 189

Figure 5.6. Orbite fermée périodique pour l'oscillateur de Van der Pol (5.31)

Figure 5.7. (a) orbite homoclinique, (b) orbite hétéroclinique

L' ensemble α-limite par rapport à une condition initiale (t0 , x0 ), noté
Af (t0 , x0 ), est déni par :

Af (t0 , x0 ) = {y ∈ X : il existe une suite {ti } dans I(t0 , x0 ) :


lim ti = α(t0 , x0 ) et lim φ(ti ; t0 , x0 ) = y}.
i →+∞ i →+∞

Ces notions Ωf (t0 , x0 ) et Af (t0 , x0 ) ont tout d'abord été introduites par
G.D. Birkho ([BIR 27] p. 197, 198). Lorsque ω = +∞ (respectivement,
α = −∞), l'ensemble ω -limite (respectivement, α-limite) est aussi appelé
l'ensemble limite positif (respectivement, négatif ), parfois noté Λ+ f (t0 , x0 ) (res-
pectivement, Λ−f (t 0 , x0 )) (voir par exemple [BHA 70] p. 19). Pour un champ de
vecteurs non linéaire autonome g associé à (5.19) et générant un ot global, on
190 Mathématiques pour les systèmes dynamiques

a la relation suivante :

Λ− − + +
−g (t0 , x0 ) = Λ−g (x0 ) = Λg (x0 ) = Λg (t0 , x0 ).

Cette propriété permet de relier les notions d'attracteur et de répulseur. De


plus, on peut noter que les ensembles ω ou α-limite sont, dans ce cas, indépen-
dants de l'instant initial. L'ensemble ω-limite par rapport à la condition initiale
x0 est déni par :

Ωg (x0 ) = {x ∈ Ω : ∃{ti }i∈N ⊂ I(x0 ) : lim ti = ω(x0 ) et lim Φtgi (x0 ) = x}.
i→∞ i→∞
(5.32)
Dans le cas général (5.11), on a le résultat qui suit.
Théorème 8. Si, pour x0 ∈ X et t0 ∈ I donnés, il existe une solution au
problème de Cauchy et si l'orbite issue de x0 à t0 (ni) est contenue dans un
ensemble compact de X , alors Ωf (t0 , x0 ) et Af (t0 , x0 ) sont des sous-ensembles
compacts, non vides, connexes de X .

Ensembles non-errants

La notion de point non-errant, plus ne que celle d'ensemble limite, fut
également introduite par G.D. Birkho [BIR 27] pour décrire les comporte-
ments asymptotique plus complexes (attracteur étrange par exemple). Elle
concerne principalement les systèmes autonomes régis par (5.19) pour lesquels
I(x0 ) =]α(x0 ), +∞[ contient l'instant initial.
Dénition 14. Un point x ∈ X est dit non-errant pour le système (5.19) si,
pour tout voisinage V(x) de ce point et tout T > 0, il existe un temps t > T tel
que : φ(t; 0, x) ∩ V(x) 6= ∅. L'ensemble constitué de tels points est dit ensemble
non-errant.

Figure 5.8. Point non errant


Equations diérentielles ordinaires 191

5.4.2. Propriétés

Dans cette partie, on considère le système (5.11) en supposant qu'il y a au


moins une solution au problème de Cauchy.

Invariance

Les systèmes physiques ont souvent tendance, dans certaines congurations,


à satisfaire un principe de moindre eort :  j'y suis, j'y reste  (équilibres,
orbites périodiques, etc.). Cette propriété d'invariance peut être étendue pour
des ensembles géométriques plus complexes, comme suit.
Dénition 15. Soit J ⊂ I . Un ensemble non vide compact A ⊂ X est dit
J −invariant si : ∀t0 ∈ J , ∀x0 ∈ A, ∀t ∈ I(t0 , x0 ) : φ(t; t0 , x0 ) ∈ A.

Figure 5.9. Invariance de A

Pour un champ de vecteurs non linéaire autonome g associé à (5.19), on


obtient le résultat suivant.
Lemme 1. [BHA 70] Soit (5.19), alors Ωg (x0 ) déni en (5.32) est un sous-
ensemble fermé de Ω. Si de plus φ(t; x0 ) est bornée alors Ωg (x0 ) est non vide,
compact, connexe et invariant.
Démonstration : (fermé) soit x ∈ Ωg (x0 ), alors ∃{xn }n∈N ⊂ Ωg (x0 ) : ∀ε >
0, ∃N1 > 0 tels que ∀n > N1 , ρ(x, xn ) < ε2 . De plus, xn ⊂ Ωg (x0 ), donc
∃{tni }i∈N ⊂ I(x0 ) : ∀ε > 0, ∃N2 > 0 tels que limi→∞ tni = ω(x0 ) et ∀n >
tn
N2 , ρ(xn , Φg i (x0 )) < 2ε . Si l'on prend tn = tnn : limn→∞ tn = ω(x0 ), alors
∀n > N = max(N1 , N2 ) : ρ(x, Φtgn (x0 )) ≤ ρ(x, xn ) + ρ(xn , Φtgn (x0 )) < ε, donc
x ∈ Ωg (x0 ) et Ωg (x0 ) est donc fermé.
192 Mathématiques pour les systèmes dynamiques

Supposons que φ(t; x0 ) soit bornée. Alors C = Φtg (x0 ) est compact et
on prend une suite d'instants {ti }i∈N : limi→∞ ti = ω(x0 ). On a donc une
suite de points Φtgi (x0 ) ∈ C, d'où, d'après le théorème de Bolzano-Weierstrass
0
[RIC 01], on peut extraire une sous-suite convergente vers x : limi Φtgi (x0 ) = x.
0
Or Φtgi (x0 ) ∈ Φtgi (x0 ), donc x ∈ Ωg (x0 ). De plus, Ωg (x0 ) est fermé borné,
donc compact. Montrons qu'il est connexe : si Ωg (x0 ) n'est pas connexe,
∃(A, A0 ) disjoints fermés : Ωg (x0 ) = A ∪ A0 (donc A, A0 compacts). Soit
x ∈ A : ∃{ti }i∈N ⊂ I(x0 ), limi→∞ ti = ω(x0 ) et limi→∞ Φtgi (x0 ) = x. Soit
t0
x0 ∈ A0 : ∃{t0i }i∈N ⊂ I(x0 ), limi→∞ t0i = ω(x0 ) et limi→∞ Φgi (x0 ) = x0 . Mais
alors, pour tout i, [ti , t0i ] est (compact) connexe et, Φtg (x0 ) étant continue, on
0 00
a Φ[tg i ,ti ] (x0 ) connexe : d'après [SCH 95] (p. 256), ∃t00i ∈ [ti , t0i ] : Φtgi (x0 ) ∈
/ A (ni
00
à A0 ) mais limi→∞ t00i = ω(x0 ) et limi→∞ Φtgi (x0 ) ∈ Ωg (x0 ). Enn, il est inva-
riant : x ∈ Ωg (x0 ), ∃{ti }i∈N ⊂ I(x0 ), limi→∞ ti = ω(x0 ) et limi→∞ Φtgi (x0 ) = x,
donc limi→∞ Φt+t g
i
(x0 ) = Φtg (x) : Φtg (x) ∈ Ωg (x0 ).

Stabilité au sens de Liapounov

Les ensembles remarquables (équilibres, orbites périodiques, etc.) peuvent


caractériser des congurations à énergie minimale pour un système physique.
Ces systèmes peuvent avoir tendance à rechercher une de ces congurations
plutôt qu'une autre : c'est ce que les concepts de stabilité traduisent d'une
certaine façon. Par exemple, le pendule pesant (5.6) possède. deux équilibres
en position verticale
.
: l'un au-dessus de l'horizontale, θ = π, θ = 0, l'autre en
dessous θ = 0, θ = 0. Il est bien connu que la masse a naturellement tendance à
se positionner vers le bas plutôt que vers le haut. La position d'équilibre basse
est stable, l'autre instable.
D'un autre point de vue, les solutions maximales x(t; t0 , x0 ) d'une EDO sont
continues par rapport aux trois variables t, t0 , x0 (sous certaines conditions, voir
paragraphe 5.3.1). Donc, si l'on prend deux solutions x(t; t0 , x01 ) et x(t; t0 , x02 )
avec x01 et x02 proches, la continuité implique que ces deux solutions sont
proches sur un certain intervalle de temps [t0 , t], sans aucune indication sur la
taille de cet intervalle. On peut souhaiter obtenir une proximité de ces deux
solutions sur un intervalle de temps assez grand : c'est ce que pose de façon
plus générale le problème de la stabilité au sens de Liapounov pour une solu-
tion particulière (équilibre, orbite périodique, ensemble ou bien une trajectoire
donnée).
Par la suite, A est un ensemble non vide compact (par exemple, un point
d'équilibre) de X muni d'une distance d. ρ(x, A) = inf y∈A d(x, y) est une dis-
tance du point x à l'ensemble A [RIC 01]. Enn, I(t0 , x0 ) =]α(t0 , x0 ), +∞[.
Equations diérentielles ordinaires 193

Dénition 16. A est stable au sens de Liapounov par rapport à J ⊂ I pour


(5.11) si :

∀t0 ∈ J , ∀ε > 0, ∃δ(t0 , ε) > 0 tel que :


∀x0 ∈ X : ρ(x0 , A) ≤ δ(t0 , ε) ⇒ ρ(φ(t; t0 , x0 ), A) ≤ ε, ∀t ≥ t0 .

Lorsque J = I = R, A est dit stable au sens de Liapounov. Lorsque δ(t0 , ε) =


δ(ε) est indépendant de t0 la propriété de stabilité est dite uniforme.
Dans le cas particulier des systèmes non linéaires autonomes (5.19), cela
revient à dire que, pour tout voisinage de A, il existe un voisinage de A (inclus
dans le premier) positivement invariant (voir [BHA 70] p. 58).
Ces dénitions peuvent s'exprimer en termes topologiques plus généraux :
par exemple, un point d'équilibre xe est stable au sens de Liapounov pour
(5.19) si, pour tout voisinage V(xe ) de xe , il existe un voisinage W(xe ) de xe
tel que : x0 ∈ W(xe ) ⇒ φ(t; t0 , x0 ) ∈ V(xe ), ∀t ≥ t0 .
De façon générale, pour (5.11), cette dénition s'exprime par :  pour tout
t0 ∈ J et pour tout voisinage V(A) de A, il existe un voisinage W(t0 , V) de
A tel que toute trajectoire issue de ce voisinage W(t0 , V) à l'instant t0 évolue
dans le premier voisinage V(A) sans en sortir (voir gure 5.10). Cependant,
si l'on se xe t0 , pour chaque voisinage V(A), il est utile de connaître le plus
grand de ces voisinages W(t0 , V) que l'on notera Ds (t0 , V, A) : ceci correspond
à la notion de domaine de stabilité (l'intersection des Ds (t0 , V, A)).

Figure 5.10. Stabilité d'un ensemble A, de domaine de stabilité Ds (A)

Dénition 17. Pour (5.11), Ds (t0 , A) est le domaine de stabilité au sens de


Liapounov par rapport à t0 de A si :
194 Mathématiques pour les systèmes dynamiques

1. ∀ε > 0, Ds (t0 , ε, A) ⊂ X est un voisinage de A ;


2. pour ε > 0, x0 ∈ Ds (t0 , ε, A) si et seulement si : ρ(φ(t; t0 , x0 ), A) ≤
ε, ∀t ≥ t0 ;
3. Ds (t0 , A) = ∪ε>0 Ds (t0 , ε, A).
Ds (J , A) est le domaine de stabilité au sens de Liapounov par rapport à J
de A si :
1. ∀t0 ∈ J , Ds (t0 , A) existe ;
2. Ds (J , A) = ∪t0 ∈J Ds (t0 , A).
Ds (A) est le domaine de stabilité au sens de Liapounov de A si : Ds (A) =
Ds (J = R, A).
Dénition 18. Pour (5.11), Dsu (J , A) est le domaine de stabilité uniforme
au sens de Liapounov par rapport à J de A si :

1. Dsu (J , A) est un voisinage de A ;


2. x0 ∈ Dsu (J , A) si et seulement si : ∀t0 ∈ J , ∀ε > 0, ρ(φ(t; t0 , x0 ), A) ≤
ε, ∀t ≥ t0 .

Dsu (A) est le domaine de stabilité uniforme au sens de Liapounov de A si :


Dsu (A) = Dsu (J = R, A).
Dénition 19. Symbolisons schématiquement par (κ) l'un des quatre quali-
catifs suivants : stable au sens de Liapounov par rapport à J , stable au sens de
Liapounov, uniformément stable au sens de Liapounov par rapport à J , uni-
formément stable au sens de Liapounov. Si D(κ) (J , A) = X (l'espace d'état),
alors A est globalement (κ), dans le cas contraire A est localement (κ).
Remarque 1. Les dénitions de stabilité 16 peuvent être remplacées par :
l'ensemble A est (κ) si le domaine D(κ) est non vide.
Remarque 2. Ces dénitions peuvent, ici encore, être énoncées en termes de
voisinages. La construction précédente nous conduit à procéder comme suit :
si, pour chaque V(A), on construit l'union des Ds (t0 , V(A), A) (qui sont les
équivalents des Ds (t0 , ε, A)), alors on obtient le domaine de stabilité au sens
de Liapounov par rapport à t0 de A noté : Ds (t0 , A) = ∪V(A) Ds (t0 , ε, A). Si
l'on fait varier t0 dans l'intervalle J , on obtient le domaine de stabilité de A
au sens de Liapounov par rapport à J , noté Ds (J , A).

Attractivité

La propriété d'attractivité d'un ensemble traduit le rapprochement asymp-


totique des solutions vers cet ensemble.
Equations diérentielles ordinaires 195

Dénition 20. A est attractif par rapport à J ⊂ I pour (5.11) si :

∀t0 ∈ J , ∃δ(t0 ) > 0, ∀x0 ∈ X : ρ(x0 , A) ≤ δ(t0 ) ⇒ lim ρ(φ(t; t0 , x0 ), A) = 0,


t→∞

c'est-à-dire :
∀ε > 0, ∃T (t0 , x0 , ε) > 0 : ∀t ≥ t0 + T (t0 , x0 , ε), ρ(φ(t; t0 , x0 ), A) ≤ ε.

Lorsque J = I = R, A sera dit attractif. Lorsque δ(t0 ) = δ est indépen-


dant de t0 et T (t0 , ε, x0 ) = T (ε) est indépendant de t0 et x0 alors la propriété
d'attractivité sera dite uniforme.

Figure 5.11. Attractivité d'un ensemble A, de domaine d'attraction Da (A)

Cette notion peut être formulée en termes de voisinages. Par exemple, pour
tout t0 ∈ J et tout V(A) voisinage de A, il existe W(t0 , V) un voisinage de A tel
que, pour toute trajectoire issue de ce voisinage W(t0 , V) à l'instant t0 , il existe
un temps T (t0 , x0 , V) > 0 tel que la trajectoire évolue dans W(t0 , V) sans en
sortir à partir de l'instant t0 + T (t0 , x0 , V) (voir gure 5.11). Cependant, pour
t0 et V(A) un voisinage de A donnés, il est utile de connaître le plus grand de
ces voisinages W(t0 , V) que l'on notera Da (t0 , V, A) : ceci conduit à la notion
de domaine d'attractivité, intersection des Da (t0 , V, A) (sur les V ).
Dénition 21. Pour (5.11), Da (t0 , A) est le domaine d'attractivité de A par
rapport à t0 pour (5.11) si :

1. Da (t0 , A) ⊂ X est un voisinage de A ;


2. pour ε > 0, x0 ∈ Da (t0 , ε, A) si et seulement si : ∃T (t0 , ε) > 0 tel que
∀t ≥ t0 + T (t0 , ε), ρ(φ(t; t0 , x0 ), A) ≤ ε.
196 Mathématiques pour les systèmes dynamiques

Da (J , A) est le domaine d'attractivité de A par rapport à J si :

1. ∀t0 ∈ J , Da (t0 , A) existe ;


2. Da (J , A) = ∪t0 ∈J Da (t0 , A).

Da (A) est le domaine d'attractivité de A si : Da (A) = Da (J = R, A).


Dénition 22. Pour (5.11), Dau (J , A) est le domaine d'attractivité uniforme
de A par rapport à J pour (5.11) si :

1. Dau (J , A) est un voisinage de A ;


2. pour ε > 0, x0 ∈ Dau (J , A) si et seulement si : ∃T (ε) > 0, ∀t0 ∈ J ,, tel
que l'on ait ρ(φ(t; t0 , x0 ), A) ≤ ε, ∀t ≥ t0 + T (ε).

Dau (A) est le domaine d'attractivité uniforme de A si : Dau (A) = Dau (J =


R, A).
Dénition 23. Symbolisons schématiquement par (κ) l'un des quatre quali-
catifs suivants : attractif par rapport à J , attractif, uniformément attractif
par rapport à J , uniformément attractif. Si D(κ) (J , A) = X (l'espace d'état),
alors A est globalement (κ) ; dans le cas contraire, A est localement (κ).
Remarque 3. Les dénitions d'attractivité 20 peuvent être remplacées par :
l'ensemble A est (κ) si le domaine D(κ) est non vide.

Stabilité asymptotique

La propriété d'attractivité d'un ensemble traduit la convergence des so-


lutions vers cet ensemble au bout d'un temps inni et ce, indépendamment
d'éventuelles excursions pendant le régime transitoire. La stabilité, elle, tra-
duit la proximité de solutions tout au long de l'évolution, mais sans garantir
la convergence. Ces deux propriétés sont donc distinctes et complémentaires.
Leur combinaison correspond à la notion de stabilité asymptotique.
Dénition 24. A est asymptotiquement stable par rapport à J ⊂ I s'il
est stable au sens de Liapounov par rapport à J et attractif par rapport à J .
Lorsque J = I = R, A sera dit asymptotiquement stable. Si les propriétés de
stabilité et d'attractivité sont uniformes, alors la propriété de stabilité asympto-
tique résultante est dite uniforme. Les divers domaines de stabilité asymptotique
associés aux propriétés ci-dessus sont dénis comme étant les intersections des
domaines de stabilité et d'attractivité.
Il est important de noter qu'en non-linéaire, un ensemble peut être attractif
sans être stable, et vice versa. L'exemple suivant illustre cette indépendance
des deux propriétés.
Equations diérentielles ordinaires 197

Exemple 7. Soit l'EDO :


!
dx  p  y x
= x 1 − x2 + y 2 − 1− p ,
dt 2 x2 + y 2
!
dy  p  x x
= y 1 − x2 + y 2 + 1− p .
dt 2 x2 + y 2

L'origine (0, 0) est un équilibre instable (pour le monter, on pourra utiliser les
résultats du paragraphe 5.7.7) et l'équilibre (1, 0) est attractif mais instable : le
portrait de phase est donné gure 5.12.

Figure 5.12. Equilibre (1, 0) attractif et instable

Exemple 8. La solution au problème de Cauchy (5.1) x(0) = x0 est don-


née par (5.14). Il est donc facile de vérier que l'équilibre x = 0 n'est
pas attractif (limt→∞ φ(t; 0, x0 ) = limt→∞ x0 +e−axxmax
0 xmax
t (x
max −x0 )
= xmax )
et que l'équilibre x = xmax est asymptotiquement stable. En eet, il
est attractif (limt→∞ φ(t; 0, x0 ) = xmax ) et stable puisque φ(t; 0, x0 ) −
(xmax −x0 )e−axmax t
xmax = xxmax −axmax t , donc pour ε > 0, si |x0 − xmax | <
0 +(x max −x0 )e

ε, |φ(t; 0, x0 ) − xmax | < xmax x0(x max −x0 )
+(xmax −x0 ) < ε.
Pour cet exemple, nous avons pu étudier la stabilité asymptotique à par-
tir de l'expression analytique des solutions. Cependant, pour une EDO (5.11)
dont en général on ne peut exprimer les solutions de façon explicite, il est im-
portant de disposer de critères permettant d'étudier la question de la stabilité
sans avoir à calculer les solutions : ce sont les résultats des paragraphes 5.5
(première méthode de Liapounov) et 5.7.3, 5.7.4, 5.7.5, 5.7.7 (seconde méthode
de Liapounov) qui le permettent.
198 Mathématiques pour les systèmes dynamiques

Stabilité exponentielle

Le concept de stabilité exponentielle contient une information supplémen-


taire : la rapidité de la convergence vers l'ensemble A.
Dénition 25. A est exponentiellement stable par rapport à J ⊂ I si :
∀t0 ∈ J , ∃δ(t0 ) > 0, ∃α(δ) > 0, ∃β(δ) ≥ 1 tels que ∀x0 ∈ X , ρ(x0 , A) ≤ δ(t0 )
implique :
ρ(φ(t; t0 , x0 ), A) ≤ βρ(x0 , A) exp(−α(t − t0 )), ∀t ≥ t0 . (5.33)
Lorsque J = I = R, A est dit exponentiellement stable. Lorsque δ(t0 ) = δ
est indépendant de t0 et α(δ) = α, β(δ) = β sont indépendants de δ, alors la
propriété de stabilité est dite uniforme. α est alors appelé le taux de convergence
exponentielle.
De même que pour les précédentes notions, on peut dénir les domaines
de stabilité exponentielle correspondants. La dénition des ces domaines tient
compte de la paire (α, β) retenue : par exemple, Deu (A, α, β) est le plus grand
voisinage de A dans lequel la majoration (5.33) est vériée.

Stabilité pratique

En pratique, A étant un compact à atteindre (cible) et étant donnés un


instant initial t0 ∈ J , un instant nal Tf > 0 et un  temps de réponse 
Ts > 0, il est intéressant de savoir si, pour toute condition initiale dans un
domaine Dini ⊂ X , les solutions :
1. sont au moins dénies sur [t0 , t0 + Tf ],
2. restent dans un domaine admissible Dadm ⊂ X pendant cet intervalle de
temps,
3. rejoignent A à partir de l'instant t0 + Ts et y restent pour t ∈ [t0 + Ts, t0 +
Tf ].

C'est ce que traduit la notion de stabilité pratique avec temps d'établisse-


ment [GRU 73a, GRU 73b, LAS 61, PER 95b, WEI 67b, WEI 67a].
Dénition 26. Un ensemble compact A est stable pratiquement avec temps
d'établissement par rapport à {J , Ts , Tf , Dini , Dadm } si : ∀x0 ∈ Di , ∀t0 ∈ T0 ,
toute solution φ(t; t0 , x0 ) est dénie sur [t0 , t0 + Tf ] (c'est-à-dire [t0 , t0 + Tf ] ⊂
I(t0 , x0 )) et vérie :
φ(t; t0 , x0 ) ∈ Dadm , ∀t ∈ [t0 , t0 + Tf ],
φ(t; t0 , x0 ) ∈ A, ∀t ∈ [t0 + Ts , t0 + Tf ]. (5.34)
La propriété est globale si Dini = X (l'espace d'état).
Equations diérentielles ordinaires 199

Figure 5.13. Stabilité pratique

Estimation des domaines

La plupart du temps, les domaines dénis ci-dessus ne peuvent être calculés


de façon exacte : ceci nécessiterait de résoudre formellement l'EDO. Il est donc
intéressant d'en connaître un sous-ensemble, qui en constitue une estimation.
Dénition 27. [PER 94] Le domaine D est une estimation du domaine Dsa
(respectivement Ds , Dsu , Da , Dau , Dse ,Dseu ) de l'ensemble A si :
D ⊂ Dsa (respectivement Ds , Dsu , Da , Dau , Dse , Dseu ),
A ⊂ D.

5.5. Cas linéaire autonome

5.5.1. Calcul des solutions


Considérons le modèle linéaire autonome suivant :
ẋ = Ax, x ∈ Rn . (5.35)
Les solutions au problème de Cauchy associé à (5.35), x(t0 ) = x0 , sont connues
explicitement :
x(t) = exp(A(t − t0 ))x0 . (5.36)
De même, pour le modèle linéaire non-homogène :
ẋ = Ax + b(t), x ∈ Rn , (5.37)
200 Mathématiques pour les systèmes dynamiques

les solutions sont :


 Z t 
x(t) = exp(A(t − t0 )) x0 + exp(−A(v − t0 ))b(v)dv , (5.38)
t0

avec, dans le cas particulier où b est constant :


Z t 
x(t) = exp(A(t − t0 ))x0 + exp A(t − v)dv b, (5.39)
t0

qui lorsque A est non singulière devient :


x(t) = exp(A(t − t0 ))x0 + (exp A(t − t0 ) − Id) A−1 b. (5.40)

Ainsi, le comportement des solutions de (5.35) et de (5.37) est entière-


ment conditionné par les  contractions  et  dilatations 11 de l'exponentielle
exp(At). Rappelons (voir [RIC 01] chapitre 3) que :

X X
n−1
(At)i
exp(At) = = αi (t)Ai , (5.41)
i=0
i! i=0

puisque, d'après le théorème de Cayley-Hamilton, An est une combinaison li-


néaire des Ai , 0 ≤ i ≤ (n − 1). Il existe plusieurs méthodes pour calculer
l'exponentielle, rappelées ci-dessous.

1. En exprimant A sous forme de Jordan :


A = P JP −1 , J = diag(J(λi )),
 
λi 1 0 0
 
 0 ... ... 0 
J(λi ) = 
 . .
,
 .. .. ... 1  
0 ··· 0 λi

d'où exp(At) = P exp(Jt)P −1 avec exp(Jt) = diag(exp(J(λi )t)) et :


 
t2 t(k−1)
1 t 2! (k−1)!
 
 .. .. t2 

exp(J(λi )t) = exp(λi t)  0 . . 
2! .
 .. .. .. 
 . . . t 
0 ··· 0 1
11 Contractions dans les directions propres associées aux valeurs propres de A à parties

réelles négatives et dilatations dans les directions associées aux valeurs propres de A à parties
réelles positives.
Equations diérentielles ordinaires 201

2. En utilisant la décomposition de Dunford de A = N + D, avec N


nilpotente (N n = 0) et D diagonalisable dans C, puisque exp(At) =
P∞ ((N +D)t)i P
i=0 i! et (N + D)i = ik=0 Cki N i−k Dk . Le calcul de l'exponen-
tielle s'en trouve simplié puisque N n = 0 : c'est une méthode similaire
à celle du point 1, qui dans certains cas s'avère plus rapide.
3. En utilisant la méthode des matrices constituantes, la matrice f (A) pou-
vant s'exprimer sous la forme :

X i −1
r nX
f (A) = f (j) (λi )Zij ,
i=1 j=0

où r est le nombre de λi (valeurs propres de A distinctes) et ni leur mul-


tiplicité. Ainsi, f (A) s'écrit comme une combinaison linéaire de matrices
Zij indépendantes de la fonction f (qui ne dépend que de A) ; les coef-
cients de cette combinaison dépendent, eux, de la fonction f . Aussi, on
détermine les Zij à l'aide de fonctions-test simples (par exemple x 7→ xk ).

Pour (5.37), dans le cas particulier de b constant :

ẋ = Ax + b, (5.42)

les points d'équilibre vérient Ax + b = 0. Si A est régulière, alors il n'en existe


qu'un donné par xe = −A−1 b. Si A est singulière, alors deux cas se présentent :
 il y a une innité de points d'équilibre si rang(A, b) = rang(b), c'est-à-dire
si b ∈ image(A) ou encore, si ∃c ∈ Rn : b = Ac. Ils sont alors dénis par :
xe = c + u0 , où u0 ∈ ker(A) (u0 est n'importe quel vecteur propre de A
associé à la valeur propre nulle) ;
 il n'y a aucun équilibre si b ∈
/ image(A).

5.5.2. Conditions de stabilité

Théorème 9. Soient A ∈ Mn (R), de spectre σ(A) = {λi ∈ C, i = 1, . . . , r ≤


n : det(λi Id − A) = 0 et λi 6= λj pour i 6= j}, et Eλi (i = 1, . . . , r) les espaces
propres généralisés associés aux valeurs propres λi . Soit b constant vériant
b ∈ image(A) et xe : Axe + b = 0.

1. Si ∃λi ∈ σ(A) : Re(λi ) > 0, alors limt→+∞ kexp(At)k = +∞ et xe est


instable pour (5.42).
2. Si ∃λi ∈ σ(A) : Re(λi ) = 0 et dim Eλi > 1, alors limt→+∞ kexp(At)k =
+∞ et xe est instable pour (5.42).
202 Mathématiques pour les systèmes dynamiques

3. Si Re(λi ) < 0, i = 1, . . . , (r − 1) et Re(λr ) = 0, avec dim Eλr = 1, alors


kexp(At)k < +∞ et xe est stable mais non attractif pour (5.42).
4. Si ∀λi ∈ σ(A) : Re(λi ) < 0, alors limt→+∞ kexp(At)k = 0 et xe est
exponentiellement (donc asymptotiquement) stable pour (5.42).
Remarque 4. Puisqu'il n'y a pas de confusion possible car le ou les équilibres
de (5.42) ont tous les mêmes propriétés de stabilité, on parle aussi de la  sta-
bilité du système (5.42) , ou encore,  de la matrice A .
 
−1 0
Exemple 9. L'équilibre xe = 0 de (5.35) est instable pour A =
   0 1
0 1 0 0
(cas 1), instable pour A = (cas 2), stable pour A = (cas 3)
0 0 0 0
 
−1 1
et exponentiellement stable pour A = (cas 4). Remarquons que,
0 −1
dans les deuxième et troisième cas, A présente deux valeurs propres nulles. La
distinction se fait sur la dimension des espaces propres généralisés : un espace
Eλ=0 , dim Eλ=0 = 2 dans le deuxième cas, deux espaces Eλi =0 , dim Eλi =0 = 1
dans le troisième.
On en déduit la condition suivante nécessaire et susante pour que l'origine
soit asymptotiquement stable pour un système linéaire autonome.
Corollaire 1. xe est asymptotiquement stable pour (5.42) ⇔ ∀λi ∈ σ(A) :
Re(λi ) < 0. Dans ce cas, xe = −A−1 b et la stabilité est également exponentielle.
Corollaire
Pn−1
2. Si le polynôme caractéristique de A est de la forme π A (x) =
x + i=0 ai xi , alors une condition nécessaire de stabilité de xe pour (5.42)
n

est que les ai soient tous positifs.


Notons qu'une condition nécessaire et susante de stabilité asymptotique
est que πA (x) soit de Hurwitz, ou encore que les ai satisfassent le critère de
Routh (voir [BDR 93, HAH 67]).
D'autres conditions nécessaires et susantes sont disponibles dans le cas
linéaire autonome : certaines sont basées sur les équations de Liapounov (théo-
rème 21), d'autres ne concernent que des formes particulières de la matrice
A : si A = (aij ) avec aij ≥ 0 pour tout i 6= j, alors A est asymptotiquement
stable si et seulement si les mineurs principaux de −A (c'est-à-dire
 les n dé-
−a11 −a12
terminants emboîtés des matrices (−a11 ) , det , ..., det(−A))
−a21 −a22
sont tous positifs (critère de Kotelianskii).

5.5.3. Discrétisation d'une équation d'état linéaire autonome


La discrétisation peut intervenir an d'intégrer numériquement une équa-
tion diérentielle ou bien an d'obtenir un modèle en vue d'une analyse ou
Equations diérentielles ordinaires 203

d'une synthèse de commande discrète. Pour une équation linéaire autonome


(5.35), la solution est (5.36) et la récurrence liant deux états successifs ( dis-
tant  d'une période constante T ) est donc :
xn+1 = A xn ,
A = exp(AT ).
Pour une équation linéaire autonome non-homogène (5.42) dont on suppose
que A est non singulière, la solution pour b constant (égal à bn ) entre deux
instants d'échantillonnage est (5.40). La récurrence liant deux états successifs
( distants  d'une période constante T ) est donc, dans ce cas :
xn+1 = A xn + B bn ,
A = exp(AT ),
B = (A − Id)A−1 ,
bn =b(nT ).
RT P
Pour le cas où A est singulière, on a : B = 0 eA(T −θ) dθ = ∞
i=0 (i+1)! A .
T i+1 i

5.6. Etude de comportements : résultats locaux

Dans cette section, on s'intéresse au système non linéaire autonome (5.19),


pour lequel on suppose l'existence et l'unicité d'une solution au problème de
Cauchy avec I(x0 ) = I = R.

5.6.1. Stabilité structurelle


On sait que le réel ne se laisse pas réduire à un modèle mathématique : toute
modélisation laisse apparaître des imprécisions. C'est pourquoi il est naturel de
rechercher des classes de fonctions p(x) pour lesquelles les solutions de (5.19)
et celles de :
dx
= gp (x, p(x)), x ∈ X , (5.43)
dt
se ressemblent. Pour étudier cette propriété, dite de stabilité structurelle, il
a été introduit la notion de distance au sens C 1 , permettant de caractériser
la proximité de deux champs de vecteurs, ainsi que la notion d'équivalence
topologique permettant de caractériser la  ressemblance  des solutions. Cette
propriété de stabilité structurelle intéresse l'automaticien car elle caractérise
une forme de robustesse.
Les dénitions suivantes sont inspirées de [ARN 80] (p. 91-140), [GUC 83] (p.
38-42), [HIR 74] p. 305-318), [REI 82] (p. 93-101).
204 Mathématiques pour les systèmes dynamiques

Distance de Whitney

Dénition 28. Pour deux champs de vecteurs g1 et g2 de classe C 1 (X ), on dénit


la distance au sens C sur S ⊂ X séparant g1 et g2 , par :
1

  j  
∂ g1i (x) ∂ j g2i (x)
ρ1S (g1 ; g2 ) = max sup ∂xj − : i = 1, ..., n : j = 0, 1 .
x∈S ∂xj

Pour un champ de vecteurs g de classe C 1 (X ), on dénit un ε−voisinage de g au sens


C 1 sur S ⊂ X comme étant l'ensemble des champs de vecteurs g 0 de classe C 1 (X )
vériant ρ1S (g 0 ; g) ≤ ε.

Équivalence

Dénition 29. La fonction h établit une correspondance dans S ⊂ X entre les


solutions de (5.19) et de (5.43) si : ∀x0 ∈ S , on a h[Φtgp (x0 )] = Φtg [h(x0 )] aux
instants t ∈ R pour lesquels Φtgp (x0 ) et Φtg [h(x0 )] sont dans S .
Cette relation signie que la fonction h envoie les orbites du système perturbé
(5.43) sur celles du système non perturbé (5.19).
Dénition 30. Les systèmes (5.19) et (5.43) sont topologiquement (respectivement
diérentiablement, linéairement) équivalents dans S s'il existe h continue (respecti-
vement diérentiable, linéaire) d'inverse continue (respectivement diérentiable, li-
néaire) qui établit une correspondance dans S entre les solutions de (5.19) et celles
de (5.43).
On sait que :

[h linéaire] ⇒ [h diérentiable] ⇒ [h continue],

ainsi la notion d'équivalence topologique est-elle la plus  faible  :

[équivalence linéaire] ⇒ [équiv. diérentielle] ⇒ [équiv. topologique].

Stabilité structurelle

Dénition 31. Le système (5.19) est structurellement stable dans S s'il existe un
ε−voisinage de g au sens C 1 sur S ⊂ X , tel que, pour tout champ gp de ce voisinage,
les systèmes (5.43) associés à gp et (5.19) sont topologiquement équivalents.

Stabilité structurelle en dimension deux

Il existe, comme nous allons le voir, un lien entre la stabilité structurelle et les
ensembles non errants.
Equations diérentielles ordinaires 205

Dans le plan, les ensembles non errants qui peuvent exister sont : les points d'équi-
libre, les orbites fermées, les orbites homocliniques ou hétérocliniques. Par contre, sur
le tore (C1 × C1 , C1 étant le cercle unité), cela n'est plus le cas ; il sut de remarquer
que pour le système :  dθ
= a,
dt
dψ (θ, ψ) ∈ C1 × C1 , (5.44)
dt
= b,
lorsque ab est irrationnel on obtient des orbites non périodiques denses dans le tore :
le tore est donc à lui seul un ensemble non-errant. De plus, lorsque ab est rationnel,
on obtient des orbites périodiques. Or, tout irrationnel pouvant être approché par
un rationnel avec une précision arbitraire, on en conclut que le système (5.44) est
structurellement instable pour toutes les valeurs de a et de b. En évitant cette patho-
logie (voir point 3 du théorème suivant), on obtient une caractérisation des systèmes
structurellement stables sur une variété de dimension deux.
Théorème 10 (de Peixoto). Soit g un champ de vecteurs de classe C r (X ), où X
est une variété de dimension 2. Le système (5.19) est structurellement stable si et
seulement si :

1. le nombre d'éléments critiques (points d'équilibre et orbites fermées) est ni et


chacun d'eux est de type hyperbolique ;
2. il n'y a pas d'orbite reliant les points-selles12 ;
3. l'ensemble des points non-errants est réduit aux éléments critiques seuls.

De plus, si la variété X est orientable, alors l'ensemble des champs de vecteurs de


classe C r (X ) structurellement stables est dense dans l'ensemble des champs de vec-
teurs de classe C r (X ).
Ceci signie que tout champ peut être approché, de façon aussi précise que l'on
veut (au sens C r (X )), par un champ structurellement stable.

5.6.2. Du modèle linéaire au modèle non linéaire

Cette section a pour but d'établir les relations liant les comportements locaux
d'une EDO non linéaire autonome (5.19) à ceux de l'EDO linéaire autonome suivante :
dx
= Ax, x ∈ X, (5.45)
dt
sous l'hypothèse :

 X = Rn et
(H) ∀x0 condition initiale, (5.19) a une et une seule

solution maximale dénie sur I(x0 ) = I = R.
12 En dimension deux, un point-selle est un point d'équilibre instable dont la jacobienne

possède une valeur propre à partie réelle strictement négative et l'autre à partie réelle stric-
tement positive.
206 Mathématiques pour les systèmes dynamiques

Les méthodes d'étude locales sont basées sur un résultat fondamental de stabilité
structurelle (voir paragraphe 5.6.2) qui permet de ramener l'étude locale de (5.19) à
celle d'un système du type (5.45). Cette étude locale se fait au voisinage d'éléments
dits  critiques  : points d'équilibres, orbites fermées.

Théorème de stabilité structurelle et conséquences

En étudiant (5.45), on partitionne le spectre de A (noté σ(A)) en trois parties :



 σs (A) = {λ ∈ σ(A) : Re(λ) < 0},
σ c (A) = {λ ∈ σ(A) : Re(λ) = 0},

σ i (A) = {λ ∈ σ(A) : Re(λ) > 0},

où les indices s, c, i sont les abréviations respectives pour  stable ,  centre  et


 instable . Ainsi les vecteurs propres généralisés associés aux trois parties du spectre
de A permettent de dénir les sous-espaces propres généralisés, notés Es (A), Ec (A),
Ei (A), de dimensions respectives ns , nc , ni avec :

ns + nc + ni = n,
Es (A) ⊕ Ec (A) ⊕ Ei (A) = Rn .

On peut noter qu'une partition similaire est possible si X est une variété de di-
mension n, puisqu'alors X est localement diéomorphe à Rn . Lorsque σ c (A) = ∅, A
est hyperbolique, conformément à la dénition 9. De même, (5.45) est asymptotique-
ment stable si et seulement si σ(A) = σ s (A), σc (A) = σi (A) = ∅ ; dans ce cas, A est
dite asymptotiquement stable ou hurwitzienne.
Théorème 11 (Première méthode de Liapounov). Soit xe un équilibre de
(5.19), auquel est associé le linéarisé (5.45).
1. σi (A) = σ c (A) = ∅ ⇒ xe est asymptotiquement stable pour (5.19),
2. σi (A) 6= ∅ ⇒ xe est instable pour (5.19).
Ainsi, si l'origine est asymptotiquement stable pour le linéarisé, alors elle est
localement asymptotiquement stable pour le système non linéaire.
Corollaire 3. Sous l'hypothèse (H) et si A est hyperbolique, alors (5.45) est struc-
turellement stable.
Dans ce cas, on dit aussi que A est structurellement stable et on a : [A est
hyperbolique] ⇔ [A est structurellement stable]. Notons que l'hypothèse (H) est fon-
damentale, comme le montre l'exemple (5.16). Une conséquence immédiate est la
suivante ([REI 82] p. 99).
Théorème 12. Sous l'hypothèse (H), si (5.19) possède un point d'équilibre hyperbo-
lique xe , alors il existe un voisinage V(xe ) de xe tel que (5.19) soit structurellement
stable dans V(xe ).
Equations diérentielles ordinaires 207

Structure locale des solutions au voisinage d'un point d'équilibre

Pour les points d'équilibre hyperboliques, les résultats suivants permettent


d'éclaircir le comportement local des solutions de (5.19).
Théorème 13 (de Hartman-Grobman, 1964). Si la jacobienne Jg (xe ) = A au
point d'équilibre xe n'a pas de valeur propre purement imaginaire ou nulle (σ c (A) = ∅),
alors il existe un homéomorphisme h déni dans un voisinage V(xe ) de xe , envoyant
localement les orbites du ot linéaire de (5.45) vers celles du ot non linéaire Φtg de
(5.19). De plus, h préserve le sens de parcours des orbites et peut être choisi de façon
à préserver la paramétrisation du temps.
A partir du voisinage V(xe ) où h est déni, on construit les variétés locales stable
et instable :
Wloc s (xe ) = {x ∈ V(xe ) : lim Φtg (x) = xe et Φtg (x) ∈ V(xe ), ∀t > 0},
t→+∞

Wloc i (xe ) = {x ∈ V(xe ) : lim Φtg (x) = xe et Φtg (x) ∈ V(xe ), ∀t > 0},
t→−∞

à partir desquelles on dénit les variétés stable et instable (relatives à xe ) :


Ws (xe ) = ∪t≥0 Φtg (Wloc s (xe )),
Wi (xe ) = ∪t≤0 Φtg (Wloc i (xe )).

Ces notions de variétés stable et instable exhibent donc des solutions de (5.19) qui
sont respectivement  contractantes  et  dilatantes . Les variétés Ws (xe ), Wi (xe )
sont les images par h des sous-espaces correspondants sur le linéarisé : Ws (xe ) =
h[Es (Jg (xe ))], Wi (xe ) = h[Ei (Jg (xe ))].
Théorème 14 (de la variété stable). Si (5.19) a un point d'équilibre hyperbolique
xe , alors il existe Ws (xe ) et Wi (xe ) :
1. de dimension ns et ni identiques à celles des espaces Es (Jg (xe )) et Ei (Jg (xe ))
du système linéarisé (5.45) (avec A = Jg (xe )),
2. tangentes à Es (Jg (xe )) et à Ei (Jg (xe )) en xe ,
3. invariantes par le ot Φtg .
De plus, Ws (xe ) et Wi (xe ) sont des variétés aussi régulières que g (de même classe r
que g ∈ C r (Rn )).
Dans le cas, dit critique, de points non hyperboliques (dégénérés), il a été montré
le résultat suivant (voir [GUC 83] p. 127).
Théorème 15 (de la variété centre, Kalley 1967). Soit g un champ de vecteurs
de classe C r (Rn ), admettant un point d'équilibre dégénéré xe . Soit A = Jg (xe ). Alors,
il existe :
1. Ws (xe ) et Wi (xe ) des variétés invariantes dites respectivement stable et instable
de classe C r , tangentes à Es (Jg (xe )) et à Ei (Jg (xe )) en xe ;
2. Wc (xe ) une variété centre de classe C (r−1) tangente à Ec (Jg (xe )) en xe .
Les variétés Ws (xe ), Wi (xe ) et Wc (xe ) sont toutes invariantes par le ot Φtg et
de même dimension que les sous-espaces correspondants du système linéarisé (5.45)
(Es (Jg (xe )), Ei (Jg (xe )) et Ec (Jg (xe ))). Les variétés stable Ws (xe ) et instable Wi (xe )
sont uniques, alors que Wc (xe ) ne l'est pas forcément.
208 Mathématiques pour les systèmes dynamiques

Cependant, de façon pratique, il est délicat d'obtenir ces variétés, même de façon
numérique : souvent, le seul recours pour la détermination d'une variété centre est de
faire un développement en série de Taylor de Wc (xe ) au voisinage du point dégénéré
xe : cette méthode est connue depuis longtemps puisque A.M. Liapounov l'a utilisée
en 1892 pour étudier les  cas critiques  [LIA 92].
Pour des raisons de simplication, on eectue un changement de coordonnées sur
le système initial (5.19) pour se ramener au cas où le point d'équilibre est l'origine.
On va regarder ce qui se passe dans le cas le plus intéressant en pratique, c'est-à-dire
Wi (0) vide. Le théorème de la variété centre nous dit que le système initial (5.19) est
topologiquement équivalent à :
 dxc
dt
= Ac xc + g1 (x),
dxs
dt
= As xs + g2 (x),
avec Ac de dimension nc correspondant à Ec (Jg (0)) et qui a donc toutes ses valeurs
propres à partie réelle nulle. As est de dimension ns correspondant à Es (Jg (0)), donc
asymptotiquement stable. On peut exprimer Wc (0) sous la forme d'une hypersurface :
Wc (0) = {(xc , xs ) ∈ Rnc × Rns : xs = k(xc )}.
De plus, on sait que Wc (0) contient 0 (donc k(0) = 0) et, en ce point, est tangent à
Ec (Jg (0)) (donc Jk (0) = 0). On a :
dxs dxc
xs = k(xc ) ⇒ = Jk (xc ) ,
dt dt
donc :
As xs + g2 (xc , k(xc )) = Jk (xc ) (Ac xc + g1 (xc , k(xc ))) , (5.46)
k(0) = 0, Jk (0) = 0. (5.47)
On étudie la projection du champ de vecteurs de xs = k(xc ) sur Ec (Jg (0)) :
dxc
= Ac xc + g1 (xc , k(xc )), (5.48)
dt
en tenant compte de (5.46) et de (5.47). Ce qui nous conduit au théorème suivant
(voir [GUC 83] p. 131).
Théorème 16 (de Henry et Carr, 1981). Si :
1. Wi (0) est vide,
2. l'équilibre xec = 0 de (5.48) est localement asymptotiquement stable (respecti-
vement instable),
alors l'équilibre xe de (5.19) est asymptotiquement stable (respectivement instable).
La résolution de (5.48) étant en général impossible, le théorème suivant [GUC 83]
permet d'étudier la stabilité locale de l'équilibre xec = 0 par approximation de k.
Théorème 17 (de Henry et Carr, 1981). S'il existe ψ : Rnc → Rns avec ψ(0) = 0
et Jψ (0) = 0, telle que, lorsque x → 0 :
Jψ (xc )[Ac xc + g1 (xc , ψ(xc ))] − As ψ(xc ) − g2 (xc , ψ(xc )) = o(xr ), r > 1, (5.49)
alors h(xc ) = ψ(xc ) + o(x ), lorsque x → 0.
r
Equations diérentielles ordinaires 209

Cette technique permet, dans beaucoup de cas, de conclure sur la stabilité asymp-
totique d'un équilibre dégénéré.
Exemple 10. Soit le système diérentiel (x, y) ∈ R2 :
dx
= −x2 + xy, (5.50)
dt
dy
= −y + x2 .
dt
On a :  
−2x + y x
Jg (x, y) = ,
2x −1
et le système présente deux points d'équilibre :
   
0 0 0
ze1 = , dégénéré, Jg (ze1 ) = ,
0 0 −1
   
1 −1 1
ze2 = , instable, Jg (ze2 ) = .
1 2 −1
Pour l'origine, les valeurs propres associées à la jacobienne sont 0 et −1 (on a Ac =
0, As = −1). On cherche alors la variété centre associée à ce point d'équilibre par son
développement à l'ordre 3 : k(x) = ax2 + bx3 + o(x3 ), puisque k(0) = Jk (0) = 0. Ce
développement doit vérier (5.49), donc :
[2ax + 3bx2 + o(x2 )][−x2 + (ax3 + bx4 + o(x4 ))] = [(1 − a)x2 − bx3 + o(x3 )],
et, en égalant les termes de même degré, on obtient a = 1, b = 2, soit : k(x) =
x2 + 2x3 + o(x3 ). Donc (5.48) devient ẋ = −x2 + x3 + o(x3 ) et le théorème 16 permet
de conclure à l'instabilité l'origine. Remarquons que le même résultat peut être obtenu
plus intuitivement et sans trop de calcul, en notant que la seconde ligne (en y ) de
(5.50) converge beaucoup plus vite (exponentiellement) que la première (en x) : on
peut donc considérer qu'après un transitoire, dy dt
= 0 = −y + x2 , soit y = x2 : on
retrouve la variété centre k(x) = x + o(x ). Ceci est justié par le théorème 33.
2 2

Exemple 11. Soit le système diérentiel :


dx
= xy,
dt
dy
= −y − x2 ,
dt
avec (x, y) ∈ R2 . L'origine est le seul point d'équilibre. Les valeurs propres associées à
la jacobienne sont 0 et −1. Un développement à l'ordre 3 de k(x) est −x2 + o(x3 ). Le
théorème 16 nous permet de conclure que l'origine est asymptotiquement stable (mais
non exponentiellement stable).
Remarque 5. Il existe une façon rapide de traiter ces deux exemples : au voisinage
de l'origine, y converge exponentiellement, donc  inniment plus rapidement  que
x ne le ferait. On en déduit que dydt
s'annule  inniment  plus vite que dx dt
soit, pour
l'exemple 10, y = x , qui reporté dans dx
2
dt
= −x 2
+ y donne bien l'équation approchée
dx
dt
= −x2 + x3 . De même, l'exemple 11 conduit, quand t → ∞, à avoir y → −x2 ,
donc dt = −x .
dx 3
210 Mathématiques pour les systèmes dynamiques

Structure locale des solutions au voisinage d'une orbite fermée

Pour étudier la structure locale d'une orbite fermée, on introduit la notion de


section de Poincaré13 qui permet de dénir une application dite de Poincaré. Cette
dernière ramène alors l'étude locale d'une orbite fermée, pour un système dynamique
continu, à l'étude locale d'un point xe pour un système dynamique discret14 . Cet
outil théorique n'est utilisable de façon pratique qu'à l'aide d'algorithmes numériques.
Nous allons dénir rapidement ce procédé en nous inspirant des ouvrages [HIR 74]
(p. 243, 281-285) et [GUC 83] (p. 23-27).
Supposons que le système dynamique (5.19) possède une orbite fermée γ (voir
dénition 11) et soit xγ un point de cette orbite.
Dénition 32. Sγ est une section locale de Poincaré en xγ de (5.19) si :
1. Sγ est un ouvert d'une sous-variété V de X de dimension (n − 1) contenant xγ ,
2. T V(xγ ) l'espace tangent à V en xγ et g(xγ ) ∈ Rn sont en somme directe :
Rn = T V(xγ ) ⊕ g(xγ )R.

Figure 5.14. Section de Poincaré

Cette dernière condition exprime la transversalité (non tangence) de Sγ et du


champ de vecteurs g(x) de (5.19) en xγ . Soit Sγ une section locale de Poincaré en xγ
de (5.19) : puisque xγ ∈ γ , on a ΦTg (xγ ) = xγ , en notant Tγ la période de γ . Si on
considère un point x0 susamment proche de xγ , il existe un instant T (x0 ) proche
de Tγ au bout duquel ΦTg (x0 ) (x0 ) ∈ Sγ . Considérons maintenant V(xγ ) un voisinage
13 Henri Poincaré (1854-1912), mathématicien et physicien français. Entré premier à l'Ecole

Polytechnique en 1873, ingénieur au corps des Mines en 1877, il enseigne à la faculté des
sciences de Caen puis à la Sorbonne en 1881.
14
Les résultats que nous venons de voir concernant les points d'équilibre pour une EDO
(5.19) peuvent être transposés aux points xes pour une équation de récurrence du type
xk+1 = g(xk ).
Equations diérentielles ordinaires 211

de xγ et construisons l'application dite de Poincaré ou du premier retour :

P : V(xγ ) ∩ Sγ → Sγ ,
x0 7→ P (x0 ) = ΦTg (x0 ) (x0 ).

Cette construction est justiée puisque sous certaines conditions (par exemple g de
classe C 1 (Rn )) il existe V(xγ ) et une application unique T : V(xγ ) → R, x0 7→ T (x0 ),
tels que ∀x0 ∈ V(xγ ) : ΦTg (x0 ) (x0 ) ∈ Sγ et T (xγ ) = Tγ . Notons que P ne dépend ni de
xγ , ni de Sγ . P engendre un système dynamique discret et possède un point xe xγ
(P (xγ ) = xγ ). Ainsi, cette application ramène l'étude des solutions au voisinage d'une
orbite fermée d'un système dynamique continu déni sur une variété X de dimension
n, à l'étude des solutions au voisinage d'un point xe d'un système dynamique discret
déni sur une variété de dimension n − 1 : xk+1 = P (xk ) = P k (x0). Le comportement
local des solutions du système dynamique discret au voisinage du point xe xγ permet
de déduire le comportement des solutions du système dynamique continu (5.19) au
voisinage de γ .
Notons qu'il existe une grande similitude entre l'étude du comportement local
des solutions d'un système dynamique discret au voisinage du point xe et celui
des solutions du système dynamique continu au voisinage du point d'équilibre. En
particulier, pour étudier le système discret xk+1 = Axk , on partitionne σ(A) en
trois parties σs (A) = {λ ∈ σ(A) : |λ| < 1}, σ c (A) = {λ ∈ σ(A) : |λ| = 1},
σ i (A) = {λ ∈ σ(A) : |λ| > 1}. On obtient alors des résultats similaires à ceux
développés précédemment, permettant d'en déduire la structure locale du ot au
voisinage d'une orbite fermée γ .
Cependant, l'application P ne peut être obtenue de façon explicite que si les solu-
tions de (5.19) peuvent être explicitées : ceci limite l'intérêt pratique de l'application
P qui bien souvent doit être évaluée numériquement.

Exemple 12. En utilisant les coordonnées polaires (x1 = r cos(θ), x2 = r sin(θ)), le


modèle (5.15) se met sous la forme :

dr
= r(1 − r 2 ),
dt
θ̇ = 1.

Les solutions sont r(t) = √r2 (1−er−2t


0
)+e−2t
, θ(t) = θ0 + t et une étude directe montre
0
que toute solution initialisée dans le plan privé de l'origine converge vers une solution
périodique x1 (t) = cos(t + φ), x2 (t) = sin(t + φ). Au lieu de cette analyse directe,
utilisons la section de Poincaré x2 = 0, au voisinage du point (1, 0). On se ramène
xk
à l'étude de xk+1
1 = √ k2 1
(x1 ) (1−e−4π )+e−4π
qui a pour linéarisé y1k+1 = e−4π y1k . On en
conclut que l'orbite périodique est localement asymptotiquement stable.
212 Mathématiques pour les systèmes dynamiques

5.7. Stabilité : seconde méthode de Liapounov et résultats globaux

Les premiers travaux sur la stabilité ne retenaient des EDO que leur approximation
linéaire du premier ordre [Routh 1877, Thomson 1879, Joukovsky 1882]. Il fallut
attendre encore quelques années pour que Poincaré et Liapounov justient et étendent
les propriétés locales déduites du modèle linéarisé. L'un des résultats principaux est la
première méthode de Liapounov (voir théorème 11). Cependant elle ne donne aucun
renseignement quantitatif sur le domaine de stabilité asymptotique. Cette lacune fut
contournée, avec la seconde méthode de Liapounov (dite aussi méthode directe), par
l'introduction des  fonctions de Liapounov . D'une part, ces fonctions sont analogues
à des distances entre l'état du système le long de sa trajectoire et l'ensemble d'équilibre
étudié (point d'équilibre, trajectoire, etc.). D'autre part, ces fonctions ont une relation
directe avec la physique des systèmes, puisque très souvent elles correspondent à
l'expression de l'énergie totale qui, si le système est dissipatif, décroît au cours du
temps an que le système rejoigne une conguration à énergie minimale (s'il n'y a
pas d'apport d'énergie).
Par exemple, le pendule pesant dont un modèle est donné par :
δ g
θ̈ = − θ̇ − sin(θ), (5.51)
ml2 l
(l, m, g, δ positifs), présente deux équilibres (voir paragraphes 5.4.1 et 5.4.2). Seule la
position basse est stable : elle correspond à une conguration à énergie minimale. En
eet, l'énergie totale du système est :
1 2 2
V (θ, θ̇) = ml θ̇ + mgl(1 − cos(θ)), (5.52)
2
(notons que V (θ = 0, θ̇ = 0) = 0 et que V (θ, θ̇) > 0 pour (θ, θ̇) 6= (0, 0). Ceci conduit
à:
dV δ g 2
= ml2 (− 2 θ̇ − sin(θ))θ̇ + mgl sin(θ)θ̇ = −δ θ̇ ≤ 0, (5.53)
dt ml l
ce qui montre que l'énergie du système décroît au cours du temps : le système tend
bien à rejoindre une conguration à énergie minimale.
Ces fonctions de Liapounov trouvent leur utilité dans le problème de l'estimation
du domaine de stabilité asymptotique d'un ensemble A. Ce problème revient à trouver
une fonction de Liapounov V (x) s'annulant sur A et dont la dérivée le long des
solutions est négative à l'intérieur d'un certain voisinage de A (voir gure 5.15). On
peut donc l'aborder de deux façons :
 soit on se donne une fonction de Liapounov s'annulant sur A et on cherche dans
quel domaine elle décroît,
 soit on se donne une expression de la dérivée et on cherche alors la fonction de
Liapounov correspondante.
La première approche est parfois utilisée conjointement avec le principe d'inva-
riance de J.P. La Salle (voir paragraphe 5.7.5), alors que la seconde correspond plus
à l'état d'esprit des méthodes de V.I. Zubov (voir paragraphe 5.7.4). Dans tout les
cas, l'idée remarquable est que l'équation du mouvement de l'état x(t) n'a pas à être
résolue pour caractériser l'évolution de V (x) : la connaissance du modèle de l'EDO
(donc de la vitesse ẋ) doit sure.
Equations diérentielles ordinaires 213

Figure 5.15. Seconde méthode de Liapounov

5.7.1. Fonctions de comparaison


Les résultats de cette section sont tirés de [HAH 63, HAH 67, KHA 96].
Dénition 33. Une fonction α : R+ → R+ est dite de classe K (ou K−fonction)
si elle est continue, strictement croissante et si α(0) = 0 ; de classe K∞ (ou
K∞ −fonction) si c'est une K−fonction et si limr→∞ α(r) = ∞. Une fonction
β : R+ × R+ → R+ , (t, r) 7→ β(t, r) est dite de classe KL (ou KL−fonction) si β(., r)
est une K−fonction, si β(t, .) est strictement décroissante et si limt→∞ β(t, r) = 0.
Exemple 13. Pour a, b, c strictement positifs, r 7→ 1+br ar
et r 7→ arctan(r) sont des
K−fonctions ; r 7→ arcsinh(r) et r 7→ r sont des K∞ −fonctions ; r 7→ (ctr+1)
a ar b
et
r 7→ e br sont des KL−fonctions.
−at

Lemme 2. [KHA 96] Soient α1 , α2 des K−fonctions, α3 , α4 des K∞ −fonctions et β


une KL−fonction. On a les propriétés de composition :

1. 1 , α1 ◦ α2 sont des K−fonctions ;


α−1
2. 3 , α3 ◦ α4 sont des K∞ −fonctions ;
α−1
3. α1 (β(., α2 (.))) est une KL−fonction ;
4. Pour β une KL−fonction donnée, il existe α5 et α6 deux K∞ −fonctions telles
que β(t, r) ≤ α5 (exp(−t)α6 (r)), ∀(t, r) ∈ R+ × R+ .
Ces fonctions permettent de comparer les solutions d'une inégalité diérentielle
scalaire (voir paragraphe 5.3.4), en particulier comme suit.
Lemme 3. Soit l'inégalité diérentielle :
ẋ ≤ −α(x), x ∈ R+ , (5.54)
avec α une K∞ −fonction localement lipschitzienne. Alors, la solution z(t) = z(t, z0 )
de ż = −α(z), z ∈ R+ , z(0) = z0 ∈ R+ est unique. Dès lors que x0 ≤ z0 , z(t, z0 ) est
une KL−fonction majorant toute solution de (5.54), x(0) = x0 ∈ R+ , soit :
x0 ≤ z0 ⇒ x(t, x0 ) ≤ z(t, z0 ), ∀t.
214 Mathématiques pour les systèmes dynamiques

5.7.2. Fonctions de Liapounov

Dénition 34. Soit O un ouvert de Rn et A ⊂ O. Une fonction continue V :O⊂


Rn 7→ R+ sera dite dénie positive par rapport à A si : V (O) ⊂ R+ et V (x) = 0 ⇔
x ∈ A. Elle est dénie positive dans le cas A = {0}.15
V : O ⊂ Rn 7→ R+ est dite fonction de Liapounov pour A si elle est continue, si elle
est dénie positive par rapport à un A et si elle possède une dérivée classique ou au
sens de Dini.16
Une fonction de Liapounov est dite propre si l'image réciproque d'un compact est un
compact.
Lemme 4. Soit C un compact. Si V : C ⊂ Rn → R est de classe C 0 , alors Vα,β =
{x ∈ C : α ≤ V (x) ≤ β} est compact.
Démonstration : Vα,β est l'image réciproque d'un fermé par une fonction continue ;
c'est donc un fermé inclus dans un borné.
Dénition 35. Une fonction de Liapounov est dite radialement non bornée (ou non
bornée en rayon) si limkxk→+∞ V (x) = +∞.
Par exemple, pour le pendule pesant (5.51), la fonction dénie par (5.52) est une
fonction de Liapounov radialement non bornée pour l'origine.
Lemme 5. Une fonction de Liapounov radialement non bornée est propre.
Il est concevable d'en conclure que, si V décroît le long des trajectoires, alors
V rejoindra un minimum correspondant à ce que l'état rejoigne A : c'est ce que
traduisent les résultats de la partie suivante.

5.7.3. Théorèmes associés à la seconde méthode de Liapounov

Théorème 18. Soit l'EDO (5.19) et O un ouvert de Rn contenant


l'origine. S'il
existe V : O → R+ de classe C telle que V (x) = 0 ⇔ x = 0 et dV
1 = Lg V (x) =
dt (5.19)
∂V
∂x
g(x) soit dénie négative sur O, alors, l'origine est asymptotiquement stable pour
(5.19). Si O = Rn , alors l'origine de (5.19) est globalement asymptotiquement stable.
Démonstration : soit o ⊂ O un ouvert de l'origine et C un compact tel que o ⊂ C ⊂ O.
Alors, C ∩ (O\o) est compact et, V étant continue, elle y atteint un minimum εmin :
Vεmin ⊂ o, Vε = {x ∈ O : V (x) ≤ ε}. De plus, dV (x(t)) dt
≤ 0, donc si x0 ∈ Vε , alors
φtf (x0 ) ∈ Vε . L'origine est donc stable. Sur Vεmin ⊂ O compact, V (t) est décroissante,
minorée par 0, donc elle admet une limite l ≤ εmin , lorsque t → ∞. Si l > 0 et pour un
15 Lorsque {0} $ A, V est aussi dite semi-dénie positive. Ces dénitions sont compatibles

avec celle d'une matrice carrée dénie positive (page 335), c'est-à-dire dont les valeurs propres
λi sont réelles strictement positives, ou semi-dénie positive lorsque λi ≥ 0.
16 Certains auteurs nomment fonction candidate une telle fonction, celle-ci ne devenant une

fonction de Liapounov que lorsque des conditions permettant de conclure à la stabilité de


l'ensemble A  conditions (5.55), (5.56) par exemple  sont vériées. La dénition adoptée
ici est également classique et conduit à des énoncés plus simples.
Equations diérentielles ordinaires 215

quelconque ε, εmin ≥ ε > 0, Vε+l est compact et donc, V̇ étant continue, elle admet
sur Vε+l un maximum noté −m. Soit x0 ∈ Vε+l , φtf (x0 ) ∈ Vε+l , il vient :
Z ∞
lim V (φtf (x0 )) = l = V (x0 ) + V̇ (t)dt ≤ V (x0 ) − m lim (t) < 0.
t→∞ 0 t→∞

Cette contradiction prouve que l = 0, d'où la stabilité asymptotique.


Exemple 14. Considérons le système :
 
dx x21 + x22 − 1 1
= x, t ∈ R, x ∈ R2 .
dt −1 x21 + x22 − 1

En prenant V (x) = 12 (x21 + x22 ), on obtient V̇ = (x21 + x22 − 1)(x21 + x22 ). On en conclut
que l'origine est localement asymptotiquement stable.
Théorème 19. Soient l'EDO (5.19), E un voisinage de A et V une fonction de
Liapounov pour A continûment diérentiable. On introduit les conditions suivantes :

dV ∂V
(C1) = Lg V (x) = g(x) ≤ 0, ∀x ∈ E, (5.55)
dt (5.19) ∂x
∂V
(C2) g(x) = 0 ⇔ x ∈ A. (5.56)
∂x
1. Si (C1) est vraie pour un voisinage E de A, alors A est localement stable.
2. Si V est radialement non bornée et si (C1) est vraie pour E = X l'espace d'état,
alors A est globalement stable.
3. Si (C1) et (C2) sont vraies dans un voisinage E de A, alors A est localement
asymptotiquement stable et une estimation de son domaine de stabilité asymp-
totique est le plus grand Vc = {x ∈ X : V (x) < c} inclus dans E .
4. Si V est radialement non bornée et si (C1) et (C2) sont vraies pour E = X
l'espace d'état, alors A est globalement asymptotiquement stable.
Exemple 15. Si l'on considère (5.15) et A = {x ∈ R2 : (x21 + x22 ) ≤ 1} (le disque
unité), alors en prenant V (x) = x21 + x22 − 1 pour x ∈ R2 \A et V (x) = 0 pour x ∈ A,
on obtient V̇ = (1 − x21 + x22 )(x21 + x22 ) si x ∈ R2 \A et V̇ = 0 si x ∈ A. On en conclut
que A est globalement asymptotiquement stable.
D'après le paragraphe 5.7.1, on peut reformuler ce résultat à l'aide de fonctions
de comparaison, comme suit.
Théorème 20. Soient l'EDO (5.19), E un voisinage de A, V une fonction continû-
ment diérentiable et α1 , α2 , α3 trois fonctions telles que, ∀x ∈ E :
α1 (ρ(x, A)) ≤ V (x) ≤ α2 (ρ(x, A)),

dV
= Lg V (x) ≤ −α3 (ρ(x, A)),
dt (5.19)
avec ρ(x, A) = inf (kx − yk).
y∈A

1. Si, sur un voisinage E de A, α1 , α2 sont des K−fonctions et α3 : R+ 7→ R+ est


continue, strictement croissante, alors A est localement stable.
216 Mathématiques pour les systèmes dynamiques

2. Si α1 est une K∞ −fonction, α2 une K−fonction et α3 : R+ 7→ R+ est continue


et strictement croissante sur E = X (l'espace d'état), alors A est globalement
stable.
3. Si, sur un voisinage E de A, α1 , α2 et α3 sont des K−fonctions, alors A est
localement asymptotiquement stable. Une estimation de son domaine de stabilité
asymptotique est donnée par le plus grand Vc = {x ∈ X : V (x) < c} inclus
dans E .
4. Si, sur E = X (l'espace d'état), α1 est une K∞ −fonction, α2 et α3 sont des
K−fonctions, alors A est globalement asymptotiquement stable.
5. S'il existe c > 0 et ki > 0 (i ∈ {1, 2, 3}) tels que αi (r) = ki rc , alors l'origine est
localement exponentiellement stable. Une estimation de son domaine de stabilité
exponentielle est le plus grand Vc = {x ∈ X : V (x) < c} inclus dans E . Si de
plus E = X , alors l'origine est globalement exponentiellement stable.
Démonstration (pour le seul point 1) : il existe un voisinage de A sur lequel V
est continûment diérentiable, à valeur dans R+ , V (x) = 0 ⇔ x ∈ A et tel que
dV
dt (5.19) 2 (V (x)) ≤ 0 (lemme 2). Le théorème 19 permet de conclure. Les
≤ −α3 (α−1
autres points se démontrent de façon similaire.
Pour un système linéaire (5.45), on en déduit le résultat suivant.
Théorème 21. L'origine est globalement asymptotiquement stable pour ẋ = Ax ∈
Rn si et seulement s'il existe P une matrice symétrique dénie positive, solution de
l'équation de Liapounov :
P A + AT P = −Q, (5.57)
où Q est une matrice symétrique dénie positive quelconque. Dans ce cas, V = xT P x
est une fonction de Liapounov radialement non bornée pour laquelle les conditions
(C1) et (C2) sont vraies pour E = Rn l'espace d'état et A = {0} (l'origine).
Théorème 22. Soit le système non linéaire (5.19) tel que g(0) = 0, sa jacobienne
étant notée A = Jg (0). S'il existe une matrice symétrique dénie positive P solution
de (5.57) pour une matrice Q symétrique dénie positive donnée, alors l'origine de
(5.19) est localement asymptotiquement stable.
Démonstration : soit V = xT P x. Puisque g(x) = Ax+o(kxk), on en déduit ∂V ∂x
g(x) =
−xT Qx + o(kxk2 ). Pour ε < λmin (Q) donné, on peut trouver une boule de centre 0
telle que o(kxk2 ) ≤ ε kxk2 . Sur cette boule, ∂V
∂x
g(x) ≤ (ε − λmin (Q)) kxk2 ≤ 0. Le
théorème 18 permet alors de conclure.
En ce qui concerne les systèmes non linéaires non autonomes régis par (5.11), on
a le résultat suivant (à comparer avec le théorème 20).
Théorème 23. Supposons que l'origine soit un équilibre de (5.11). Soient O un
ouvert de Rn contenant l'origine, V : [t0 , ∞[×O → R+ de classe C 1 et W1 , W2 , W3
trois fonctions continues telles que pour tout (t, x) ∈ [t0 , ∞[×O :
W1 (x) ≤ V (t, x) ≤ W2 (x),

dV ∂V ∂V
= f (t, x) + ≤ −W3 (x).
dt (5.19)∂x ∂t
Equations diérentielles ordinaires 217

1. Si, sur un voisinage E de A, W1 , W2 sont dénies positives et W3 est positive,


alors A est localement stable.
2. Si, sur E = X (l'espace d'état), W1 est une fonction dénie positive radialement
non bornée, W2 est dénie positive et W3 est positive, alors A est globalement
stable.
3. Si, sur un voisinage E de A, W1 , W2 et W3 sont des fonctions dénies positives,
alors A est localement asymptotiquement stable. Si de plus il existe c > 0 et
ki > 0 (i ∈ {1, 2, 3}) tels que :

W1 (x) ≥ k1 kxkc , W2 (x) ≤ k2 kxkc , W3 (x) ≥ k3 kxkc , (5.58)


alors l'origine est localement exponentiellement stable. Une estimation de son
domaine de stabilité exponentielle est le plus grand Vc = {x ∈ X : V (x) < c}
inclus dans E .
4. Si, sur E = X (l'espace d'état), W1 est une fonction dénie positive radialement
non bornée, W2 et W3 sont des fonctions dénies positives, alors A est globa-
lement asymptotiquement stable. Si de plus il existe c > 0 et ki > 0 vériant
(5.58), alors l'origine est globalement exponentiellement stable.

5.7.4. Théorèmes de Zubov et Gruji¢


Dans les années soixante, les travaux de V.I. Zubov [ZUB 61] (voir [HAH 63,
HAH 67]) mirent en évidence des conditions nécessaires et susantes pour qu'un cer-
tain domaine D soit le domaine de stabilité asymptotique (DSA) d'un point d'équilibre
de (5.19). Dans un premier temps on rappellera succinctement ces résultats puis ceux
de L.T. Gruji¢, enn on les comparera. Bien entendu, ces résultats peuvent s'étendre
à l'évaluation du domaine de stabilité asymptotique d'un ensemble A compact.
Théorème 24 (de Zubov, 1957). Soit l'EDO (5.19), admettant l'origine x = 0
pour équilibre. Pour qu'un domaine D inclus dans X (l'espace d'état) et contenant un
voisinage de l'origine soit son domaine de stabilité asymptotique Dsa (0), il faut et il
sut qu'il existe deux fonctions Ψ(x) et V (x) vériant les propriétés suivantes :

1. Ψ est continue et dénie positive sur X , V est continue et dénie positive sur
D, limkxk→0 V (x) = 0, limkxk→0 Ψ(x) = 0 et :

dV
= Lg V (x) = −Ψ(x)(1 − V (x)), (5.59)
dt

2. si y ∈ ∂D et y 6= 0, ou si kyk → +∞, alors : limx→y V (x) = 1.


Il est important de noter que si l'on pose W (x) = − ln(1 − V (x)), alors (5.59)
devient :
dW
= Lg W (x) = −Ψ(x), (5.60)
dt
et, dans ce cas, la frontière du DSA Dsa (0) est déterminée par la famille de courbes
dénies par W (x) = +∞. Cette méthode peut aussi permettre de déterminer un
218 Mathématiques pour les systèmes dynamiques

ensemble asymptotiquement stable et le DSA associé (voir l'exemple 16 qui suit et


[ZUB 61] p. 49). Il est à noter que l'on peut aussi utiliser ces résultats pour déterminer
les ensembles invariants de systèmes dynamiques plus généraux (voir [HAH 63] p. 75-
78, [ZUB 61]).On peut, pour des cas simples et un choix astucieux de Ψ(x), déterminer
de façon exacte le DSA d'un point d'équilibre (voir l'exemple 17).
Exemple 16. Pour le système (5.15), on choisit Ψ(x) = 2(x21 + x22 ). On peut alors
montrer, par une forme adaptée du théorème 24, que le cercle unité C1 est un attrac-
teur globalement asymptotiquement stable.
Exemple 17. ([HAH 63] p. 79) Soit le système déni par :
 
dx −1 + 2x1 x2 0
= x.
dt 0 −1
2
Pour Ψ(x) = 2(x21 + x22 ), (5.60) peut être résolue et on trouve : W (x) = x22 + (1−xx11 x2 ) .
Ainsi la frontière du DSA de l'origine est déterminée par la famille de courbes dénies
par W (x) = +∞, soit x1 x2 = 1.
Les dicultés majeures de cette méthode résident, d'une part, dans la résolution
de l'équation aux dérivées partielles (5.59) et, d'autre part, dans le choix de Ψ(x). La
première est souvent irrémédiable. La seconde peut être contournée par des résultats
de Gruji¢ [GRU 91a, GRU 91b], donnant des conditions nécessaires et susantes pour
qu'un domaine D soit le DSA de l'origine (Dsa (0)). La démonstration de ce résultat
met en évidence une construction originale et directe, sous forme d'algorithme, d'une
fonction candidate à Liapounov. Pour cela on introduit la famille P(r, g) de toutes
les fonctions Ψ(x) : Rn 7→ R vériant les propriétés suivantes :
P1 : Ψ(x) est diérentiable et dénie positive sur BF r = {x ∈ Rn : |x| ≤ r}.
P2 : il existe m(r, g) > 0 garantissant une solution W (x) de l'équation aux dérivées
partielles (5.61)-(5.62) dénie sur BF m(r,g) = {x ∈ Rn : |x| ≤ m(r, g)}, avec (5.61)
prise le long des trajectoires de (5.19) :
dW (x)
= Lg W (x) = −Ψ(x), (5.61)
dt
W (0) = 0. (5.62)
Théorème 25 (de Gruji¢, 1990). Pour qu'un domaine D soit le DSA de l'origine
(Dsa (0)) relativement à (5.19) avec X = Rn , il faut et il sut que :

1. D soit un voisinage connexe ouvert de l'origine ;


2. g(x) = 0 pour x ∈ D si et seulement si x = 0 ;
3. pour un r > 0 arbitraire tel que BF r ⊂ D et pour une fonction arbitraire
Ψloc ∈ P(r, g), les équations (5.61) (5.62) avec (5.61) déterminée le long des
trajectoires du système (5.19) et Ψ dénie comme :
(
Ψ(x) =  si x ∈ BF r ,
Ψloc (x),
|x|
r
Ψloc x |x| , si x ∈ (Rn − Br ),
r

admettent une unique solution W (x) vériant les propriétés suivantes :


Equations diérentielles ordinaires 219

P3 : W (x) est dénie positive sur D et diérentiable sur (D − Fr(Br )),


P4 : si Fr(D) 6= ∅ alors : limx→Fr(D) W (x) = +∞.
x∈D
Remarque 6. La grande diérence avec les résultats précédents est que, dans la
méthode de Zubov, si une fonction Ψ(x) ne donne pas de résultat, on doit en essayer
une autre. Par contre, avec le théorème 25, si une fonction Ψloc ne convient pas,
aucune autre ne conviendra. Ceci est vrai d'un point de vue mathématique, par contre
la résolution de (5.61)-(5.62) sera peut être facilitée, d'un point de vue calculatoire,
par un choix particulier de Ψloc . Le problème théorique de la stabilité est donc ramené
au traitement mathématique de (5.61)-(5.62), indépendamment du choix de Ψloc .

5.7.5. Principe d'invariance La Salle


Pour un pendule pesant amorti (5.51), nous avons vu (paragraphe 5.7) que la
fonction (5.52) avait pour dérivée (5.53), permettant seulement de conclure que l'ori-
gine est globalement stable (théorème 19). Cependant, nous savons que la position
basse est aussi attractive : le pendule tend à rejoindre cette position sous l'eet d'une
dissipation d'énergie par frottement. Pour le prouver mathématiquement, il nous faut
soit une nouvelle fonction de Liapounov, soit un résultat plus précis que le théorème
19 : c'est le principe d'invariance de La Salle qui nous permettra (sans changer de
fonction de Liapounov) d'aboutir au résultat. Avant de donner ce résultat, examinons
de plus près l'exemple du pendule pesant amorti. En posant x = (x1 , x2 )T = (θ, θ̇)T ,
(5.51) devient : 
ẋ1 = x2 ,
ẋ2 = − mlδ 2 x2 − g
l
sin(x1 ),
et (5.52) donne dV dt
= −δx22 . Or, nous savons que V décroît sauf lorsque x2 reste
identiquement nulle (car V̇ ≡ 0). Mais, dans ce cas, ẋ2 (t) reste identiquement nulle,
ce qui implique que sin(x1 ) aussi. Ainsi V (t) ne peut rejoindre sa valeur de repos
(lorsque V̇ ≡ 0) que si le pendule est au repos en position basse x = 0 (si l'on
démarre d'une position dans l'ensemble C = {x : V (x) ≤ 2mgl} qui est positivement
invariant et qui contient le segment {x2 = 0, |x1 | < π}). Ce raisonnement, qui consiste
à ne retenir, parmi les états annulant V̇ , que ceux qui sont invariants, est formalisé
dans le théorème suivant.
Théorème 26 (Principe d'invariance de La Salle). Soit l'EDO (5.19), C ⊂ Rn
un ensemble compact positivement invariant et V : C ⊂ Rn → R (non nécessairement
dénie positive) de classe C 1 telle que ∀x ∈ C : V̇ (x) ≤ 0 (négative mais non néces-
sairement dénie). Alors toute solution initialisée dans C converge asymptotiquement
vers I le plus grand ensemble invariant inclus dans {x ∈ Ω : V̇ (x) = 0}.
Démonstration : soit x0 ∈ C. Il faut montrer que Ωg (x0 ) ⊂ I (I ⊂ {x ∈ C :
V̇ (x) = 0} ⊂ C). C étant invariant, Ωg (x0 ) ⊂ C (car ∀t : Φtg (x) ∈ C). V̇ (x) ≤ 0
sur C donc V décroissante minorée (V étant continue et C compact elle admet un
maximum et un minimum voir [RIC 01] chapitre 1) donc convergente vers une li-
mite l : limt→∞ V (Φtg (x0 )) = l, d'où ∀x ∈ Ωg (x0 ) : V (x) = l, donc V (Φtg (x)) =
limti →∞ V (Φt+t i (x )) = l. On a ainsi V̇ = 0, d'où Ω (x ) ⊂ {x ∈ C : V̇ (x) = 0}. Cet
g 0 g 0
220 Mathématiques pour les systèmes dynamiques

ensemble est invariant (lemme 1), donc Ωg (x0 ) ⊂ I. Pour nir, Φtg (x0 ) étant bornée,
Φtg (x0 ) converge vers Ωg (x0 ) ⊂ I (lemme 1).
Corollaire 4. Si, dans (5.19), g est analytique, alors I = {0} ⇔ {Lkg V (x) = 0, k ∈
N} = {0} (I étant déni dans le théorème 26).

5.7.6. Théorèmes réciproques

Nous venons de donner des conditions susantes de stabilité (asymptotique ou


non, globale ou locale) : il reste à savoir s'il existe des conditions nécessaires. Les
théorèmes réciproques suivants donnent des réponses partielles.
Théorème 27. [KHA 96] Soit l'EDO (5.11), avec f de classe C 1 et de jacobienne
bornée uniformement en t sur un compact contenant l'origine. Si l'origine est un point
d'équilibre localement (respectivement globalement) exponentiellement stable, alors il
existe un ouvert O de Rn contenant l'origine (respectivement O = Rn ), une fonction
V : [t0 , ∞[×O → R+ de classe C 1 et quatre constantes wi > 0 (i ∈ {1, ..., 4}) telles
que pour tout (t, x) ∈ [t0 , ∞[×O :

w1 kxk2 ≤ V (t, x) ≤ w2 kxk2 ,



dV ∂V ∂V
= f (t, x) + ≤ −w3 kxk2 ,
dt (5.19) ∂x ∂t

∂V

∂x ≤ w4 kxk .

De même, il existe αi quatre K−fonctions telles que pour tout (t, x) ∈ [t0 , ∞[×O :

α1 (kxk) ≤ V (t, x) ≤ α2 (kxk) ,



dV ∂V ∂V
= f (t, x) + ≤ −α3 (kxk) ,
dt (5.19) ∂x ∂t

∂V

∂x ≤ α4 (kxk) .

Si f est autonome (c'est-à-dire si l'on considère une EDO du type (5.19)), alors V
peut être choisie indépendante du temps (V = V (x)).
Théorème 28. [HAH 63, HAH 67] Soit l'EDO (5.11), avec f de classe C 1 . Si l'ori-
gine est un point d'équilibre uniformément asymptotiquement stable, alors il existe un
ouvert O de Rn contenant l'origine et une fonction V : [t0 , ∞[×O → R+ de classe
C 1 , dénie positive, convergeant uniformément en t vers zéro avec la norme de x
et telle que sa dérivée soit dénie négative. Si f est autonome (c'est-à-dire si l'on
considère une EDO du type (5.19)), alors V peut être choisie indépendante du temps
(V = V (x)).
Pour clore cette partie sur les théorèmes réciproques, on notera que les résultats
des théorèmes 24 et 25 donnent des conditions nécessaires et susantes.
Equations diérentielles ordinaires 221

5.7.7. Théorèmes d'instabilité


Il existe de nombreux résultats donant des conditions susantes d'instabilité
[HAH 63, HAH 67].
Théorème 29 (de Liapounov). Soit l'EDO (5.11), admettant l'origine pour
équilibre. S'il existe un ouvert O de Rn contenant l'origine et une fonction V :
[t0 , ∞[×O → R, (t, x) 7→ V (t, x), continue et convergeant uniformément en t vers
zéro avec la norme de x et s'il existe un domaine non vide D contenant l'origine et
sur lequel on a V (t, x) < 0 et V̇ (t, x) ≤ 0, alors l'origine est instable.
Exemple 18. Reprenons le modèle de Van der Pol (5.31) : l'équilibre x = 0 est
instable pour µ > 0. En eet, en prenant V (x) = − 21 (x21 + x22 ), on obtient V̇ =
−2x22 (µ − x22 ) et le théorème 29 permet de conclure.
Corollaire 5 (de Liapounov). Soit l'EDO (5.19), admettant l'origine pour équi-
libre. S'il existe une fonction V continue dont la dérivée est dénie négative et si V (x)
est dénie négative ou indénie en signe, alors l'origine est instable.
Exemple 19. Reprenons (5.1) : l'équilibre x = 0 est instable. En eet, en prenant
V (x) = −x2 , on obtient V̇ = −2ax2 (xmax − x) < 0 si x 6= 0. Le corollaire 5 permet
de conclure.
Un résultat plus général est dû à N.G. Chetaev.
Théorème 30 (de Chetaev). Soit l'EDO (5.11), admettant l'origine pour équilibre.
S'il existe un ouvert O de Rn contenant l'origine et une fonction V : [t0 , ∞[×O → R,
(t, x) 7→ V (t, x) de classe C 1 telle que :

1. ∀ε > 0, ∃x ∈ Bε (0) : V (t, x) ≤ 0, ∀t ≥ t0 (on note U l'ensemble des points x


pour lesquels V (t, x) ≤ 0, ∀t ≥ t0 ),
2. V (t, x) est minorée sur U 0 un sous-domaine de U,

dV (t,x)
3. sur U 0 , dt < 0 (en particulier, il existe une K−fonction α telle que
(5.11)
dV (t,x)
dt ≤ −α(|V (t, x)|) < 0),
(5.11)

alors l'origine est instable.


Exemple 20. Soit l'EDO :
ẋ = x3 + y 3 ,
ẏ = xy 2 + y 3 .

L'origine est un point d'équilbre instable. En eet, prenons V (x, y) = 12 (x2 − y 2 ) et


le domaine U déni par U = {(x, y) ∈ R2 : −y ≤ x ≤ y ou y ≤ x ≤ −y} (V (x) ≤ 0).
2
En dénissant U 0 = U ∩ Bε (0), V est minorée par − ε2 et V̇ = (x4 − y 4 ) < 0 sur U 0 .
Le théorème 30 permet de conclure à l'instabilité de 0. Notons enn qu'en ce point, la
jacobienne est nulle, ainsi les théorèmes 14 et 15 ne nous permettent pas de conclure.
Remarque 7. Ces résultats peuvent être facilement adaptés à la stabilité d'un en-
semble A. Enn, on peut énoncer ces résultats de façon duale en remplaçant  dénie
négative  par  dénie positive  et réciproquement.
222 Mathématiques pour les systèmes dynamiques

5.7.8. Extensions vectorielles

Plus le système est complexe et de grande dimension et plus la construction de


fonctions de Liapounov devient  délicate . Il est alors d'usage :
 R1) d'accepter de perdre un peu d'information pour se ramener à un problème
connexe plus simple (c'est sur ce principe qu'est basé la première méthode de
Liapounov, dite du linéarisé local) ;
 R2) de décomposer le problème pour en comprendre plus facilement les parties
constituantes, puis le recomposer (préceptes de Descartes).
Pour analyser un modèle de grande dimension, on peut ainsi tenter de le décompo-
ser en plusieurs sous-systèmes de complexité et de dimension moindres. Les procédés
R1 et R2 sont illustrés respectivement par les exemples 21 et 22.
Exemple 21. Soit le modèle :
dx
= 2x(−2 + sin(t) + x), t ∈ R, x ∈ R. (5.63)
dt

En introduisant la variable z = sign(x)x, on obtient17 :

dz
= 2z(−2 + sin(t) + x), si x 6= 0, (5.64)
dt
dz
≤ 2z(−1 + z), (5.65)
dt
z0
0 ≤ z(t) ≤ , (5.66)
z0 + (1 − z0 ) exp(2(t − t0 ))

et il est alors évident que l'équilibre x = 0 de (5.63) est exponentiellement stable. Une
estimation de Dse (0) est ] − ∞, 1[. Par ailleurs, (5.66) reste valable pour x = 0.
Dans cet exemple 21, nous avons utilisé de façon implicite la notion de système
majorant (SM) : en eet, les solutions de (5.65) sont majorées par celles de l'EDO :
dy
dt
= 2y(−1+y) (pour des conditions initiales identiques). De tels systèmes majorants
présentent les propriétés suivantes :
 leurs solutions permettent d'obtenir une estimation des comportements du sys-
tème initial ;
 ils peuvent inférer une propriété qualitative P pour le système initial et, dans
ce cas, le SM sera dit système de comparaison (SC) pour la propriété P : c'est
le cas dans l'exemple 21 où dydt
= 2y(−1 + y) est un SC pour la propriété P de
stabilité exponentielle pour le système (5.65) ;
 ils peuvent ne plus dépendre du temps ni d'éventuelles perturbations aectant
le système initial, ce qui permet de simplier l'étude de leurs solutions ;
 ils peuvent être de dimension réduite par rapport à celle du système initial (voir
exemple 22).
17 Etant donné que la dérivée de la fonction signe au point x = 0 n'est pas dénie au

sens classique, nous exclurons ce cas pour la suite (x 6= 0). En fait, en utilisant une notion
plus générale du gradient ou de la dérivée (voir [CLA 83, RIC 01]), nous pourrions obtenir
directement un résultat similaire à celui qui suit.
Equations diérentielles ordinaires 223

An de formuler les concepts de SM et de SC, considérons les systèmes :


ẋ = f (t, x), x ∈ Rn , (5.67)
ż = g(t, z), z ∈ Rn , (5.68)
nous avons alors les dénitions suivantes.
Dénition 36. On dira que (5.68) est un système majorant (SM) de (5.67) sur
O ⊂ Rn si :

∀(x01 , x02 ) ∈ O2 : I = I(5.67) (t0 , x01 ) ∩ I(5.68) (t0 , x02 ) 6= {t0 },


x02 ≥ x01 =⇒ z(t; t0 , x02 ) ≥ x(t; t0 , x01 ), ∀t ∈ I.

De ce concept, nous pouvons déduire certaines propriétés qualitatives pour les


solutions positives. Par exemple si z(t; t0 , x02 ) ≥ x(t; t0 , x01 ) ≥ 0 et si les solutions
z(t; t0 , x02 ) (pas forcément uniques) convergent vers l'origine, alors il en est de même
pour les solutions x(t; t0 , x01 ).
Dénition 37. (5.68) est un système de comparaison (SC) de (5.67) pour la pro-
priété P si [P vraie pour (5.68) ⇒ P vraie pour (5.67)].
Exemple 22. Pour le système :
 
dx −2 + sin t + 14 (x21 + x22 ) − sin t
= x, t ∈ R, x ∈ R2 ,
dt sin t −2 + sin t + 14 (x21 + x22 )
(5.69)
la variable v = 14 (x21 + x22 ), est solution de :
dv
= 2v(−2 + sin t + v), t ∈ R, v ∈ R+ .
dt
Ainsi, à l'aide de l'exemple 21, nous pouvons conclure que l'origine de (5.69) est ex-
ponentiellement stable et qu'une estimation de son domaine de stabilité exponentielle
est {x ∈ R2 : (x21 + x22 ) < 4}.
L'analyse de l'exemple 22 nous permet de constater que l'utilisation de la fonction
de Liapounov v permet de réduire la dimension de l'EDO étudiée, tout en condui-
sant à des conclusions signicatives quant aux comportements des solutions de l'EDO
initiale. Cette réduction de dimension entraîne une perte d'information sur les com-
portements liés au système initial. Il semble donc intéressant de réduire cette perte
en utilisant non pas une seule fonction candidate à Liapounov, mais plusieurs fonc-
tions regroupées dans un vecteur qui conduira à une fonction vectorielle de Liapounov
(FVL), en espérant que chacune d'elle apportera des informations provenant de dif-
férentes parties du système initial.
Dénition 38. V est une fonction vectorielle de Liapounov (FVL) si :
V : R n → Rk ,
x 7→ V (x) = [v1 (x), . . . , vk (x)]T ,

où les fonctions vi (x) sont continues, semi-dénies positives et telles que [V (x) =
0 ⇔ x = 0].
224 Mathématiques pour les systèmes dynamiques

Exemple 23. V : R3 → R2+ , x 7→ V (x) = [x21 + x22 , (x2 − x3 )2 + x23 ]T est une FVL,
alors que V : x 7→ [(x1 + x2 )2 , (x2 − x3 )2 ]T n'en est pas une.
Les normes vectorielles [BEL 62, BOR 76, GRU 77, PER 94, PER 95a, BRD 02]
constituent un cas particulier de FVL, présentant l'avantage de permettre une
construction systématique du système majorant. En particulier, en décomposant Rn
en une somme directe :
M
k
Rn = Ei , (5.70)
i=1

avec Ei sous-espace de Rn , dim(Ei ) = ni (isomorphe à Rni ), on construit des normes


 au sens usuel  pi (x[i] ) sur Ei avec x[i] = Pri (x) la projection de x sur Ei . Ces
diérentes normes, regroupées dans un vecteur, permettent de dénir une norme
vectorielle régulière18 :
P : Rn → Rk+ ,
x 7→ P (x) = [p1 (x[i] ), . . . , pk (x[k] )]T .

Ainsi, en décomposant (de façon non unique) le champ de vecteurs f suivant :


f (t, x, d) = A(t, x, d)x + b(t, x, d),

avec d un vecteur traduisant des incertitudes de modèle ou des perturbations, on


obtient :
D+ P (x) ≤ M (.)P (x) + q(.), (5.71)
avec (.) = (t, x, d), M (.) = {mij (.)} une matrice (k × k) et q(.) = [q1 (.), . . . , qk (.)]T
un k-vecteur, dénis par :
( )
grad pi (u[i] )T Pri A(.) Prj u[j]
mij (.) = sup , (5.72)
u∈Rn pj (u[j] )


qi (.) = (grad pi (x[i] ))T Pri b(.) . (5.73)

Pour certaines normes de Hölder, les expressions formelles de (5.72) et (5.73)


peuvent aisément être obtenues [BOR 76, GRU 77, PER 94, PER 95a]. Par exemple,
si P (x) = [|x1 | , . . . , |xn |]T , alors M est la matrice A dont les éléments hors-diagonaux
sont remplacés par leur valeur absolue (soit mij (.) = |aij | si i 6= j et mii (.) = aii ) et
q = [|b1 | , . . . , |bn |]T . La fonction M (.)z + q(.)19 est quasi monotone non décroissante
en z . De plus, on peut toujours trouver g(z) = M (z)z + q(z) ≥ M (.)z + q(.), qui
soit quasi monotone non décroissante en z (au moins localement). Ainsi, le théorème
6 permet de conclure que :
ż = M (z)z + q(z), (5.74)
est un SM de (5.71). Ce qui conduit à divers résultats [PER 94, PER 95a], en parti-
culier le suivant.
18 Si la somme dans (5.70) n'est pas directe, alors P est une norme vectorielle non régulière.
19 Ainsi que M z +q, avec la matrice M (respectivement le vecteur q ) constituée des suprema
sur (t, x, d) des coecients de la matrice M (.) dénie par (5.72) (respectivement du vecteur
q(.) déni par (5.73)).
Equations diérentielles ordinaires 225

Théorème 31. Considérons une des propriétés P dénies aux paragraphes 5.4.2,
5.4.2, 5.4.2, par exemple : stabilité, attractivité, stabilité asymptotique, etc. Sous
les hypothèses conduisant à la construction de (5.74), pour lequel ze est un point
d'équilibre positif de propriété P et ayant un domaine non vide associé DP (ze ), alors
A = {x ∈ Rn : P (x) ≤ ze } a la propriété P , de domaine DP (A) = {x ∈ Rn : P (x) ∈
DP (ze )}.
Exemple 24. Soit le modèle :

 ẋ1 = (1 − x21 − x22 )x1 + d12 (t)x2 ,
ẋ2 = (1 − x21 − x22 )x2 + d21 (t)x1 , (5.75)

|dij (t)| ≤ 1, ∀t ∈ R,

où les fonctions dij sont continues par morceaux. Pour la norme vectorielle régulière
P (x) = [|x1 | , |x2 |]T , on obtient :
 
(1 − p21 (x) − p22 (x)) 1
Dt P (x) ≤ P (x),
1 (1 − p21 (x) − p22 (x))

auquel on associe le SM suivant :


 
1 − z12 1
ż(t) = g(z) = z(t),
1 1 − z22

(g est
 quasi
 monotone non décroissante) ayant
 pour point d'équilibre
 positif
 : ze =
√ 1 √ 1
2 , permettant de conclure que A = x ∈ Rn : P (x) ≤ 2 est glo-
1 1
balement asymptotiquement stable.
Enn, notons que cette démarche peut être étendue au cas de matrices de fonctions
de Liapounov [DJO 86].

5.8. Théories des perturbations et de moyennisation

5.8.1. Introduction
Il s'agit ici de simplier l'étude qualitative des solutions d'une EDO (équation
diérentielle ordinaire) du type :
ẋ = f (t, x, ε), x(t0 ) = a(ε), x ∈ Rn (5.76)
où ε est un petit paramètre. Il est de prime abord naturel de comparer les solutions
de (5.76) à celles de :
ẋ = f0 (t, x) = f (t, x, ε = 0), x(t0 ) = a(0). (5.77)
Nous avons vu quelques éléments de réponse au paragraphe 5.6.1 concernant la sta-
bilité structurelle. Sous des hypothèses de régularité de la fonction f (en particulier,
f au moins C 1 en ε) nous verrons comment comparer les solutions de ces deux EDO
226 Mathématiques pour les systèmes dynamiques

sur un horizon temporel ni ou inni (paragraphe 5.8.2  perturbations régulières .


Ceci peut se faire à l'aide d'un développement en série des solutions. Si la série ne
converge pas uniformément, on parle de perturbations singulières (un cas particu-
lier étant lorsque ∂f
∂ε
est singulière en zéro). Nous verrons (paragraphe 5.8.3) qu'elles
peuvent traduire une inuence faible d'une dynamique stable mais très rapide vis-à-vis
d'une autre dynamique.
Enn, une dernière classe de simplication concerne la moyennisation (paragraphe
5.8.4) : c'est-à-dire l'étude d'une dynamique moyenne résultant d'un comportement
superposé à un autre de type oscillatoire. Le lecteur pourra consulter les ouvrages de
base [KOK 86, OMA 74], ainsi que les chapitres 8 et 9 de [KHA 96] et le chapitre 4
de [GUC 83]. Rapellons qu'une fonction g : R → Rn est dominée par h : R → Rn au
kgk
voisinage d'un point b si, dans un voisinage de ce point, khk est borné. En particulier
la notation g(ε) = O(ε ), k ∈ N signie que les composantes du vecteur g(ε) sont
k

dominées au voisinage de zéro par εk : donc qu'il existe une constante positive M > 0
telle que maxi∈{1,...,n} (|gi (ε)|) < M |ε|k sur un voisinage de zéro.

5.8.2. Perturbations régulières


Nous avons vu que, sous certaines conditions, on pouvait comparer les solutions
de (5.76) et de (5.77) sur un intervalle de temps petit (théorème 4 concernant la
dépendance des conditions initiales) ou plus large (théorème 10 concernant la sta-
bilité structurelle). Dans ce paragraphe, on se pose les même questions pour des
approximations d'ordre plus élevé à savoir : sous quelles conditions les solutions du
système perturbé (5.76) et celles de son approximation sont-elles proches, de quelle
façon peut-on caractériser cette proximité des solutions et sur quel intervalle de temps
cette comparaison est-elle valide ? Pour ce faire, on écrit un développement en série
de f (t, x, ε) en la variable ε, de x(t; t0 , a(ε), ε) , x(t, ε) (la solution de (5.76)) et de
a(ε) :
X
i=k
f (t, x, ε) = εi fi,x (t, x) + ε(k+1) Rf (t, x),
i=0

X
i=k X
i=k
x(t, ε) = εi xi (t) + ε(k+1) Rx (t, x)), a(ε) = εi ai + ε(k+1) Ra (t, x).
i=0 i=0

On doit donc avoir, pour les conditions initiales :



∂ i a
a0 = a(0) = x0 (0), ai = = xi (0),
∂εi ε=0
et, pour la dynamique :
X
i=k
ẋ(t, ε) = εi ẋi (t) + ε(k+1) Ṙx (t, x)) = f (t, x(t, ε), ε)
i=0

X
i=k
= εi fi (t, x0 (t), x1 (t), . . . , xi (t)) + ε(k+1) R(t).
i=0
Equations diérentielles ordinaires 227

En égalant les coecients des puissances de ε, on déduit ẋi (t) = A(t)xi +


fei−1 (t, x0 (t), x1 (t), . . . , xi−1 (t)), A(t) = ∂f
∂x (t,x0 (t),0)
. Ainsi, on doit résoudre le sys-
tème d'équations (pour i ∈ {1, . . . , k}) :
ẋ0 = f (t, x0 , 0), x0 (0) = a(0),
..
. (5.78)
ẋi = A(t)xi + fei−1 (t, x0 (t), x1 (t), . . . , xi−1 (t)), xi (0) = ai .

Les solutions exacte et approchée sont alors distantes d'un O(εk ) comme précisé dans
le théorème suivant (voir chapitre 8 [KHA 96] et [KOK 86, OMA 74]).
Théorème 32. Considérons (5.76), (5.78). Si les conditions suivantes sont vériées :
1. f est de classe C k+2 par rapport à (x, ε), pour tout (t, x, ε) ∈ [t0 , t1 ] × D ×
[−ε0 , ε0 ],
2. a(ε) est de classe C k+1 par rapport à ε, pour tout ε ∈ [−ε0 , ε0 ],
3. (5.76) admet une solution unique dénie sur [t0 , t1 ],
alors, il existe ε∗ > 0 tel que, pour tout ε ∈ [−ε∗ , ε∗ ], (5.76) ait une solution unique
dénie sur [t0 , t1 ] et vériant :
X
i=k
x(t, ε) − εi xi (t) = O(εk+1 ). (5.79)
i=0

Si de plus, dans les points 1 et 3, t1 = ∞, si f ainsi que ses dérivées partielles


jusqu'à l'ordre k + 2 sont bornées sur [t0 , ∞[×D × [−ε0 , ε0 ] et si xeq ∈ D est un
point d'équilibre exponentiellement stable, alors il existe ε∗ > 0 et δ > 0 tels que pour
tout ε ∈ [−ε∗ , ε∗ ] et tout ka(ε) − xeq k < δ, (5.76) ait une solution unique dénie sur
[t0 , ∞[, uniformément bornée et vériant :

X
i=k
x(t, ε) − εi xi (t) = O(εk+1 ), (5.80)
i=0

et ce uniformément en t pour tout t > t0.


Exemple 25. On considère le système :
dx dy
= ωy, = −ωx + εy 2 , (5.81)
dt dt
x ∈ R, y ∈ R, ω = cte et ε ∈ R petit. Les hypothèses du théorème sont vériées pour
tout k. Nous allons l'appliquer pour k = 1. Sur l'intervalle t = [0, 1], calculons une
approximation à l'ordre 1 (i = 0) :
dx0 dy0
= ωy0 , = −ωx0 , (5.82)
dt dt
avec x0 (0) = 1, y0 (0) = 0. On trouve x0 (t) = cos(ωt), y0 (t) = − sin(ωt). Puis, pour
i = 1, on a :
dx1 dy1
= ωy1 , = −ωx1 + y02 = −ωx1 + sin2 (ωt), (5.83)
dt dt
228 Mathématiques pour les systèmes dynamiques

2
avec x1 (0) = 0, y1 (0) = 0. On trouve x1 (t) = 13 cos ωt−2ω cos ωt+1 , y1 (t) =
2
− 23 (sin ωt) cos ωt−1
ω
. On en déduit que x(t, ε) = cos(ωt) + ε3 cos ωt−2ω cos ωt+1 + O(ε2 ),

y(t, ε) = − sin(ωt) − 3 (sin ωt) cos ωt−1
ω
+ O(ε ), ce que l'on peut vérier sur la gure
2

5.16 pour ω = 2, ω = 0.1.

Figure 5.16. ω = 2, ω = 0.1

Les courbes se superposent et on note que :


!
X
i=1
max x(t, ε) − i
ε xi (t) = 1.27 × 10−3 ,
t∈[0,1]
i=0
!
X
i=1
max y(t, ε) − i
ε yi (t) = 2.5 × 10−3 .
t∈[0,1]
i=0

5.8.3. Perturbations singulières

Avant de formuler le problème, commençons par l'exemple d'un moteur à courant


continu (à ux constant), sans couple de charge, modélisé par :

di(t)
e(t) = Ri(t) + L + ef cem (t),
dt
dωm (t)
Γm (t) = bm ω m (t) + Jm ,
dt
Γm (t) = Ki i(t), ef cem = Kb ω m (t),

avec e et i la tension et le courant d'induit, R la résistance (10 Ω) et L l'inductance de


l'induit (0, 001 H), ωm la vitesse de rotation, Jm l'inertie (0, 01 kg m2), bm le coecient
de frottement visqueux (0, 0001 kg m2 s−1 ), ef cem la force contre-éléctromagnétique,
Γm le couple moteur, Ki = Kb les constantes respectivement de couple et de vitesse,
Equations diérentielles ordinaires 229

1 Nm A−1 . S'il n'y a pas de charge :


di(t)
L = −Ri(t) − Kb ω m (t) + e(t),
dt
dωm (t)
Jm = −bm ω m (t) + Ki i(t). (5.84)
dt
Si l'inductance L est faible (ce qui est le cas en général), le courant converge rapide-
ment vers la solution de L di(t)
dt
= 0, c'est-à-dire i(t) = − KRb ω m (t) + R
1
e(t). Ainsi, en
reportant i dans la deuxième équation, la dynamique mécanique (plus lente que la
dynamique électrique) devient :
 
dωm (t) Ki Kb Ki
Jm = − bm + ω m (t) + e(t). (5.85)
dt R R
Pour les valeurs numérique données, on peut noter que la constante de temps
électrique LRi = 10−4 est négligeable devant la constante de temps mécanique
bm
Jm
+ K i Kb
Jm R
= 0, 11. Il est facile de vérier que la réponse à un échelon contant
de la vitesse est en eet extrêmement proche de celle obtenue pour le modèle (5.85)
qui est communément retenu pour modéliser un moteur à courant continu de ce type.
En se replaçant dans un contexte plus général, nous venons de voir que le comporte-
ment résultant est assez proche de la dynamique lente pour laquelle la variable rapide,
associée à la dynamique rapide, est remplacée par sa valeur  d'équilibre  : c'est ce
phénomène que nous allons développer ici.
On s'intéresse ici à un cas particulier de (5.76) appellé modèle standard de pertur-
bations singulières :
ẋ = fl (t, x, z, ε), x ∈ Rn , (5.86)
εż = fr (t, x, z, ε), z ∈ Rm , (5.87)
où les champs de vecteurs fl ( dynamique lente ) et fr ( dynamique rapide ) sont
supposés au moins de classe C 1 par rapport à tous leurs arguments. Notons que si la
dynamique rapide est exponentiellement stable (donc converge rapidement vers 0), le
système se ramène à une équation diérentielle algébrique (EDA), la seconde équation
dégénérant en une contrainte algébrique :
fr (t, x, z, 0) = 0. (5.88)
Dans ce cas d'une EDO d'ordre (n + m), on passe alors à une EDO d'ordre n avec une
contrainte algébrique d'ordre m. S'il existe un quadruplet (ts , xs , zs , 0) tel que (5.88)
soit satisfaite, alors, d'après le théorème de la fonction implicite (fr est de classe C 1 ),
on peut au voisinage de ce quadruplet expliciter (5.88) :
z = h(t, x). (5.89)
Par la suite, on supposera qu'il existe un nombre ni de racines de (5.88) : on dira
alors que (5.86) (5.87) est sous forme standard. En faisant le même raisonnement que
pour le moteur, à condition que la dynamique rapide soit exponentiellement stable,
la dynamique lente résultante est :
ẋ = fl (t, x, h(t, x), 0), x ∈ Rn . (5.90)
230 Mathématiques pour les systèmes dynamiques

En ce qui concerne la dynamique rapide (5.87), intuitivement tout se passe comme si


les variables lentes étaient gées, c'est-à-dire que pendant un intervalle de temps court,
on est amené à étudier le système  autonome  (on a posé t = t0 + ετ , y = z − h(t, x))
dit modèle de la couche limite :
dy
= fr (t, x, y + h(t, x), 0), y ∈ Rm , (5.91)

avec (t, x) des paramètre xes. Le théorème suivant [KHA 96, KOK 86, OMA 74]
précise les comportements relatifs de (5.86), (5.87) et (5.90).
Théorème 33 (de Tikhonov, des perturbations singulières). Considérons
(5.86), (5.87) auxquelles on associe les conditions initiales :
x(t0 ) = x0 (ε), z(t0 ) = z0 (ε). (5.92)
Supposons que dans un voisinage compact de (ts , xs , zs , 0) (une racine isolée de
(5.88)), [t0 , t1 ] × Brx × Brz × [0, ε0 ], les conditions suivantes soient vériées :
1. fl , fr , h(t, x) et ∂fr (t,x,z,0)
∂z
sont de classe C 1 par rapport à leurs arguments
respectifs,
2. x0 et z0 sont de classe C 1 par rapport à ε,
3. le système réduit (5.90) a une solution unique sur le compact, notée x(t),
4. 0 est uniformément exponentiellement stable pour (5.91) sur le compact.
Alors, il existe deux constantes positives ε∗ et δ telles que pour toute condition initiale
(x0 (ε), z0 (ε)) : kz0 (0) − h(t0 , x0 (0))k < δ et 0 < ε < ε∗ , le problème de Cauchy (5.86)
(5.87) (5.92) admet une unique solution (x(t, ε), z(t, ε)) dénie sur [t0 , t1 ] telle que :
x(t, ε) − x(t) = O(ε), (5.93)
z(t, ε) − h(t, x(t)) − y(τ) = O(ε), (5.94)
sont vériées uniformément en t ∈ [t0 , t1 ], y(τ ) étant la solution du modèle de la
couche limite (5.91). De plus, il existe t00 > t0 et 0 < ε∗∗ < ε∗ tels que :
z(t, ε) − h(t, x(t)) = O(ε), (5.95)
est vériée uniformément en t ∈ [t00 , t1 ] et ce pour tout 0 < ε < ε∗∗ .

5.8.4. Moyennisation
Ici on s'intéresse à des systèmes perturbés pouvant être modélisés par :
ẋ = εf (t, x, ε), (5.96)
avec ε un petit paramètre et f un champ de vecteur T −périodique (voir dénition 5
au paragraphe 5.3.2). Du fait de cette périodicité, on peut calculer le champ moyen
(lorsque ε est nul) : Z T
1
fmoy = f (v, x, 0)dv,
T 0
Equations diérentielles ordinaires 231

et se demander sous quelles conditions les solutions du système non autonome (5.96)
et celles du système autonome :

ẏ = εfmoy (y), (5.97)

sont proches. Considérons le changement de variable suivant :


Z t 
x(t) = y(t) + ε f (v, y, 0)dv − tfmoy (y) .
0

Un calcul direct permet de montrer que :


 Z t 
∂f (v, y, 0) ∂fmoy (y)
Id + ε dv − tε ẏ = εfmoy (y) + εp(t, y, ε),
0 ∂y ∂y

où le terme p(t, y, ε) est une perturbation T − périodique qui est en O(ε). Pour ε petit,
la matrice prémultipliant ẏ est non singulière, ce qui conduit à :

ẏ = εfmoy (y) + ε2 q(t, y, ε),

où le terme q(t, y, ε) est une perturbation T −périodique. Ce changement permet d'en


déduire le résultat suivant.
Théorème 34. Supposons que, pour tout (t, x, ε) ∈ [t0 , ∞[×D × [0, ε0 ], le champ
de vecteurs de (5.96) soit C 2 par rapport à (x, ε), C 0 en la variable t, borné et
T −périodique en la variable t. Notons x(t; t0 , x0 , ε) et xmoy (t; t0 , x0 , ε) les solutions
respectives de (5.96) et de (5.97).

1. Si xmoy (t; t0 , x02 , ε) ∈ D, ∀t ∈ [t0 , t0 + εb ] et kx10 − x20 k = O(ε), alors :


b
kx(t; t0 , x01 , ε) − xmoy (t; t0 , x02 , ε)k = O(ε), ∀t ∈ [t0 , t0 + ].
ε

2. Si xeq ∈ D est un point d'équilibre exponentiellement stable pour (5.97), alors


il existe δ > 0 tel que si kxeq − x20 k < δ et kx10 − x20 k = O(ε), alors
kx(t; t0 , x01 , ε) − xmoy (t; t0 , x02 , ε)k = O(ε), ∀t ∈ [t0 , ∞[.
3. Si xeq ∈ D est un point d'équilibre hyperbolique (en particulier, exponentielle-
ment stable) pour (5.97), alors il existe ε∗ > 0 tel que, ∀ε ∈]0, ε∗ [, (5.96) admet
une unique orbite T −périodique hyperbolique de même stabilité que xeq et située
dans un O(ε)−voisinage de xeq .
Exemple 26. Soit le modèle :
ẋ = ε sin(t)x. (5.98)
R 2π
Le champ moyen est fmoy (x) = x
2π 0
sin(v)dv = 0. En restreignant x ∈ [−1, 1], le
théorème précédent nous permet de conclure : toute solution de (5.98) démarrant de
x(0) = x0 ∈ ]−1, 1[ est x(t)
h = x0 +O(ε), ∀t > i0. En eet, (5.98) s'intègre directement,

la solution étant x (t) = e−ε cos(t) + 1 − e−ε x0 = x0 + (1 − cos t) εx0 + O ε2 . La
gure 5.17 illustre les solutions partant de x0 = 0, 5 pour deux valeurs de ε.
232 Mathématiques pour les systèmes dynamiques

Figure 5.17. Solution de (5.98) pour ε = 0, 1 (trait plein) et ε = 0, 01 (pointillé)

Exemple 27. Soit le modèle :



ẋ = ε 20 sin2 (t)x − cos2 (t)x3 . (5.99)
R 3 R
Le champ moyen est fmoy (x) = 20x π
π
0
sin2 (v)dv − xπ 0 cos2 (v)dv = 10x − 12 x3 ,

π

pour lequel
√ on a les équilibres x = 0 (instable), x = 2 5 (exponentiellement stable),
x = −2 5 (exponentiellement stable). Le théorème 34 permet de conclure que, pour√ε
susament petit, il y aura une orbite T −périodique stable au voisinage de x = 2 5.
Pour ε = 0.01, les simulations de (5.99) et du système moyen associé donnent la
gure 5.18.

Figure 5.18. Solutions de (5.99) et du système moyen associé (pour x0 = 3)


Equations diérentielles ordinaires 233

Exemple 28. Une application de cette méthode est l'étude d'oscillateur du second
ordre faiblement non linéaire :
ÿ + ω 2 y = εg(y, ẏ),
qui en posant r sin θ = y, ωr cos θ = ẏ devient :
ε
ṙ = g(r sin θ, ωr cos θ) cos θ,
ω
ε
θ̇ = ω− g(r sin θ, ωr cos θ) sin θ.

g(r sin θ,ωr cos θ) cos θ
Ainsi, en posant f (θ, r, ε) = ω2 − ε g(r sin θ,ωr cos θ) sin θ
, on a :
r

dr
= εf (θ, r, ε).

Si |g| < k min(y, ẏ), alors θ̇ est minorée pour ε susament petit, donc f est bornée
2π−périodique. Si elle est susament dérivable (par exemple, g de classe C 2 ), alors on
peut appliquer le théorème 34. Par exemple, pour l'oscillateur de Van der Pol (5.31),
on trouve :
g(y, ẏ) = ẏ(1 − y 2 ),
dr r cos2 θ(1 − r2 sin2 θ)
= εf (θ, r, ε) ; f (θ, r, ε) = ,
dθ 1 − ε sin θ cos θ(1 − r 2 sin2 θ)
 
dr 1 1
= εfmoy (r) = ε r − r3 .
dθ 2 8
Le système moyen possède trois points d'équilibre : r = 0 (instable), r = 2 (expo-
nentiellement stable), r = −2 (pas de signication). En utilisant le théorème 34, on
déduit que, pour ε susament petit, l'oscillateur de Van der Pol possède un cycle li-
mite stable proche de r = 2. Enn, on peut montrer que cette orbite est T −périodique
de période T = 2π + O(ε).

5.9. Bifurcation et chaos

Les modèles non linéaires peuvent présenter des changements radicaux de compor-
tement lorsqu'un paramètre change : c'est un phénomène de bifurcation. Par exemple,
le déplacement d'un ressort de raideur k attaché à une masse m et à un bâti excité par
un retour en αẋ est modélisé par mẍ + µẋ + kx = 0, µ√= (δ − α), avec δ le coecient
(4mk−µ2 )
de frottement. Les modes, pour µ petit, sont λ = −µ±i 2m . Evidement, si µ est
positif (respectivement négatif), alors l'équilibre est instable (respectivement stable)
alors que, pour µ0 = 0, un mode oscillatoire apparaît. Clairement, µ0 est une valeur
de bifurcation.
Sur des exemples d'équations de récurrence simples20 , on peut vérier qu'une
innité de telles bifurcations peut conduire à un comportement imprévisible car très
20 Par exemple du premier ordre xn+1 = µxn (1 − xn ) (voir [BER 84, GUC 83]).
234 Mathématiques pour les systèmes dynamiques

sensible aux conditions initiales : c'est un phénomène de chaos. Ce même type de


phénomène se manifeste pour les EDO non linéaires autonomes, mais seulement pour
des dynamiques d'ordre intrinsèque supérieur ou égal à trois.

5.9.1. Dépendance d'un paramètre


On suppose que k paramètres, regroupés dans un vecteur µ ∈ Rk , interviennent
dans l'EDO :
dx
= g(x, µ), x ∈ Rn , µ ∈ Rk . (5.100)
dt

Lorsque le champ de vecteurs g est de classe C 1 sur un ouvert de Rn+k , outre


 l'existence, la continuité et l'unicité des solutions , on peut noter (voir théorème
4) que pour un triplet (t0 , x0 , µ0 ) donné, il existe deux voisinages ouverts de x0 et
de µ0 notés respectivement V(x0 ) et V(µ0 ), tels que pour tout couple  (x01 , µ01 ) de
V(x0 ) × V(µ0 ), le problème de Cauchy : dx dt
= g(x, µ01 ), x(t 0 ) = x 01 ait une et une
seule solution maximale φ(t; t0 , x01 , µ01 ) de classe C 1 par rapport à t, x01 et µ01 .
D'autre part, en vertu du théorème 7 (puisqu'il y a bien unicité des solutions), les
points d'équilibres de (5.100) sont donnés par les solutions de :
g(x, µ) = 0, x ∈ R n , µ ∈ Rk .

Ainsi, lorsque le paramètre vectoriel µ varie, le théorème de la fonction implicite


montre que ces équilibres xe (µ) sont des fonctions de µ de même classe que g, à
condition qu'il existe un point d'équilibre (xe , µe ) et qu'en ce point la jacobienne
∂g
Jg (xe , µe ) = ∂x (xe , µe ) soit non singulière : det( ∂x
∂g
(xe , µe )) 6= 0. Sous ces conditions,
il existe un voisinage ouvert de µe , noté V(µe ), et une application h : V(µe ) ⊂ Rk →
Rn , µ 7→ h(µ) de même classe que g, tels que :

g(h(µ), µ) = 0, ∀µ ∈ V(µe ).
Dénition 39. Le graphe de la fonction h constitue les branches d'équilibres.
Exemple 29. Soit le système : dx
dt
= µ3 − x3 , x ∈ R, µ ∈ R. La branche d'équilibres
est la droite x = µ. Notons que, pour tout équilibre (x, µ) 6= (0, 0), la jacobienne de
g est non singulière : dans cet exemple, l'application h est l'identité ou son opposée
selon le signe de xe µe .
Exemple 30. Pour le système dx dt
= µ − x2 , x ∈ R, µ ∈ R, les branches d'équilibres

correspondent au graphe de la parabole x = ± µ, µ ≥ 0, représenté gure 5.19.
Lorsque ∂x ∂g
(xe , µe ) est non singulière, les points d'équilibre (dans un voisinage
de (xe , µe )) sont hyperboliques : le théorème 14 nous donne la structure locale des
solutions au voisinage de ces points (système structurellement stable). Par contre,
dans le cas où ∂x ∂g
(xe , µe ) est singulière, on est en présence d'un point dégénéré (non
hyperbolique), ce qui se traduit par la présence possible d'un changement de com-
portement (bifurcation). On peut noter qu'alors, ce point peut être la jonction de
plusieurs branches d'équilibres (voir exemple 29). La condition  ∂x ∂g
(xe , µe ) est sin-
gulière  traduit une bifurcation locale.
Equations diérentielles ordinaires 235

Figure 5.19. Branches d'équilibres du système dx


dt
= µ − x2

Dénition 40. Une valeur de bifurcation est une valeur du paramètre vectoriel µ
intervenant dans (5.100) pour laquelle (5.100) n'est pas structurellement stable. De
façon générale, on distingue deux types de bifurcations :
1. les bifurcations locales : les changements qualitatifs du portrait de phase se font
au voisinage d'un élément critique ;
2. les bifurcations globales : les changements s'opèrent sur une région de l'espace,
par exemple lorsqu'il y a création d'attracteurs étranges, ou lorsqu'une orbite
homoclinique se transforme en orbite périodique ou point d'équilibre.
Exemple 31. µ0 = 0 est une valeur de bifurcation pour le système de l'exemple 30,
mais pas pour celui de l'exemple 29 car l'équilibre x = µ est toujours asymptotiquement
stable quelle que soit la valeur du paramètre µ.
Dénition 41. Le graphe, dans l'espace (x, µ), de l'évolution des ensembles inva-
riants (points d'équilibres, orbites fermés, etc.) en fonction du paramètre µ constitue
un diagramme de bifurcation.
Le terme  évolution  est pris ici au sens qualitatif, c'est-à-dire qu'il peut s'agir
de création ou de changement qualitatif (par exemple : stable → instable). Par la
suite, on adoptera la convention suivante : les éléments stables seront représentés en
traits pleins et ceux instables, en traits discontinus.
Exemple 32. Reprenons le système de Van der Pol (voir équation (5.3)). L'origine
est un point d'équilibre et la jacobienne en ce point vaut :
 
0 1
Jg (0) = .
−1 2µ
p
Ainsi, pour µ proche de zéro, les valeurs propres sont µ ± i 1 − µ2 . Ce qui signie
que µ0 = 0 est une valeur de bifurcation pour laquelle l'origine, tout en restant un
point d'équilibre, change qualitativement de  asymptotiquement stable  (µ < 0) à
 instable  (µ > 0). Nous verrons par la suite qu'il s'agit d'une bifurcation de Hopf
qui, lorsque µ devient positif, donne naissance à des cycles limites asymptotiquement
stables entourant l'origine. Le diagramme de bifurcation est donné sur la gure 5.20.
236 Mathématiques pour les systèmes dynamiques

Figure 5.20. Bifurcation de Hopf pour (5.3)

5.9.2. Bifurcation locale de codimension 1

A l'heure actuelle, il est impossible de faire une classication exhaustive des phé-
nomènes de bifurcations locales ou globales. En eet une complexité d'étude apparaît
avec l'augmentation :
- de la dimension eective de (5.100) : n,
- du nombre de paramètres qui interviennent dans (5.100) : k.
Cependant, un grand nombre de phénomènes peuvent être étudiés à l'aide de
bifurcations  élémentaires  que l'on retrouve régulièrement. En particulier, pour
les points d'équilibre, lorsque les paramètres varient, les valeurs propres de la jaco-
bienne peuvent traverser l'axe imaginaire : il y a bifurcation. Parmi ces paramètres,
un nombre minimal peut être utilisé pour reproduire ce type de bifurcation : c'est
la codimension de la bifurcation. Pour une bifurcation
 decodimension 1, Jg (0) est
  0 −ω
0 0 0 
semblable soit à , soit à  ω 0 , avec X et Y de tailles
0 X
0 Y
respectives (n−1)×(n−1) et (n−2)×(n−2). Génériquement, toute bifurcation (locale
au voisinage d'équilibre) de codimension 1 peut se ramener à l'une des bifurcations
suivantes21 .

Sous-critique ou selle-n÷ud

Cette bifurcation est modélisée par :


dx
= µ − x2 , x ∈ R, µ ∈ R. (5.101)
dt
21
On pourra pour cela utiliser le théorème de la variété centre (théorème 15) : voir [GUC 83]
pour plus de détails.
Equations diérentielles ordinaires 237

√ √
Les points d'équilibres sont xe1 = − µ et xe2 = µ pour µ ≥ 0, de jacobiennes
√ √
respectives 2 µ et −2 µ.

Figure 5.21. Bifurcation selle-n÷ud de (5.101)

µ0 = 0 est une valeur de bifurcation, avec création de deux points d'équilibres :


 xe1 n'existe pas  (µ < 0) →  existe et est instable  (µ > 0) et  xe2 n'existe pas 
(µ < 0) →  existe et est asymptotiquement stable  (µ > 0). Lorsque µ = µ0 = 0,
(5.101) devient dx
dt
= −x2 , qui admet pour solutions x(t) = 1+(t−t x0
0 )x0
, ce qui montre
que, lorsque x0 est positif, x(t) converge vers zéro et que, dans le cas contraire, il
existe un temps ni (t0 − x10 ) pour lequel il y a  explosion  (x(t) = ∞).
Le diagramme de bifurcation est représenté sur la gure 5.21. On peut noter que
les points d'équilibre ne sont pas de vrais points  selles  (ou  col ) et  n÷ud ,
puisqu'il faudrait être en dimension 2. Pour cela, il sut d'adjoindre à (5.101) l'équa-
tion dy
dt
= −y, y ∈ R, ce qui donne le diagramme de bifurcation de la gure 5.22.
Cette bifurcation prend bien son appellation  selle-n÷ud .

Figure 5.22. Bifurcation selle-n÷ud : (5.101) avec ẏ = −y


238 Mathématiques pour les systèmes dynamiques

Transcritique

Cette bifurcation est modélisée par :


dx
= µx − x2 , x ∈ R, µ ∈ R. (5.102)
dt

Figure 5.23. Bifurcation transcritique de (5.102)

Les points d'équilibres sont xe1 = 0 et xe2 = µ, de jacobiennes respectives µ


et −µ. µ0 = 0 est une valeur de bifurcation. Il y a échange de stabilité entre les
deux points d'équilibres :  xe1 asymptotiquement stable  (µ < 0) →  instable 
(µ > 0) et  xe2 instable  (µ < 0) →  asymptotiquement stable  (µ > 0). Lorsque
µ = µ0 = 0, (5.102) devient dx dt
= −x2 (voir ci-dessus pour les conclusions). Le
diagramme de bifurcation est donné gure 5.23.

Super-critique

On distingue les bifurcations de type fourche et de type Hopf.


La bifurcation fourche est modélisée par :
dx
= µx − x3 , x ∈ R, µ ∈ R. (5.103)
dt
Une étude rapide montre que µ0 = 0 est une valeur de bifurcation, pour laquelle il y
a création de deux points d'équilibre asymptotiquement stables et perte de stabilité
pour l'origine :  xe1 = 0 asymptotiquement stable  (µ < 0) →  instable  (µ > 0) ;

 xe2 = − µ n'existe pas  (µ < 0) →  existe et est asymptotiquement stable 

(µ > 0) et  xe3 = µ n'existe pas  (µ < 0) →  existe et est asymptotiquement
stable  (µ > 0). Lorsque µ0 = 0, (5.103) devient dx
dt
= −x3 , qui admet pour solution
Equations diérentielles ordinaires 239

x(t) = √ x0
, ce qui montre que x(t) converge vers zéro (l'origine est asymp-
1+2(t−t0 )x2
0
totiquement stable, non exponentiellement). Le diagramme de bifurcation est donné
gure 5.24.

Figure 5.24. Bifurcation fourche de (5.103)

La bifurcation de Hopf correspond à la présence de deux valeurs propres complexes


conjuguées ; elle est modélisée par :
dx
= −ωy + x(µ − (x2 + y 2 )), x ∈ R, µ ∈ R,
dt
dy
= +ωx + y(µ − (x2 + y 2 )), y ∈ R, ω = cste.
dt
Cette équation, en coordonnées polaires, devient dr dt
= r(µ − r 2 ), dθ
dt
= ω . Ces deux
équations sont découplées, la première correspondant à une bifurcation fourche (va-
lable seulement pour r positif). On en déduit que µ0 = 0 est une valeur de bifurcation
et qu'il y a création d'une orbite fermée asymptotiquement stable et perte de stabilité
pour l'origine lorsque µ devient positif. Origine :  asymptotiquement stable  (µ < 0)

→  instable  (µ > 0). Orbite (r = µ) :  n'existe pas  (µ < 0) →  existe et
est asymptotiquement stable  (µ > 0). Le diagramme de bifurcation de Hopf a été
donné précédemment (gure 5.20).
Il ne faut pas se er aux apparences : la présence d'un paramètre dans une EDO
ne signie pas l'existence systématique d'une bifurcation. Par exemple, l'EDO dxdt
=
µ − x3 , x ∈ R, µ ∈ R n'a qu'un équilibre qui est asymptotiquement stable pour toute
valeur de µ : il n'y a pas de bifurcation.

5.9.3. Chaos
Un phénomène chaotique (comportement aléatoire en apparence) peut être ob-
tenu à partir de plusieurs phénomènes de bifurcation : doublement de période
240 Mathématiques pour les systèmes dynamiques

[BER 84, GUC 83, PEI 92], bifurcation sur le tore (innité de bifurcations de Hopf),
intermittence (phénomènes périodiques alternant avec des phénomènes apériodiques),
etc. La présence d'attracteurs étranges est un indicateur du chaos : en eet, cela im-
plique une grande sensibilité des solutions aux conditions initiales (deux solutions
démarrant de conditions initiales voisines donnent naissance à des trajectoires de
natures et/ou de formes diérentes). Aussi, un phénomène chaotique peut être dé-
tecté en mettant en évidence soit un ensemble invariant de dimension non entière
(attracteur étrange), soit une sensibilité aux conditions initiales (notamment à l'aide
des exposants de Liapounov). Dans ce qui suit, on ne considèrera que des EDO non
linéaires autonomes du type (5.19).
Dénition 42. Un ensemble A est un attracteur étrange si A est un ensemble
attractif invariant par le ot Φtg et si toute trajectoire initialisée dans A est dense
dans A.
Exemple 33. Soit le modèle de Rösler :

 ẋ = −(y + z),
ẏ = x + ay, (5.104)

ż = b − cz + xz,
pour a = b = 0.2, c = 5.8, on obtient l'attracteur de Rösler de la gure 5.25.

Figure 5.25. Attracteur de Rösler

D'un point de vue pratique, il est rare de pouvoir démontrer qu'un ensemble A est
un attracteur étrange, en particulier de montrer que toute trajectoire initialisée dans
A est dense dans A. Aussi, il est naturel d'avoir recours à des méthodes numériques
permettant de calculer la dimension de l'attracteur qui est un indicateur probant de
son  étrangeté . Considérons un cube C contenant un attracteur A dont on souhaite
déterminer la dimension. En notant n(ε) le nombre de cubes d'arête ε nécessaires au
recouvrement des points constituant l'attracteur A, on dénit la dimension fractale
(ou capacité) par :
ln(n(ε))
df (A) = lim . (5.105)
ε→0 ln( 1ε )
Equations diérentielles ordinaires 241

Il existe de nombreuses autres notions de dimension : dimension de Hausdor (voir


[GUC 83] p. 285), l'entropie relative à une mesure ([GUC 83] p. 286), la dimen-
sion d'information ([SEY 94] p. 345, [PEI 92] p. 735), la dimension de corrélation
([SEY 94] p. 345), la dimension de Liapounov ([PEI 92] p. 739), etc.22 Cependant, en
pratique, on utilise la dimension fractale qui d'un point de vue numérique s'obtient
plus facilement. En eet, en tenant compte de la précision de résolution de l'EDO
(voir [PEI 92] p. 722-726), il sut de tracer la courbe ln(n(ε)) = f (ln( 1ε )) pour obtenir
df (A). Pour l'attracteur de Rösler, par exemple, on obtient df (A) = 2, 015 ± 0, 005.
On peut noter qu'un attracteur étrange (voir la construction du fer à cheval de
Smale [GUC 83] p. 102-116 et 230-235 et [SEY 94] p. 328-334) résulte bien souvent
d'un processus de feuilletage : un ensemble est contracté dans certaines directions,
dilaté dans d'autres et replié sur lui-même de façon à ce qu'il soit invariant. Ainsi
pour détecter un attracteur étrange (donc un phénomène chaotique), on peut utiliser
les exposants de Liapounov qui permettent de mesurer les contractions (si l'exposant
est négatif) et expansions (si l'exposant est positif). Notons que cette caractéristique
se traduit par une sensibilité aux conditions initiales. Considérons une boule de rayon
ε centrée en un point x0 : l'évolution des axes du repère ({ei }i=1,...,n ) lié à ce point
est donnée par Φtg (x0 + εei ) i=1,...,n , permettant de dénir le i-ème exposant de Lia-
pounov :
 t 
1 Φg (x0 + εei )
Li = lim lim ln .
(5.106)
t→∞ ε→0 t ε

Considérons une trajectoire particulière Φtg (x0 ) et notons µi (t) les valeurs propres de
la matrice de monodromie23 associée au linéarisé de ẋ = g(x). Alors autour de cette
trajectoire (c'est-à-dire ż = Jg (Φtg (x0 ))z = A(t)z ), les exposants de Liapounov sont
donnés par :
1
Li = lim ln (|µi (t)|) .
t→∞ t

En particulier, si x0 est un point d'équilibre, alors ż = Jg (x0 )z = Az. La matrice de


monodromie est Φ(t) = exp(At), donc en notant λi les valeurs propres de A (toutes
supposées réelles), on obtient Li = limt→∞ 1t ln (exp(λi t)) = λi .
En général ces exposants sontP réordonnés en L1 ≥ L2 ≥ . . . ≥ Ln . Dans ce cas,
on a pour un système dissipatif ni=1 Li < 0 et une condition nécessaire d'apparition
de phénomène du chaos est L1 > 0. Pour une EDO en dimension 3, une condition
nécessaire et susante d'existence d'attracteur étrange est : L1 < 0, L2 = 0, L3 > 0.

22
Toutes ces dimensions peuvent être dénies à partir d'un famille paramétrée de dimen-
P n(ε) q
ln p
1
sions (dites de Rényi), dénies par dq (A) = 1−q limε→0 i=1
ln( 1 )
i
, q ≥ 0, où pi est la
ε
probabilité pour qu'un point de l'attracteur se retrouve dans la i−ème boîte dont il faut n(ε)
unités pour recouvrir l'attracteur tout entier. Donc si N est le nombre de points (obtenus
par simulation) constituant l'attracteur et Ni le nombre de points contenus dans la i−ème
boîte, on a pi = NNi .
23 Cette matrice est périodique dans le cas d'une trajectoire périodique.
242 Mathématiques pour les systèmes dynamiques

5.10. Bibliographie
[ARN 80] Arnold V.I., Chapitres supplémentaires à la théorie des équations dié-
rentielles ordinaires, MIR, Moscou, 1980.
[ARN 88] Arnold V.I., Equations diérentielles ordinaires, 4e édition, traduit du
russe, MIR, Moscou, 1988.
[BEL 62] Bellman R.,  Vector Lyapunov functions , SIAM J. Control, series A,
vol. 1, n◦ 1, p. 31-34, 1962.
[BER 84] Berge P., Pomeau Y., Vidal C., L'ordre dans le chaos (vers une ap-
proche déterministe de la turbulence), Hermann, 1984.
[BHA 70] Bhatia N.P., Szegö G.P., Stability theory of dynamical systems, Springer
Verlag, Berlin, 1970.
[BIR 27] Birkhoff G.D., Dynamical systems, Amer. Math. Soc. Colloq. IX, 1927.
[BOR 76] Borne P., Contribution à l'étude des systèmes discrets non linéaires de
grande dimension, Thèse de doctorat ès Sc., université de Lille, 1976.
[BDR 93] Borne P., Dauphin-Tanguy G., Richard J.P., Rotella F., Zam-
bettakis I., Analyse et régulation des processus industriels : Tome 1, régulation
continue, Ed. Technip, 1993.
[BRD 02] Borne P., Richard J.P., Dambrine M., Perruquetti W.,  Vector
Lyapunov functions : Nonlinear, time-varying, ordinary and functional dierential
equations , in Stability theory at the end of the XXth century, Taylor & Francis,
London, p. 49-73, 2002.
[CHI 88] Chiang H.D., Hirsch M.W., Wu F.F.,  Stability regions of nonlinear
autonomous dynamical systems , IEEE Trans. Aut. Control, vol. 33, n◦ 1, p.
16-27, 1988.
[CHI 89] Chiang H.D., Thorp J.S.,  Stability regions of nonlinear dynamical sys-
tems : A constructive methodology , IEEE Trans. Aut. Control, vol. 34, n◦ 12,
p. 1229-1241, 1989.
[CLA 83] Clarke F.H., Optimization and nonsmooth analysis, Wiley, 1983.
[COD 55] Coddington E., Levinson N., Theory of Ordinary Dirential Equa-
tions, Mc Graw-Hill, 1955.
[COR 99] Corrieu, P.L., Commande en boucle fermée d'un actionneur pas-à-pas,
Rapport de DEA d'Automatique, Univ. Sc. & Technologies de Lille, 1999.
[DJO 86] Djordjevic M.Z.,  Stability analysis of nonlinear systems by matrix lya-
punov method , IMACS-IFACS, Modelling & Simulation for Control of Lumped
& Distrib. Parameter Systems, p. 209-212, Villeneuve d'Ascq (France), 1986.
[FIL 88] Filippov A.F., Dierential Equations with Discontinuous Righthand Sides,
Kluwer Academic Publishers, 1988.
[GEN 84] Genesio R., Vicino A., New techniques for constructing asymptotic
stability regions for nonlinear systems, IEEE Trans. Circuits and Sys., vol. 31,
n◦ 6, p. 574-581, juin 1984.
[GEN 85] Genesion R., Tartaglia M., Vicino A.,  On estimation of asymptotic
stability regions : State of art and new proposals , IEEE Trans. Aut. Control,
vol. 30, n◦ 8, p. 747-755, août 1985.
[GRU 73a] Gruji¢ Lj.T.,  On practical stability , Int. J. Control, vol. 17, n◦ 4, p.
881-887, 1973.
Equations diérentielles ordinaires 243

[GRU 73b] Gruji¢ Lj.T.,  Practical stability with the settling time , Teoretski
Prilog Automatica, 7, p. 6-10, 1973.
[GRU 77] Gruji¢ Lj.T., Gentina J.C., Borne P.,  General aggregation of large-
scale systems by vector Lyapunov functions and vector norms , Int. J. Control,
vol. 24, n◦ 4, p. 529-550, 1977.
[GRU 87] Gruji¢ Lj.T., Martynyuk A.A., Ribbens-Pavella M., Large scale
systems stability under structural and singular perturbations, LNCIS, Springer
Verlag, 1987.
[GRU 91a] Gruji¢ Lj.T.,  The necessary and sucient conditions for the exact
construction of a Lyapunov function and asymptotic stability domain , 30th
IEEE Conf. on Decision and Control, Brighton, England, p. 2885-2888, 1991.
[GRU 91b] Gruji¢ Lj.T.,  Solutions to Lyapunov stability problems : Nonlinear
systems with dierentiable motions , 13th IMACS World Congress on Comput.
& Appl. Math., p. 1228-1231, Trinity College Dublin, juillet 1991.
[GUC 83] Guckenheimer J., Holmes P., Nonlinear oscillations, dynamical sys-
tems, and bifurcations of vector elds, Springer Verlag, 1983.
[HAH 63] Hahn W., Theory and application of Liapunov's direct method, Prentice-
Hall, Englewood Clis, N.J., 1963.
[HAH 67] Hahn, W., Stability of motion, Springer-Verlag N.Y., 1967.
[HAL 91] Hale J., Koçak H., Dynamics and bifurcations, Texts in Applied Mathe-
matics, vol. 3, Springer Verlag, 1991.
[HIR 74] Hirsh M.W., Smale S., Dierential equations, dynamical systems, and
linear algebra, Academic Press, 1974.
[ISI 89] Isidori A., Nonlinear Control Systems, vol. 1. Springer, 3e édition, 1989.
[KAM 32] Kamke E.,  Zur theorie gewöhnlicher dierentialgleichung II , Acta Ma-
thematicae, vol. 58, p. 57-87, 1932.
[KHA 96] Khalil H.K., Nonlinear systems, Prentice-Hall, 1996.
[KOK 86] Kokotovi¢ P., Khalil H.K., O'Reilly J., Singular perturbation me-
thods in control : Analysis and design, Academic Press, 1986.
[LAK 69] Lakshmikantham, V., Leela S., Dierential and integral inequalities,
vol. 1., Academic Press, New York, 1969.
[LAS 61] LaSalle J.P., Lefschetz S., Stability by Liapunov's direct method with
applications, Academic Press, 1961.
[LIA 92] Liapounov A.M.,  Stability of motion : General problem , Int. J. Control,
Lyapunov Centenary Issue, vol. 55, n◦ 3, mars 1992.
[OMA 74] O'MalleyR.E., Introduction to singular perturbations, Academic Press,
Londres, 1974.
[PEI 92] Peitgen H.O., Jürgens H., Saupe D., Chaos and fractals : New frontiers
of science, Springer-Verlag, 1992.
[PER 94] Perruquetti W., Sur la stabilité et l'estimation des comportements non
linéaires, non stationnaires, perturbés, Thèse de doctorat, université de Lille,
1994.
[PER 95a] Perruquetti W., Richard J.P., Borne P.,  Vector Lyapunov func-
tions : Recent developments for stability, robustness, practical stability and
constrained control , Nonlinear Times & Digest, vol. 2, p. 227-258, 1995.
244 Mathématiques pour les systèmes dynamiques

[PER 95b] Perruquetti W., Richard J.P., Gruji¢ Lj.T., Borne P.,  On pra-
tical stability with the settling time via vector norms , Int. J. Control, vol. 62,
n◦ 1, p. 173-189, 1995.
[REI 82] Reinhard H., Equations diérentielles, fondements et applications,
Gauthier-Villars, 1982.
[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès, Traité
IC2, 2001.
[ROU 73] Rouch N., Mawhin J., Equations diérentielles ordinaires, Tome 1 :
Théorie générale, Tome 2 : Stabilité et solutions périodiques, Masson, Paris, 1973.
[SCH 95] Schwartz L., Analyse I : Théorie des ensembles et topologie, Hermann,
1995.
[SEY 94] Seydel R., Practical bifurcation and stability analysis : From equilibrium
to chaos, vol. 5, IAM, Springer-Verlag, 2e édition, 1994.
[WAZ 50] Wazewski T.,  Systèmes des équations et des inégalités diérentielles or-
dinaires aux seconds membres monotones et leurs applications, Ann. Soc. Polon.
Math., vol. 23, p. 112-166, 1950.
[WEI 67a] Weiss L.,  Converse theorems for nite time stability , First Asilomar
Conf. on Circuits and Systems, p. 1005-1014, Asilomar, CA, 1967.
[WEI 67b] Weiss L., Infante E.F.,  Finite time stability under perturbing forces
and on product spaces , IEEE Trans. Aut. Control, vol. 12, n◦ 1, p. 54-59, 1967.
[ZUB 61] Zubov V.I., Methods of A.M. Lyapunov and their application, United
States Atomic Energy Commission, vol. AEC-Tr-4439, 1961 (traduit d'une pu-
blication de la Maison d'Édition de l'Université de Leningrad, 1957).
Chapitre 6

Algèbre diérentielle

6.1. Introduction

L'algèbre diérentielle a été développée aux Etats-Unis à partir de 1920 pour


traiter et comprendre les équations diérentielles algébriques, de la même manière
que l'algèbre linéaire permet de formaliser les problèmes relevant du  théorème de
superposition  et s'écrivant à l'aide d'équations linéaires. Il existe une très vaste
bibliographie sur l'algèbre diérentielle et nous nous contenterons de citer les livres
des deux principaux protagonistes de ce sujet : celui de Joseph F. Ritt [RIT 50] et
celui de Ellis R. Kolchin [KOL 73]. L'algèbre diérentielle a été introduite en automa-
tique en France en 1985 par Michel Fliess [FLI 86a, FLI 86b] à propos du problème
de l'inversion entrée-sortie des systèmes non linéaires. Cette nouvelle approche s'est
ensuite révélée très féconde sur de nombreux aspects de la théorie du contrôle comme
la réalisation, la synthèse par bouclage  notamment le découplage, le rejet de per-
turbations, la poursuite de modèle et la linéarisation  la dénition et la classication
des bouclages. C'est dans ce cadre qu'a pu être dégagée plus récemment la notion de
système  diérentiellement plat , très utile pour la pratique [FLI 92b, FLI 95].
L'application de l'algèbre diérentielle s'est ensuite développée au cours de
plusieurs thèses [AIT 94, BOU 94, DEL 93, DIO 89, ELA 92, MES 92, MOU 95,
OLL 90, RUD 91, SED 01] et a donné lieu à de nombreuses publications, dont cer-
taines concernent des applications. Nous n'en retenons que les principales par souci
de concision : [DEL 98a, DEL 98b, DIO 91a, DIO 92, DIO 93, FLI 89a, FLI 90b,
FLI 93a, GLA 88, GLA 90, PER 01, RUD 94, SIR 91b, SIR 91a, SIR 92, WEY 95].
L'algèbre diérentielle a aussi permis de renouveler la vision des systèmes linéaires
grâce à la théorie des modules [FLI 89b, FLI 90c]. Les systèmes en temps discret ont,
quant à eux, été abordés par l'algèbre aux diérences [FLI 90a, FLI 92a].
La section 6.2 est consacrée à un bref rappel de certaines notions d'algèbre commu-
tative nécessaires à la suite du développement. La section 6.3 expose les principales
notions d'algèbre diérentielle utilisées en théorie du contrôle : principalement, les
corps diérentiels et leurs extensions, le degré de transcendance diérentielle et la
notion de base de transcendance diérentielle. Ceci se termine par la construction
détaillée d'une extension de corps à partir d'un système d'équations diérentielles
algébriques. Dans la section 6.4, sont présentées les dénitions des notions classiques
d'automatique  système, entrée, sortie, variable d'état  dans le cadre de l'algèbre
diérentielle. Les quatre sections suivantes concernent quelques notions importantes
de la théorie du contrôle : l'inversion entrée-sortie (section 6.5), les principales pro-

Chapitre rédigé par Emmanuel Delaleau.


246 Mathématiques pour les systèmes dynamiques

priétés structurelles des systèmes (6.6), les notions de bouclages (6.7) et la synthèse
par bouclage (6.8). La dernière partie (6.9) est dévolue à un exemple qui permet
d'illustrer les principales notions exposées dans ce chapitre. Cet exemple est intéres-
sant à plusieurs titres : il est tiré de la pratique et montre que l'algèbre diérentielle
permet aussi de traiter des systèmes dont les équations ne sont pas algébriques.

6.2. Théorie des corps


Contrairement à l'algèbre linéaire qui est universellement utilisée et très large-
ment enseignée, la théorie des anneaux et des corps (ou algèbre non linéaire) est
relativement méconnue. Il paraît donc opportun d'en brosser ici un bref aperçu, non
seulement pour l'aspect pédagogique mais aussi pour son utilité dans la suite de notre
propos. On renvoie à [WAE 91] pour plus de détails ou bien, pour une présentation
résumée, au chapitre 5 de [RIC 01].
Une extension de corps est la donnée de deux corps E et F tels que E ⊆ F .
Une extension est notée F/E ; le corps E est un sous-corps de F ; le corps F est
un surcorps de E . Dans la suite I désignera un ensemble quelconque d'indices. Soit
ξ = (ξ i )i∈I une famille quelconque d'éléments de F ; on note E(ξ i )i∈I ou E(ξ) le sous-
corps de F engendré par E et la famille ξ , c'est-à-dire le plus petit corps contenant
E et (ξ i )i∈I . La famille ξ est un système de générateurs de E(ξ) sur E . Il est aussi
possible de caractériser E(ξ) comme étant l'ensemble des fractions rationnelles en
(ξ i )i∈I à coecients dans E .
L'extension F/E est dite niment engendrée ou, plus simplement, de type ni,
s'il existe une famille nie {ξ 1 , . . . , ξ s } de F telle que F = E(ξ1 , . . . , ξ s ). Si R est un
anneau, on note par R[ξ i ]i∈I ou R[ξ] l'anneau engendré par R et la famille ξ = (ξi )i∈I .
En particulier, l'anneau des polynômes à coecients dans R en les indéterminées
X = (Xi )i∈I est noté R[Xi ]i∈I ou R[X] ; si le nombre d'indéterminées est ni, on
écrit simplement R[X1 , . . . , Xs ].
Un élément a de F est algébrique sur E s'il satisfait une équation algébrique à
coecients dans E . Cela signie qu'il existe un polynôme irréductible P (X) 6= 0 à
coecients dans E tel que P (a) = 0. Un élément qui n'est pas algébrique est dit
transcendant sur E . Si tout élément du corps F est algébrique sur E , l'extension
F/E est dite algébrique ; autrement, elle est qualiée de transcendante. Une exten-
sion transcendante pour laquelle il n'existe aucun élément de F algébrique sur E est
qualiée d'extension transcendante pure.
Une famille ξ = (ξ i )i∈I d'éléments de F est algébriquement dépendante  ou
algébriquement liée  sur E s'il existe un entier ν ∈ N et un polynôme irréductible
P (X1 , . . . , Xν ) 6= 0 à coecients dans E , tels que P (ξ 1 , . . . , ξ ν ) = 0 (on dit parfois
E -algébriquement indépendante  ou libre). Dans le cas contraire, la famille ξ est
dite algébriquement indépendante sur E ou algébriquement libre sur E (on dit aussi
E -algébriquement dépendante  ou liée).
Une famille de F algébriquement indépendante sur E et maximale par rapport à
Algèbre diérentielle 247

l'inclusion est appelée base de transcendance de l'extension F/E . Cette notion géné-
ralise la notion de base d'un espace vectoriel.
Dénition 1 (Degré de transcendance d◦ tr F/E ). Toutes les bases de transcen-
dance d'une extension F/E ont même cardinal ; on l'appelle degré de transcendance
de l'extension F/E et on le note d◦ tr F/E .
Cet entier généralise aux extensions de corps la notion de dimension des espaces
vectoriels. Naturellement, d◦ tr E(a1 , . . . , aα )/E ≤ α et on a l'égalité lorsque que la
famille {a1 , . . . , aα } est E -algébriquement libre. Pour une tour d'extensions G/F/E
(c'est-à-dire que G est un surcorps de F , lui-même sur-corps de E ), le degré de
transcendance vérie l'égalité :

d◦ tr G/E = d◦ tr G/F + d◦ tr F/E. (6.1)

Soient F1 , . . . , Fs des corps intermédiaires de l'extension F/E , c'est-à-dire E ⊆ Fi ⊆


E . Ils sont dits algébriquement disjoints sur E ou E -algébriquement disjoints si,
quelles que soient les parties Ai , E ⊂ Ai ⊂ Fi , l'ensemble A1 ∪ · · · ∪ As est E -
algébriquement libre et si , pour tout i 6= j , Ai ∩ Aj = ∅. Cette notion généralise le
concept de somme directe de sous-espaces vectoriels.
Enn, soit R un anneau. Un sous-ensemble I de R est appelé un idéal si, pour
tout ı,  ∈ I et tout x ∈ R, on a ı +  ∈ I et xı ∈ I. Cet idéal est qualié de premier
si pour tout a, b ∈ R, la condition ab ∈ I entraîne a ∈ I ou b ∈ I.

6.3. Algèbre diérentielle

6.3.1. Corps diérentiel

Un corps diérentiel (ordinaire) K est un corps équipé d'une dérivation, notée


d
dt
, c'est-à-dire d'une application dt d
: K → K , qui vérie : pour tout a, b ∈ K ,
d
dt
(a + b) = dtd d
(a) + dt (b) et dt d
(ab) = dtd d
(a)b + a dt (b). On précise ordinaire s'il n'y a
qu'une seule dérivation : sinon, le corps diérentiel est dit partiel. On notera souvent
d
dt
(a) sous la forme ȧ et dν
dt ν (a) simplement par a (ν)
. Un élément c est dit constant
si dt
d
(c) = 0. L'ensemble des éléments constants d'un corps diérentiel K est un
sous-corps (diérentiel) non vide de K , appelé corps de constantes.
On dénit de la même manière la notion d'anneau diérentiel : il s'agit d'un
anneau muni d'une dérivation. L'anneau diérentiel engendré par l'anneau diérentiel
R et les éléments ξ = (ξ i )i∈I est noté R{ξ i }i∈I ou simplement R{ξ}. En particulier,
l'anneau diérentiel des polynômes diérentiels en les indéterminées diérentielles
X = (Xi )i∈I à coecients dans R est noté R{Xi }i∈I , ou simplement R{X} ; lorsqu'il
y a un nombre ni d'indéterminées, on le note R{X1 , . . . , Xs }.
Enn, un sous-ensemble d'un anneau diérentiel est appelé un idéal diérentiel si
c'est un idéal au sens usuel et s'il est stable par la dérivation. Un idéal diérentiel est
qualié de premier s'il l'est en tant qu'idéal non diérentiel.
248 Mathématiques pour les systèmes dynamiques

6.3.2. Extension de corps diérentiels


Une extension diérentielle ou extension de corps diérentiels L/K est la donnée
de deux corps diérentiels K et L tels que K est un sous-corps de L et la restriction
de la dérivation de L à K coïncide avec la dérivation de K .
Dénition 2 (Corps Khξi). Soit ξ = (ξ i )i∈I une famille d'éléments de L. On note
par Khξ i ii∈I ou Khξi le corps diérentiel engendré par K et la famille ξ , c'est-à-dire
le plus petit corps diérentiel de L contenant K et la famille ξ. Dans ce cas, ξ est
un système de générateurs de Khξi sur K . Une extension L/K est engendrée par la
famille ξ si L = Khξi. Une extension diérentielle est niment engendrée ou de type
ni si elle admet un système ni de générateurs.
Soit L/K une extension diérentielle. Un élément a de L est diérentiellement
algébrique sur K (ou diérentiellement K -algébrique) s'il satisfait une équation dié-
rentielle algébrique à coecients dans K , c'est-à-dire s'il existe un polynôme diéren-
tiel irréductible P (X, . . . , X (α) ) 6= 0 tel que P (a, . . . , a(α) ) = 0. Si a ∈ L ne satisfait
aucune équation diérentielle algébrique à coecients dans K , a est diérentiellement
transcendant sur K .
Une extension diérentielle L/K est diérentiellement algébrique si tout élément
de L est algébrique sur K . Si l'un au moins des éléments de L est diérentiellement
transcendant sur K , l'extension diérentielle L/K est dite diérentiellement trans-
cendante. Si tous les éléments de L sont diérentiellement transcendants sur K , L/K
est dite diérentiellement transcendante pure.

6.3.3. Base de transcendance diérentielle


Une famille ξ = (ξ i )i∈I est diérentiellement algébriquement dépendante sur K
(ou diérentiellement K -algébriquement dépendante) s'il existe des entiers α et β et
un polynôme diérentiel irréductible :
(β)
P (X1 , . . . , Xα , . . . , X1 , . . . , Xα(β) ) 6= 0,
à coecients dans K , tels que P (ξ1 , . . . , ξα , . . . , ξ (β)
1 , . . . , ξ α ) = 0. Sinon, la famille
(β)

ξ est diérentiellement algébriquement libre  ou indépendante  sur K . Il existe des


familles de L diérentiellement algébriquement indépendantes sur K qui sont maxi-
males par rapport à l'inclusion. De telles familles sont appelées des bases de trans-
cendance diérentielles. Si ξ = (ξi )i∈I est une base de transcendance diérentielle de
l'extension diérentielle L/K , tout élément de L est diérentiellement algébrique sur
Khξi.

6.3.4. Degré de transcendance diérentiel


Toutes les bases de transcendance diérentielle d'une extension diérentielle L/K
ont même cardinal, qu'on appelle le degré de transcendance diérentiel de l'exten-
sion L/K . Il est noté d◦ tr diff L/K . Il est clair que d◦ tr diff Khξ 1 , . . . , ξ ν i/K ≤ ν
Algèbre diérentielle 249

et que l'égalité a lieu lorsque que ξ = (ξ 1 , . . . , ξ ν ) est une famille diérentielle-


ment algébriquement indépendante. Pour une extension diérentiellement algébrique,
d◦ tr diff L/K = 0.
Pour une tour d'extensions diérentielles M/L/K (c'est-à-dire, M/L et L/K sont
deux extensions diérentielles ou encore, K ⊆ L ⊆ M ), on a l'égalité :
d◦ tr diff M/K = d◦ tr diff M/L + d◦ tr diff L/K.

Une propriété intéressante des extensions diérentielles de type ni, qui joue un rôle
fondamental pour la réalisation par variables d'état, est la suivante.
Proposition 1. Soit L/K une extension diérentielle niment engendrée. Les deux
propriétés suivantes sont équivalentes :
(i) l'extension L/K est diérentiellement algébrique : d◦ tr diff L/K = 0 ;
(ii) le degré de transcendance (non diérentiel) de l'extension L/K est ni.
Une notion importante pour les aspects algorithmiques et la détermination des
degrés de transcendance (diérentiels ou non) est la possibilité de linéarisation des
équations grâce aux diérentielles de Kähler [JOH 69]. Etant donnée une extension
diérentielle L/K niment engendrée, il est possible de dénir un L[ dt d
]-module à
gauche, noté ΩL/K , et une K -dérivation dL/K : L → ΩL/K qui vérient :
∀a, b ∈ L, dL/K (a + b) = dL/K (a) + dL/K (b),
dL/K (a b) = b dL/K (a) + a dL/K (b),
d
∀a ∈ L, (dL/K (a)) = dL/K (ȧ),
dt
∀c ∈ K, dL/K (c) = 0.

Le module ΩL/K est appelé module des diérentielles de Kähler associé à l'extension
diérentielle L/K . L'idée sous-jacente à la notion de diérentielle de Kähler est celle
d'accroissement innitésimal, comme pour le concept d'espace tangent en géométrie
diérentielle.
Proposition 2. [JOH 69] Soit L/K une extension diérentielle niment engendrée.
Un sous-ensemble S de L est diérentiellement algébriquement indépendant (respec-
tivement, algébriquement indépendant) sur K si et seulement si l'ensemble dL/K (S)
est diérentiellement L-linéairement indépendant (respectivement, L-linéairement in-
dépendant).
On a en particulier : d◦ tr diff L/K = rgΩL/K ΩL/K .

6.3.5. Construction de l'extension diérentielle associée à un système


d'équations diérentielles
Considérons un système ni d'équations algébro-diérentielles ordinaires polyno-
miales Ri , i = 1, . . . , r, reliant un nombre ni de variables wj , j = 1, . . . , s :
(ν i1 )
Ri (w1 , . . . , w1 , . . . , ws , . . . , ws(ν is ) ) = 0, i = 1, . . . , r, (6.2)
250 Mathématiques pour les systèmes dynamiques

où les ν ij sont des entiers naturels. Les entiers r et s vérient r < s car (6.2) est
un système sous-déterminé d'équations algébro-diérentielles, c'est-à-dire qu'il y a
plus de variables que d'équations. On note par k le (plus petit) corps diérentiel
contenant tous les coecients des polynômes du système d'équations (6.2). Il s'agira
d'un corps de constantes (Q, R ou C) si (6.2) est un système stationnaire. Par contre,
si les coecients dépendent du temps, on choisira un corps diérentiel de fonctions
du temps (comme R(t) ou Rhti ou un corps de fonctions méromorphes). A chaque
variable wi apparaissant dans (6.2), on associe une indéterminée diérentielle Wi .
Dans l'anneau diérentiel k{W1 , . . . , Ws }, engendré par k et W1 , . . . , Ws , on considère
les polynômes diérentiels :
(ν i1 )
Ri (W1 , . . . , W1 , . . . , Ws , . . . , Ws(νis ) ), i = 1, . . . , r,

correspondant formellement aux équations (6.2). On désigne par I l'idéal diérentiel


de k {R1 , . . . , Rr } engendré par les polynômes diérentiels R1 , . . . , Rr .
Si I est un idéal premier, l'anneau diérentiel quotient k{W1 , . . . , Ws }/I est un
anneau intègre dont on peut construire le corps de fractions. Notons par K le corps
diérentiel de fractions de k{W1 , . . . , Ws }/I. Ce corps est une extension diérentielle
de k. Notons ı l'application canonique ı : k{W1 , . . . , Ws } → K dénie1 par :
∀P ∈ k{W1 , . . . , Ws }, ı(P ) = p ∈ K avec p = P (mod I). (6.3)
Il est loisible de noter par wi , c'est-à-dire comme les variables qui apparaissent dans
(6.2), les images dans K des indéterminées Wi par l'application ı. On arrive ainsi à la
conclusion que K est le corps diérentiel khw1 , . . . , ws i dans lequel les équations (6.2)
sont satisfaites.
L'extension diérentielle K/k est appelée extension diérentielle associée au sys-
tème d'équations (6.2). C'est un objet intrinsèque, de même que l'idéal diérentiel I,
associé aux équations (6.2). En eet, toute autre famille de polynômes diérentiels
génératrice de l'idéal I conduit à la même extension diérentielle K/k. A partir de
tout système d'équations diérentielles algébriques, engendrant un idéal diérentiel
premier, on peut construire une extension de corps diérentiels. Pour cette raison on
appelle système l'extension diérentielle qui est associée à un système d'équations
diérentielles.
Si l'idéal I n'est pas premier (cas toutefois rare en pratique), il est nécessaire
de le décomposer à l'aide du théorème de Ritt-Raudenbusch [KOL 73, RIT 50]. On
peut alors eectuer la construction précédente pour chacune des composantes de la
décomposition et aboutir à une famille d'extensions diérentielles K1 /k, . . ., Kq /k,
correspondant chacune à une composante de la variété algébrique de (6.2). On renvoie
à [KOL 73, RIT 50] pour tous les détails et les compléments sur ces constructions.
On pourra aussi consulter [BOU 94, BOU 95] en ce qui concerne les aspects algorith-
miques.
Remarque 1. Contrairement aux apparences, la construction de l'extension dié-
rentielle associée à un système d'équations diérentielles n'est pas limitée aux seules
1
On note par P (mod I) l'image du polynôme diérentiel P dans l'anneau quotient
k{W1 , . . . , Ws }/I.
Algèbre diérentielle 251

équations algébriques, comme on le verra dans l'exemple traité en section 6.9. La plu-
part des fonctions usuelles (cos, sin, exp, log. . .) satisfont des équations diérentielles
algébriques et la construction de l'extension diérentielle reste possible moyennant un
enrichissement de l'idéal I. On peut aussi traiter les équations diérentielles conte-
nant des fonctions analytiques non polynomiales à l'aide de l'approche présentée dans
[CON 93, CON 99].

6.4. Systèmes et dynamiques

6.4.1. Système non linéaire


Comme déni précédemment, un système (non linéaire) est une extension de corps
K/k niment engendrée. Le corps k est appelé corps de base associé au système, il
contient les coecients de n'importe quel système d'équations correspondant au sys-
tème K/k. Le corps K est appelé corps du système ou corps systémique ; il contient
les variables et toutes les expressions algébriques qui peuvent être construites à par-
tir des variables du système. De manière sous-jacente à l'extension, on sait qu'il y
a un système d'équations algébro-diérentielles polynomiales, par exemple du type
(6.2), qui sont les équations satisfaites par les variables du système. On renvoie au
paragraphe 6.3.5 pour la construction.
Tout sous-corps diérentiel K de K tel que k ⊂ K ⊂ K déni un sous-système
K/k de K/k.
Le K[ dt
d
]-module ΩK/k associé au système K/k est appelé système linéarisé tangent
de K/k [FLI 95], c'est un système linéaire au sens de la théorie des modules [FLI 90c].

6.4.2. Entrée
Une entrée du système K/k est un ensemble ni e = (e1 , . . . , es ) de K tel que
l'extension K/khei est diérentiellement algébrique. Cela signie que le système est
inuencé par l'entrée, puisque que tout élément de K satisfait une équation diéren-
tielle qui dépend (éventuellement) de l'entrée. On dit aussi que l'entrée est la  cause 
du système, puisqu'elle inuence ses autres variables.
Une entrée est dite indépendante si c'est un ensemble diérentiellement algébri-
quement indépendant sur k. Dans ce cas :
d◦ tr diff K/k = d◦ tr diff khei/k = card e = s, (6.4)
puisque d tr diff K/khei = 0 par dénition de la notion d'entrée ; e est donc une base

de transcendance diérentielle de K/k. Une entrée qui ne serait pas indépendante 


cas cependant rare en pratique  est dite dépendante et ses composantes sont reliées
par des équations diérentielles. De plus, puisque l'extension K/khei est diérentiel-
lement algébrique, toute entrée de K/k doit comporter au moins µ = d◦ tr diff K/k
composantes et toute famille de K à µ éléments diérentiellement algébriquement
252 Mathématiques pour les systèmes dynamiques

indépendants peut être considérée comme une entrée indépendante de K/k. Il s'agit
donc d'une notion très générale d'entrée.
Du point de vue de la théorie du contrôle, l'entrée peut être divisée en deux
parties e = (u, $) où u = (u1 , . . . , um ) est la commande et $ = ($1 , . . . , $q ) la
perturbation. La commande comprend les composantes de l'entrée par lesquelles il
est possible d'agir sur le système tandis que la perturbation est formée des variables
représentant les inuences non maîtrisables aectant le système.

6.4.3. Dynamique
Une dynamique est un système K/k dont on a distingué, en général pour des
raisons liées au fonctionnement du système lui-même, une entrée e particulière. On
note une dynamique sous la forme K/khei.  La dynamique K/khei  signie que l'on
considère le système K/k ayant pour entrée e = (e1 , . . . , es ).

6.4.4. Sortie
Une sortie d'un système K/k ou d'une dynamique K/khei est un ensemble ni y =
(y1 , . . . , yp ) de K. Comme la notion d'entrée présentée plus haut, la notion de sortie
est très générale puisque toute famille nie de K peut être considérée comme sortie.
En pratique, ce sont des raisons liées au fonctionnement du système ou au problème de
contrôle qui déterminent le choix de la sortie. On parle aussi d' eet  pour désigner
la sortie car elle comporte les variables que l'on observe ou que l'on commande.
Lorsque, pour un système K/k, une entrée e et une sortie y sont distinguées, la sous-
extension khe, yi/k de l'extension diérentielle K/k peut elle-même être considérée
comme un système. Elle est appelée sous-système entrée-sortie de K/k. Dans le cas
où K = khe, yi, le système K/k peut être qualié de système entrée-sortie.

6.4.5. Etat et réalisation


Comme l'extension K/k est niment engendrée et comme pour tout choix d'entrée
e de K/k, l'extension K/khei est diérentiellement algébrique, l'extension diérentielle
K/khei possède un degré de transcendance (non diérentiel) ni (voir la proposition
1). Cela conduit à la dénition de la notion d'état : un état de la dynamique K/khei
est une base de transcendance x = (x1 , . . . , xn ) de l'extension K/khei.
La dimension d'un état correspondant à l'entrée e est n = d◦ tr K/khei. On
a vu précédemment que l'on pouvait considérer plusieurs entrées : pour chacune
d'entre elles, la dimension de l'état peut être diérente. L'entier d◦ tr diff K/k re-
présente le nombre de fonctions du temps qu'il faut choisir pour  déterminer  un
système d'équations diérentielles sous-déterminé. Pour une entrée donnée e, l'entier
d◦ tr K/khei correspond au nombre de conditions initiales nécessaires pour  intégrer 
Algèbre diérentielle 253

le système d'équations diérentielles sous-jacent lorsque que la fonction t 7→ e(t) est


connue ou imposée. L'état correspond donc à la  mémoire du système . La déni-
tion qui vient d'être donnée dénit un état comme un être mathématique, mais rien
n'empêche de le choisir parmi les variables physiques du système ; d'ailleurs, même
en linéaire, on obtient des états  mathématiques  par changements de base à partir
d'un état ayant une signication physique.
Puisque x est une base de transcendance de l'extension K/khei, tout élément w de
K est algébrique sur khe1 , . . . , eq i(x1 , . . . , xn ) et satisfait donc une équation algébrique
à coecients dans khe1 , . . . , es i(x1 , . . . , xn ), de la forme :
(κ)
P (w, x1 , . . . , xn , e1 , . . . , es , . . . , e1 , . . . , e(κ)
s ) = 0, (6.5)
où P est un polynôme irréductible à coecients dans k et où κ ∈ N. Cela donne la
forme générale des équations des réalisations d'état ou des changements d'état. La
relation (6.5) appliquée aux composantes de ẋ conduit à des équations diérentielles
de la forme :  (α1 )

 F1 (ẋ1 , x, e, . . . , e ) = 0,
.. (6.6)


.
(αn )
Fn (ẋn , x, e, . . . , e ) = 0,
où les Fi sont des polynômes irréductibles à coecients dans k et αi ∈ N. Les équations
(6.6) sont appelées une représentation d'état de la dynamique K/khei. Pour une sortie
y = (y1 , . . . , yp ) du système K/k, on obtient les équations :
 (β 1 )

 H1 (y1 , x, e, . . . , e ) = 0,
.. (6.7)


.
(β p )
Hp (yp , x, e, . . . , e ) = 0,

avec, similairement, des polynômes Hi irréductibles à coecients dans k et β i ∈ N.


Les équations (6.7) sont appelées équations de sortie.
Si ξ = (ξ 1 , . . . , ξ n ) désigne un autre état de la dynamique K/khei, le changement
d'état de x à ξ s'écrit :
 (γ 1 )

 T1 (ξ 1 , x, e, . . . , e ) = 0,
.. (6.8)


.
(γ n )
Tn (ξ n , x, e, . . . , e ) = 0,

où les Ti sont des polynômes irréductibles à coecients dans k et les γ i , des entiers
naturels. Les équations (6.8) sont les équations de changement d'état.
Les représentations d'état d'un système non linéaire sont, en général, implicites et
dépendent des dérivées de l'entrée. Il en est de même des expressions des sorties ou
des changements d'état. Cela se rencontre eectivement en pratique (voir par exemple
[FLI 93b]).
L'apparition des dérivées de l'entrée s'explique en analysant le processus aboutis-
sant à l'écriture des équations d'état (6.6)  avec éventuellement une sortie (6.7) 
254 Mathématiques pour les systèmes dynamiques

à partir d'un système algébro-diérentiel (6.2) issu d'une modélisation physique. Il


faut tenir compte de deux faits : premièrement, le système (6.2) peut comporter un
certain nombre de variables  qualiées de latentes  qui ne seront pas retenues dans
une représentation d'état ; il sera donc nécessaire de les  éliminer . Deuxièmement,
le système (6.2) peut posséder un certain nombre d'équations purement algébriques,
comme les équations des liaisons des diérentes parties d'un système mécanique, les
lois de Kirchho pour un circuit électrique ou les équations de conservation de la
matière pour un processus chimique. L'élimination des variables latentes se fait par
dérivations des équations algébriques, d'où l'apparition des dérivées de l'entrée dans
(6.6) et (6.7). L'aspect implicite des équations peut se produire, par exemple, lors
d'une modélisation lagrangienne de systèmes mécaniques couplés. On peut consulter
[FLI 90d, FLI 90e] pour une plus ample discussion de ces aspects.
Un état de la dynamique K/khui est qualié de classique s'il conduit à une réalisa-
tion (6.6) sans dérivée de l'entrée (αi = 0), autrement il est généralisé. Contrairement
au cas des systèmes linéaires, il existe des dynamiques non linéaires qui n'admettent
pas d'état classique (voir [DEL 98c] pour une étude approfondie). Une dynamique
qui admet des états classiques est dite classique, sinon, elle est généralisée. De même,
pour un changement d'état, on précise généralisé ou classique suivant qu'il dépend
ou non des dérivées de l'entrée. Il est clair que deux états classiques sont reliés par
un changement d'état classique.

6.5. Inversion entrée-sortie

C'est précisément pour résoudre le problème de l'inversion entrée-sortie que l'al-


gèbre diérentielle a été introduite en automatique [FLI 86a, FLI 86b]. On trouve
dans [RES 90] une synthèse très complète sur ce problème et les diverses approches
utilisées pour le traiter. L'élégance de la solution proposée dans le cadre de l'algèbre
diérentielle est que, comme en linéaire, elle repose sur un concept intrinsèque de rang.
Les solutions obtenues précédemment en non-linéaire étaient, quant à elles, de nature
algorithmique. Bien entendu, le calcul d'un rang est algorithmique, mais ce concept
permet d'élaborer des raisonnements ou de donner des conditions indépendamment
de son calcul.

6.5.1. Rang diérentiel de sortie

Dénition 3 (Rang diérentiel de sortie %(y)). Soit le système non linéaire


K/k de sortie y = (y1 , . . . , yp ). Le rang diérentiel de sortie (relatif à y ) est l'en-
tier d◦ tr diff khyi/k. Il est noté %(y) et correspond au nombre de composantes de y
diérentiellement k-algébriquement indépendantes.
Algèbre diérentielle 255

6.5.2. Inversion à gauche, inversion à droite

La notion d'inversibilité à gauche d'un système (entrée-sortie) reète la possibilité


de pouvoir déterminer l'entrée à partir de la sortie. Le qualicatif  à gauche  provient
du linéaire où l'inversion à gauche d'un système équivaut à l'existence d'une inverse
à gauche de la matrice transfert.
Proposition 3. [FLI 86b, FLI 89a] Le système K/k, de sortie y , est inversible à
gauche si et seulement si %(y) = d◦ tr diff K/k.
Pour un système inversible à gauche, la sortie peut être considérée comme une
entrée. Comme dans le cas linéaire, l'inversibilité à gauche ne dépend pas de l'entrée.
L'inversibilité à droite, quant à elle, signie l'indépendance diérentielle des com-
posantes de la sortie. Comme dans le cas de l'inversion à gauche, la terminologie
provient du cas linéaire pour lequel l'inversion à droite est équivalente à l'existence
d'une inverse à droite de la matrice de transfert.
Proposition 4. [FLI 86b, FLI 89a] Le système K/k, de sortie y , est inversible à
droite si et seulement si %(y) = p = card y .

6.6. Principales propriétés structurelles

On présente ici deux propriétés structurelles des systèmes importantes en théorie


du contrôle : la platitude  qui est une extension naturelle en non-linéaire de la notion
de commandabilité  et l'observabilité.

6.6.1. Platitude

Un système non linéaire K/k est (diérentiellement) plat s'il existe une famille
nie y = (y1 , . . . , ym ) d'éléments diérentiellement k-algébriquement indépendants
d'un corps diérentiel K, extension algébrique de K, telle que l'extension diérentielle
K/khyi soit (non diérentiellement) algébrique. La famille y est appelée une sortie
plate ou sortie linéarisante du système K/k. On renvoie à [FLI 95] pour de plus
amples détails. Remarquons que K/k est une extension diérentielle transcendante
pure.
D'après cette dénition, la sortie y possède la propriété que tout élément de K,
donc de K, est khyi-algébrique. Toute variable du système satisfait une équation
algébrique qui dépend de y et d'un nombre ni de ses dérivées. En d'autres termes,
y donne une  paramétrisation  nie du système qui ne nécessite pas d'intégration
d'équation diérentielle. Tout élément w de K (toute variable du système) satisfait
une équation de la forme suivante, où Q est un polynôme diérentiel irréductible et
256 Mathématiques pour les systèmes dynamiques

γ un entier naturel :
Q(w, y, . . . , y (γ) ) = 0. (6.9)

En linéaire, la propriété de platitude est équivalente à la commandabilité ; la


platitude peut donc être considérée comme une extension possible de la notion de
commandabilité. On a d'autre part le résultat suivant : si un système non linéaire est
plat, alors son système linéarisé tangent ΩK/k est commandable (ce qui s'exprime par
la liberté du K[ dt
d
]-module dans le cadre de la théorie des modules). Outre le rapport
à la commandabilité, la platitude a des liens avec le problème de la linéarisation
par bouclage. L'intérêt de la notion de platitude par rapport à d'autres notions de
commandabilité introduites en non-linéaire est qu'elle permet de calculer la commande
à appliquer au système par planication de trajectoires, grâce aux formules (6.9)
appliquées aux composantes de la commande. Cela a permis d'obtenir des commandes
performantes pour de nombreux exemples industriels.
Pour un système qui n'est pas plat est dénie une notion de défaut : parmi tous les
choix possibles d'ensembles y = (y1 , . . . , ym ) de K, on retient ceux pour lesquels δ =
d◦ trK/yk/y est minimum. Cet entier est appelé défaut du système K/k et représente
l'ordre de la dynamique non plate du système. Bien entendu, un système plat est de
défaut 0.

6.6.2. Observabilité

Une autre propriété structurelle importante pour l'implantation pratique de lois


de commande est l'observabilité.
Proposition 5. [DIO 91b] Le système K/k d'entrée u et de sortie y est observable
si l'extension K/khu, yi est (non diérentiellement) algébrique.
Ainsi, toute variable d'un système non linéaire observable satisfait une équation
algébrique liant la sortie, l'entrée et un nombre ni de leurs dérivées.

6.7. Bouclages

Le bouclage est une des notions essentielles de la théorie du contrôle. Les bou-
clages sont habituellement dénis par leurs équations ; comme c'est le cas pour les
notions vues précédemment, l'algèbre diérentielle permet d'en donner des déni-
tions intrinsèques, c'est-à-dire par une propriété d'une structure algébrique associée
aux équations du système considéré.
Avant d'aborder ce sujet, il est opportun d'eectuer plusieurs remarques sur les
bouclages habituellement considérés. Soit un système non linéaire, déni par une
représentation d'état classique :
ẋ = f (x, u), (6.10)
où u désigne la commande à valeurs dans Rm , et x, l'état à valeurs dans Rn .
Algèbre diérentielle 257

Examinons premièrement le cas d'un bouclage statique :

u = α(x, v), (6.11)

où v est la nouvelle commande. On remarque que x est aussi un état du système en


boucle fermée puisque la substitution de u dans (6.10) conduit à une dynamique de
la forme :
ẋ = f˜(x, v).
Dans le cas d'un bouclage régulier, c'est-à-dire qu'il existe β tel que v = β(x, u), on
remarque v est aussi une variable du système puisqu'elle s'exprime en fonction de x
et u.
Le bouclage dynamique :

u = α(x, ξ, v), (6.12a)


ξ̇ = β(x, ξ, v), (6.12b)

a la particularité d'ajouter une dynamique, représentée par les variables d'état ξ , à la


boucle fermée. On constate que l'état de la boucle fermée est (x, ξ) et que l'état x de
la boucle ouverte fait partie de l'état de la boucle fermée. Dans le cas d'un bouclage
régulier, v peut être exprimée à l'aide de x, ξ , u ; on aboutit ainsi aux équations :

ẋ = f (x, u), (6.13a)


ξ̇ = β(x, ξ, u, u̇, . . . , u(ro ) ), (6.13b)
v = ψ(x, ξ, u, u̇, . . . , u(ro ) ), (6.13c)

qui montrent que u est aussi une entrée de la boucle fermée.


La formalisation de ces réexions conduit aux concepts de bouclages intrinsèques
dénis dans les paragraphes qui suivent.

6.7.1. Notions générales de bouclage

Un bouclage (dynamique) de K/k où K/khui est une paire (L, v), où :


 L est une extension diérentielle de K niment engendrée et diérentiellement
algébrique sur K ;
 v est une entrée du système L/k.
Le bouclage est qualié d'endogène ou d'exogène suivant que l'extension dié-
rentielle L/K est (non diérentiellement) algébrique ou pas. Le corps L contient la
nouvelle entrée v et les éventuelles nouvelles variables qui interviennent dans le bou-
clage. Le bouclage est déni lorsque que l'on a précisé la nouvelle entrée v . Selon la
terminologie usuelle, la dynamique K/khui est appelée dynamique en boucle ouverte
et L/khvi la dynamique en boucle fermée.
258 Mathématiques pour les systèmes dynamiques

6.7.2. Bouclage d'état

Un bouclage d'état de la dynamique K/khui ayant pour état x est un bouclage


(L, v) tel que les corps k(x) et khvi sont k-algébriquement disjoints. Cette dénition
signie que le bouclage ne  détruit  pas l'état x du système ; de plus, x peut toujours
faire partie de l'état de la boucle fermée. Comme précédemment, un bouclage d'état
est qualié d'endogène ou d'exogène suivant la nature de l'extension L/K.

6.7.3. Bouclage quasi statique d'état

Un autre apport de l'algèbre diérentielle à la théorie du contrôle est d'avoir


dégagé la notion de bouclage quasi statique d'état et montré que cette classe est
susamment riche pour résoudre la plupart des problèmes de synthèse par bouclage
[DEL 92, DEL 94, DEL 98b]. Cette nouvelle classe de bouclage contient les bouclages
statiques mais est moins générale que les bouclages dynamiques.
Soit K/khui une dynamique d'état x. Un bouclage (L, v) est un bouclage quasi
statique d'état si (L, v) est un bouclage endogène d'état et si x est aussi un état de
la dynamique en boucle fermée L/khvi. Les équations d'un bouclage quasi statique
d'état sont de la forme (avec r, s ∈ N) :

(r)
φi,r (ui , x, v, . . . , v (s+r) ) = 0, i = 1, . . . , m ( = card u),
(r) (6.14)
ψ j,r (vj , x, u, . . . , u(s+r) ) = 0, j = 1, . . . , µ ( = card v).

Lorsque s = 0, on retrouve le bouclage statique2 d'état. Il est possible de montrer que


les bouclages dynamiques réguliers classiquement utilisés en synthèse par bouclages en
non-linéaire sont des bouclages dynamiques exogènes, donc beaucoup plus complexes
que les bouclages endogènes et quasi statiques.

6.8. Synthèse par bouclages

Dans cette partie, on résume deux problèmes de synthèse par bouclage, à savoir
le découplage et le rejet de perturbations. L'algèbre diérentielle permet d'en don-
ner des dénitions simples, d'exprimer leurs conditions nécessaires et susantes sous
forme de conditions de rang et de montrer que le bouclage dynamique endogène est
susamment riche pour les résoudre. De plus, dans le cas des systèmes classiques, le
bouclage quasi statique sut.

2
On renvoie à [DEL 98a] pour une dénition intrinsèque du bouclage statique basé sur la
notion algébrique de ltration.
Algèbre diérentielle 259

6.8.1. Découplage
Un système K/k d'entrée u (commande) et de sortie y est dit découplé (par rapport
à u et y ) si le sous-système entrée-sortie khu, yi/k vérie :
(i) les corps khu1 , y1 i,. . ., khup , yp i et éventuellement3 khup+1 , . . . , um i sont k-
algébriquement disjoints, à une renumérotation près des composantes de l'entrée
u;
(ii) les composantes de y sont diérentiellement transcendantes sur k.
La condition (i) exprime le fait que dans un système découplé, chaque composante
de la sortie n'est inuencée que par une entrée au maximum ; la condition (ii) assure
que chaque composante de la sortie est eectivement inuencée par une composante
de l'entrée. En d'autres termes, un système découplé possède la structure de plusieurs
systèmes mono-entrée, mono-sortie en parallèle. Le problème du découplage consiste
à déterminer un bouclage tel qu'en boucle fermée, le système soit découplé.
Proposition 6. Un système K/k de sortie y est découplable si et seulement s'il est
inversible à droite [FLI 89a]. Le bouclage qui découple peut toujours être choisi parmi
les bouclages endogènes ou même quasi statiques si le système est classique [DEL 98b].

6.8.2. Rejet de perturbations


Soit K/khu, $i une dynamique de commande u et de perturbation $. La sortie y
du système K/k n'est pas inuencée par la perturbation $ si les corps kh$i et khu, yi
sont k-algébriquement disjoints. Le problème du rejet de perturbations consiste à
déterminer un bouclage qui rend la sortie indépendante de la perturbation dans la
boucle fermée.
Proposition 7. [DEL 98b] Soit la dynamique K/khu, $i de commande u, de per-
turbation $ et de sortie y . Il est possible de rejeter l'inuence sur la sortie de la
perturbation si et seulement si les conditions équivalentes suivantes sont satisfaites :
(i) d◦ tr diff khy, $i/khyi = %(y) ;
(ii) les corps khyi et kh$i sont k-algébriquement disjoints.
Le bouclage qui résout le problème peut toujours être choisi endogène, voire même
quasi statique si le système est classique.

6.8.3. Linéarisation
La linéarisation par bouclage est un problème de synthèse qui a été très étudié.
Outre les aspects pratiques et son rapport avec la commandabilité, la platitude permet
de considérer ce problème sous un autre angle.
Proposition 8. [DEL 98d] Un système non linéaire est linéarisable par bouclage
quasi statique d'état si et seulement s'il est plat.
3 Dans le cas où il y a plus de composantes d'entrée que de sortie.
260 Mathématiques pour les systèmes dynamiques

6.9. Exemple

6.9.1. Modèle
Considérons le moteur synchrone4 dont le modèle s'écrit :
θ̇ = ω, (6.15a)
J ω̇ = np Km (−ia sin np θ + ib cos np θ) − f ω − τ r , (6.15b)
dia
L = −Ria + np Km ω cos np θ + va , (6.15c)
dt
dib
L = −Rib − np Km ω sin np θ + vb , (6.15d)
dt
où θ et ω désignent respectivement la position et la vitesse angulaire de l'arbre du
moteur ; ia et ib les courants dans chacune des phases ; va et vb les tensions d'ali-
mentation de chacune des phases ; τ r le couple résistant que subit l'arbre du moteur.
L'ensemble mécanique en rotation présente un moment d'inertie J ; f est le coecient
de frottements visqueux ; np est le nombre de paires de pôles ; Km , la constante de
couple et de force contre-électromotrice ; L et R, le coecient d'auto-induction et la
résistance des bobinages de chaque phase.

6.9.2. Construction de l'extension diérentielle


Le modèle (6.15) ne relève pas a priori du cadre de l'algèbre diérentielle, puisque
ses équations s'écrivent à l'aide des fonctions trigonométriques. Cette diculté peut
être facilement contournée. Pour cela, on eectue le changement de variables usuel
(transformation de Park) donné par :
       
id ia vd va
= R(np θ) , = R(np θ) ,
iq ib vq vb

où R(np θ) désigne la matrice de rotation d'angle np θ. On obtient alors le modèle


dans le  repère dq  :
θ̇ = ω, (6.16a)
J ω̇ = np Km iq − f ω − τ r , (6.16b)
did
L = −Rid + np Lωiq + vd , (6.16c)
dt
diq
L = −Riq − np Lωid − np Km ω + vq , (6.16d)
dt
où id et iq sont respectivement les courants direct et en quadrature, vd et vq les
tensions directe et en quadrature.
4
Il s'agit d'un modèle d'un moteur à deux phases à aimants permanents et pôles lisses.
On renvoie à [BOD 98] pour plus de détails sur le modèle.
Algèbre diérentielle 261

Ce deuxième modèle est bien constitué d'équations polynomiales. Pour construire


l'extension de corps qui lui est associée, on considère k = R car les coecients sont des
réels supposés constants. On considère l'anneau diérentiel R[Θ, Ω, Id , Iq , Vd , Vq , Tr ],
c'est-à -dire l'ensemble des polynômes diérentiels en les indéterminées diérentielles
Θ, Ω, Id , Iq , Vd , Vq , Tr . Dans cet anneau, on dénit l'idéal diérentiel I engendré par
les polynômes diérentiels :
Θ(1) − Ω, (6.17a)
J Ω̇ − np Km Iq + f Ω + Tr , (6.17b)
(1)
L Id + RId − np LΩIq − Vd , (6.17c)
L Iq(1) + RIq + np LΩId + np Km Ω − Vq . (6.17d)
Cet idéal est premier puisque le système diérentiel (6.16) est explicite en les dérivées
premières des variables (voir par exemple [CON 93]). Il est donc possible de construire
le corps diérentiel K = hθ, ω, id , iq , vd , vq , τ r i comme le corps de fractions de l'anneau
quotient R[Θ, Ω, Id , Iq , Vd , Vq , Tr ]/I.
Examinons maintenant la possibilité de traiter le modèle original (qui n'a pas
subi la transformation dq) à l'aide d'une extension de corps diérentiels. Pour pou-
voir considérer les équations (6.15), il est nécessaire de connaître c = cos np θ et
s = sin np θ . Ces deux quantités sont diérentiellement algébriques sur le corps dif-
férentiel Rhθ, ω, id , iq , vd , vq , τ r i puisqu'elles sont toutes deux solutions de l'équation
diérentielle algébrique :
z̈ + n2p ω 2 z = 0. (6.18)
En pratique, il faudra aussi être vigilant à choisir les bonnes conditions initiales
pour intégrer (6.18) : c(t) = z(t), s(t) = −ż(t) avec z(0) = 1 et ż(0) = 0. On prend
donc L = Khc, si. L'extension diérentielle :
Rhθ, ω, id , iq , vd , vq , τ r , c, si/k,
correspond au système constitué des équations (6.16) et (6.18). Elle permet cependant
de traiter le système d'équations (6.15), puisque toutes les variables qui apparaissent
dans l'écriture de (6.15) sont des éléments du corps L ; ceci est clair pour θ , ω et τ r
qui sont éléments de K ⊂ L ; pour ia , ib , va et vb , il faut utiliser les relations :
ia = id c − iq s, (6.19a)
ib = id s + iq c, (6.19b)
va = vd c − vq s, (6.19c)
vb = vd s + vq c, (6.19d)
où les variables apparaissant dans les membres de droite sont toutes incluses dans
L. La construction du corps diérentiel L s'eectue à partir de l'anneau diérentiel5
R[Θ, Ω, Id , Iq , Vd , Vq , Tr , Z] et de l'idéal diérentiel J ⊃ I engendré par les polynômes
diérentiels (6.17) et Z̈ + n2p Ω2 Z .
5 Il n'est pas nécessaire d'ajouter deux indéterminées diérentielles supplémentaires, cor-

respondant à c et s, par rapport à la construction de K/R. En eet, à un facteur ±np ω près,


c et s sont dérivées l'une de l'autre.
262 Mathématiques pour les systèmes dynamiques

On remarque cependant que d◦ tr L/Rhvd , vq , τ r i = 6, ce qui signie que toute


réalisation de la dynamique L/Rhva , vb , τ r i nécessite 6 variables d'état : 4 pour les
équations (6.16) et (6.19) et 2 pour l'équation (6.18) qui est du second ordre. Le
système d'équations (6.15) ne nécessite que 4 conditions initiales pour être intégré,
par contre il n'est pas sous forme algébrique. Il faut noter qu'il est plus avantageux
d'eectuer des simulations6 avec les équations (6.16), (6.18), (6.19) qui ne nécessitent
pas l'évaluation de fonction transcendante contrairement à (6.15). Par contre, il faut
un peu plus de mémoire pour stocker les deux variables d'état supplémentaires cor-
respondant à une réalisation de (6.18).

6.9.3. Choix de l'entrée et réalisation par variables d'état

Illustrons maintenant la possibilité du choix de l'entrée. Par souci de simplicité, on


se limite au système K/R d'équations (6.16). L'entrée (vd , vq , τ r ) considérée jusqu'à
présent correspond au choix physique naturel, puisque ce moteur est commandé par
l'intermédiaire des tensions appliquées à chacune des phases.
L'extension diérentielle K/R est de degré de transcendance diérentiel 3. En eet,
en posant w1 = θ, w2 = id , w3 = iq , w4 = vd , w5 = vq et w6 = τ r an d' oublier 
la signication des variables, on peut réécrire le système d'équations (6.16) sous la
forme :

J ẅ1 = np Km w3 − f ẇ1 − w6 , (6.20a)


dw2
L = −Rw2 + np Lẇ1 w3 + w4 , (6.20b)
dt
dw3
L = −Rw3 − np Lẇ1 w2 − np Km ẇ1 + w5 . (6.20c)
dt

On se rend ainsi compte qu'il s'agit d'un système de trois équations différen-
tielles algébriques indépendantes en six variables. Par conséquent7 , d◦ tr diff K/R =
d◦ tr diff Rhw1 , . . . , w6 i/R = 3. Le système d'équations (6.16) ou (6.20) est donc un
système à trois entrées (indépendamment de la dénomination des variables). Le choix
naturel pour le fonctionnement en moteur de cette machine électrique est de prendre
deux commandes : les tensions vd et vq , et une perturbation : le couple de charge τ r .
La dynamique K/Rhvd , vq , τ r i vérie d◦ tr K/Rhvd , vq , τ r i = 4, c'est-à-dire qu'il y a
4 variables d'état, comme on le voit sur les équations (6.16) ou (6.20). On constate, en
eet, que si l'entrée est déterminée, il faut donner 4 conditions initiales pour intégrer
(6.15) ou (6.20).

6 En pratique, il n'est pas bon, du point de vue numérique, de simuler (6.18) et il vaut

mieux utiliser une table pour la détermination des fonctions sinus et cosinus qui apparaissent
dans [6.19].
7
On peut utiliser la proposition 2 ou tirer de [DEL 98a] les aspects algorithmiques en
termes de ltrations.
Algèbre diérentielle 263

Avec ce choix la représentation d'état s'écrit :


θ̇ = ω, (6.21a)
np Km f 1
ω̇ = iq − ω − τ r , (6.21b)
J J J
did R 1
= − id + np ωiq + vd , (6.21c)
dt L L
diq R np Km 1
= − iq − np ωid − ω + vq . (6.21d)
dt L L L

On peut cependant considérer d'autres choix d'entrée, par exemple (id , iq , τ r ).


Comme id , iq et τ r sont diérentiellement algébriquement indépendantes sur R,
d◦ tr diff Rhθ, ω, id , iq , vd , vq , τ r i/Rhid , iq , τ r i = 0 et il s'agit bien d'une entrée. Avec
ce choix, d◦ tr Rhθ, ω, id , iq , vd , vq , τ r i/Rhid , iq , τ r i = 2 puisqu'il subsiste 2 équations
diérentielles du premier ordre, (6.16a) et (6.16b), qui permettent de déterminer θ
et ω à partir de l'entrée. Les équations (6.16c) et (6.16d) permettent, quant à elles,
de calculer, sans intégration, vd et vq à partir de l'entrée et de la vitesse ω. Toute
réalisation de K/Rhid , iq , τ r i ne nécessite donc que 2 variables d'état. Avec ce choix,
la représentation d'état s'écrit :
θ̇ = ω, (6.22a)
f np Km 1
ω̇ = − ω+ iq − τ r . (6.22b)
J J J

En pratique, puisqu'il n'est pas possible de commander directement par les cou-
rants, ce deuxième choix d'entrée suggérera plutôt de regarder le système K/R comme
la  cascade  de deux sous-systèmes8 couplés : d'une part, une dynamique rapide
Rhid , iq , ω, vd , vq i/Rhω, vd , vq i d'entrée (ω, vd , vq ) et de sortie (id , iq ), dont une réali-
sation d'état naturelle est par exemple :
did R 1
= − id + np ωiq + vd , (6.23a)
dt L L
diq R np Km 1
= − iq − np ωid − ω + vq ; (6.23b)
dt L L L
et d'autre part, une dynamique lente Rhθ, id , iq , τ r i/Rhid , iq , τ r i, d'entrée id , iq , τ r et
de sortie θ (ou ω ), dont une représentation d'état est (6.22).
Un autre choix possible de l'entrée consiste à prendre9 (−τ r ) comme commande
et (−id , −iq ) comme perturbation. Ce choix correspond au fonctionnement en géné-
ratrice et la sortie est (−vd , −vq ). Dans ce cas, il s'agit d'une dynamique d'ordre 2 :
d◦ tr K/Rh−τ r , −id , −iq i = 2, car les deux équations diérentielles du premier ordre
(6.16a) et (6.16b) permettent de déterminer les variables θ et ω, considérées ici comme
8 Les qualicatifs  lente  et  rapide  font référence à la vitesse relative des deux dyna-

miques considérées pour des choix de paramètres correspondants à des machines réelles.
9
Les signes  −  apparaissent parce que le modèle initial a été écrit en  convention
récepteur  pour la machine, alors qu'elle est considérée ici comme générateur.
264 Mathématiques pour les systèmes dynamiques

état. Les deux autres équations du modèle (6.16c) et (6.16d) donnent les expressions
des sorties en fonction des variables d'état, de l'entrée et de ses dérivées. La représen-
tation d'état obtenue avec ce choix naturel de variables fait apparaître des dérivées
de l'entrée dans les équations des sorties :
θ̇ = ω, (6.24a)
f 1 np Km
ω̇ = − ω + (−τ r ) − (−iq ), (6.24b)
J J J
d(−id )
−vd = R(−id ) − np Lω(−iq ) + L , (6.24c)
dt
d(−iq )
−vq = R(−iq ) + np Lω(−id ) − np Km ω + L . (6.24d)
dt

6.9.4. Platitude
Le système (6.16) est plat et il existe plusieurs sorties linéarisantes ayant une
signication physique.
Celle qui correspond au fonctionnement en moteur est (θ, id , τ r ). On vérie que
θ, id , τ r sont R-diérentiellement indépendantes. De plus, avec l'équation (6.16a), on
obtient l'expression de ω en fonction de la sortie plate, puis, à l'aide de (6.16b), celle
de iq :
1
iq = (J θ̈ + f θ̇ + τ r )
np Km

Enn, les équations (6.16c) et (6.16d) permettent d'exprimer les entrées :


did L
vd = L + Rid − θ̇(J θ̈ + f θ̇ + τ r ),
dt Km
L R
vq = (Jθ(3) + f θ̈ + τ̇ r ) + ˙ d + np Km θ̇.
(J θ̈ + f θ̇ + τ r ) + np Lθi
np Km np Km

Pour la génération de trajectoires à faire suivre au moteur, le choix de θ est souvent


évident en fonction du problème de commande à traiter (par exemple, contrôle de la
position ou de la vitesse). Pour id , le choix n'est pas évident a priori. Cependant,
le choix id (t) = 0 permet de minimiser la puissance dissipée par eet Joule, P =
Ri2q + Ri2d , sur n'importe quel régime de fonctionnement. La variable τ r est une
perturbation et il n'est pas possible de lui assigner une trajectoire ; par contre, il est
possible de considérer sa valeur moyenne ou d'en obtenir une estimation τ̂ r par un
observateur, sous certaines hypothèses. En conclusion, pour faire suivre la trajectoire
de référence t 7→ θ∗ (t) il faut appliquer les commandes :
L ∗ ∗ ∗
vd∗ = − θ̇ (J θ̈ + f θ̇ + τ̂ r ),
Km
L ∗ R ∗ ∗ ∗
vq∗ = (Jθ∗(3) + f θ̈ ) + (J θ̈ + f θ̇ + τ̂ r ) + np Km θ̇ .
np Km np Km
Algèbre diérentielle 265

On constate que ce suivi de trajectoire n'est possible que si θ∗ admet partout une
dérivée troisième à droite et à gauche.
La sortie plate correspondant au fonctionnement en génératrice est (θ, −id , −iq ).
Les calculs pour le vérier et établir les commandes nominales pour suivre des tra-
jectoires sont laissés au lecteur.

6.9.5. Découplage et linéarisation


Prenons comme sortie y = (θ, id ), c'est-à-dire les composantes (à l'exception de
τ r qui est une perturbation) de la sortie plate correspondant au fonctionnement en
moteur. On a %(y) = d◦ tr diff K/khτ r i = 2 car θ et iq sont diérentiellement indé-
pendants. D'après la proposition 6, le découplage est possible. Le bouclage statique :
vd = Rid − np Lωiq + ud ,
vq = Riq + np Lωid + np Km ω + ud ,
eectue le découplage et la linéarisation.

6.9.6. Rejet de perturbations


Prenons comme sortie y = (θ). Les équations (6.16a) et (6.16b) entraînent que les
corps khθi et khτ r i ne sont pas k-algébriquements disjoints. Le rejet de la perturbation
n'est donc pas possible pour ce modèle.

6.10. Bibliographie
[AIT 94] Aït-Amirat Y., Contribution à la théorie de la structure des systèmes
en automatique : application au découplage et au rejet de perturbations,
Thèse de doctorat, université Claude Bernard-Lyon I, 1994.
[BOD 98] Bodson M., Chiasson J., Dierential-geometric methods for control of
electrical motors, Int. J. Robust Nonlinear Control, vol. 8, p. 923-954,
1998.
[BOU 94] Boulier F., Etude et implantation de quelques algorithmes en algèbre
diérentielle, Thèse de doctorat, Université des sciences et technologies
de Lille, 1994.
[BOU 95] Boulier F., Petitot M., Complete computation of the relations for
implicit dynamical systems, Preprints of the IFAC Conference on System
Structure and Control, p. 635-639, Nantes, 5-7 juillet 1995.
[CON 93] Conte G., Perdon A.M., Moog C.H., The dierential eld associated
to a general analytic nonlinear dynamical system, IEEE Trans. Automat.
Control, vol. 38, p. 1120-1124, 1993.
[CON 99] Conte G., Moog C.H., Perdon A.M., Nonlinear Control Systems :
An Algebraic Setting, Lecture Notes in Control and Inform. Sci., vol. 243,
Springer-Verlag, Londres, 1999.
266 Mathématiques pour les systèmes dynamiques

[DEL 92] Delaleau E., Fliess M., Algorithme de structure, ltrations et décou-
plage, C. R. Acad. Sci. Paris Sér. I Math., 315, p. 101-106, 1992.
[DEL 93] Delaleau E., Sur les dérivées de l'entrée en représentation et commande
des systèmes non linéaires, Thèse de doctorat, Université Paris XI, 1993.
[DEL 94] Delaleau E., Pereira da Silva P.S., Conditions de rang pour le rejet
dynamique de perturbations, C. R. Acad. Sci. Paris Sér. I Math., 319, p.
1121-1126, 1994.
[DEL 98a] Delaleau E., Pereira da Silva P.S., Filtrations in feedback synthesis :
Part I, Systems and feedbacks, Forum Math., vol. 10, n◦ 2, p. 147-174,
1998.
[DEL 98b] Delaleau E., Pereira da Silva P.S., Filtrations in feedback synthesis :
Part II, Input-output and disturbance decoupling, Forum Math., vol. 10,
n◦ 3, p. 259-276, 1998.
[DEL 98c] Delaleau E., Respondek W., Lowering the orders of derivatives of
controls in generalized state space systems, J. Math. Systems Estim.
Control, vol. 8, n◦ 4, p. 427-453, 1998.
[DEL 98d] Delaleau E., Rudolph J., Control of at systems by quasi-static feed-
back of generalized states, Internat. J. Control, vol. 71, n◦ 5, p. 745-765,
1998.
[DIO 89] Diop S., Théorie de l'élimination et principe du modèle interne en auto-
matique, Thèse de doctorat, Université Paris XI, 1989.
[DIO 91a] Diop S., Elimination in control theory, Math. Control Signals Systems,
vol. 4, p. 17-32, 1991.
[DIO 91b] Diop S., Fliess M., On nonlinear observability, Proc. 1st European
Control Conference, p. 152-157, Paris, Hermès, 1991.
[DIO 92] Diop S., Dierential-algebraic decision methods and some applications
to system theory, Theoretical Computer Science, vol. 93, p. 137-161, 1992.
[DIO 93] Diop S., Closedness of morphisms of dierential algebraic sets, applica-
tions to system theory, Forum Math., vol. 5, p. 33-47, 1993.
[ELA 92] El Asmi S., Autour de l'inversion des systèmes entrée-sortie et du concept
d'essentialité : une approche algébrique, Thèse de doctorat, Université
Paris XI, 1992.
[FLI 86a] Fliess M., A note on the invertibility of nonlinear input-output dieren-
tial systems, Systems Control Lett., vol. 8, p. 147-151, 1986.
[FLI 86b] Fliess M., Some remarks on nonlinear invertibility and dynamic state-
feedback, In Byrnes C.I., Linquist A., eds, Theory and Applications
of Nonlinear Control Systems (Proc. MTNS, 1985), p. 115-121, Elsevier
Science Publ., North-Holland, 1986.
[FLI 89a] Fliess M., Automatique et corps diérentiels, Forum Math., 1, p. 227-
238, 1989.
[FLI 89b] Fliess M., Generalized linear systems with lumped or distributed pa-
rameters and dierential vector spaces, Internat. J. Control, vol. 49, p.
1989-1999, 1989.
[FLI 90a] Fliess M., Automatique en temps discret et algèbre aux diérences,
Forum Math., vol. 2, p. 213-232, 1990.
[FLI 90b] Fliess M., Generalized controller canonical form for linear and nonlinear
dynamics, IEEE Trans. Automat. Control, vol. 35, p. 994-1001, 1990.
Algèbre diérentielle 267

[FLI 90c] Fliess M., Some basic structural properties of generalized linear systems,
Systems Control Lett., vol. 15, p. 391-396, 1990.
[FLI 90d] Fliess M., What is the Kalman state variable representation good for ?
Proc. 29th IEEE Control and Decision Conference, Honolulu, 1990.
[FLI 90e] Fliess M., Hasler M., Questioning the classic state-space description
via circuit examples, (Proc. MTNS, 1989), p. 1-12, Birkhäuser, Boston,
MA, 1990.
[FLI 92a] Fliess M., Reversible linear and nonlinear discrete-time dynamics, IEEE
Trans. Automat. Control, vol. 37, p. 1144-1153, 1992.
[FLI 92b] Fliess M., Lévine J., Martin P., Rouchon P., Sur les systèmes non
linéaires diérentiellement plats, C. R. Acad. Sci. Paris Sér. I Math., 315,
p. 619-624, 1992.
[FLI 93a] Fliess M., Glad S.T., An algebraic approach to linear and nonlinear
control, Essays on control : perspectives in the theory and its applications
(Groningen, 1993), Progr. Systems Control Theory, vol. 14, p. 223-265,
Birkhäuser, Boston, MA, 1993.
[FLI 93b] Fliess M., Lévine J., Rouchon P., Generalized state variable repre-
sentation for a simplied crane description, Internat. J. Control, vol. 85,
p. 277-283, 1993.
[FLI 95] Fliess M., Lévine J., Martin P., Rouchon P., Flatness and defect
of non-linear systems : introductory theory and examples, Internat. J.
Control, vol. 61, p. 1327-1361, 1995.
[GLA 88] Glad S.T., Nonlinear state space and input output description using
dierential polynomials, New Trends in Nonlinear Control Theory, Des-
cusse J., Fliess M., Isidori A., Leborgne D. eds., Lecture Notes in
Control and Inform. Sci., vol. 122, p. 182-189, Springer-Verlag, 1988.
[GLA 90] Glad S.T., Dierential algebraic modelling of nonlinear systems, In
Realization and modelling in system theory (Amsterdam, 1989), Progr.
Systems Control Theory, vol. 3, p. 97-105, Birkhäuser, Boston, MA, 1990.
[JOH 69] Johnson J., Kähler dierentials and dierential algebra, Trans. Amer.
Math. Soc., vol. 89, p. 92-98, 1969.
[KOL 73] Kolchin E.R., Dierential Algebra and Algebraic Groups, Academic
Press, New York, 1973.
[MES 92] Messager F., Sur la stabilisation discontinue des systèmes, Thèse de
doctorat, Université Paris XI, 1992.
[MOU 95] Mounier H., Propriétés structurelles des systèmes linéaires à retards :
aspects théoriques et pratiques, Thèse de doctorat, Université Paris XI,
1995.
[OLL 90] Ollivier F., Le problème de l'identiabilité structurelle globale : approche
théorique, méthodes eectives et bornes de complexité, Thèse de doctorat,
École polytechnique, 1990.
[PER 01] Pereira da Silva P.S., Delaleau E., Algebraic necessary and sucient
conditions of input-output linearization, Forum Math., 13, p. 335-357,
2001.
[RES 90] Respondek W., Right and left invertibility of nonlinear control systems,
In Sussmann H.J., Nonlinear Controllability and Optimal Control, p.
133-176, Marcel Dekker, 1990.
268 Mathématiques pour les systèmes dynamiques

[RIC 01] Richard J.P. (Dir.), Algèbre et analyse pour l'automatique, Hermès,
Traité IC2, 2001.
[RIT 50] Ritt J.F., Dierential Algebra, American Mathematical Society, New
York, 1950.
[RUD 91] Rudolph J., Poursuite de modèle : une approche par l'algèbre diéren-
tielle, Thèse de doctorat, Université Paris XI, 1991.
[RUD 94] Rudolph J., Viewing input-output system equivalence from dierential
algebra, J. Math. Systems Estim. Control, vol. 4, p. 353-383, 1994.
[SED 01] Sedoglavi¢ A., Méthodes seminumériques en algèbre diérentielle ; ap-
plication à l'étude des propriétés structurelles de systèmes diérentiels al-
gébriques en automatique, Thèse de doctorat, Ecole polytechnique, 2001.
[SIR 91a] Sira-Ramírez H., Nonlinear dynamical feedback controlled descent on
a non atmosphere-free planet : a dierential algebraic approach, Control
Theory Adv. Tech., vol. 7, n◦ 2, p. 301-320, 1991.
[SIR 91b] Sira-Ramírez H., Lischinsky-Arenas P., The dierentiel algebraic
approach in nonlinear dynamical compensator design for DC-to-DC power
converters, Int. J. Control, vol. 54, n◦ 1) p. 111-134, 1991.
[SIR 92] Sira-Ramírez H., The dierentiel algebraic approach in nonlinear dy-
namical feedback controlled landing maneuvers, IEEE Trans. Automat.
Control, vol. 37, n◦ 4, p. 518-524, 1992.
[WAE 91] van der Waerden B.L., Algebra, volume I & II, Springer-Verlag, New
York, 1991.
[WEY 95] Wey T., Svaricek F., Analyse und synthese nichlinearer regelungssys-
teme mittels dierentialalgebre, Automatisierungstechnik, vol. 43, p. 163-
203, 1995.
Chapitre 7

Equations diérentielles à second membre discontinu

7.1. Introduction

En se plaçant dans le cadre des sciences relevant de l'électronique, de l'électro-


technique et de l'automatique, il apparaît de prime abord naturel à un automaticien
d'étudier les systèmes continus linéaires. En eet, ceux-ci se retrouvent sans trop d'ap-
proximation en électronique linéaire analogique (il est en eet justié de considérer
les résistances, condensateurs, inductances et amplicateurs opérationnels hors satu-
ration comme des éléments linéaires) et, avec des approximations au linéaire tangent,
les systèmes actifs et les systèmes électrotechniques peuvent aussi être représentés par
des systèmes linéaires. Ainsi par exemple, il faut se souvenir qu'un transformateur ad-
met une représentation linéaire, mais ceci généralement uniquement au voisinage de sa
tension nominale (courbes de magnétisation) et de sa fréquence nominale (pertes fer
et courants de Foucault). Néanmoins, si l'on veut aborder des systèmes plus généraux
et/ou des comportements dynamiques plus éloignés des points de fonctionnements
nominaux, on est obligé d'utiliser une représentation non linéaire analytique, comme
cela a été présenté dans les deux chapitres précédents. C'est le cas, par exemple, de
la machine asynchrone (équation du couple électrique).
Cependant, ce passage au non-linéaire analytique est encore souvent insusant
pour traduire les propriétés physiques de nombreux systèmes relevant des équations
diérentielles ordinaires (ce chapitre n'abordera pas le cas des systèmes aux dérivées
partielles). C'est le cas pour les convertisseurs statiques, où les nombreuses commu-
tations des composants à semi-conducteurs produisent des discontinuités dans les
équations diérentielles représentant le système. Il est évident que la commutation
d'un interrupteur n'est pas le seul type de discontinuité qui peut apparaître dans
les circuits électriques, électromagnétiques et électromécaniques : nous pouvons ainsi
citer, sans souci d'exhaustivité, les frottements secs, les triggers, les redresseurs, les
saturations des amplicateurs opérationnels, etc. Pour l'étude de tels systèmes, de
nombreuses méthodes ont été employées : parmi les plus connues, nous pouvons ci-
ter la méthode du premier harmonique. Mais celle-ci, comme beaucoup d'autres, ne
s'applique que dans des conditions très particulières. C'est pour cette raison que ce
chapitre présente une formulation générale, bien que simpliée, de la résolution des
équations non linéaires discontinues. Il est aussi à notre avis très important de souli-
gner l'importance des commandes discontinues dans la recherche de commandes  ro-
bustes  : ceci sera abordé dans la section dédiée à la commande par modes glissants.
Notre présentation de la résolution des équations diérentielles discontinues étant

Chapitre rédigé par Wilfrid Perruquetti et Jean-Pierre Barbot .


270 Mathématiques pour les systèmes dynamiques

plus méthodologique qu'historique, nous citons quelques contributions (sous forme de


livres) marquantes dans le domaine et dans lesquelles le lecteur pourra trouver des
compléments nécessaires à une bonne maîtrise des outils. Ainsi, nous avons choisi : le
livre de A.F. Filippov [FIL 88] sur le vecteur équivalent et la résolution des équations
diérentielles discontinues, le livre de V.I. Utkin [UTK 92] sur les modes glissants, les
livres de J.-P. Aubin et co-auteurs [AUB 84, AUB 90] sur les inclusions diérentielles
et les multifonctions, enn le livre de F.H. Clarke et co-auteurs [CLA 98] sur l'analyse
des dynamiques discontinues.

7.2. Rappels d'analyse convexe

Par la suite, E désignera un espace de Banach (espace vectoriel complet). Les


notions de topologie utiles dans cette partie sont développées dans [RIC 01].

7.2.1. Ensembles convexes


Dénition 1. Un ensemble A ⊂ E est convexe si le segment joignant deux points
quelconques de A appartient à A.
Dans le plan, l'intérieur d'une ellipse est convexe et la réunion de deux disques
disjoints ne l'est pas. Si E est un espace vectoriel normé, toute boule y est convexe.
P
Lemme
Q 1. Si les Ai sont des ensembles convexes de E , alors ∩ni=1 Ai, ni=1 Ai ,
i∈I Ai sont convexes (I est un ensemble d'indices de cardinalité quelconque).
Dénition 2. L'intersection de tous les ensembles convexes (respectivement,
convexes fermés) contenant A est le plus petit convexe (respectivement, convexe fermé)
contenant A : on le note conv(A) (respectivement, conv(A)).

7.2.2. Multifonctions
L'être mathématique appelé  multifonction  (en anglais set-valued map) est une
application qui, à un point, associe un ensemble de points.
Dénition 3 (Multifonction). Soient E1 et E2 deux ensembles. Une multifonction
F est dénie par une relation entre les éléments de E1 et ceux de P(E2 ). On la
note F : E1 ⇒ E2 . Elle associe à un point x de E1 un sous-ensemble F (x) de E2 .
On dénit le domaine de F : dom(F ) , {x ∈ E1 : F (x) 6= ∅}, son graphe1 :
graph(F ) , {(x, y) ∈ E1 × E2 : x ∈ dom(F ) et y ∈ F (x)}, son image : image(F ) ,
{y ∈ E2 : ∃x ∈ dom(F ) tel que y ∈ F (x)} = ∪x∈E1 F (x) ⊂ E2 .
Par exemple, le graphe de la multifonction G : x 7→ {x2 } est une parabole. Ce
graphe est non vide (on dit que F est non triviale) ; de plus, c'est une fonction au
sens classique du terme : elle est dite fonction stricte (G(x) est un singleton). Notons
1 Le graphe peut donc dénir la multifonction F .
Equations diérentielles à discontinuités 271

que : image(G) = R+ , dom(G) = R. Mais le plus intéressant pour cette fonction G


est de dénir une multifonction inverse, comme suit.
Dénition 4 (Inverse). La multifonction inverse de F , notée F −1 , est dénie par
son graphe : graph(F −1 ) = {(y, x) ∈ E2 × E1 : y ∈ F (x)}.
Cette dénition de l'inverse d'une multifonction correspond donc à la permutation
des abscisses et des ordonnées, sans se préoccuper du caractère bijectif ou non de
la fonction. De ce que nous venons de voir, nous déduisons que les propriétés des
multifonctions sont celles des graphes qui leurs sont associés. Ainsi, une multifonction
est convexe si son graphe associé est convexe. De même, nous pouvons dénir des
propriétés uniquement sur l'image de la multifonction.
Dénition 5 (Convexité). Une multifonction F est convexe (respectivement, fer-
mée, compacte bornée) si son image l'est.
Les opérations sur les ensembles peuvent être étendues aux multifonctions à tra-
vers leur graphe associé.
Dénition 6. Soient deux multifonctions F1 et F2 . On dénit, respectivement,
l' intersection et l' union comme :

F1 ∩ F2 ↔ graph(F1 ) ∩ graph(F2 ),
F1 ∪ F2 ↔ graph(F1 ) ∪ graph(F2 ),
F1 ⊂ F2 ↔ graph(F1 ) ⊂ graph(F2 ).

L' image inverse d'une multifonction F sur l'ensemble E2 , notée F −1 (E2 ), est :

F −1 (E2 ) , {x ∈ E1 : F (x) ∩ E2 6= ∅}.

Le noyau d'une multifonction F sur l'ensemble E2 , noté F +1 (E2 ), est égal à :

F +1 (E2 ) , {x ∈ E1 : F (x) ⊂ E2 }.

Notons, par exemple, que la multifonction H dénie par le graphe graph(H)  =


{(x, y) ∈ R × R : y ∈ {+ |x| , − |x|}} a une image inverse
 sur R +
H −1
(R +
) = R qui
est diérente de son noyau sur R+ H +1 (R+ ) = ∅ . Il y a concordance des solutions
de l'image inverse et du noyau quand la multifonction associe à tout élément de E1
au plus un point de E2 .
Nous allons maintenant donner des notions de continuité pour les multifonctions,
qui prolongent celles vues au chapitre  Topologie  de [RIC 01].
Dénition 7 (Semi-continuité). Soient E1 et E2 des espaces topologiques de
Hausdor. Une multifonction F : E1 ⇒ E2 est semi-continue supérieurement en
x ∈ dom(F ) si, pour tout voisinage V ⊂ E2 de F (x), il existe un voisinage W de x
tel que F (W ) ⊂ V . F est semi-continue supérieurement si elle est semi-continue supé-
rieurement en tout point de son domaine dom(F ). F est semi-continue inférieurement
en x ∈ dom(F ) si, pour tout y ∈ F (x) et toute suite xn ∈ dom(F ) convergeant vers x,
il existe une suite yn ∈ F (xn ) convergeant vers y . F est semi-continue inférieurement
si elle l'est en tout point de son domaine dom(F ).
272 Mathématiques pour les systèmes dynamiques

Dans le cas particulier des multifonctions associant à tout élément de E1 au plus un


point de E2 , ces dénitions sont équivalentes : elles sont des ré-écritures directes de la
dénition classique de continuité d'une fonction. Pour des multifonctions n'associant
pas un seul y à chaque x, nous remarquons, par exemple, que la multifonction dénie
par le graphe {(x, y) ∈ R × R : |y| ≤ |x|} (gure 7.1) est semi-continue inférieurement
et supérieurement.
Par contre, la multifonction de graphe {(x, y) ∈ R×R : |y| ≤ 1 pour x 6= 0 et y = 0
pour x = 0} (gure 7.2) est semi-continue inférieurement mais pas supérieurement
en 0. Enn, la multifonction dénie par le graphe {(x, y) ∈ R × R : y = 0 pour
x 6= 0 et |y| ≤ 1 pour x = 0} (gure 7.3) est semi-continue supérieurement mais pas
inférieurement en 0.

Figure 7.1. Graphe {(x, y) ∈ R × R : |y| ≤ |x|}

Figure 7.2. Graphe {(x, y) ∈ R × R : |y| ≤ 1 pour x 6= 0 et y = 0 pour x = 0}

Figure 7.3. Graphe {(x, y) ∈ R × R : y = 0 pour x 6= 0 et |y| ≤ 1 pour x = 0}

Ceci permet une dénition de la continuité pour les multifonctions.


Equations diérentielles à discontinuités 273

Dénition 8 (Continuité). Soient E1 et E2 des espaces topologiques de Hausdor.


Une multifonction F : E1 ⇒ E2 est continue en x ∈ dom(F ) si elle est semi-continue
inférieurement et supérieurement en x. Elle est dite continue si elle est continue en
tout point de son domaine dom(F ).
Des dénitions précédentes, nous obtenons les propositions suivantes.
Proposition 1. La multifonction F : E1 ⇒ E2 est semi-continue supérieurement
en x ∈ dom(F ) si le noyau de tout voisinage de F (x) est un voisinage de x. Elle
est semi-continue inférieurement en x ∈ dom(F ) si l'image inverse de tout voisinage
d'intersection non vide avec F (x) est un voisinage de x.
Dénition 9. La multifonction F : R × E1 ⇒ E2 est localement lipschitzienne en x
s'il existe une fonction positive intégrable ζ et un voisinage V de x tels que :
∀(y, z) ∈ V : dH (F (t, z), F (t, y)) ≤ ζ(t) kz − yk , (7.1)
où dH est la distance de Hausdor de deux ensembles, dénie par :
dH (A, B) = max(sup (a, B), sup(A, b)). (7.2)
a∈A b∈B

Il resterait un bon nombre de notions, théorèmes, propositions et exemples à


présenter, mais ceci dépasse largement le cadre de ce chapitre : nous renvoyons le
lecteur à des ouvrages plus spécialisés [AUB 84, AUB 90] pour poursuivre dans le
domaine. Toutefois, an de faire un lien avec les paragraphes suivants, nous donnons
ci-dessous la dénition d'intégrale de multifonctions.
Dénition 10. L' intégrale de la multifonction F : E1 ⇒ E2 sur l'ensemble mesu-
rable M est l'ensemble des intégrales de F , déni comme suit :
Z Z 
F dσ = f dσ : f ∈ F̃ , (7.3)
M M

avec F̃ , {f ∈ L1 (M, E2 ) : f (x) ∈ F (x) presque partout sur M }.


Remarque 1.  Presque partout sur M  signie  sauf sur un sous-ensemble de
mesure nulle . Nous le noterons quelquefois  p.p. , ainsi f ∈ F signie que
p.p.
f (x) ∈ F (x) presque partout sur M . De même, f = g signie que f (x) = g(x)
p.p.
presque partout sur M .

7.3. Inclusions diérentielles, problème de Cauchy

Le problème de Cauchy (PC) suivant :


x
ẋ = − si x 6= 0, (7.4)
|x|
x(0) = 0,

n'admet pas de solution au sens classique puisque ẋ(0) n'est pas dénie.
n Cependant,
o
en remplaçant le membre de droite par la multifonction F (x) = − |x| si x 6= 0,
x
274 Mathématiques pour les systèmes dynamiques

F (0) = [−1, 1] , on vérie que x(t) = 0 satisfait la relation


∈ F (x) pour tout t. dx
dt
De la même façon, le problème de Cauchy associé à la condition initiale x(0) = x0
(quelconque) admet une solution.
Dans un cadre plus général, pour étudier une équation diérentielle ordinaire
à second membre discontinu (systèmes à structure variable, commande adaptative,
hacheur, phénomène de friction, etc.) de la forme :
dx
= f (t, x), x ∈ X, (7.5)
dt

où f (t, x) est dénie et continue sur I × (Xp \M) (Xp une partition de X , M un
ensemble de mesure nulle2 )), il apparaît intéressant de la remplacer par l'inclusion
diérentielle suivante :
dx
∈ F (t, x), (7.6)
dt
où F (t, x) est un ensemble, dont nous verrons une construction, qui pour (t, x) ∈ I ×
Xp \M est déni par F (t, x) = {f (t, x)}. Cette inclusion doit permettre de  capturer 
les comportements de (7.5).
De même, pour un système commandé, on peut remplacer dx dt
= f (t, x, u), x ∈
X , u ∈ U, par dx
dt
∈ F (t, x, U) : c'est une approche souvent utilisée pour les problèmes
de commande en temps optimal, où l'on cherche une trajectoire de l'inclusion qui
rejoigne une cible en un temps minimum.

7.3.1. Notion de solution

On s'intéresse au problème de Cauchy (PC) suivant :  Existe-t-il une fonction φ


telle que dφ
dt
∈ F (t, φ(t)) presque partout et φ(t0 ) = x0 ? 
Dénition 11 (Solution). On appelle solution de (7.6) passant par x0 à t0 , toute
fonction φ absolument continue3 dénie sur un intervalle non vide (I(t0 , x0 ) ⊂ I ⊂ R)
contenant t0 :

φ : I ⊂ R → X ⊂ Rn ,
t 7→ φ(t; t0 , x0 ),

notée plus simplement φ(t), vériant dφ


dt
∈ F (t, φ(t)) presque partout sur I(t0 , x0 ) et
telle que φ(t0 ) = x0 .
Si φ(t) est une fonction absolument continue, alors il existe χ(u) une fonction
Lebesgue-intégrable qui soit presque partout égale à la dérivée de φ : φ(t) = φ(t0 ) +
2 Il s'agit de la mesure au sens de Lebesgue : voir l'exemple de la page 82 et [RIC 01],

chapitre 2. On peut aussi lire  continue sur Xp \M  comme  continue p.p. , au sens de la
remarque 1.
3φ : [α, β] 7→ Rn est P absolument continue siP ∀ε > 0, ∃δ(ε) > 0 :
n n
∀ {]αi , β i [}i∈{1..n} , ]αi , β i [⊂ [α, β] i=1 (β i − αi ) ≤ δ(ε) ⇒ i=1 kφ(β i ) − φ(αi )k ≤ ε.
Equations diérentielles à discontinuités 275

Rt
t0
χ(u)du. Si, de plus, on a dφ

dt p.p.
F (t, φ(t)), alors χ(u) ∈ F (u, φ(u)) et on obtient
p.p.
donc la représentation intégrale suivante :
Z t
φ(t) ∈ φ(t0 ) + F (u, φ(u))du.
t0

La réciproque n'est vraie que si la multifonction vérie certaines hypothèses de régu-


larité (par exemple, F compacte, convexe, semi-continue supérieurement).

7.3.2. Existence des solutions


Dans le cas où F (t, x) = {f (t, x)} et Xp = X (le membre de droite de (7.5) pouvant
ne pas être déni pour des instants appartenant à un ensemble de mesure nulle), on
retrouve les résultats classiques sur les EDO (résultats de Carathéodory et Péano,
voir chapitre 5, pages 177 et 176). Notamment, l'existence de solution est garantie
par la continuité de la fonction. Pour les multifonctions, une notion de substitution
est la semi-continuité supérieure.
Théorème 1. Supposons que F soit dénie, convexe, semi-continue supérieurement
sur le tonneau :
T = {(t, x) ∈ I × X : |t − t0 | ≤ a, kx − x0 k ≤ b} , (7.7)
avec T ⊂ dom(F ). Si, ∀(t, x) ∈ T et ∀y ∈ F (t, x) 6= ∅, on a kyk ≤ K , alors, il existe
au moins une solution au PC dénie sur au moins un intervalle [t0 − α, t0 + α], avec
α = min(a, K b
).
Théorème 2. Soit F : R × Rn ⇒ Rn semi-continue supérieurement :
 si F est compacte et convexe, alors il existe une solution au PC dénie sur un
ouvert de l'instant initial ;
 s'il existe deux constantes positives c1 et c2 telles que ∀(t, x) ∈ R × Rn et ∀y ∈
F (t, x) 6= ∅, on ait kyk ≤ c1 kxk + c2 , alors il existe une solution au PC dénie
sur R.
Remarque 2. On peut remplacer la deuxième condition par l'existence de deux fonc-
tions localement intégrables c1 (t) et c2 (t) vériant la même inégalité.
Une des conditions précédentes d'existence de solution repose sur la convexité de
F , mais le théorème de relaxation donné ci-après montre que si F est lipschitzienne,
alors l'ensemble des solutions de l'inclusion diférentielle (7.6) est dense dans l'ensemble
de celles de l'inclusion diérentielle  convexiée  :
dx
∈ conv(F (t, x)), (7.8)
dt
c'est-à-dire que toute solution de (7.6) peut être approchée de façon aussi précise
qu'on le désire par des solutions de (7.8).
Théorème 3. Soit F dénie, semi-continue supérieurement, lipschitzienne en x sur
le tonneau T ⊂ dom(F ) déni par (7.7). Si ∀(t, x) ∈ T , ∀y ∈ F (t, x) 6= ∅, on
a kyk ≤ K , alors toute solution x(t) de (7.8) telle que x(t0) = x0 est dénie sur
276 Mathématiques pour les systèmes dynamiques

I(t0 , x0 ) = [t0 − α, t0 + α], α = min(a, Kb ) et, pour tout ε > 0 donné, il existe une
solution y(t) de (7.6) dénie sur I(t0 , x0 ) vériant y(t0) = x0 et ky(t) − x(t)k ≤
ε, ∀t ∈ I(t0 , x0 ).
Cela signie que remplacer (7.6) par (7.8) n'introduit pas de  nouvelle solution .

Problème de régularisation : solution au sens de Filippov

Dans de nombreux cas, f (t, x) (second membre de (7.5)) est dénie sur une par-
tition Xp de l'espace d'état privée de points d'un ensemble de mesure nulle M. Si
f (t, x) est continue sur Xp \M, il est intéressant de considérer la multifonction :
\
F (t, x) = conv(f (t, Bε (x) − M)), (7.9)
ε>0

qui est convexe et semi-continue supérieurement et vérie, pour tout t et tout x ∈


Xp \M : F (t, x) = {f (t, x)}. Une alternative à (7.9) est :
\ \
F (t, x) = conv(f (t, Bε (x) − N )).
ε>0 mes(N )=0

Ainsi, dans le cadre des systèmes à structure variable (par exemple, commandés
par modes glissants), la fonction f n'est pas dénie sur une variété S = {x ∈ X :
s(x) = 0} :  +
f (t, x), si s(x) > 0,
f (t, x) = (7.10)
f − (t, x), si s(x) < 0.

Ainsi est-on amené à considérer (7.9), qui se construit en utilisant :



 f (t, x), si s(x) 6= 0,

F (t, x) =
 
 conv(limx→x∗∈S f (t, x)) = conv f + (t, x), f − (t, x) , si s(x) = 0.
x∈S
(7.11)
Dans ce cadre, en notant Prnormale la projection sur la normale à la surface s(x) = 0
orientée de X − vers X + , on dénit les projections des champs de vecteurs f + (t, x) et
f − (t, x) :

fn+ (t, x) = Prnormale lim f + (t, x), (7.12)


s→0+

fn− (t, x) = Prnormale lim f − (t, x), (7.13)


s→0−

et on obtient le résultat suivant d'existence de solution, dû à A.F. Filippov.


Théorème 4 (de Filippov). Soit le système décrit par (7.5), avec X = X + ∪X − ∪S
et M = S . Supposons qu'il satisfasse :

∂fi
∃k ∈ R+ , ∀x ∈ X + ∪ X − , ≤ k, (i, j = 1 . . . n).
∂xj
Equations diérentielles à discontinuités 277

Soit une fonction s deux fois diérentiable, telle que fn+ et fn− soient continues par
rapport à x et t, pour x solution de s(x) = 0. Soit enn h = fn+ − fn− , supposée
continûment diérentiable. Si, en chaque point de la surface s(x) = 0, une au moins
des deux inégalités fn+ < 0 ou fn− > 0 est vériée, alors, dans le domaine X , il
existe une solution unique (à droite) x(t) du système (7.5), qui dépend des conditions
initiales de façon unique.
De façon générale, pour les inclusions diérentielles, l'unicité des solutions n'a pas
de sens : dans le théorème précédent,  solution unique (à droite)  signie alors que
si, à t0 , deux solutions coïncident, alors elles coïncideront pour tout t ≥ t0 où elles
sont dénies.
Ce résultat (similaire aux théorèmes précédents) a un intérêt pratique immédiat :
en eet, lorsqu'on a simultanément fn+ < 0 et fn− > 0, la solution du problème (7.5)
pour x ∈ S est dénie par :

x ∈ S,
(7.14)
ẋ = f0 (t, x),

avec f0 (t, x) ∈ conv f + (t, x), f − (t, x) ∩ Tx S . Ainsi, la dynamique de glissement est
donnée par :
   
dx hds, f − i + hds, f + i
= f − f −, (7.15)
dt hds, f − − f + i hds, f − − f + i
puisque dans ce cas, l